A OpenAI, criadora do ChatGPT, planeja dedicar 20% de seus recursos tecnológicos para estabelecer um grupo de trabalho, cujo papel será encontrar maneiras de garantir que a inteligência artificial (IA) trabalhe exclusivamente para o bem da humanidade, automonitorando seus processos.
A busca constante por avanços científicos e tecnológicos nos conduz a um futuro fascinante, onde sistemas de Inteligência Artificial (IA) superinteligentes se tornam uma realidade tangível. No entanto, em um post em seu blog, a OpenAI fala sobre a urgência para navegar e controlar tais sistemas muito mais inteligentes do que nós é uma necessidade premente.
Ilya Sutskever e Jan Leike, duas figuras proeminentes no campo da IA, juntamente com uma equipe de pesquisadores e engenheiros de Machine Learning (ML), estão se unindo em uma missão única: iniciar uma nova era de superalinhamento para enfrentar este desafio em um período de quatro anos.
A odisseia da superinteligência
A superinteligência representa um marco sem precedentes na história da humanidade, com o potencial de resolver inúmeros problemas mundiais de importância crucial. No entanto, a mesma fonte de poder que promete revoluções também carrega riscos significativos, incluindo o desempoderamento da humanidade e, no pior dos casos, a extinção humana.
Apesar de parecer um conceito distante, a chegada da superinteligência pode ser uma realidade nesta década. Gerenciar esses riscos exigirá novas instituições para governança e solução do problema do alinhamento da superinteligência.
A questão fundamental é: Como garantimos que os sistemas de IA muito mais inteligentes do que os humanos sigam a intenção humana?
O desafio atual do alinhamento
Segundo a equipe da OpenAI, atualmente não temos uma solução para direcionar ou controlar uma IA superinteligente, evitando que ela se torne rebelde. As técnicas atuais de alinhamento de IA, como o aprendizado por reforço com feedback humano, dependem da capacidade dos humanos de supervisionar a IA. No entanto, os humanos não conseguirão supervisionar de forma confiável sistemas de IA muito mais inteligentes do que nós. Assim, nossas técnicas de alinhamento atuais não serão suficientes para a superinteligência. Precisamos de novos avanços científicos e técnicos.
O objetivo, de acordo com a empresa, é construir um pesquisador de alinhamento automatizado de nível humano. Com isso, poderemos utilizar grandes quantidades de computação para ampliar nossos esforços e alinhar iterativamente a superinteligência.
Para alinhar o primeiro pesquisador de alinhamento automatizado, precisaremos: 1) desenvolver um método de treinamento escalável, 2) validar o modelo resultante, e 3) testar nossa pipeline de alinhamento completa.
As prioridades de pesquisa devem evoluir substancialmente à medida que aprendemos mais sobre o problema e provavelmente adicionaremos novas áreas de pesquisa. Planejamos compartilhar mais informações sobre nosso roadmap no futuro.
O objetivo é “resolver esse problema” em quatro anos. O novo grupo de trabalho será liderado pelo cofundador da OpenAI, Ilya Sutskever, e Jan Leike, executivo sênior da empresa.
“O enorme poder da superinteligência também pode ser muito perigoso e levar ao enfraquecimento da humanidade ou mesmo à extinção humana”, diz o documento. “Atualmente, não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta”, acrescenta.
Plano pode falhar
Por outro lado, o defensor da segurança da inteligência artificial Connor Leahy acredita que o plano da OpenAI pode falhar, porque uma IA de nível humano pode se rebelar e causar sérios danos antes que a tecnologia possa ser forçada a resolver os problemas de segurança da IA. “Você tem que resolver o alinhamento antes de construir inteligência de nível humano, caso contrário, por padrão, você não vai controlá-lo“, disse Leahy à Reuters. “Pessoalmente, não acho que seja um plano particularmente bom ou seguro“, concluiu.
Os perigos potenciais da IA estão na mira dos pesquisadores de IA e do público em geral. Em maio, uma pesquisa da Reuters e da Ipsos revelou que mais de dois terços dos americanos estão preocupados com os potenciais efeitos negativos da IA, enquanto 61% acreditam que essa tecnologia pode ameaçar a civilização.