PUBLICIDADE
Inteligência Artificial

Criadores do ChatGPT querem controlar a IA para que ela “não se rebele contra a humanidade”

Fonte de poder que promete revoluções também carrega riscos significativos, incluindo o desempoderamento da humanidade e, no pior dos casos, a extinção humana

PUBLICIDADE

A OpenAI, criadora do ChatGPT, planeja dedicar 20% de seus recursos tecnológicos para estabelecer um grupo de trabalho, cujo papel será encontrar maneiras de garantir que a inteligência artificial (IA) trabalhe exclusivamente para o bem da humanidade, automonitorando seus processos.

A busca constante por avanços científicos e tecnológicos nos conduz a um futuro fascinante, onde sistemas de Inteligência Artificial (IA) superinteligentes se tornam uma realidade tangível. No entanto, em um post em seu blog, a OpenAI fala sobre a urgência para navegar e controlar tais sistemas muito mais inteligentes do que nós é uma necessidade premente.

Ilya Sutskever e Jan Leike, duas figuras proeminentes no campo da IA, juntamente com uma equipe de pesquisadores e engenheiros de Machine Learning (ML), estão se unindo em uma missão única: iniciar uma nova era de superalinhamento para enfrentar este desafio em um período de quatro anos.

A odisseia da superinteligência

A superinteligência representa um marco sem precedentes na história da humanidade, com o potencial de resolver inúmeros problemas mundiais de importância crucial. No entanto, a mesma fonte de poder que promete revoluções também carrega riscos significativos, incluindo o desempoderamento da humanidade e, no pior dos casos, a extinção humana.

Apesar de parecer um conceito distante, a chegada da superinteligência pode ser uma realidade nesta década. Gerenciar esses riscos exigirá novas instituições para governança e solução do problema do alinhamento da superinteligência.

A questão fundamental é: Como garantimos que os sistemas de IA muito mais inteligentes do que os humanos sigam a intenção humana?

PUBLICIDADE

O desafio atual do alinhamento

Segundo a equipe da OpenAI, atualmente não temos uma solução para direcionar ou controlar uma IA superinteligente, evitando que ela se torne rebelde. As técnicas atuais de alinhamento de IA, como o aprendizado por reforço com feedback humano, dependem da capacidade dos humanos de supervisionar a IA. No entanto, os humanos não conseguirão supervisionar de forma confiável sistemas de IA muito mais inteligentes do que nós. Assim, nossas técnicas de alinhamento atuais não serão suficientes para a superinteligência. Precisamos de novos avanços científicos e técnicos.

O objetivo, de acordo com a empresa, é construir um pesquisador de alinhamento automatizado de nível humano. Com isso, poderemos utilizar grandes quantidades de computação para ampliar nossos esforços e alinhar iterativamente a superinteligência.

Para alinhar o primeiro pesquisador de alinhamento automatizado, precisaremos: 1) desenvolver um método de treinamento escalável, 2) validar o modelo resultante, e 3) testar nossa pipeline de alinhamento completa.

As prioridades de pesquisa devem evoluir substancialmente à medida que aprendemos mais sobre o problema e provavelmente adicionaremos novas áreas de pesquisa. Planejamos compartilhar mais informações sobre nosso roadmap no futuro.

O objetivo é “resolver esse problema” em quatro anos. O novo grupo de trabalho será liderado pelo cofundador da OpenAI, Ilya Sutskever, e Jan Leike, executivo sênior da empresa.

O enorme poder da superinteligência também pode ser muito perigoso e levar ao enfraquecimento da humanidade ou mesmo à extinção humana”, diz o documento. “Atualmente, não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta”, acrescenta.

Plano pode falhar

Por outro lado, o defensor da segurança da inteligência artificial Connor Leahy acredita que o plano da OpenAI pode falhar, porque uma IA de nível humano pode se rebelar e causar sérios danos antes que a tecnologia possa ser forçada a resolver os problemas de segurança da IA. “Você tem que resolver o alinhamento antes de construir inteligência de nível humano, caso contrário, por padrão, você não vai controlá-lo“, disse Leahy à Reuters. “Pessoalmente, não acho que seja um plano particularmente bom ou seguro“, concluiu.

Os perigos potenciais da IA ​​estão na mira dos pesquisadores de IA e do público em geral. Em maio, uma pesquisa da Reuters e da Ipsos revelou que mais de dois terços dos americanos estão preocupados com os potenciais efeitos negativos da IA, enquanto 61% acreditam que essa tecnologia pode ameaçar a civilização.

PUBLICIDADE

Romário Nicácio

Administrador de redes, estudante de Ciências e Tecnologia (C&T) e Jornalismo, que também atua como redator de sites desde 2009. Co-fundador do Portal N10 e do N10 Entretenimento, com um amplo conhecimento em diversas áreas. Com uma vasta experiência em redação, já contribuí para diversos sites de temas variados, incluindo o Notícias da TV Brasileira (NTB) e o Blog Psafe. Sua paixão por tecnologia, ciência e jornalismo o levou a buscar conhecimentos nas áreas, com o objetivo de se tornar um profissional cada vez mais completo. Como co-fundador do Portal N10 e do N10 Entretenimento, tenho a oportunidade de explorar ainda mais minhas habilidades e se destacar no mercado, como um profissional dedicado e comprometido com a entrega de conteúdo de qualidade aos seus leitores. Para entrar em contato comigo, envie um e-mail para romario@oportaln10.com.br.

Deixe uma resposta

Botão Voltar ao topo
Fechar

Permita anúncios para apoiar nosso site

📢 Desative o bloqueador de anúncios ou permita os anúncios em nosso site para continuar acessando nosso conteúdo gratuitamente. Os anúncios são essenciais para mantermos o jornalismo de qualidade.