O Conselho de Supervisão da Meta, um órgão semi-independente que analisa as políticas de moderação da empresa, está investigando como o Facebook e o Instagram gerenciam imagens explícitas geradas por inteligência artificial. Esta nova analise ocorre após as postagens de imagens explicitamente sexuais de duas figuras públicas, geradas por IA, terem sido inicialmente negligenciadas pelas plataformas, antes de serem removidas.
As plataformas da Meta, que incluem Facebook e Instagram, têm políticas que proíbem a nudez, mas os desafios específicos das imagens geradas por IA — frequentemente chamadas de “deepfake porn” — têm exposto lacunas significativas na capacidade da empresa de aplicar consistentemente suas regras. O fenômeno das deepfakes, que envolve a criação de vídeos ou imagens falsas extremamente realistas usando tecnologia de IA, tem se tornado uma forma comum de assédio online.
Casos em análise
O primeiro caso originou-se na Índia, onde uma imagem gerada por IA de uma mulher indiana nua foi postada no Instagram por uma conta dedicada a imagens de mulheres indianas criadas artificialmente. Apesar de uma denúncia inicial, o sistema do Meta não revisou o caso dentro do prazo de 48 horas, resultando no fechamento automático da queixa. Somente após o recurso ao Conselho de Supervisão é que a imagem foi finalmente removida.
O segundo caso envolve uma imagem postada em um grupo de arte de IA no Facebook, retratando uma mulher nua, supostamente parecida com uma figura pública americana, em uma pose sexualmente explícita. Esta postagem também foi removida, mas somente depois de identificada pelos sistemas automáticos devido a uma denúncia anterior, o que levantou questões sobre a consistência da resposta da Meta.
Disparidades na moderação da Meta
Helle Thorning-Schmidt, co-presidente do Conselho, destacou que esses casos foram escolhidos de mercados distintos — Índia e EUA — para explorar possíveis disparidades na aplicação das políticas. “Sabemos que o Meta é mais rápido e eficaz na moderação de conteúdo em alguns mercados e idiomas do que em outros”, afirmou Thorning-Schmidt. A investigação busca entender se as práticas atuais estão protegendo efetivamente todas as mulheres, globalmente, contra o assédio online.
O Conselho de Supervisão solicitou comentários públicos sobre estes casos e sobre o tratamento de deepfakes mais amplamente, até o final de abril. Suas deliberações não apenas visam resolver esses casos específicos, mas também podem levar a recomendações para políticas mais robustas no tratamento de conteúdo gerado por IA na plataforma.
O problema das deepfakes tem preocupado reguladores globalmente. Na Índia, o aumento desta prática visando atrizes indica um problema crescente que transcende a simples questão de privacidade, tornando-se um vetor para violência de gênero. Em resposta, governos como o do Reino Unido começaram a criminalizar a criação e distribuição de imagens sexualmente explícitas geradas por IA.
Desafios e responsabilidades
A Meta utiliza uma combinação de inteligência artificial e revisão humana para identificar conteúdo proibido, mas as lacunas na detecção e resposta rápida a relatórios de usuários sugerem que ainda há muito a ser melhorado. O surgimento desses casos destaca a necessidade contínua de plataformas como Facebook e Instagram não apenas de ajustar suas políticas e práticas de moderação, mas também de participar ativamente na definição de normas éticas e legais no uso de tecnologias emergentes como a IA.
A decisão do Conselho de Supervisão, esperada para as próximas semanas, será crucial para esses casos específicos, mas também para um possível precedente sobre como as mídias sociais podem combater o abuso tecnológico e proteger seus usuários de novas formas de assédio digital.