O regulador de privacidade da Irlanda lançou uma investigação formal sobre a X devido a preocupações de que o chatbot de IA de Elon Musk, Grok, possa ter ajudado a gerar e distribuir imagens sexualizadas não consentidas, incluindo imagens envolvendo crianças. A investigação marca uma escalada significativa na crescente repressão internacional às ferramentas de “nudificação” alimentadas por IA e ao conteúdo deepfake.
A investigação foi iniciada pela Comissão de Proteção de Dados da Irlanda (DPC) contra a X Internet Unlimited Company (XIUC), a entidade legal registrada na UE através da qual a plataforma opera na Europa. A análise enquadra-se na Lei de Proteção de Dados de 2018 da Irlanda e irá verificar se as ferramentas de IA generativa do Grok estiveram envolvidas na criação e publicação de imagens íntimas potencialmente prejudiciais sem consentimento.
Como principal autoridade supervisora da X na União Europeia e no Espaço Econômico Europeu, a DPC avaliará o cumprimento das principais disposições do Regulamento Geral de Proteção de Dados (RGPD). Isso inclui examinar se a empresa seguiu os princípios de processamento lícito, padrões de privacidade por design e se uma avaliação de impacto de proteção de dados deveria ter sido realizada antes de implementar tais capacidades de IA.
O Centro de Combate ao Ódio Digital (CCDH) relatou que o Grok gerou mais de 23.000 imagens sexualizadas envolvendo crianças ao longo de um período de 11 dias, entre o final de dezembro e o início de janeiro. Pesquisadores descobriram que aproximadamente um terço das imagens amostradas permanecia acessível na plataforma, apesar das políticas de tolerância zero declaradas pela X. Após a repercussão pública, a X restringiu as funcionalidades de geração de imagens do Grok a assinantes pagos, introduziu salvaguardas técnicas para evitar manipulação das roupas das pessoas nas imagens e bloqueou a ferramenta em jurisdições onde tal conteúdo é ilegal.
Aumento da Pressão Regulamentar Global
A ação da Irlanda soma-se ao crescente escrutínio global. Em janeiro, a Comissão Europeia abriu uma investigação formal sob o Digital Services Act sobre o suposto papel da X na geração e disseminação de conteúdo ilegal ligado ao Grok. Logo depois, as autoridades francesas realizaram uma operação nos escritórios da X em Paris, em coordenação com a Europol, como parte de uma investigação criminal.
No Reino Unido, tanto a Ofcom quanto o Office of the Information Commissioner iniciaram investigações separadas sobre a plataforma. O primeiro-ministro Keir Starmer indicou que poderiam ser buscados novos poderes parlamentares para colocar os provedores de chatbots de IA mais diretamente sob as leis de segurança online. Reguladores alertaram que o não cumprimento poderia resultar em medidas apoiadas pelo tribunal, incluindo possíveis restrições de serviço.
Na Austrália, o Comissário de Segurança Digital relatou um aumento acentuado nas denúncias relacionadas a imagens sexuais geradas por IA sem consentimento, vinculadas ao Grok. Enquanto isso, o Procurador-Geral da Califórnia, Rob Bonta, anunciou uma investigação formal sobre a xAI e seu chatbot, devido à criação e disseminação de imagens explícitas geradas por IA envolvendo mulheres e crianças.
Organizações internacionais também estão levantando alarmes. A UNICEF descreveu recentemente os deepfakes sexuais de IA como uma “profunda escalada” dos riscos enfrentados por crianças em ambientes digitais, citando estimativas de que pelo menos 1,2 milhão de crianças foram alvo no ano passado. A agência pediu aos governos que criminalizem o material de abuso gerado por IA e que exijam salvaguardas de segurança por design em sistemas de IA generativa.
À medida que as investigações se expandem por múltiplas jurisdições, o caso contra a X e o Grok evidencia uma mudança regulatória mais ampla. Os governos estão cada vez mais passando de uma fiscalização reativa para uma supervisão proativa dos sistemas de IA generativa, especialmente quando direitos de proteção infantil e privacidade estão em jogo.