Imagem de fallback

ANPD, MPF e Senacon determinam que X implemente medidas imediatas para corrigir falhas no Grok

A ANPD, o Ministério Público Federal (MPF) e a Secretaria Nacional do Consumidor (Senacon) avaliaram as respostas apresentadas pela empresa X após o envio de Recomendação Conjunta sobre o uso da ferramenta de inteligência artificial Grok no âmbito de geração e circulação de conteúdos sexualizados indevidos.

Após a análise, cada instituição adotou medidas no âmbito de suas competências: (i) a ANPD expediu medida preventiva determinando que o X aprimore e implemente, de forma imediata, medidas técnicas e organizacionais para impedir a geração de conteúdos sexualizados envolvendo crianças e adolescentes ou adultos identificáveis sem autorização; (ii) o MPF ordenou a entrega de relatórios mensais detalhando as providências adotadas para impedir e reprimir a produção de deepfakes ​​envolvendo crianças e adolescentes e maiores de idade sem sua autorização prévia; e (iii) a Senacon expediu medida cautelar administrativa com determinações semelhantes, exigindo também relatório métrico com dados quantitativos verificáveis.

Em caso de descumprimento, as instituições sinalizaram a possibilidade de adoção de medidas mais severas, incluindo multa diária, instauração de processos sancionadores e, no âmbito do MPF, responsabilização por crime de desobediência e eventual ação judicial.

Opinião Leonardi Advogados: A atuação conjunta da ANPD, do MPF e da Senacon no caso do Grok evidencia um movimento de fiscalização coordenada que tende a se tornar cada vez mais frequente, especialmente em relação a ferramentas de inteligência artificial generativa. A exigência de evidências concretas e relatórios técnicos que comprovem a eficácia das medidas adotadas sinaliza um padrão de cobrança mais rigoroso por parte das autoridades brasileiras.

O caso também reforça a atenção crescente das autoridades à proteção de crianças e adolescentes no ambiente digital, tema que ganha ainda mais relevância com a proximidade da entrada em vigor do ECA Digital (Lei nº 15.211/2025). A tendência é que a fiscalização sobre plataformas e ferramentas de IA se intensifique nessa frente, exigindo das empresas uma postura cada vez mais proativa na prevenção de riscos ao público infantojuvenil.

Para plataformas que desenvolvem ou disponibilizam ferramentas de IA generativa no mercado brasileiro, o episódio reforça a necessidade de adotar mecanismos robustos de prevenção e documentação desde a concepção do produto. Na prática, isso envolve a implementação de salvaguardas técnicas efetivas, a manutenção de registros auditáveis das medidas de moderação e segurança e a capacidade de demonstrar, de forma objetiva, a eficácia dessas providências perante as autoridades competentes.

Saiba mais.