Grok – Nesta quarta-feira (11), o Ministério Público Federal (MPF), a Autoridade Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) afirmaram que as providências apresentadas pela plataforma X em relação ao uso do Grok, sua ferramenta de inteligência artificial, são insuficientes para conter a geração de imagens sexualizadas sem consentimento.
As três instituições já haviam recomendado, no mês passado, a adoção de mecanismos técnicos para identificar, revisar e remover conteúdos criados a partir de comandos feitos por usuários que resultassem em imagens íntimas de crianças, adolescentes ou adultos sem autorização. Em resposta, a empresa declarou ter apagado milhares de publicações e suspendido centenas de contas, além de anunciar medidas adicionais de segurança.
LEIA: Quando a autonomia dos agentes de IA se transforma em ameaça para os usuários
Segundo os órgãos, porém, as informações não vieram acompanhadas de dados técnicos, relatórios ou mecanismos que comprovassem a eficácia das ações. Testes preliminares realizados pelas equipes apontaram que as falhas persistem, permitindo a continuidade da produção e circulação de conteúdos considerados irregulares.
Diante desse cenário, MPF, ANPD e Senacon determinaram que o X implemente de forma imediata ferramentas capazes de bloquear a criação de imagens sexualizadas ou erotizadas envolvendo menores de idade e adultos que não tenham dado consentimento. A plataforma tem prazo para cumprir as exigências, sob pena de multa diária e possibilidade de medidas judiciais e investigatórias mais rigorosas.
No âmbito administrativo, cada órgão mantém procedimento próprio contra a empresa. A ANPD determinou que os mecanismos de prevenção devem abranger todas as versões e modalidades do Grok. Já o MPF exigiu o envio de relatórios mensais, a partir de fevereiro, detalhando a quantidade de conteúdos removidos, contas suspensas e as estratégias adotadas para coibir deepfakes e outras formas de manipulação de imagem.
A Senacon também solicitou comprovação das providências adotadas e a apresentação de relatório com dados verificáveis sobre identificação, moderação e remoção de conteúdos relacionados ao funcionamento da ferramenta, incluindo prazos médios de resposta e critérios técnicos utilizados.
As autoridades ainda apontaram falta de transparência na resposta inicial da empresa. Apurações jornalísticas identificaram que, mesmo após as notificações, conteúdos que simulam violência sexual e outras formas de abuso continuaram circulando na plataforma.
O Grok permite que usuários modifiquem imagens reais por meio de comandos simples, o que tem sido utilizado para gerar montagens de caráter íntimo sem autorização das pessoas retratadas. Organizações que monitoram o ambiente digital estimam que milhões de imagens desse tipo tenham sido produzidas em curto período.
(Com informações de Agência Brasil e Folha de S. Paulo)
(Foto: Reprodução/Freepik)