Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home Destaque Explosão de conteúdo de abuso infantil gerado por IA gera apreensão
DestaqueTI

Explosão de conteúdo de abuso infantil gerado por IA gera apreensão

Organizações alertam para avanço do conteúdo em 2025 e reforçam dificuldades enfrentadas por autoridades

8

IA – Nos últimos dois anos, avanços em tecnologias de IA facilitaram a criação de imagens e vídeos com conteúdo sexual envolvendo crianças, tipo de material que tem crescido de forma alarmante. Agora, entidades como a Internet Watch Foundation (IWF) e o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) relatam uma escalada de material quase indistinguível de registros reais de abuso.

De acordo com dados publicados na quinta-feira (10) pela IWF — uma organização britânica sem fins lucrativos que monitora e recebe denúncias de material de abuso sexual infantil — foram identificados 1.286 vídeos desse tipo gerados por IA em 2025, um salto exponencial em relação aos dois registrados no mesmo período de 2024.

LEIA: Setor tecnológico nacional pode sofrer em disputa tarifária com EUA

Segundo analistas da fundação, os vídeos estão mais sofisticados e fluidos graças a melhorias tecnológicas e à colaboração entre grupos atuando na dark web para sua produção.

Essa proliferação de vídeos extremamente realistas ocorre em meio a um aumento generalizado de imagens geradas por IA com conteúdo abusivo. Nos EUA, o NCMEC informou ter recebido 485 mil denúncias desse tipo de material — incluindo fotos e vídeos — apenas no primeiro semestre do ano. Em 2024, foram 67 mil ao longo de todo o ano.

Derek Ray-Hill, CEO interino da IWF, destacou que parte do conteúdo mistura imagens reais de crianças com material gerado artificialmente: “Há um tsunami absoluto que estamos vendo”.

O volume crescente de imagens artificiais coloca em xeque a capacidade das forças policiais. Embora ainda representem uma pequena parcela do total de denúncias sobre material de abuso sexual infantil — que somam milhões —, essas imagens exigem investigações e desviam os recursos das autoridades de casos envolvendo vítimas reais.

Segundo as forças de segurança, as leis federais que tratam de pornografia infantil e obscenidade já abrangem conteúdos criados por IA, mesmo aqueles sem nenhuma imagem real envolvida.

Novas leis para enfrentar problema

Além da legislação federal, vários estados americanos vêm aprovando normas específicas para criminalizar imagens geradas por IA com conteúdo de abuso. Nos últimos anos, mais de 30 estados aprovaram leis nesse sentido.

Especialistas alertam, no entanto, que o sistema judiciário ainda está começando a lidar com as complexidades jurídicas trazidas por esse tipo de material.

Essas produções utilizam tecnologias de IA generativa — uma vertente que se popularizou com o lançamento do ChatGPT em 2022. Em seguida, surgiram geradores de imagens e vídeos, gerando preocupação entre autoridades e organizações de proteção infantil.

Boa parte do conteúdo atual utiliza imagens reais reaproveitadas de materiais anteriores, ou fotos de crianças extraídas de redes sociais e sites escolares. Os arquivos costumam ser distribuídos em fóruns, redes sociais e plataformas de mensagens.

Em dezembro de 2023, o Stanford Internet Observatory identificou centenas de arquivos de abuso infantil num conjunto de dados utilizados numa versão inicial do gerador de imagens Stable Diffusion. A empresa Stability AI, responsável atualmente pela ferramenta, afirmou que não participou do treinamento desse modelo, criado por uma companhia terceirizada antes de a Stability assumir o desenvolvimento exclusivo.

Foi apenas nos últimos meses que as ferramentas de IA passaram a produzir imagens com grau de realismo suficiente para enganar o olhar humano, superando falhas anteriores como número incorreto de dedos, fundos desfocados ou cortes bruscos em vídeos.

No mês passado, a IWF encontrou, em fóruns subterrâneos, usuários elogiando a nova geração de vídeos por seu realismo. Os comentários destacavam a fluidez das cenas, os ambientes detalhados — com pinturas nas paredes e móveis — e a presença de múltiplos indivíduos envolvidos em atos violentos e ilegais contra crianças.

Atualmente, cerca de 35 empresas de tecnologia encaminham denúncias de imagens de abuso sexual infantil geradas por IA ao NCMEC, informou John Shehan, executivo do centro. Segundo ele, algumas empresas são mais sistemáticas do que outras, mas as que fazem mais relatos tendem a ser mais ativas na detecção desse tipo de conteúdo.

Extorsão de vítimas

A Amazon, que oferece serviços de IA por meio de sua plataforma de nuvem, relatou 380 mil casos no primeiro semestre do ano — todos removidos. A OpenAI informou 75 mil casos. Já a Stability AI registrou menos de 30.

A Stability declarou que adotou medidas adicionais de segurança e afirmou estar “profundamente comprometida em prevenir o uso indevido de nossa tecnologia, particularmente na criação e disseminação de conteúdo prejudicial, incluindo materiais de abuso sexual de crianças”.

Amazon e OpenAI, ao serem procuradas, indicaram relatórios públicos com informações sobre seus esforços de combate a esse tipo de material.

Além disso, algumas organizações criminosas estão utilizando IA para produzir imagens sexualmente explícitas de menores com o objetivo de extorquir as vítimas, disse um representante do Departamento de Justiça sob anonimato. Outras vezes, jovens utilizam aplicativos para criar deepfakes de nudez a partir de fotos reais de colegas.

Apesar de a legislação ser clara quanto à ilegalidade de imagens que envolvem crianças reais, o enquadramento legal de material totalmente artificial ainda está em debate, segundo estudiosos do direito.

Em março, um homem de Wisconsin foi acusado pelo Departamento de Justiça de criar, armazenar e distribuir imagens sintéticas de abuso infantil. Ele conseguiu derrubar uma das acusações com base na Primeira Emenda da Constituição. O juiz James Peterson, da Corte Distrital do Oeste de Wisconsin, escreveu que “a Primeira Emenda geralmente protege o direito de possuir material obsceno em casa” desde que não se trate de “pornografia infantil real”.

Mesmo assim, o julgamento prosseguirá em relação às outras acusações, que envolvem a produção e disseminação de 13 mil imagens geradas artificialmente. De acordo com os promotores, o homem tentou compartilhar esse material com um menor por meio do Instagram, que acabou fazendo a denúncia.

“O Departamento de Justiça vê todas as formas de material de abuso sexual infantil gerado por IA como uma ameaça séria e emergente”, afirmou Matt Galeotti, chefe da divisão criminal do órgão.

(Com informações de Folha de S. Paulo)
(Foto: Reprodução/Freepik/Dmytro Verbets’kyy)

Posts relacionados

Com foco em IA, BNDES já aprovou R$ 1 bilhão para projetos de tecnologia

Investimentos estão concentrados em soluções em IA, fabricantes de hardware e infraestrutura...

Semana da Tecnologia em MS oferece oficinas e palestras; saiba

Evento começa nesta segunda (14) em Campo Grande e contará com cursos...

TI

Setor tecnológico nacional pode sofrer em disputa tarifária com EUA

Disputa pode afetar ampliação da infraestrutura tecnológica, incluindo máquinas, softwares e centros...

TI

Supercomputador brasileiro ganha upgrade e suporte à IA

Equipamento batizado de “Santos Dumont” recebe nova estrutura e amplia potência em...