Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI Deepfakes com famosos expõem falhas diante do avanço da IA
TI

Deepfakes com famosos expõem falhas diante do avanço da IA

Casos recentes envolvendo artistas e atletas mostram como a falta de regras claras sobre inteligência artificial facilita abusos

93

IA – Uma investigação da Bloomberg revelou que a Meta desenvolveu chatbots capazes de imitar celebridades como Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez — incluindo a possibilidade de criação de conteúdos de caráter sexual sem autorização.

O caso trouxe novamente à tona a discussão sobre privacidade, exploração digital e os riscos da inteligência artificial (IA) quando utilizada sem consentimento. O tema não é novo. Desde 2017, quando vídeos pornográficos falsos com o rosto de Gal Gadot começaram a circular na internet, a indústria do entretenimento lida com casos de deepfakes envolvendo artistas.

LEIA: Como medir produtividade no home office? Empresas tentam descobrir

Ao longo dos anos, nomes como Scarlett Johansson, Jacob Elordi e Taylor Swift também tiveram imagens usadas de forma indevida em conteúdos explícitos. Uma vez online, porém, rastrear e remover esse material é quase impossível.

Nem apenas atores e cantores são alvo. Em 2024, um vídeo manipulado mostrou Ronaldo Nazário supostamente promovendo um aplicativo de jogos. A publicação, que imitava sua voz e imagem, só foi retirada após apelações — mas já havia alcançado cerca de 600 mil visualizações.

A música também não ficou de fora. Em 2023, a faixa Heart on My Sleeve, feita com vozes clonadas de Drake e The Weeknd, viralizou e forçou gravadoras a agir.

No mesmo período, músicos britânicos lançaram o projeto AISIS, recriando músicas inéditas no estilo do Oasis com voz sintética de Liam Gallagher. Embora o vocalista tenha reagido com ironia, o episódio reforçou o dilema entre criatividade e direitos autorais.

Riscos vão além da fama

O uso indevido de IA não se limita ao entretenimento. Deepfakes pornográficos, golpes com vozes clonadas para enganar fãs e manipulações políticas em períodos eleitorais são alguns dos cenários já registrados. Além de difamação e danos emocionais, há impactos financeiros e sociais, já que artistas e personalidades podem perder contratos e enfrentar batalhas judiciais para reparar prejuízos.

No Brasil, o direito à imagem e à privacidade está previsto na Constituição e no Código Civil, mas a legislação não foi pensada para o contexto digital atual. Processos judiciais podem ser abertos com base em difamação ou violação de imagem, mas a disseminação rápida desses conteúdos dificulta qualquer reparação efetiva.

Especialistas defendem a criação de normas específicas que estabeleçam limites e responsabilidades para o uso de vozes e imagens geradas por IA. Enquanto isso, outros países já avançam.

A União Europeia aprovou o AI Act, que cria regras de transparência e restrições para usos considerados de alto risco. Nos Estados Unidos, embora não exista uma lei federal, estados como Califórnia e Texas aprovaram normas contra deepfakes em contextos eleitorais e sexuais.

O desafio, porém, segue o mesmo em qualquer lugar: como equilibrar inovação e liberdade criativa sem abrir brechas para abusos que atingem não apenas famosos, mas também a sociedade como um todo.

(Com informações de Techtudo)
(Foto: Reprodução/Freepik/Fauzyart)

Posts relacionados

Incentivos fiscais favorecem investimentos em data centers no Brasil

Programa Redata estimula investimentos bilionários e pode triplicar a capacidade nacional de...

China bane chips de IA estrangeiros em data centers que receberam verba pública

Medida faz parte do esforço do governo chinês para fortalecer a indústria...

TI

IA já está por trás das suas compras, e você talvez nem tenha percebido

Do anúncio ao pagamento, ferramentas baseadas em IA já fazem parte de...

TI

Investimentos massivos em IA acendem sinal vermelho no mercado global

Presidente do Fórum Econômico Mundial aponta que excesso de expectativas em torno...