Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home TI YouTube é questionado sobre uso de dados em ferramenta contra deepfakes
TI

YouTube é questionado sobre uso de dados em ferramenta contra deepfakes

Especialistas veem brechas para uso de dados biométricos em treinamento de IA, enquanto plataforma nega prática

177

Deepfakes – O YouTube voltou ao centro do debate sobre privacidade digital após vir à tona que sua ferramenta de “detecção de semelhança”, criada para permitir que criadores solicitem a remoção de deepfakes, está vinculada à Política de Privacidade do Google. O documento permite o uso de conteúdo biométrico disponível publicamente para treinar modelos de inteligência artificial, o que acendeu um alerta entre especialistas.

A plataforma afirmou à CNBC que nunca utilizou esse tipo de dado para treinar sistemas de IA e que revisará a linguagem do programa para deixá-la mais clara. No entanto, não pretende alterar sua política central, que continua permitindo o uso de conteúdo biométrico público.

LEIA: Governo indiano manda instalar app estatal em todos os celulares vendidos no país

Lançado em outubro, o recurso identifica quando o rosto de um criador aparece de forma manipulada em vídeos publicados na plataforma. Para usá-lo, o YouTube exige o envio de um documento oficial e de um vídeo biométrico, reforçando que essas informações servem apenas para verificação de identidade e para o funcionamento da ferramenta.

A expectativa é que, até janeiro, mais de 3 milhões de participantes do Programa de Parcerias do YouTube tenham acesso ao sistema.

Ainda assim, empresas especializadas em proteção de imagem, como Vermillio e Loti, afirmam que não recomendam a adesão ao recurso. Para elas, o fato de a ferramenta estar vinculada à política de privacidade do Google abre margem para o uso futuro dos dados, especialmente em um cenário em que vídeos gerados por IA avançam rapidamente. A imagem dos criadores, observam, tornou-se um ativo estratégico.

Mesmo com a ferramenta, o médico e influenciador Mikhail Varshavski, conhecido como “Doctor Mike”, relata encontrar semanalmente deepfakes usando sua voz e seu rosto em anúncios falsos.

Segundo ele, o risco cresce à medida que modelos como o Sora, da OpenAI, e o Veo 3, do Google, tornam cada vez mais fácil reproduzir pessoas públicas com alta fidelidade.

O YouTube afirma estudar formas de futura monetização para casos de uso não autorizado de imagem, mas ainda não apresentou prazos ou propostas concretas.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/garakta_studio)

Posts relacionados

Método reduz ruído quântico e abre caminho para supercomputadores mais estáveis

Avanço reduz interferências em cúbits e melhora a precisão de operações, aproximando...

IA detecta sinais de câncer mais de um ano antes do diagnóstico clínico

Tecnologia identifica sinais iniciais de câncer de pâncreas até 475 dias antes...

IA avança rapidamente no Brasil e traz preocupações sobre soberania

Com projeções de investimentos de US$ 2 trilhões em data centers, especialistas...

TI

Nasa apostou em IA para monitorar saúde e segurança de astronautas na Artemis II

Usada para monitorar astronautas, detectar anomalias e antecipar tempestades solares, IA demonstrou...