Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI Criminosos burlam reconhecimento facial usando IA e fotos públicas
TI

Criminosos burlam reconhecimento facial usando IA e fotos públicas

‘Selfie spoofing’ permite que golpistas acessem contas bancárias e plataformas digitais usando apenas uma imagem da vítima disponível na internet

9

IA – Combinando inteligência artificial, engenharia social e imagens públicas, criminosos têm conseguido burlar sistemas de reconhecimento facial e acessar contas bancárias, aplicativos de entrega e plataformas digitais das vítimas. A prática, conhecida como selfie spoofing, pode ser realizada a partir de uma única imagem em boa resolução disponível nas redes sociais.

O golpe consiste em simular a identidade de uma pessoa por meio de fotos compartilhadas publicamente. Ao contrário de métodos tradicionais de invasão, como roubo de senhas ou ataques de phishing, os golpistas baixam fotos dos perfis abertos das vítimas e as utilizam para enganar sistemas de autenticação biométrica facial.

LEIA: Governo dos EUA anuncia tarifa de 100% sobre importação de chips

O ataque é ainda mais eficaz em plataformas que exigem apenas uma selfie estática ou um vídeo curto para verificar a identidade. Nessas situações, basta que a ferramenta de segurança aceite uma imagem de rosto em boa qualidade, sem exigir ações em tempo real para que os criminosos consigam concluir o processo de verificação.

Como o golpe é aplicado

O processo de fraude geralmente envolve três etapas. Na primeira, os golpistas monitoram redes sociais em busca de perfis abertos com imagens de boa qualidade. Em seguida, utilizam softwares como OBS Studio ou câmeras virtuais para simular uma selfie em tempo real a partir da foto capturada. Por fim, acessam sistemas de verificação facial, como os de bancos ou aplicativos de entrega, fingindo ser a vítima.

Há ainda situações em que vídeos antigos da própria vítima são usados para simular movimentos faciais, dificultando a detecção da fraude. Com o uso de inteligência artificial generativa, algumas imagens são manipuladas para exibir expressões sutis que parecem naturais, o que engana até mesmo sistemas que exigem movimentos como piscar ou virar o rosto.

Embora empresas estejam aprimorando suas ferramentas com tecnologias de detecção de vivacidade, muitas ainda operam com métodos ultrapassados ou frágeis, o que as torna vulneráveis a esse tipo de ataque.

Como se proteger

Apesar de utilizar recursos sofisticados, o selfie spoofing depende, em muitos casos, da exposição pública das vítimas. Por isso, especialistas sugerem medidas simples para reduzir os riscos, como tornar os perfis de redes sociais privados, evitar o compartilhamento excessivo de selfies e não usar a mesma imagem em diferentes plataformas, principalmente as que envolvem dados financeiros.

Outra recomendação é optar por aplicativos que adotem múltiplas camadas de segurança, como autenticação em dois fatores (2FA), e que utilizem sistemas de reconhecimento facial com verificação de vivacidade dinâmica. Isso significa exigir que o usuário fale, se movimente ou realize ações específicas durante a autenticação.

Caso o usuário desconfie de algum acesso indevido, é importante revisar os dispositivos conectados, alterar senhas e acionar imediatamente a central de atendimento do serviço afetado.

(Com informações de Techtudo)
(Foto: Reprodução/Freepik/MUS_GRAPHIC_)

Posts relacionados

Prazo para sugestões sobre contratação de software de BI termina neste mês

Consulta pública sobre contratação de software de Business Intelligence termina em agosto...

Governo estabelece novo plano nacional de cibersegurança

Estratégia Nacional de Cibersegurança propõe medidas com foco em educação, prevenção e...

TI

Investimentos em tecnologia no Brasil vão superar 750 bilhões até 2028

Computação em nuvem, inteligência artificial e big data devem receber a maior...

TI

Fim do mouse e teclado? “Usaremos a voz”, diz vice da Microsoft

Executivo prevê futuro revolucionário, mas cenário ainda levanta dúvidas sobre viabilidade e...