Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI ChatGPT deve alertar sobre ‘insegurança de dados’, cobra MPF
TI

ChatGPT deve alertar sobre ‘insegurança de dados’, cobra MPF

Fenômeno conhecido como ‘alucinação’ dificulta distinção entre informações verdadeiras ou falsas

28

ChatGPT – A popularização de ferramentas de inteligência artificial como o ChatGPT está sendo acompanhada por órgãos de controle no Brasil. O Ministério Público Federal (MPF) emitiu uma recomendação formal à OpenAI, desenvolvedora do ChatGPT, com o objetivo de reforçar a proteção de dados pessoais.

O documento foca no fenômeno de “alucinação” de modelos de linguagem, comportamento em que a ferramenta gera informações falsas com aparência de veracidade. Segundo o MPF, é necessário que a OpenAI adote medidas explícitas para alertar usuários sobre esse risco, especialmente envolvendo dados pessoais.

LEIA: Supremo agenda julgamento que pode regular big techs no Brasil

O procurador da República Carlos Bruno Ferreira da Silva afirma que o comportamento imprevisível do modelo “representa uma ameaça direta à proteção de dados pessoais, um direito garantido pela Constituição Federal e regulamentado pela Lei Geral de Proteção de Dados (LGPD)”.

A recomendação ressalta que respostas contendo dados de indivíduos, mesmo que parcialmente corretos, podem violar princípios da LGPD como qualidade da informação (art. 6º, V), transparência (art. 6º, VI) e segurança (art. 6º, VII). A ausência de mecanismos de filtro prejudica o direito dos cidadãos à proteção de dados pessoais, criando um cenário propício para desinformações e exposições indevidas.

Embora a OpenAI afirme que se baseia no princípio do “legítimo interesse” (base legal da LGPD), o MPF discorda que isso seja suficiente para respaldar a criação de conteúdos potencialmente imprecisos sobre indivíduos reais. A falta de avisos claros levanta dúvidas sobre o nível de comprometimento da empresa com a proteção de dados de usuários brasileiros.

O MPF sugere que a empresa implemente mensagens automáticas destacadas em respostas com dados sensíveis, revelando que as informações podem ter sido geradas pelo sistema e não fazem parte de sua base factual. De acordo com o MPF, o alerta genérico atual “não atende aos critérios exigidos pela legislação nacional”.

A recomendação ocorre em meio ao debate sobre uso ético de IA. Ferramentas como ChatGPT são usadas em setores como atendimento ao cliente e educação, aumentando a exposição de dados pessoais e o potencial de impactos negativos.

O MPF destaca que o uso desses modelos precisa estar alinhado às normas regulatórias, incluindo a LGPD, considerando a “complexidade tecnológica” envolvida na geração de textos por IA.

A OpenAI terá 15 dias para responder ao MPF, informando quais medidas serão tomadas para atender à recomendação ou apresentar justificativas legais para a não adoção. Caso a resposta seja considerada insuficiente, o MPF poderá adotar “medidas judiciais ou administrativas adicionais”, incluindo ações civis públicas ou notificações à Autoridade Nacional de Proteção de Dados (ANPD).

A iniciativa do MPF pode servir de precedente para outras empresas que operam com inteligência artificial no país. O caso destaca a importância de discutir limites éticos e legais para sistemas automatizados.

A proposta do MPF tem como objetivo promover uma cultura de transparência no uso de tecnologias emergentes. A inclusão de alertas é considerada medida simples, mas essencial para mitigar danos de possíveis informações falsas, preservando a confiança dos usuários.

Leia a recomendação na íntegra (acesse aqui).

(Com informações do Ministério Público Federal)
(Foto: Reprodução/Freepik/frimufilms)

Posts relacionados

TI

Pesquisa revela alto custo energético da IA na criação de vídeos

Centros de dados que processam conteúdos com inteligência artificial já consomem 4,4%...

TI

Fórum Parlamentar do BRICS discute regulamentação da IA

A regulamentação do uso da ferramenta foi destaque no fórum parlamentar do...

TI

IA faz chantagem e ameaça revelar traição de engenheiro em testes

Nova geração do modelo de Inteligência Artificial Claude Opus 4, da Anthropic,...

TI

Novo aplicativo promete barrar chamadas indesejadas e impedir golpes

De acordo com a Kaspersky, mais de 10% das chamadas recebidas em...