Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI CEO da OpenAI alerta para riscos de privacidade ao ter conversas pessoas com o ChatGPT
TI

CEO da OpenAI alerta para riscos de privacidade ao ter conversas pessoas com o ChatGPT

Diferentemente dos atendimentos com psicólogos, médicos ou advogados, conversas íntimas com a IA não estão protegidas por lei

550

OpenAI – Conversas com o ChatGPT, incluindo aquelas em que usuários buscam apoio emocional, conselhos sobre relacionamentos ou orientações sobre a vida pessoal, podem não estar protegidas por sigilo. O alerta foi feito pelo próprio CEO da OpenAI (empresa por trás do ChatGPT), Sam Altman, durante uma entrevista ao podcast This Past Weekend.

Altman expressou preocupação com o uso crescente da inteligência artificial como substituta de terapeutas, especialmente entre jovens. Segundo ele, esse tipo de interação ainda não conta com as garantias legais de confidencialidade que existem em atendimentos com psicólogos, médicos ou advogados. “Ainda não cobrimos isso para quando você fala com o ChatGPT”, afirmou.

LEIA: Nova ferramenta de IA cria apps para quem não sabe programar

O CEO defende que é urgente estabelecer normas de privacidade mais robustas para proteger conversas com assistentes de IA, sobretudo em temas sensíveis. Ele cita o risco de que, em caso de processos judiciais, a empresa possa ser obrigada a divulgar o conteúdo dos chats.

Além disso, Altman explicou que as conversas mantidas com o ChatGPT podem ser acessadas pela equipe da OpenAI, com o objetivo de melhorar o modelo e monitorar usos indevidos. Mesmo quando excluídos pelos usuários, os dados podem ser retidos por até 30 dias ou mais, caso haja exigência legal.

O tema ganhou ainda mais destaque após ações judiciais movidas por veículos como o The New York Times, que pedem à OpenAI a retenção de registros de usuários, inclusive conversas apagadas, enquanto tramitam processos relacionados a direitos autorais.
A situação é mais uma demonstração dos limites do uso da IA como substituto de profissionais humanos em áreas delicadas como a saúde mental, e da necessidade de regulamentações específicas para garantir maior segurança aos usuários.

(Com informações de TechTudo)
(Foto: Reprodução/Freepik/frimufilms)

Posts relacionados

Senhas ‘fortes’ aparecem em megavazamento de dados de 2025

Maior atualização já feita pelo site Have I Been Pwned inclui 625...

TI

Ética na IA: brasileiro ganha prêmio da Unesco por pesquisa sobre tema

Professor do Departamento de Computação da Universidade Federal de Minas Gerais teve...

TI

Documentos revelam que 10% da receita da Meta vem de golpes e produtos ilegais

Documentos obtidos pela Reuters indicam que o Facebook e o Instagram exibiram...

TI

‘Vibe coding’ é eleita a palavra de 2025 pelo dicionário Collins

Termo cresceu nas redes e ganhou relevância ao definir um estilo de...