Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home TI ChatGPT para maiores: OpenAI anuncia versão erótica do chatbot
TI

ChatGPT para maiores: OpenAI anuncia versão erótica do chatbot

CEO da empresa admitiu que tornou ChatGPT “menos agradável” por segurança, mas prepara maneira de atender a usuários adultos

297

ChatGPT – O CEO da OpenAI, Sam Altman, anunciou na terça-feira (14) que o ChatGPT passará a permitir a geração de conteúdo erótico voltado a usuários adultos verificados. A mudança vem acompanhada da flexibilização de outras barreiras de segurança, como aquelas ligadas à saúde mental. No mesmo dia, a Agência Nacional de Proteção de Dados (ANPD) divulgou o Radar Tecnológico nº 5, documento que descreve métodos de verificação etária e diretrizes sobre o tema.

A possibilidade de uma versão “18+” provocou discussão sobre privacidade, aferição de idade e tratamento de dados sensíveis. Em publicação no X (antigo Twitter), Altman admitiu que a OpenAI “tornou o ChatGPT menos útil/agradável” e afirmou que, superadas as dificuldades, “as restrições poderão ser relaxadas com segurança na maioria dos casos”.

LEIA: Criminosos usam falsa vaga no Google para invadir sistemas corporativos

O executivo acrescentou que, nas próximas semanas, uma nova atualização da IA deve apresentar uma personalidade mais “humana”. Ele também confirmou que o recurso para conteúdo adulto deve chegar em dezembro, com a proposta de “tratar usuários adultos como adultos”.

Privacidade e riscos

Para Calza Neto, DPO do Corinthians, a iniciativa voltada a adultos “impõe novos riscos e desafios à privacidade e à proteção de dados, exigindo um olhar criterioso sob a ótica da LGPD e das diretrizes do Radar Tecnológico nº 5 da ANPD sobre aferição de idade”.

Segundo ele, as bases devem ser os princípios de minimização, finalidade e segurança: coletar apenas o essencial para confirmar a idade, adotar base legal adequada – preferencialmente o cumprimento de obrigação legal e a proteção do titular – e empregar medidas técnicas robustas, como criptografia, controle de acesso e segregação de dados.

Neto também defende que o Relatório de Impacto à Proteção de Dados (RIPD) anteceda qualquer operação desse tipo. “É imprescindível para transparência e responsabilidade, mapeando riscos e definindo contramedidas”.

Entre os riscos apontados está o de conteúdos íntimos reaparecerem em conversas futuras. O especialista sugere boas práticas, como isolamento de sessões, opção de opt-out para impedir que diálogos sejam usados em treinamento, retenção mínima com exclusão automática, anonimização de registros e testes recorrentes de segurança.

Essa abordagem, explica ele, segue padrões de governança de dados já aplicados em sistemas de IA generativa, que separam telemetria operacional (anônima e minimizada) de dados sensíveis.

No contexto brasileiro, a responsabilização depende da presença da empresa no país. “Se a OpenAI tiver representação no Brasil, essa entidade é controladora local perante a ANPD e titulares, com a sede global atuando como controladora conjunta. Sem representação, aplica-se a extraterritorialidade: a OpenAI nos EUA responde integralmente pelo tratamento de dados de brasileiros”, esclarece Neto.

Aferição de idade

Questionado sobre o controle de acesso por menores, o DPO é categórico: autodeclaração isolada não basta. O ideal, explica ele, é adotar métodos híbridos e verificáveis, combinando autodeclaração com checagem documental automatizada, biometria facial estimativa e prova de vida, com eliminação imediata dos dados após a confirmação.

“O sistema deve ser auditável e rastreável, documentar tentativas de fraude e reentradas bloqueadas, e demonstrar privacy by design”, afirma.

O Radar 5 também cita métodos complementares, como análise de comportamento linguístico, padrões de digitação e metadados – sempre respeitando os princípios de proporcionalidade e minimização. Para Neto, a ‘accountability’ deve incluir trilhas de auditoria, testes e revisões periódicas.

Ele ressalta ainda que plataformas com conteúdo adulto precisam de monitoramento automatizado de interações suspeitas, bloqueio de abusos e limitações técnicas que impeçam o armazenamento indevido de dados pessoais. “Moderação ativa, canais de denúncia e planos de resposta a incidentes garantem rastreabilidade e conformidade com a LGPD”, diz.

Repercussão

Na tarde de quarta-feira (15), Sam Altman voltou a se pronunciar, afirmando que a OpenAI “não está flexibilizando nenhuma política relacionada à saúde mental” e que “acreditam que menores necessitam de proteção significativa”.

Segundo o executivo, o ChatGPT continuará sem permitir respostas que possam causar danos a terceiros e “tratará usuários que estão passando por crises de forma diferente dos que não estão”. “Mas não somos a polícia moral eleita do mundo”, concluiu.

(Com informações de Ti Inside)
(Foto: Reprodução/Freepik/night_lynx)

Posts relacionados

Uso de IA avança na cibersegurança, enquanto ameaças se sofisticam

Estudo mostra que maioria das organizações já usa IA para se proteger,...

Em alta, golpes digitais ainda não atingiram pico no Brasil, diz Interpol

Secretário-geral da Interpol afirma que uso de inteligência artificial amplia alcance das...

TI

65% dos trabalhadores trocariam de emprego para manter home office

Levantamento mostra conflito entre prioridade dos profissionais por flexibilidade e movimento das...

TI

Robôs ganham ‘escolas’ e começam a ser treinados como alunos na China

País investe em centros especializados para ensinar máquinas a executar tarefas do...