Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home Destaque IA do Claude ganha função de ‘sonhos’ para refinar próprio comportamento
DestaqueTI

IA do Claude ganha função de ‘sonhos’ para refinar próprio comportamento

Nova funcionalidade permite que agentes de IA revisem interações anteriores para identificar erros, aprender padrões e aprimorar respostas de forma automática

5

Claude – A Anthropic anunciou nesta quarta-feira (6) uma nova funcionalidade para o Claude que promete tornar os agentes de inteligência artificial mais autônomos no processo de aprendizado. Batizado de “dreaming”, o recurso cria sessões automáticas em que a IA revisa suas próprias interações para aperfeiçoar seu desempenho.

A proposta é inspirada no comportamento humano de sonhar, embora com funcionamento técnico voltado à análise de dados. Durante essas sessões, o sistema recupera conversas e processos anteriores armazenados em banco de dados para examinar padrões de comportamento, identificar falhas recorrentes e compreender preferências dos usuários.

LEIA: Robô inspirado em cães usa IA para criar conexão emocional

O recurso foi desenvolvido para atuar junto ao Claude Managed Agents, ferramenta lançada pela Anthropic em abril. A funcionalidade permite que usuários criem e implementem seus próprios agentes de IA, enquanto a empresa fornece a infraestrutura necessária para execução e monitoramento das tarefas.

Segundo a companhia, o objetivo do “dreaming” é manter os agentes constantemente refinados em segundo plano. A IA utiliza as informações coletadas para ajustar a API e melhorar a memória operacional, aumentando a capacidade de resposta e reduzindo erros ao longo do uso.

A Anthropic acredita que a tecnologia pode ser especialmente útil em projetos longos ou que dependam de múltiplos agentes de IA trabalhando simultaneamente. Nesse cenário, a revisão contínua das interações ajudaria a diminuir entregas de baixa qualidade e tornar os sistemas mais eficientes.

A funcionalidade só pode ser utilizada por meio do Managed Agents, que foi criado para simplificar a execução de projetos envolvendo inteligência artificial. O sistema usa um framework pré-otimizado para o Claude, responsável por gerenciar conversas, lidar com falhas e manter a operação dos agentes.

Essa não é a primeira vez que a Anthropic utiliza conceitos associados ao comportamento humano para apresentar recursos de inteligência artificial. Nos últimos meses, a empresa já havia mencionado em documentos internos a possibilidade de desenvolver algum tipo de consciência para o chatbot Claude, ideia que não chegou a ser implementada.

O recurso “dreaming” está disponível inicialmente em formato de prévia e exige solicitação de acesso por parte dos desenvolvedores. Já o Managed Agents pode ser utilizado normalmente e, segundo a Anthropic, já foi adotado por grandes empresas para implementação de serviços.

 

(Com informações de Tecmundo)

(Foto: Reprodução/Imagem gerada com IA)

Posts relacionados

Cartilha esclarece mudanças na NR-01 com inclusão de saúde mental

Documento reúne perguntas e respostas sobre a aplicação da NR-01, com foco...

Dívida global atinge recorde, impulsionada por investimento em IA

Relatório indica avanço do endividamento mundial, mudança no comportamento de investidores e...

Brasileiros veem deepfakes em massa, mas não sabem identificar

Estudo aponta alta exposição a conteúdos gerados por IA, enquanto especialistas alertam...

Malware voltado ao Brasil se espalha por contatos de vítima no WhatsApp

TCLBANKER monitora acessos a bancos, oculta ações criminosas com telas falsas e...