Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home Notícias Wikipédia proíbe uso de IA para preservar qualidade do conteúdo
Notícias

Wikipédia proíbe uso de IA para preservar qualidade do conteúdo

Nova regra aprovada com apoio esmagador da comunidade visa combater violações de políticas de conteúdo e má qualidade nos textos

142

Wikipédia – A Wikipédia determinou oficialmente que seus colaboradores não poderão mais escrever ou reescrever artigos utilizando inteligência artificial (IA). A nova decisão foi integrada às diretrizes da plataforma sob a justificativa de que textos gerados por essa tecnologia apresentam uma tendência recorrente de violar “diversas políticas de conteúdo fundamentais da Wikipédia”.

Segundo informações do portal The Verge, a modificação aplica-se inicialmente à versão em inglês do site. Questionada sobre a extensão da medida para outros idiomas, a Wikipédia informou, em nota, que cada página de cada comunidade da plataforma em um idioma diferente possui autonomia para definir suas próprias políticas e diretrizes específicas.

LEIA: Associações pedem que UE regule smart TVs

Apesar do rigor da proibição, a norma prevê exceções em cenários específicos. Os usuários ainda poderão utilizar grandes modelos de linguagem (LLMs) para sugerir correções básicas em textos já existentes, sob a condição de que a ferramenta “não introduza conteúdo próprio”. Além disso, os editores estão autorizados a usar a tecnologia para traduzir artigos de outros idiomas para o inglês, desde que sigam as regras de traduções assistidas. Tais normas exigem que o editor possua conhecimento suficiente da língua original para garantir a precisão do conteúdo traduzido.

A implementação dessa política ocorre após meses de uma prática crescente de criação de artigos por IA, o que levou a comunidade a estabelecer mecanismos para a “exclusão rápida” de materiais mal escritos. Para fortalecer essa vigilância, foi criado o WikiProject AI Cleanup, um grupo dedicado a combater o conteúdo gerado por máquinas e auxiliar outros editores na identificação desses textos.

A nova política também traz orientações sobre como identificar as infrações. O texto aponta que alguns editores podem possuir estilos de escrita que se assemelham aos de modelos de linguagem, e, por isso, será necessário encontrar mais do que simples “sinais estilísticos ou linguísticos” para justificar restrições. A norma estabelece que “é melhor considerar a conformidade do texto com as políticas de conteúdo essenciais e as edições recentes feitas pelo editor em questão”.

As mudanças foram inicialmente propostas por um usuário e aprovadas após discussões entre os editores, recebendo o que foi classificado como um “apoio esmagador”. Para os defensores da medida, a nova política “visa problemas flagrantes com o uso de LLM, ao mesmo tempo que permite alguma margem para o que é considerado uso decente”.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/senivpetro)

Posts relacionados

Brasil cria rede quântica capaz de impedir espionagem digital silenciosa

Projeto usa física quântica e fibras ópticas já instaladas para proteger transmissões...

Anúncios de eletrônico na Amazon deverão informar código Anatel

Decisão do TRF3 reforça ações contra eletrônicos irregulares vendidos na plataforma

Funcionários da Meta reagem a monitoramento de cliques para treinar IA

Medida inclui coleta de cliques e movimentos do mouse enquanto empregados temem...

Oito em cada dez mães em cargos de liderança relatam obstáculos profissionais

Pesquisas revelam que sobrecarga e falta de rede de apoio levam quase...