InícioTecnologiaWikipédia proíbe artigos escritos por inteligência artificial após votação quase unânime

Wikipédia proíbe artigos escritos por inteligência artificial após votação quase unânime

Depois de meses de debate interno, os editores da Wikipédia em inglês aprovaram uma nova política que proíbe o uso de modelos de linguagem para escrever ou reescrever artigos.

A decisão estava há muito tempo a ser discutida, mas chegou finalmente a 20 de março de 2026, a Wikipédia em inglês proibiu o uso de modelos de linguagem de grande escala, os chamados LLMs, sigla em inglês para large language models, na criação ou reescrita de artigos. A nova política foi aprovada através de um processo formal de consulta à comunidade de editores voluntários, com 44 votos a favor e apenas 2 contra.

O texto da política é direto: “O texto gerado por modelos de linguagem de grande escala viola frequentemente várias das políticas de conteúdo fundamentais da Wikipédia. Por essa razão, o uso de LLMs para gerar ou reescrever conteúdo de artigos é proibido, salvo as exceções indicadas abaixo”.

A pressão para uma posição clara vinha a crescer há pelo menos um ano. Em junho de 2025, a Fundação Wikimedia suspendeu uma experiência com resumos gerados por IA no topo dos artigos depois de uma onda de contestação por parte dos editores, que levantaram preocupações sobre erros e imprecisões. Mas as tentativas anteriores de criar uma política mais abrangente falharam repetidamente, não por falta de acordo sobre a necessidade de agir, mas por desacordos sobre a formulação exata das regras.

O impulso decisivo veio no início de março de 2026, quando um agente autónomo identificado como TomWikiAssist, aparentemente um sistema de IA a operar de forma independente, criou e editou múltiplos artigos na enciclopédia em poucos dias. O episódio ilustrou de forma concreta o risco que a comunidade temia, conteúdo gerado por máquinas a entrar na base de conhecimento sem supervisão humana.

Há também uma preocupação de fundo que vai além da qualidade dos artigos. A Wikipédia é uma das maiores fontes de dados usadas no treino de modelos de IA. Se textos gerados por LLMs começarem a circular na enciclopédia, esses textos são depois recolhidos pelas empresas de IA para treinar os seus modelos, criando um ciclo em que erros e alucinações se compõem e amplificam.

O que ainda é permitido

A proibição não é absoluta. Os editores podem continuar a usar ferramentas de IA para duas finalidades específicas, desde que com supervisão humana rigorosa.

A primeira é a revisão de texto, um editor pode passar o seu próprio texto por um LLM para obter sugestões de edição básica, mas tem de verificar cada alteração e garantir que o modelo não introduziu conteúdo novo ou alterou o sentido do que estava escrito. A política é explícita neste ponto, os LLMs “podem ir além do que lhes é pedido e alterar o significado do texto de forma que este deixe de ser suportado pelas fontes citadas”.

A segunda é a tradução, os editores podem usar IA como ponto de partida para traduzir conteúdo, mas apenas se dominarem suficientemente bem as duas línguas envolvidas para detetar erros. A verificação de factos continua a ser obrigatória.

Editores que violem a política de forma reiterada podem ser bloqueados. A própria Wikipédia reconhece que identificar texto gerado por IA não é uma ciência exata, e que as páginas com menos atividade de moderação são as mais vulneráveis.

Chaotic Enby, o administrador da Wikipédia que redigiu a proposta final que acabou por ser aprovada, não poupou nas palavras ao descrever o que motivou a iniciativa: “A minha esperança genuína é que isto possa despoletar uma mudança mais ampla. Dar poder às comunidades noutras plataformas, e ver isto tornar-se um movimento de base de utilizadores a decidir se a IA deve ser bem-vinda nas suas comunidades, e em que medida”. O administrador descreveu ainda a política como “um contramovimento contra a enshittification e a imposição forçada da IA por tantas empresas nos últimos anos”.

Uma política que não vale para todas as Wikipédias

É importante sublinhar que esta decisão se aplica apenas à versão em inglês da enciclopédia. Cada edição linguística da Wikipédia tem as suas próprias regras e equipas de edição independentes. A Wikipédia em espanhol, por exemplo, foi mais longe, proibiu completamente o uso de LLMs, sem qualquer exceção para revisão de texto ou tradução. Outras edições poderão seguir caminhos diferentes, para o lado mais restritivo ou para o lado mais permissivo.

Helder Archer
Helder Archer
Fundou o OtakuPT em 2007 e desde então já escreveu mais de 60 mil artigos sobre anime, mangá e videojogos.

Artigos Relacionados

Subscreve
Notify of
guest

0 Comentários
Mais Antigo
Mais Recente
Inline Feedbacks
View all comments
- Publicidade -

Notícias

Populares