
A decisão estava há muito tempo a ser discutida, mas chegou finalmente a 20 de março de 2026, a Wikipédia em inglês proibiu o uso de modelos de linguagem de grande escala, os chamados LLMs, sigla em inglês para large language models, na criação ou reescrita de artigos. A nova política foi aprovada através de um processo formal de consulta à comunidade de editores voluntários, com 44 votos a favor e apenas 2 contra.
O texto da política é direto: “O texto gerado por modelos de linguagem de grande escala viola frequentemente várias das políticas de conteúdo fundamentais da Wikipédia. Por essa razão, o uso de LLMs para gerar ou reescrever conteúdo de artigos é proibido, salvo as exceções indicadas abaixo”.
A pressão para uma posição clara vinha a crescer há pelo menos um ano. Em junho de 2025, a Fundação Wikimedia suspendeu uma experiência com resumos gerados por IA no topo dos artigos depois de uma onda de contestação por parte dos editores, que levantaram preocupações sobre erros e imprecisões. Mas as tentativas anteriores de criar uma política mais abrangente falharam repetidamente, não por falta de acordo sobre a necessidade de agir, mas por desacordos sobre a formulação exata das regras.
O impulso decisivo veio no início de março de 2026, quando um agente autónomo identificado como TomWikiAssist, aparentemente um sistema de IA a operar de forma independente, criou e editou múltiplos artigos na enciclopédia em poucos dias. O episódio ilustrou de forma concreta o risco que a comunidade temia, conteúdo gerado por máquinas a entrar na base de conhecimento sem supervisão humana.
Há também uma preocupação de fundo que vai além da qualidade dos artigos. A Wikipédia é uma das maiores fontes de dados usadas no treino de modelos de IA. Se textos gerados por LLMs começarem a circular na enciclopédia, esses textos são depois recolhidos pelas empresas de IA para treinar os seus modelos, criando um ciclo em que erros e alucinações se compõem e amplificam.
O que ainda é permitido
A proibição não é absoluta. Os editores podem continuar a usar ferramentas de IA para duas finalidades específicas, desde que com supervisão humana rigorosa.
A primeira é a revisão de texto, um editor pode passar o seu próprio texto por um LLM para obter sugestões de edição básica, mas tem de verificar cada alteração e garantir que o modelo não introduziu conteúdo novo ou alterou o sentido do que estava escrito. A política é explícita neste ponto, os LLMs “podem ir além do que lhes é pedido e alterar o significado do texto de forma que este deixe de ser suportado pelas fontes citadas”.
A segunda é a tradução, os editores podem usar IA como ponto de partida para traduzir conteúdo, mas apenas se dominarem suficientemente bem as duas línguas envolvidas para detetar erros. A verificação de factos continua a ser obrigatória.
Editores que violem a política de forma reiterada podem ser bloqueados. A própria Wikipédia reconhece que identificar texto gerado por IA não é uma ciência exata, e que as páginas com menos atividade de moderação são as mais vulneráveis.
Chaotic Enby, o administrador da Wikipédia que redigiu a proposta final que acabou por ser aprovada, não poupou nas palavras ao descrever o que motivou a iniciativa: “A minha esperança genuína é que isto possa despoletar uma mudança mais ampla. Dar poder às comunidades noutras plataformas, e ver isto tornar-se um movimento de base de utilizadores a decidir se a IA deve ser bem-vinda nas suas comunidades, e em que medida”. O administrador descreveu ainda a política como “um contramovimento contra a enshittification e a imposição forçada da IA por tantas empresas nos últimos anos”.
Uma política que não vale para todas as Wikipédias
É importante sublinhar que esta decisão se aplica apenas à versão em inglês da enciclopédia. Cada edição linguística da Wikipédia tem as suas próprias regras e equipas de edição independentes. A Wikipédia em espanhol, por exemplo, foi mais longe, proibiu completamente o uso de LLMs, sem qualquer exceção para revisão de texto ou tradução. Outras edições poderão seguir caminhos diferentes, para o lado mais restritivo ou para o lado mais permissivo.








