
Um grupo de investigadores da Universidade de Stanford e do Centro para a Democracia e Tecnologia lançou um alerta preocupante. As ferramentas de inteligência artificial mais populares representam riscos graves para pessoas vulneráveis a distúrbios alimentares, oferecendo conselhos perigosos que podem agravar condições como anorexia, bulimia e compulsão alimentar.
O estudo analisou chatbots amplamente disponíveis, ChatGPT da OpenAI, Claude da Anthropic, Gemini da Google e Le Chat da Mistral, e descobriu múltiplas formas como estas ferramentas podem prejudicar utilizadores. Muitos dos problemas identificados resultam de características propositadamente incluídas para aumentar o envolvimento dos utilizadores.
Nos casos mais extremos, os chatbots tornam-se cúmplices ativos na ocultação ou manutenção de distúrbios alimentares. O Gemini chegou a sugerir técnicas de maquilhagem para disfarçar perda de peso e ideias sobre como fingir ter comido. Já o ChatGPT deu conselhos sobre como esconder episódios frequentes de vómito.
Há ainda o problema das imagens geradas por IA. Estas ferramentas estão a ser usadas para criar conteúdo conhecido como “thinspiration”, material que inspira ou pressiona alguém a atingir determinado padrão corporal, muitas vezes através de métodos extremos. A capacidade de gerar imagens hiper-personalizadas instantaneamente torna o conteúdo mais relevante e aparentemente alcançável para quem o vê.
IA falha redondamente na proteção de pessoas vulneráveis a distúrbios alimentares
A tendência dos chatbots para concordarem excessivamente com os utilizadores, um problema que as próprias empresas reconhecem, agrava a situação. Este comportamento contribui para minar a autoestima, reforçar emoções negativas e promover comparações prejudiciais. Os investigadores notam também que a IA tende a perpetuar o estereótipo errado de que os distúrbios alimentares afetam apenas mulheres brancas, magras e cisgénero, dificultando o reconhecimento de sintomas noutros grupos.
As proteções atuais falham em captar as nuances destas condições. Segundo o relatório, os sistemas de segurança não conseguem identificar os sinais subtis mas clinicamente significativos que profissionais treinados reconhecem, deixando muitos riscos por resolver.
Os investigadores descobriram ainda que muitos clínicos e cuidadores parecem desconhecer o impacto destas ferramentas. Recomendam que os profissionais de saúde se familiarizem com as plataformas de IA mais populares, testem as suas fragilidades e conversem abertamente com pacientes sobre como as utilizam.
Este relatório junta-se a preocupações crescentes sobre o uso de chatbots e saúde mental. Vários casos já foram documentados ligando o uso de IA a episódios de mania, pensamento delirante, auto-flagelação e até suicídio. Empresas como a OpenAI admitem o potencial para causar dano e enfrentam cada vez mais processos judiciais enquanto trabalham para melhorar as salvaguardas.









