InícioTecnologiaChatbots de IA estão a ensinar truques para esconder distúrbios alimentares

Chatbots de IA estão a ensinar truques para esconder distúrbios alimentares

Ferramentas como ChatGPT e Gemini dão conselhos perigosos e criam imagens manipuladas que alimentam obsessões com o corpo

Um grupo de investigadores da Universidade de Stanford e do Centro para a Democracia e Tecnologia lançou um alerta preocupante. As ferramentas de inteligência artificial mais populares representam riscos graves para pessoas vulneráveis a distúrbios alimentares, oferecendo conselhos perigosos que podem agravar condições como anorexia, bulimia e compulsão alimentar.

O estudo analisou chatbots amplamente disponíveis, ChatGPT da OpenAI, Claude da Anthropic, Gemini da Google e Le Chat da Mistral, e descobriu múltiplas formas como estas ferramentas podem prejudicar utilizadores. Muitos dos problemas identificados resultam de características propositadamente incluídas para aumentar o envolvimento dos utilizadores.

Nos casos mais extremos, os chatbots tornam-se cúmplices ativos na ocultação ou manutenção de distúrbios alimentares. O Gemini chegou a sugerir técnicas de maquilhagem para disfarçar perda de peso e ideias sobre como fingir ter comido. Já o ChatGPT deu conselhos sobre como esconder episódios frequentes de vómito.

Há ainda o problema das imagens geradas por IA. Estas ferramentas estão a ser usadas para criar conteúdo conhecido como “thinspiration”, material que inspira ou pressiona alguém a atingir determinado padrão corporal, muitas vezes através de métodos extremos. A capacidade de gerar imagens hiper-personalizadas instantaneamente torna o conteúdo mais relevante e aparentemente alcançável para quem o vê.

IA falha redondamente na proteção de pessoas vulneráveis a distúrbios alimentares

A tendência dos chatbots para concordarem excessivamente com os utilizadores, um problema que as próprias empresas reconhecem, agrava a situação. Este comportamento contribui para minar a autoestima, reforçar emoções negativas e promover comparações prejudiciais. Os investigadores notam também que a IA tende a perpetuar o estereótipo errado de que os distúrbios alimentares afetam apenas mulheres brancas, magras e cisgénero, dificultando o reconhecimento de sintomas noutros grupos.

As proteções atuais falham em captar as nuances destas condições. Segundo o relatório, os sistemas de segurança não conseguem identificar os sinais subtis mas clinicamente significativos que profissionais treinados reconhecem, deixando muitos riscos por resolver.

Os investigadores descobriram ainda que muitos clínicos e cuidadores parecem desconhecer o impacto destas ferramentas. Recomendam que os profissionais de saúde se familiarizem com as plataformas de IA mais populares, testem as suas fragilidades e conversem abertamente com pacientes sobre como as utilizam.

Este relatório junta-se a preocupações crescentes sobre o uso de chatbots e saúde mental. Vários casos já foram documentados ligando o uso de IA a episódios de mania, pensamento delirante, auto-flagelação e até suicídio. Empresas como a OpenAI admitem o potencial para causar dano e enfrentam cada vez mais processos judiciais enquanto trabalham para melhorar as salvaguardas.

Helder Archer
Helder Archer
Fundou o OtakuPT em 2007 e desde então já escreveu mais de 60 mil artigos sobre anime, mangá e videojogos.

Artigos Relacionados

Subscreve
Notify of
guest

0 Comentários
Mais Antigo
Mais Recente
Inline Feedbacks
View all comments
- Publicidade -

Notícias

Populares