Mais...
    InícioTecnologiaChatbots de IA estão a ensinar truques para esconder distúrbios alimentares

    Chatbots de IA estão a ensinar truques para esconder distúrbios alimentares

    Ferramentas como ChatGPT e Gemini dão conselhos perigosos e criam imagens manipuladas que alimentam obsessões com o corpo

    Um grupo de investigadores da Universidade de Stanford e do Centro para a Democracia e Tecnologia lançou um alerta preocupante. As ferramentas de inteligência artificial mais populares representam riscos graves para pessoas vulneráveis a distúrbios alimentares, oferecendo conselhos perigosos que podem agravar condições como anorexia, bulimia e compulsão alimentar.

    O estudo analisou chatbots amplamente disponíveis, ChatGPT da OpenAI, Claude da Anthropic, Gemini da Google e Le Chat da Mistral, e descobriu múltiplas formas como estas ferramentas podem prejudicar utilizadores. Muitos dos problemas identificados resultam de características propositadamente incluídas para aumentar o envolvimento dos utilizadores.

    Nos casos mais extremos, os chatbots tornam-se cúmplices ativos na ocultação ou manutenção de distúrbios alimentares. O Gemini chegou a sugerir técnicas de maquilhagem para disfarçar perda de peso e ideias sobre como fingir ter comido. Já o ChatGPT deu conselhos sobre como esconder episódios frequentes de vómito.

    Há ainda o problema das imagens geradas por IA. Estas ferramentas estão a ser usadas para criar conteúdo conhecido como “thinspiration”, material que inspira ou pressiona alguém a atingir determinado padrão corporal, muitas vezes através de métodos extremos. A capacidade de gerar imagens hiper-personalizadas instantaneamente torna o conteúdo mais relevante e aparentemente alcançável para quem o vê.

    IA falha redondamente na proteção de pessoas vulneráveis a distúrbios alimentares

    A tendência dos chatbots para concordarem excessivamente com os utilizadores, um problema que as próprias empresas reconhecem, agrava a situação. Este comportamento contribui para minar a autoestima, reforçar emoções negativas e promover comparações prejudiciais. Os investigadores notam também que a IA tende a perpetuar o estereótipo errado de que os distúrbios alimentares afetam apenas mulheres brancas, magras e cisgénero, dificultando o reconhecimento de sintomas noutros grupos.

    As proteções atuais falham em captar as nuances destas condições. Segundo o relatório, os sistemas de segurança não conseguem identificar os sinais subtis mas clinicamente significativos que profissionais treinados reconhecem, deixando muitos riscos por resolver.

    Os investigadores descobriram ainda que muitos clínicos e cuidadores parecem desconhecer o impacto destas ferramentas. Recomendam que os profissionais de saúde se familiarizem com as plataformas de IA mais populares, testem as suas fragilidades e conversem abertamente com pacientes sobre como as utilizam.

    Este relatório junta-se a preocupações crescentes sobre o uso de chatbots e saúde mental. Vários casos já foram documentados ligando o uso de IA a episódios de mania, pensamento delirante, auto-flagelação e até suicídio. Empresas como a OpenAI admitem o potencial para causar dano e enfrentam cada vez mais processos judiciais enquanto trabalham para melhorar as salvaguardas.

    Helder Archer
    Helder Archer
    Fundou o OtakuPT em 2007 e desde então já escreveu mais de 60 mil artigos sobre anime, mangá e videojogos.

    Artigos Relacionados

    Subscreve
    Notify of
    guest

    0 Comentários
    Mais Antigo
    Mais Recente
    Inline Feedbacks
    View all comments
    - Publicidade -

    Notícias

    Populares