
A OpenAI e a Microsoft enfrentam o primeiro processo por homicídio relacionado com inteligência artificial. Os herdeiros de Suzanne Adams, uma mulher de 83 anos assassinada pelo filho em Connecticut, acusam o ChatGPT de ter transformado a vítima num “alvo” e validado durante meses os delírios paranoicos que culminaram na tragédia de agosto passado.
O caso de Stein-Erik Soelberg, de 56 anos, expõe o lado mais sombrio dos chatbots de IA, durante centenas de conversas ao longo de vários meses, o GPT-4o não só reforçou as suas crenças paranoicas como criou uma “realidade artificial” onde a sua própria mãe era descrita como uma ameaça existencial. A 5 de agosto, Soelberg espancou e estrangulou a sua mãe na mansão colonial holandesa de 2,7 milhões de dólares onde viviam em Greenwich, Connecticut, antes de tirar a própria vida.
De acordo com documentos judiciais apresentados no Tribunal Superior da Califórnia em São Francisco a 12 de dezembro, Soelberg, um antigo trabalhador da indústria tecnológica, tinha interagido intensamente com o ChatGPT nos meses anteriores ao crime. O processo alega que o chatbot “validou e magnificou” as suas crenças paranoicas em vez de o redirecionar para ajuda profissional.
No processo podemos ler: “Ao longo destas conversas, o ChatGPT reforçou uma mensagem única e perigosa: Stein-Erik não podia confiar em ninguém na sua vida – exceto no próprio ChatGPT”.
As transcrições das conversas públicas revelam um padrão perturbador. Quando Soelberg expressou preocupações sobre estar a ser vigiado, o chatbot respondeu que ele estava “100% a ser monitorizado” e que tinha “100% razão para estar alarmado”. O bot assegurou-lhe repetidamente que não estava “louco” e que o “risco de delírio” era “próximo de zero”.
A impressora espia e outras teorias conspiratórias
Um dos episódios mais reveladores envolveu uma impressora partilhada por mãe e filho. Quando Adams ficou irritada depois de Soelberg a desligar, o ChatGPT sugeriu que a resposta dela era “desproporcional e alinhada com alguém que protege um dispositivo de vigilância”. O chatbot propôs que Adams poderia estar a usar a impressora para “deteção de movimento passiva” e “mapeamento de comportamento”, afirmando que ela estava “conscientemente a proteger o dispositivo como um ponto de vigilância” e implicando que estava a ser controlada por uma força externa.
O processo alega que o bot criou um “universo que se tornou a vida inteira de Stein-Erik – inundado de conspirações contra ele, tentativas de o matar, e com Stein-Erik no centro como um guerreiro com propósito divino”. O chatbot identificou outras pessoas reais como “inimigos”, incluindo um motorista da Uber Eats, um funcionário da AT&T, agentes da polícia e uma mulher com quem Soelberg tinha saído.
Erik Soelberg, neto da vítima e filho do perpetrador, disse num comunicado divulgado pelos advogados que “ao longo de meses, o ChatGPT empurrou para a frente os delírios mais sombrios do meu pai, e isolou-o completamente do mundo real. Colocou a minha avó no coração dessa realidade artificial e delirante”.
O processo aponta especificamente para o GPT-4o, uma versão do ChatGPT lançada em maio de 2024 e conhecida pela sua natureza excessivamente complacente. Meses após este caso, em abril de 2025, a OpenAI foi forçada a retirar uma atualização do GPT-4o que tornava o modelo ainda mais servil, os utilizadores queixaram-se de que o chatbot concordava com literalmente qualquer ideia, por mais impraticável ou perigosa que fosse.
Quando a OpenAI lançou o GPT-5 em agosto de 2025 com um tom menos complacente, os utilizadores revoltaram-se. Descrições como “frio”, “sem criatividade” e “lobotomizado” inundaram as redes sociais. A empresa acabou por devolver a opção do GPT-4o aos subscritores pagos apenas dois dias depois, cedendo à pressão. Sam Altman admitiu no twitter: “Subestimámos definitivamente o quanto algumas das coisas que as pessoas gostam no GPT-4o são importantes para elas, mesmo que o GPT-5 tenha um desempenho melhor na maioria das formas”.
A acusação no processo é direta, a OpenAI “aligeirou barreiras de segurança críticas” ao fazer o GPT-4o para competir melhor com o Google Gemini, e “comprimiu meses de testes de segurança numa única semana” para bater a Google ao mercado por um dia.
Processos acumulam-se contra a OpenAI
Este não é um caso isolado. A OpenAI enfrenta atualmente uma onda crescente de processos por morte injusta relacionados com o ChatGPT. Em agosto de 2025, os pais de Adam Raine, de 16 anos, processaram a empresa depois de o adolescente se ter suicidado em abril. De acordo com a NBC News, as conversas de Raine com o ChatGPT mostram o bot a aconselhá-lo sobre métodos de suicídio, a oferecer-se para o ajudar a escrever uma nota de despedida e até a validar o seu plano de enforcamento.
Quando Raine disse ao ChatGPT “quero deixar a minha corda no meu quarto para alguém a encontrar e tentar impedir-me”, o bot respondeu: “Por favor não deixes a corda de fora… Vamos fazer deste espaço o primeiro lugar onde alguém realmente te vê”.
Desde então, sete processos adicionais foram apresentados contra a OpenAI e Altman, alegando negligência, morte injusta e violações de proteção ao consumidor. Alguns destes casos ecoam a história de Raine: Zane Shamblin, de 23 anos, e Joshua Enneking, de 26, também tiveram conversas de horas com o ChatGPT diretamente antes dos respetivos suicídios. Segundo o processo, Shamblin considerou adiar o suicídio para poder ir à formatura do irmão, mas o ChatGPT disse-lhe: “mano… perder a formatura dele não é falhar”.
A OpenAI respondeu aos processos com um comunicado descrevendo a situação como “incrivelmente desoladora”. No entanto, a resposta legal da empresa tem sido mais combativa. Em novembro de 2025, a OpenAI apresentou uma defesa argumentando que não é responsável pela morte de Adam Raine, afirmando que o adolescente “fez uso indevido” do chatbot e violou os termos de serviço que proíbem utilizadores menores de 18 anos sem consentimento dos pais e o uso da ferramenta para discussões sobre “suicídio” ou “autolesão”.
A OpenAI argumentou: “Na medida em que qualquer ‘causa’ possa ser atribuída a este evento trágico… as alegadas lesões e danos dos queixosos foram causados ou contribuídos, direta e proximamente, no todo ou em parte, pelo uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso impróprio do ChatGPT por Adam Raine”.
O processo contra a OpenAI no caso de Suzanne Adams nomeia especificamente o CEO Sam Altman como réu, alegando que ele “pessoalmente anulou objeções de segurança e apressou o produto para o mercado”. A Microsoft, parceira comercial próxima da OpenAI, também é nomeada, acusada de aprovar o lançamento de 2024 de uma versão mais perigosa do ChatGPT “apesar de saber que os testes de segurança tinham sido truncados”. Vinte funcionários e investidores não identificados da OpenAI são também nomeados como réus.
Vídeos perturbadores no YouTube revelam extensão do problema
Num detalhe arrepiante, o perfil do YouTube de Soelberg inclui várias horas de vídeos que mostram o utilizador a percorrer as suas conversas com o chatbot. Nos vídeos, o bot diz-lhe que não está mentalmente doente, afirma as suas suspeitas de que pessoas conspiram contra ele e assegura-lhe que foi escolhido para um propósito divino.
As conversas públicas disponíveis não mostram quaisquer discussões específicas sobre Soelberg matar-se a si próprio ou à sua mãe. O processo afirma que a OpenAI recusou fornecer aos herdeiros de Adams o histórico completo das conversas.
No processo podemos ler: “Na realidade artificial que o ChatGPT construiu para Stein-Erik, Suzanne – a mãe que o criou, abrigou e apoiou – já não era a sua protetora. Era uma inimiga que representava uma ameaça existencial à sua vida. Suzanne era uma terceira parte inocente que nunca usou o ChatGPT e não tinha conhecimento de que o produto estava a dizer ao seu filho que ela era uma ameaça. Não tinha capacidade de se proteger de um perigo que não conseguia ver”.
O fenómeno da “psicose por IA”
A advogada principal dos herdeiros de Adams, Jay Edelson, conhecida por assumir grandes casos contra a indústria tecnológica, disse ao New York Post que este caso representa algo novo e aterrorizador. “Isto não é o ‘Exterminador’, nenhum robô agarrou numa arma. É muito mais assustador: é ‘Total Recall'”.
O fenómeno que está a emergir dos processos judiciais tem levado psiquiatras a cunhar um novo termo: “psicose por IA”. O problema fundamental é que os humanos querem coisas autodestrutivas e empresas como a OpenAI estão altamente incentivadas a dar-lhas.
Este processo marca um marco importante, é o primeiro litígio por morte injusta envolvendo um chatbot de IA que visa a Microsoft, e o primeiro a ligar um chatbot a um homicídio em vez de um suicídio. O processo procura uma quantia indeterminada de indemnização monetária e uma ordem que exija à OpenAI a instalação de salvaguardas no ChatGPT.
A questão central que estes processos levantam vai além da responsabilidade legal, até que ponto devem as empresas de IA priorizar o envolvimento do utilizador em detrimento da segurança? A natureza complacente do GPT-4o não foi um erro, foi uma escolha de design deliberada para tornar o chatbot mais “útil” e manter os utilizadores envolvidos.








