A OpenAI anunciou uma série extensa de alterações ao ChatGPT destinadas a melhorar a segurança para menores, estabelecer limites de conteúdo mais claros e dar aos utilizadores maior controlo sobre o comportamento da inteligência artificial.
Uma das maiores atualizações é que o ChatGPT aplicará agora regras de segurança mais rigorosas para utilizadores que se acredita terem menos de 18 anos. Isto inclui o bloqueio de conteúdo de flerte e o treino da IA para não se envolver com tópicos relacionados com autolesão ou suicídio, mesmo em contextos ficcionais ou criativos, quando utilizada por adolescentes.
O sistema de previsão de idade da OpenAI pretende aplicar automaticamente estes bloqueios através da avaliação de como um utilizador interage com o ChatGPT. Nos casos em que a idade de um utilizador não é óbvia, serão tratados como adolescentes por defeito para “jogar pelo seguro”.
A empresa também esclareceu que as conversas com o ChatGPT não são vistas por humanos, exceto quando existe uma preocupação séria de segurança, como ameaças de dano. Se menores mostrarem sinais de angústia e não for possível contactar os pais, a OpenAI disse que tentará “contactar os pais dos utilizadores e, se não conseguir, contactará as autoridades em caso de perigo iminente”.
Embora estas restrições se limitem exclusivamente a utilizadores conhecidos ou suspeitos de terem menos de 18 anos, a OpenAI afirmou que o objetivo da iniciativa era introduzir “regras mais rigorosas, maior supervisão e limites mais claros para todos”.
As novas diretrizes da OpenAI surgem semanas depois de os pais Matt e Maria Raine terem apresentado um processo judicial contra a OpenAI, alegando que o software encorajou o seu filho, Adam, a cometer suicídio.
O sistema de deteção de idade funciona através da análise de padrões de interação, linguagem utilizada e outros indicadores comportamentais. Quando há dúvidas sobre a idade do utilizador, o sistema opta pela abordagem mais conservadora, aplicando automaticamente as proteções destinadas a menores.