
A Agência Nacional de Polícia do Japão divulgou pela primeira vez dados sobre menores afetados por deepfakes sexuais, revelando que 79 consultas envolvendo vítimas com menos de 18 anos foram registadas entre janeiro e setembro deste ano. Os números apontam para uma tendência preocupante, mais de metade dos casos ocorreu dentro de escolas, envolvendo frequentemente colegas de turma.
Segundo a agência, os deepfakes sexuais referem-se a imagens falsas obscenas criadas através de inteligência artificial generativa ou ferramentas de edição de imagem, tipicamente colocando o rosto de uma vítima sobre um corpo nu ou sexualmente explícito. Dos 79 casos reportados por menores, os estudantes do ensino básico representaram a maior fatia com 41 casos, seguidos de 25 estudantes do ensino secundário e quatro crianças do ensino primário.
Em termos de responsabilidade, 53,2% dos casos envolveram outros estudantes da mesma escola, como colegas de turma ou alunos de anos superiores. A polícia confirmou que pelo menos 14 das imagens foram definitivamente criadas usando IA generativa, enquanto duas foram produzidas com aplicações de edição de imagem. Embora o método exato não tenha sido identificado nos restantes casos, as autoridades acreditam que a maioria também envolveu imagens ou vídeos gerados por IA.
Embora o número total de consultas não tenha aumentado dramaticamente em comparação com o mesmo período em 2024, que registou 76 casos, a polícia afirma que a idade das vítimas está claramente a diminuir, uma tendência que atribuem à rápida propagação e facilidade de uso das ferramentas de IA generativa. As autoridades também acreditam que muitos casos não são reportados.
A aplicação da lei já começou. A polícia da província de Quioto deteve recentemente um homem por publicar imagens falsas explícitas de uma estudante do ensino secundário nas redes sociais, enquanto um colega que solicitou as imagens foi encaminhado para o Ministério Público. Noutro caso, um grupo de estudantes do ensino básico foi detido depois de usar fotografias de tablets fornecidos pela escola para criar e partilhar imagens falsas de nudez.
Entre janeiro e setembro, a polícia deteve ou encaminhou quatro adultos sob suspeita de crimes como difamação e distribuição de materiais digitais obscenos, enquanto seis menores foram colocados sob custódia protetora. Em resposta, a Agência Nacional de Polícia planeia distribuir panfletos educativos e avisar estudantes através de aulas de prevenção da delinquência sobre o uso imprudente da IA.
Um porta-voz da polícia salientou que criar ou partilhar imagens falsas sexualizadas causa danos duradouros às vítimas, advertindo que “este é um ato imperdoável que deixa feridas que nunca desaparecem”, independentemente de ter sido usada IA ou não.
O problema dos deepfakes sexuais no Japão tem vindo a crescer de forma alarmante. Segundo dados da Agência Nacional de Polícia, a polícia em todo o país recebeu mais de 100 relatos em 2024 relativos a imagens deepfake sexuais de menores criadas com fotografias de eventos escolares e álbuns de formatura.
As fotografias utilizadas para gerar deepfakes sexuais de crianças são frequentemente retiradas de álbuns escolares do tipo feito para turmas de finalistas. Num caso envolvendo IA generativa, a polícia está a investigar um estudante do ensino básico por alegadamente ter criado uma imagem sexualmente explícita de uma colega e vendê-la a outro estudante. Noutro caso, um estudante do ensino básico partilhou uma imagem sexualmente explícita de uma estudante com os seus colegas depois de a criar com base numa fotografia dela num álbum de eventos escolares.
“Os casos de que a polícia tem conhecimento são apenas a ponta do iceberg”, afirmou um oficial sénior da polícia. Dada esta situação, a Agência Nacional de Polícia está a focar-se em cerca de 10 sites e aplicações de IA generativa de imagens que são especialmente populares entre estudantes do ensino básico e secundário. A polícia irá investigar as suas operações, e os resultados serão usados não apenas para investigações criminais, mas também para campanhas de sensibilização direcionadas à juventude através de aulas de prevenção da delinquência.
Sumire Nagamori, representante do Hiiragi Net, um grupo privado de patrulha na internet que reporta casos de deepfake às autoridades, sublinhou a gravidade do problema: “O número de vítimas está a aumentar rapidamente e algumas vítimas são incapaces de confiar nas pessoas porque os seus nomes foram expostos. Uma vez que muitas pessoas desconhecem o dano ou são incapazes de falar, os casos reportados são apenas a ponta do iceberg”.
A posse e produção de imagens sexuais de crianças é regulada pela lei de prevenção da prostituição infantil e pornografia infantil do Japão. No entanto, a lei pressupõe que os casos envolvem uma imagem real de uma criança, pelo que processar deepfakes é difícil. A polícia em todo o país está, portanto, a aplicar outras leis e regulamentos a estes casos.
O Japão fica atrás de outros países asiáticos na regulamentação de deepfakes sexuais. A Coreia do Sul aprovou uma lei em setembro de 2024 que pune não apenas a criação de imagens deepfake, mas também o ato de as visualizar ou possuir. Os infratores enfrentam até três anos de prisão. Em agosto de 2024, o presidente sul-coreano Yoon Suk-yeol declarou uma emergência nacional devido à pornografia deepfake desenfreada, depois de utilizadores do Telegram, maioritariamente estudantes adolescentes, terem carregado imagens sexualmente explícitas geradas por IA de pessoas que conheciam.
Nos Estados Unidos, uma lei federal foi promulgada em maio proibindo a publicação de imagens ou vídeos sexualmente explícitos online sem o consentimento do sujeito em questão. A lei tornou obrigatório para plataformas de redes sociais e outros operadores relevantes removerem tais imagens e vídeos dentro de 48 horas após receberem um pedido das vítimas. O Reino Unido e a Austrália também regulam a partilha de imagens deepfake sexualmente explícitas.
No Japão, o governo da província de Tottori em agosto reviu uma portaria para proibir, com penalidades, a criação de imagens falsas sexualmente explícitas usando fotografias de crianças. No entanto, não existe ainda legislação nacional abrangente.
Um inquérito realizado por uma empresa de segurança norte-americana encontrou 95.820 vídeos deepfake identificados online em 2023, sendo 98% pornográficos. As nações estão cada vez mais a regular deepfakes sexualmente explícitos, mas o Japão continua a lutar com uma zona cinzenta legal que deixa aqueles cujas fotografias foram usadas como dados de treino para tal IA sem um caminho claro para a justiça.
“A lei atual foi concebida para proteger crianças reais, mas a IA generativa obscureceu a linha entre o real e o falso”, afirmou Takashi Nagase, advogado e professor na Universidade de Kanazawa que ajudou a redigir a política de internet no Ministério dos Assuntos Internos e Comunicações.
O governo japonês tem vindo a discutir como responder a esta questão num grupo de trabalho sobre o uso da internet pelos jovens que foi estabelecido sob a Agência de Crianças e Famílias. O governo pretende melhorar a sua compreensão da situação, incluindo através da recolha de informações sobre casos reportados à polícia e às escolas, e compilar um plano nacional até ao final do próximo ano fiscal.









