
A polícia de Tóquio deteve esta segunda-feira um homem de 31 anos acusado de criar e vender online imagens sexuais deepfake de celebridades femininas japonesas geradas por inteligência artificial. Tatsuro Chiba, desempregado e residente em Sapporo, admitiu ter criado as imagens para ganhar dinheiro, segundo fontes da investigação.
De acordo com a polícia metropolitana de Tóquio, Chiba publicou pelo menos 14 imagens falsas obscenas entre 6 de dezembro de 2024 e 3 de maio de 2025 em dois sites de membros pagos. As autoridades acreditam que terá carregado pelo menos 2200 destas imagens em sites de subscrição desde o verão de 2023, acumulando vendas de aproximadamente 11 milhões de ienes (cerca de 67 mil euros).
Meio milhão de imagens criadas com IA gratuita
A investigação revelou que Chiba utilizou software de IA generativa gratuito para criar as imagens. Segundo as autoridades, o suspeito treinou a inteligência artificial com imagens de aproximadamente 300 pessoas, incluindo atrizes e ídolos pop. No total, foram encontradas cerca de 520 mil imagens falsas no seu computador pessoal.
Chiba confessou ter aprendido a criar imagens deepfake pornográficas através de artigos e vídeos online. O esquema funcionava de forma relativamente simples, publicava amostras no X (antigo Twitter) e Instagram, direcionando os interessados para os dois sites de subscrição onde as imagens completas estavam disponíveis. Por uma taxa mais elevada, também criava imagens personalizadas mediante pedido.
As autoridades acreditam que Chiba usou o dinheiro ganho para participar em eventos e outras atividades relacionadas com a sua ídolo pop underground favorita, entre outras coisas.
Este não é um caso isolado. O Japão tem vindo a enfrentar uma crise crescente de deepfakes sexualizados. Dados da Agência Nacional de Polícia revelam que foram reportados mais de 79 casos de deepfakes direcionados a menores de 18 anos apenas entre janeiro e setembro de 2025.
O mais perturbador é que, em cerca de metade destes casos, os criadores das imagens eram colegas de escola das vítimas. Dos 79 casos registados, 41 envolveram estudantes do ensino básico, 25 do secundário e quatro crianças do ensino primário. Em 42 casos, as imagens foram criadas ou partilhadas por colegas de escola das vítimas.
As autoridades confirmaram casos onde um trabalhador de escritório masculino criou um vídeo pornográfico de uma colega feminina usando uma imagem que guardou durante uma reunião online e partilhou com colegas. Noutro caso, um estudante masculino criou imagens pornográficas de estudantes femininas a partir de um álbum de eventos escolares e partilhou-as com os colegas de turma.
Grok da X (twitter) sob escrutínio governamental
O problema tornou-se tão grave que o governo japonês interveio na sexta-feira passada, solicitando ao X que tome medidas contra a alteração e sexualização de imagens através da ferramenta de inteligência artificial Grok. A plataforma tem registado um aumento súbito de publicações geradas por IA com imagens alteradas de forma inapropriada de pessoas reais.
Kimi Onoda, ministra da Segurança Económica e também ministra para a estratégia de IA, confirmou que o Gabinete solicitou à plataforma melhorias nas salvaguardas e a limitação da produção de imagens sexualmente alteradas pelo Grok. “Planeamos examinar prontamente todas as opções possíveis, incluindo medidas legais, se a situação não melhorar”, afirmou Onoda.
Os funcionários também submeteram questões escritas sobre as medidas que o X tem implementadas para prevenir a criação de deepfakes e outras imagens que violam a privacidade das pessoas, propriedade intelectual e o direito de controlar o uso da sua imagem.
Com dezenas de milhões de utilizadores da plataforma no Japão, o governo também está a pedir ao operador que reporte o seu plano para lidar com a questão e poderá emitir orientações baseadas na lei de IA se não se verificar melhoria. A lei de IA do Japão, que entrou em pleno vigor em setembro, não prevê penalidades, limitando a intervenção governamental principalmente a investigações e emissão de orientações formais quando ocorrem violações.
O Japão junta-se a uma lista crescente de países a investigar o X e o Grok. A Malásia e a Indonésia já bloquearam temporariamente o acesso ao Grok devido à criação de conteúdo explícito. O Reino Unido e o Canadá também avançaram com as suas próprias investigações.
A xAI, empresa por detrás do Grok, implementou recentemente ajustes para impedir que os utilizadores editem imagens de pessoas reais em roupa reveladora, como biquínis. A empresa também bloqueou utilizadores baseados na sua localização de gerar imagens de pessoas em roupa reveladora onde tal é ilegal, sem identificar essas jurisdições.
Enquanto isso, este caso de Chiba marca a segunda detenção relacionada com deepfakes de celebridades no Japão nos últimos meses. Em outubro de 2025, a polícia deteve Hiroya Yokoi, de 31 anos, da cidade de Akita, por alegadamente criar imagens sexuais falsas de celebridades femininas com tecnologia de inteligência artificial generativa e exibi-las online. Yokoi terá criado um total de cerca de 20 mil imagens sexualmente explícitas de 262 mulheres e acumulou vendas de 1,2 milhões de ienes entre outubro de 2024 e setembro de 2025.
Vazio legal deixa vítimas desprotegidas
O problema é ainda agravado por um vazio legal significativo. De acordo com especialistas jurídicos, atualmente não existe no Japão uma lei que proíba diretamente a criação de deepfakes. Dependendo de como o conteúdo é gerado, pode potencialmente violar leis existentes relacionadas com direitos de autor, difamação ou direito de publicidade.
Sumire Nagamori, diretora do grupo privado de patrulha na internet Hiiragi Net, alertou que “praticamente não há forma de as pessoas se protegerem” destes crimes. A situação é particularmente preocupante porque as ferramentas de IA generativa tornaram-se tão acessíveis que qualquer pessoa pode criar imagens deepfake convincentes sem qualquer treino técnico, simplesmente seguindo tutoriais online.
O dano causado por estas imagens deepfake sexuais criadas usando IA generativa que qualquer pessoa pode usar está a espalhar-se rapidamente pelo Japão, com fotografias faciais e álbuns não apenas de celebridades, mas também de pessoas comuns a serem usados indevidamente. A facilidade com que estas ferramentas podem ser utilizadas, combinada com a falta de legislação específica e a crescente sofisticação da tecnologia, cria uma tempestade perfeita que está a deixar cada vez mais vítimas sem proteção ou recurso legal adequado.






