Índice do Artigo

Que horror!

Homem é condenado por usar IA para criar de imagens sexuais de crianças

Sul-coreano é sentenciado a dois anos e meio de prisão por violação da Lei de Proteção à Criança e ao Adolescente

Homem usa IA
Créditos: Štefan Štefančík/Unsplash

Um homem sul-coreano foi condenado por utilizar prompts de inteligência artificial (IA) para criar imagens explicitamente sexuais envolvendo crianças, de acordo com informações do The Korea Herald.

O homem, que não teve o nome revelado, na faixa dos quarenta anos, foi acusado de violar a Lei de Proteção à Criança e ao Adolescente e condenado a dois anos e meio de prisão.

Segundo informações do Ministério Público, o homem teria usado um programa de IA gerador de imagens para criar aproximadamente 360 imagens de conteúdo sexual. Importante ressaltar que ele não chegou a distribuir essas imagens, que foram apreendidas pela polícia.

O acusado utilizava prompts como “10 anos de idade”, “nudez” e “criança” para gerar essas imagens. O tribunal considerou as imagens suficientemente realistas para rejeitar a alegação de que não poderiam ser consideradas sexualmente exploratórias.

A decisão do tribunal evidenciou que imagens falsas, porém realistas, de menores criadas com tecnologia de “alto nível” podem ser consideradas como conteúdo sexualmente abusivo, informou o Ministério Público à CNN.

Outros casos também envolvendo IA

Recentemente, uma pequena cidade na Espanha foi abalada pela criação e disseminação de imagens nuas geradas por IA de jovens meninas em várias de suas escolas.

Mais de 20 meninas, com idades entre 11 e 17 anos, foram identificadas como vítimas na cidade de Almendralejo, na região oeste da Extremadura.

As deepfake images teriam sido feitas utilizando o aplicativo Clothoff, que é movido a IA e permite aos usuários “despir meninas gratuitamente”. A maior parte das imagens foi criada a partir de fotos tiradas das redes sociais das meninas, onde elas apareciam vestidas.

A tecnologia de deepfake utiliza a IA para gerar vídeo, áudio ou imagens novas e realistas para retratar algo que não aconteceu de fato.

Essa tecnologia tem um histórico obscuro e frequentemente é utilizada para criar pornografia não consensual, como alertou um anúncio de utilidade pública do FBI em junho de 2023.

O FBI continua recebendo relatos de vítimas, incluindo crianças menores e adultos não consensuais, cujas fotos ou vídeos foram alterados para conteúdo explícito”, afirmou a agência, acrescentando que esse conteúdo muitas vezes é “circulado publicamente nas redes sociais ou em sites pornográficos, com o propósito de assediar as vítimas ou para esquemas de extorsão sexual.

O Ministério Público sul-coreano não respondeu imediatamente a um pedido de comentário do Insider, feito fora do horário de expediente normal.

Fonte: The Korea Herald | Via: CNN