Aplicativos de Nudify que usam IA para despir mulheres em fotos estão em ascensão em popularidade, suscitando preocupações sobre pornografia não consensual.

Aplicativos de Nudify com IA ganham popularidade, levantando questões sobre privacidade e ética.

Em setembro, apenas no mês de setembro, 24 milhões de pessoas visitaram sites de despir-se, de acordo com a empresa de análise de redes sociais Graphika.

Muitos desses serviços de despir-se, ou “nudificar”, usam redes sociais populares para marketing, segundo a Graphika. Por exemplo, desde o início deste ano, o número de links que promovem aplicativos de despir-se aumentou mais de 2.400% nas mídias sociais, incluindo no X e Reddit, disseram os pesquisadores. Os serviços utilizam inteligência artificial para recriar uma imagem de forma que a pessoa apareça nua. Muitos desses serviços só funcionam para mulheres.

Esses aplicativos fazem parte de uma tendência preocupante de pornografia não consensual que está sendo desenvolvida e distribuída devido aos avanços na inteligência artificial – um tipo de mídia fabricada conhecida como deepfake pornô. A proliferação desses conteúdos encontra sérios obstáculos legais e éticos, uma vez que as imagens frequentemente são retiradas das redes sociais e distribuídas sem o consentimento, controle ou conhecimento do indivíduo retratado.

O aumento de sua popularidade corresponde ao lançamento de vários modelos de difusão de código aberto, ou inteligência artificial que pode criar imagens muito superiores às criadas apenas alguns anos atrás, afirmou a Graphika. Devido ao fato de serem de código aberto, os modelos utilizados pelos desenvolvedores desses aplicativos estão disponíveis gratuitamente.

“Você pode criar algo que realmente parece realista”, disse Santiago Lakatos, um analista da Graphika, observando que os deepfakes anteriores frequentemente eram borrados.

Uma imagem postada no X para divulgar um aplicativo de despir-se utilizava uma linguagem que sugeria aos clientes a possibilidade de criar imagens nuas e enviá-las para a pessoa cuja imagem foi digitalmente despir-se, incitando assédio. Enquanto isso, um desses aplicativos pagou por conteúdo patrocinado no YouTube do Google e aparece como o primeiro resultado quando se busca a palavra “nudificar”.

Um porta-voz do Google afirmou que a empresa não permite anúncios “que contenham conteúdo sexualmente explícito. Analisamos os anúncios em questão e estamos removendo aqueles que violam nossas políticas”. Nem o X nem o Reddit responderam a pedidos de comentário.

Além do aumento de tráfego, os serviços, alguns dos quais cobram US$ 9,99 por mês, afirmam em seus websites que estão atraindo muitos clientes. “Eles estão fazendo bons negócios”, disse Lakatos. Descrevendo um dos aplicativos de despir-se, ele disse: “Se levarmos as palavras deles ao pé da letra, o website deles anuncia que tem mais de mil usuários por dia”.

A pornografia não consensual de figuras públicas há muito tempo é um flagelo da internet, mas especialistas em privacidade estão cada vez mais preocupados com o fato de os avanços na tecnologia de IA terem tornado o software deepfake mais fácil e eficaz.

“Estamos vendo cada vez mais pessoas comuns atuando como alvos comuns nesse tipo de prática”, disse Eva Galperin, diretora de segurança cibernética da Electronic Frontier Foundation. “Isso é visto entre adolescentes do ensino médio e pessoas que estão na faculdade”.

Muitas vítimas nunca ficam sabendo sobre as imagens, mas mesmo aquelas que ficam podem enfrentar dificuldades em fazer com que as autoridades investiguem ou em encontrar recursos financeiros para iniciar uma ação legal, disse Galperin.

Atualmente, não existe uma lei federal que proíba a criação de deepfakes pornográficos, embora o governo dos EUA proíba a geração desse tipo de imagem envolvendo menores. Em novembro, um psiquiatra infantil da Carolina do Norte foi condenado a 40 anos de prisão por utilizar aplicativos de despir-se em fotos de seus pacientes, a primeira acusação desse tipo sob a lei que proíbe a geração de deepfakes de abuso sexual infantil.

O TikTok bloqueou a palavra-chave “despir-se”, um termo de pesquisa popular associado a esses serviços, advertindo qualquer pessoa que estiver procurando pela palavra que ela “pode estar associada a comportamentos ou conteúdos que violam nossas diretrizes”, de acordo com o aplicativo. Um representante do TikTok se recusou a dar mais detalhes. Em resposta às perguntas, a Meta Platforms Inc. também começou a bloquear palavras-chave associadas à busca por aplicativos de despir-se. Um porta-voz se recusou a comentar.