Um aumento significativo nos serviços de nudez deepfake de IA, conforme relatado pela Graphika, destaca uma tendência perturbadora no uso de inteligência artificial para gerar imagens íntimas não consensuais, levantando sérias preocupações éticas e legais.
Crescente popularidade das ferramentas de IA para despir
Graphika, uma empresa de análise de mídia social, relatado um aumento preocupante no uso de ferramentas de “despir a IA”. Estas ferramentas generativas de IA estão a ser calibradas com precisão para remover roupas das imagens enviadas pelos utilizadores, com um aumento impressionante de 2.408% nas referências online a estes serviços.
Imagens íntimas sintéticas não consensuais (NCII) normalmente envolvem a geração de conteúdo explícito sem o consentimento dos indivíduos retratados. Essas ferramentas representam ameaças de assédio direcionado, sextorsão e produção de material de abuso sexual infantil (CSAM).
A Internet Watch Foundation (IWF), uma empresa de vigilância da Internet sediada no Reino Unido, destacado o desafio de distinguir entre pornografia gerada por IA e imagens autênticas, complicando os esforços para combater o abuso online.
Resposta internacional
As Nações Unidas têm descrito A mídia gerada por IA como uma ameaça “séria e urgente” à integridade da informação. Em resposta, o Parlamento Europeu e o Conselho chegaram recentemente a acordo sobre as regras que regem a utilização da IA na UE.
Source: Aumento de serviços de nudez deepfake gerados por IA gera alarme