O Conselho de Supervisão da Meta, um conselho semi-independente responsável por revisar as decisões políticas da empresa, recentemente voltou seu foco para o tratamento de imagens explícitas geradas por IA no Instagram e no Facebook.
Esta medida surge em resposta às preocupações relativas à eficácia dos sistemas de moderação do Meta na detecção e resposta a conteúdo questionável.
Vamos nos aprofundar nos detalhes dessas investigações e nas implicações mais amplas que elas acarretam.
Olhando para os casos
De acordo com Relatório do TechCrunch, em um caso, um usuário relatou um nu de uma figura pública gerado por IA no Instagram, mas os sistemas do Meta não conseguiram removê-lo imediatamente. Apesar de vários relatos, o conteúdo questionável persistiu até a intervenção do Conselho de Supervisão.
Da mesma forma, no Facebook, uma imagem explícita gerada por IA, semelhante a uma figura pública dos EUA, foi compartilhada dentro de um grupo focado em IA. Embora o Meta tenha eventualmente retirado a imagem, permanecem dúvidas sobre a eficácia de seus processos de moderação.
O Conselho de SupervisãoA seleção de casos da Índia e dos EUA ressalta preocupações mais amplas sobre as políticas e práticas de aplicação da plataforma Meta. Ao examinar o impacto global dos conteúdos gerados pela IA, especialmente na segurança das mulheres, o conselho pretende garantir uma proteção equitativa em todas as regiões.
Deepfake é a praga da nossa era
A proliferação da pornografia deepfake e da violência online baseada no género acrescenta outra camada de complexidade. Com ferramentas de IA que permitem a criação de conteúdos explícitos, as plataformas enfrentam desafios na deteção e remoção rápida de material prejudicial. Em regiões como a Índia, onde aumentaram os deepfakes direcionados a atrizes, a necessidade de medidas regulatórias robustas torna-se aparente.
Os especialistas enfatizam a urgência de implementar medidas rigorosas para conter a propagação de conteúdos explícitos gerados por IA. Desde a limitação dos resultados do modelo de IA até à introdução de rotulagem padrão para facilitar a deteção, as medidas proativas são cruciais para mitigar os danos. No entanto, o panorama jurídico permanece fragmentado, com apenas algumas jurisdições promulgando leis que abordam especificamente a pornografia gerada por IA.
Lembra da saga ‘Camarão Jesus’?
No meio destas investigações, o Facebook vê-se envolvido numa saga peculiar: o surgimento de imagens geradas por IA, incluindo representações de Jesus como um camarão. Estas criações surreais, muitas vezes provenientes de páginas sequestradas, destacam a intersecção da tecnologia de IA e da manipulação das redes sociais.
Os motivos por trás desta enxurrada de conteúdo gerado por IA permanecem ambíguos. Enquanto alguns especulam sobre possíveis golpes, outros veem isso como uma busca pela fama viral. No entanto, persistem preocupações relativamente à utilização indevida de imagens sintéticas para campanhas de desinformação.
O passo que deve ser dado
As investigações do Oversight Board sobre imagens geradas por IA nas plataformas Meta lançam luz sobre os crescentes desafios da moderação de conteúdo na era digital. À medida que a tecnologia avança e as ferramentas de IA se tornam mais acessíveis, a necessidade de proteger os utilizadores contra conteúdos nocivos torna-se cada vez mais urgente. Cabe a plataformas como o Facebook adotar medidas proativas e promover um ambiente online mais seguro para todos os usuários.
Crédito da imagem em destaque: meta