- A ferramenta de IA da Meta, Imagine, foi criticada por se esforçar para criar imagens de casais ou amigos inter-raciais
- Semelhante ao incidente de Gêmeos, Imagine se esforça para descrever as relações inter-raciais com precisão
- Meta reconhece o problema e promete resolver o preconceito nos sistemas de IA por meio de feedback e melhorias dos usuários
- As preocupações éticas em torno das ferramentas de renderização de IA destacam a necessidade dos gigantes da tecnologia priorizarem a transparência e abordarem eficazmente o preconceito racial
A indústria de IA está em crise entre a ferramenta de criação de IA Imagine da Meta e Meta AI, Sora e DALL-E 3. De acordo com relatórios recentes, a ferramenta de IA da Meta foi criticada por ter problemas para criar imagens de casais ou amigos inter-raciais.
Em testes realizados pela CNN, a ferramenta produziu imagens de casais da mesma raça em vez de criar imagens de casais inter-raciais. Isto é semelhante ao incidente de Gêmeos que compartilhamos com vocês antes. Gêmeos também teve um problema semelhante e recebeu uma ótima reação.
Aqui está tudo o que você precisa saber…
Imagine que com Meta AI não é possível gerar imagens de pessoas de raças diferentes
Com o avanço da tecnologia, a inteligência artificial se difundiu em todos os setores, inclusive nas ferramentas de criação de imagens.
Entrando nos detalhes dos testes, a ferramenta de renderização de IA supostamente teve dificuldade para renderizar imagens de pares Asiático-Branco, Preto-Branco e Asiático-Preto.
Meta reconheceu o problema e ligou-se a um postagem no blog publicado em setembro sobre a criação responsável de recursos eficientes de IA. A postagem no blog da empresa dizia:
“Estamos tomando medidas para reduzir o preconceito. Abordar potenciais preconceitos em sistemas produtivos de IA é uma nova área de investigação. Tal como acontece com outros modelos de IA, ter mais pessoas usando os recursos e compartilhando feedback pode nos ajudar a refinar nossa abordagem.”
Os gigantes da tecnologia precisam fazer mais para eliminar o preconceito racial nos modelos de IA.
Enquanto isso, Sora, ferramenta de produção de vídeo da OpenAI, lançou um novo videoclipe. Posso dizer que realmente fez um trabalho incrível. Por outro lado, o CEO do YouTube, Neal Mohan, alertou a OpenAI sobre o treinamento de Sora. O aviso veio depois que Mira Murati, CTO da OpenAI, não conseguiu responder à pergunta: “Sora foi treinado com vídeos do YouTube?” Joanna Stern, do Wall Street Journal, perguntou no mês passado.
Você pode assistir ao videoclipe produzido por Sora abaixo:
Embora as ferramentas de criação de imagens de IA sejam entusiasmantes pelas suas possibilidades, também levantam questões éticas importantes, como o preconceito racial. Os gigantes da tecnologia precisam de fazer mais para resolver estas questões e avançar de forma transparente.
Crédito da imagem em destaque: Dima Solomin/Unsplash
Source: O gerador de imagens AI da Meta não consegue produzir imagens de casais inter-raciais