O algoritmo de corte automático de fotos do Twitter favorecia “rostos jovens, magros e de pele clara”, de acordo com os resultados de um concurso realizado pela rede social.
A empresa desativou o corte automático de fotos em março deste ano. Muitos usuários apontaram que, ao postar uma imagem de grupo, os brancos são destacados sobre os negros.
O concurso organizado pelo Twitter corroborou a situação. Os participantes, especialistas em Inteligência Artificial, destacaram os vieses que alimentam o sistema da rede.
Os vencedores mostraram que o algoritmo favorecia “rostos jovens, magros, de pele clara, textura de pele macia, com características estereotipadamente femininas”. O primeiro lugar foi para Bogdan Kulynych, um estudante graduado da EPFL: ele recebeu $ 3.500.
Em segundo lugar, foi apontado que era tendencioso contra pessoas de cabelos brancos ou grisalhos, implicando em discriminação por idade.
Enquanto estava em terceiro lugar, notou-se que favorecia a escrita em inglês em relação ao árabe nas imagens.
Procurando melhorias na IA do Twitter
Lembremos que o sistema está em constante desenvolvimento, por isso ainda pode ser melhorado. O que o Twitter estava procurando era, com base nas opiniões e descobertas de especialistas, uma orientação melhor para o corte automático de fotos.
Rumman Chowdhury, chefe da equipe META do Twitter, analisado os resultados.
3º lugar vai para @RoyaPak que experimentou o algoritmo de saliência do Twitter usando memes bilíngues. Esta entrada mostra como o algoritmo favorece o corte de scripts latinos em vez de scripts árabes e o que isso significa em termos de danos à diversidade linguística online.
– Engenharia do Twitter (@TwitterEng) 9 de agosto de 2021
Ele disse: “Quando pensamos em preconceitos em nossos modelos, não se trata apenas do acadêmico ou experimental”, disse o executivo. (É sobre) como isso também funciona com a maneira como pensamos sobre a sociedade. ”
“Eu uso a frase ‘a vida imitando a arte, e a arte imitando a vida’. Criamos esses filtros porque achamos que isso é bonito e isso acaba treinando nossos modelos e conduzindo essas noções irrealistas do que significa ser atraente. ”
A equipe META do Twitter estuda a ética, a transparência e a responsabilidade do aprendizado de máquina.
Como o vencedor chegou à sua conclusão?
Para Bogdan Kulynych chegar à sua conclusão sobre o algoritmo do Twitter, ele usou um programa de IA chamado StyleGAN2. Com ele, ele gerou um grande número de rostos reais que variavam de acordo com a cor da pele, assim como traços faciais femininos versus masculinos e magreza.
Nossa, essa foi uma conclusão inesperada da semana! Minha inscrição recebeu o 1º lugar no programa Algorithmic Bias do Twitter. Muito obrigado a @ruchowdh, @TwitterEng Equipe META e o júri …
– Bogdan Kulynych (@hiddenmarkov) 8 de agosto de 2021
Como o Twitter explica, Kulynych alimentou as variantes no algoritmo de corte automático de fotos da rede, descobrindo qual era a sua favorita.
“(Eles cortaram) aqueles que não atendiam às preferências do algoritmo para peso corporal, idade e cor da pele,” o especialista destacou em seus resultados.
Empresas e preconceitos raciais, como você lida com eles?
O Twitter, com seu concurso, confirmou a natureza generalizada do preconceito social nos sistemas algorítmicos. Agora vem um novo desafio: como combater esses preconceitos?
“IA e aprendizado de máquina são apenas o Velho Oeste, não importa o quão habilidoso você acha que sua equipe de ciência de dados é”, observou Patrick Hall, pesquisador de IA.
“Se você não está encontrando seus erros, ou a abundância de insetos não está encontrando seus erros, quem está encontrando seus erros? Porque você tem erros. ”
Suas palavras remetem ao trabalho de outras empresas quando apresentam falhas semelhantes. The Verge lembra que, quando uma equipe do MIT descobriu preconceito racial e de gênero nos algoritmos de reconhecimento facial da Amazon, a empresa desacreditou os pesquisadores.
Posteriormente, teve que proibir temporariamente o uso desses algoritmos.