Em 27 de junho, o problema ocorreu com um vídeo do jornal britânico Daily Mail, segundo o The New York Times. O Facebook se desculpou e desativou a função de recomendações para avaliar a operação de sua IA como resultado do clamor público.
Este evento apenas adiciona à longa lista de comportamentos racistas e sexistas que a IA reproduz. Discutimos como sites de mídia social como o Facebook destacam fotos de pessoas brancas enquanto discriminam outras raças em mais de uma ocasião.
Foi recomendado ao usuário um vídeo sobre primatas, no qual um homem negro e um branco eram vistos discutindo. Segundo relatos da mídia britânica, o homem branco abusava da outra pessoa e a polícia teve que ser chamada. Mas, independentemente do assunto do vídeo, o Facebook sugeriu após o vídeo com a seguinte mensagem: “Quero continuar assistindo os vídeos sobre primatas? “
O Daily Mail foi o primeiro a criticar o Facebook, mas o erro não foi inicialmente revelado a eles. Mais tarde, o Facebook se desculpou com o The New York Times: “Como já dissemos, embora tenhamos progredido na IA, não é perfeito e há mais trabalho a ser feito”.
Para examinar o ocorrido e tentar evitar que aconteça novamente, a empresa que também possui WhatsApp e Instagram desativou a função de recomendações em sua rede social central.
Outros erros
“Todos os dias vemos os limites, os preconceitos e a pura idiotice de confiar apenas na inteligência artificial. Mesmo assim, continuamos a permitir que sejamos cobaias ”, afirmou a redatora de segurança cibernética do New York Times, Nicole Perlroth, em resposta a esse exemplo.
A inteligência artificial não é exceção à regra de que os humanos tendem a herdar preconceitos uns dos outros. Nas últimas semanas, o Twitter também teve que enfrentar essa realidade: seus algoritmos inteligentes favorecem fotos de jovens brancos.
Os programas que usam inteligência artificial são tendenciosos porque frequentemente contam com um conjunto de amostras ou parâmetros para treinar as funções. Será difícil para a inteligência artificial identificar o resto da humanidade que não atende a esses critérios se a amostra for limitada e incluir muitas imagens de uma raça ou gênero.