Embora uma definição de justiça como uma palavra possa ser acordada, em termos concretos, sua aplicação concreta pode ser objeto de análise posterior.
Assim como definir o que é justo ou não pode ser um verdadeiro dilema para as pessoas, também é um desafio para a inteligência artificial e que uma nova iniciativa da Michigan State University está buscando amenizar.
Aulas de imparcialidade para algoritmos de IA
Considerando que os sistemas de inteligência artificial estão cada vez mais presentes nas atividades e serviços do dia a dia, é necessário dar imparcialidade suficiente às plataformas envolvidas na decisão de quem recebe o atendimento médico adequado, quem é elegível para um empréstimo bancário ou quem é designado um trabalho.
Com financiamento da Amazon e da National Science Foundation, Pang-Ning Tan, pesquisador e professor do Departamento de Ciência da Computação e Engenharia da universidade dos EUA mencionada, passou o ano passado treinando algoritmos de inteligência artificial para ajudá-los a discernir entre justiça e injustiça de suas ações.
“Estamos tentando projetar sistemas de IA que não sejam apenas para a ciência da computação, mas que também tragam valor e benefícios para a sociedade. Então comecei a pensar quais são as áreas que são desafiadoras para a sociedade no momento ”, disse o pesquisador sobre a lógica de sua iniciativa.

Este projeto levanta a necessidade de desenvolver iniciativas com impacto direto nos seus usuários. Desenvolvendo esse mesmo ponto, Tan também comentou que “a equidade é um grande problema, especialmente à medida que nos tornamos mais dependentes de IA para as necessidades diárias, como cuidados médicos, mas também coisas que parecem banais, como filtrar spam ou colocar histórias em sua seção de notícias . ”
Mesmo como sistemas automatizados, os algoritmos de IA podem carregar certos preconceitos herdados dos dados usados em seu treinamento ou até mesmo ser transmitidos diretamente por seus criadores. Por exemplo, de acordo com uma pesquisa realizada pela equipe de pesquisa de Tan, há casos de sistemas de IA que discriminam racialmente ao gerenciar cuidados médicos e segregação sexual contra mulheres em sistemas de candidatura a empregos.
Sobre essa realidade, Abdol-Hossein Esfahanian, membro da equipe de pesquisa de Tan, comentou que “algoritmos são criados por pessoas e as pessoas geralmente têm preconceitos, então esses preconceitos são filtrados … queremos justiça em todos os lugares e queremos uma melhor compreensão de como avaliá-lo.
Com o apoio de teorias das ciências sociais, Tan e sua equipe buscam aproximar a noção mais universal possível de justiça. Para atender a esse fim, os princípios de justiça transmitidos ao algoritmo não virão de uma única visão, desafiando-o a decidir entre posições concorrentes ou contraditórias.
“Estamos tentando conscientizar a IA da justiça e, para isso, é preciso dizer o que é justo. Mas como você projeta uma medida de justiça que seja aceitável para todos? ” observou Tan, acrescentando que “estamos analisando como uma decisão afeta não apenas os indivíduos, mas também suas comunidades e círculos sociais”.
O trabalho é ambicioso e, apesar dos avanços, está apenas começando. “Esta é uma pesquisa muito contínua. Há muitos problemas e desafios – como você define justiça, como pode ajudar as pessoas a confiar nesses sistemas que usamos todos os dias ”, refletiu Tan, acrescentando que“ nosso trabalho como pesquisadores é encontrar soluções para esses problemas ”.
O relatório completo desta pesquisa pode ser acessado no site Site da Michigan State University.
