Cientistas buscam mudar algoritmos para evitar robôs racistas

Pesquisadores treinaram um algoritmo de visão computacional para associar frases a fotos 3x4 de pessoas. O resultado? Julgamentos machistas e sexistas. Veja como desenvolvedores de IA podem contornar o problema
algoritmos
Imagem: Reprodução/Unsplash
Apesar de serem testadas à exaustão, inteligências artificiais sofisticadas não são 100% imparciais e à prova de erros. Algoritmos podem carregar alguns vícios, preconceitos e vieses de seus bancos de dados, o que pode resultar em análises e decisões equivocadas.

Algoritmos baseados em aprendizado de máquina são treinados com bases de dados já existentes. Funciona pela tentativa e erro: após serem ensinados muitas vezes o que é certo e o que não é, uma hora eles sabem identificar sozinhos esses padrões.

O problema é que esses conjuntos de dados, quando coletados em um contexto preconceituoso ou enviesado, acabam levando a IA a reproduzir padrões preconceituosos. Pensando em analisar esses efeitos, os pesquisadores americanos realizaram uma espécie de “Teste das bonecas” para inteligências artificiais. O nome faz referência a um experimento psicológico muito famoso, feito na década de 1940, para avaliar o impacto dos estereótipos sociais nos EUA. Basicamente, crianças de diferentes etnias tinham que analisar bonecas brancas e negras e dizer qual era mais legal, qual era feia, qual gostam mais de brincar — e qual mais se pareciam com elas mesmas.

Por mais triste que a história seja, essa era realidade dos EUA durante até o final da década de 1960, onde a segregação racial era amparada por lei — e, num passado não muito distante, também no Brasil. De volta para o estudo atual, com algoritmos. A ideia do grupo foi testar um braço robótico com um sistema de visão computacional que ligava imagens à palavras. O teste consistiu na associação de fotos 3×4 de pessoas à algumas frases selecionadas. O resultado foi uma relação de imagens a palavras que reproduziu estereótipos racistas e sexistas. Estudos anteriores mostraram que, ao analisar minorias – como amarelos e, principalmente, negros -, máquinas costumam associá-las a comportamentos criminosos e outros tipos de preconceito.

Para remediar esta situação, os pesquisadores propuseram algumas ações para evitar o desenvolvimento de robôs preconceituosos. Uma delas é justamente o aumento da pluralidade nos espaços de trabalho que desenvolvem robôs ou bancos de dados para robótica, para evitar que os dados fiquem de alguma forma enviesados e reproduza estereótipos. Outra sugestão é erradicar completamente o conceito de que traços físicos possam ter relação com traços de personalidade ou caráter, que ainda é usado atualmente em alguns softwares. Isso aconteceu com o algoritmo desenvolvido por pesquisadores da Universidade de Harrisburg, nos EUA, que prevê se uma pessoa é criminosa com base no rosto. O algoritmo ganhou notoriedade e foi duramente criticado por diversas instituições ligadas à pautas de direitos humanos ou que lutam por igualdade.

Willie Agnew, que participou do estudo com o braço robótico, destacou outro artigo que revela que apenas 1% dos trabalhos de pesquisa de machine learning consideram os possíveis impactos negativos que a inteligência artificial pode ter na sociedade.

Agnew defende que o estudo com o algoritmo de visão computacional utilizado juntamente com o braço robótico serve de alerta para a comunidade de desenvolvedores se atentarem para os prováveis danos que a tecnologia pode causar à indivíduos — e, por tabela, reforçar desigualdades que já existem.

Vinicius Marques

Vinicius Marques

É jornalista, vive em São Paulo e escreve sobre tecnologia e games. É grande fã de cultura pop e profundamente apaixonado por cinema.

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas

카지노사이트 온라인바카라 카지노사이트