Em uma jogada de autocongratulação, a Microsoft anunciou enormes melhorias nesta terça-feira (26) ao seu . A API Face, baseada no Azure, foi criticada em um neste ano por sua taxa de erro — de até 20,8% — ao tentar identificar o gênero de pessoas negras, particularmente mulheres com tons de pele mais escuros. Em contraste, a inteligência artificial da Microsoft foi capaz de identificar o gênero de fotos de “rostos masculinos mais claros” com uma taxa de erro de 0%, concluiu o estudo.
• Acionistas da Amazon pedem para Jeff Bezos parar de vender reconhecimento facial à polícia
• Grupo no Reino Unido pede proibição de sistema de reconhecimento facial com altas taxas de falso positivo
Como outras empresas desenvolvendo tecnologias de reconhecimento facial, a Microsoft não tinha imagens suficientes de pessoas negras e pardas, e isso ficou claro nos resultados de seus testes de reconhecimento. O desta terça-feira coloca o ônus principalmente nos dados usados ao construir o software de reconhecimento facial, afirmando que tais tecnologias só são “tão boas quanto os dados usados para treiná-las”. Considerando o dilema, a solução mais óbvia foi um novo conjunto de dados, contendo mais imagens de pessoas pardas e negras, o que a Microsoft fez.
“A equipe da API Face fez três grandes mudanças. Eles expandiram e revisaram conjuntos de dados de treinamento e benchmark, lançaram novos esforços de coleta de dados para melhorar os dados de treinamento focando especificamente em tom de pele, gênero e idade e melhoraram o classificador para produzir resultados de maior precisão.” Com a mais recente leva de melhorias, a Microsoft disse que foi capaz de reduzir as taxas de erro para homens e mulheres com pele mais escura em até 20 vezes. Para todas as mulheres, a companhia disse que as taxas de erro foram reduzidas em nove vezes.
Uma olhada rápida na te dá um indício de por que o software de reconhecimento facial da Microsoft pode não ser tão bom em identificar rostos escuros:
[galeria_embeded]
No post de blog, a pesquisadora sênior da Microsoft Hanna Wallach tocou em uma das falhas mais amplas da indústria, apontando como dados gerados por uma sociedade preconceituosa levariam a resultados preconceituosos quando se trata de treinar sistemas de aprendizado de máquina. “Tivemos conversas sobre diferentes maneiras de se detectar preconceito e operacionalizar a justiça”, disse Wallach. “Conversamos sobre esforços de coleta de dados para diversificar os dados de treinamento. Conversamos sobre diferentes estratégias para testar internamente nossos sistemas antes de aplicá-las.”
A falha aqui nunca foi apenas que a tecnologia não funcionava apropriadamente para alguém que não fosse branco e homem. Da mesma forma, os problemas não acabam com a Microsoft melhorando sua identificação de gênero de pessoas negras e pardas.
Em janeiro, a que o ICE (Serviço de Imigração e Controle de Aduanas dos EUA) iria , em parte para “processar dados em dispositivos de entrada ou utilizar recursos de deep learning para acelerar o reconhecimento facial e a identificação”. O anúncio até agora levou a funcionários pedirem que a empresa cancele seu contrato com a agência governamental.
Mesmo que as tecnologias de reconhecimento facial se tornem menos preconceituosas, elas ainda podem ser usadas para o mal contra pessoas de cor. Na segunda-feira (25), o CEO da startup de reconhecimento facial Kairos, Brian Brackeen, escreveu sobre nas mãos do governo e da polícia.
Imagem do topo: Getty