Stanford cria instituto para garantir que IA represente a humanidade, mas ele é majoritariamente feito de homens brancos
Stanford just launched their Institute for Human-Centered Artificial Intelligence () with great fanfare. The mission: “The creators and designers of AI must be broadly representative of humanity.” 121 faculty members listed.Not a single faculty member is Black. — Chad Loder (@chadloder)
(“A Stanford acaba de lançar seu Instituto de Inteligência Artificial Centrada em Humanos (@StanfordHAI) com uma grande fanfarra. A missão: ‘Os criadores e designers de IA devem ser amplamente representativos da humanidade’. Cento e vinte e um membros do corpo docente listados. Nem um único membro do corpo docente é negro.”)
Quando o Gizmodo entrou em contato com a Universidade Stanford na quinta-feira de manhã, o site do instituto foi rapidamente atualizado para incluir uma membro do corpo docente que não estava na lista, , uma professora assistente de filosofia. Bidadanure na equipe do instituto antes de nosso e-mail para a universidade na quinta-feira, de acordo com uma da página preservada no Internet Archive, da Wayback Machine, mas ela nesta semana no evento de abertura do instituto. De fato, a universidade parecia estar adicionando Bidadanure, e mais tarde sua biografia, à página do corpo docente enquanto eu escrevia este artigo. Com base em nossa contagem, o corpo docente do instituto inclui 72 homens brancos de um total 114 funcionários, ou 63% — um número que aparentemente pode mudar a qualquer momento. A Universidade Stanford não respondeu às nossas perguntas.A cerca de uma hora de carro de Stanford, esperei na quarta-feira (20) à noite em uma longa fila de 150 pessoas em Berkeley, na Califórnia, para entrar em um auditório lotado. Todos viemos ouvir o Dr. Safiya Noble, do Oxford Internet Institute, autor do livro Algorithms of Oppression (Algoritmos de Opressão, em tradução livre), de 2018, falar sobre como os algoritmos do Vale do Silício — o código que conduz tudo, desde os mecanismos de busca até a inteligência artificial — podem reforçar o racismo.
“Era muito difícil encontrar pessoas que estivessem em um comitê de dissertação em 2010 que estariam dispostas a colocar seu nome na reta e dizer que achavam que a tecnologia poderia discriminar ou que os algoritmos podem discriminar”, disse Noble, que iniciou sua pesquisa há uma década em Berkeley. “O que a maioria das pessoas estava dizendo na época era que ‘é apenas matemática. O código não pode discriminar’. Esse era o discurso dominante. Eu levei muitas pancadas tentando argumentar que pode haver viés racista e sexista em nossa plataforma tecnológica. E, no entanto, aqui estamos nós hoje.” Atualmente, vivemos em uma era em que o é real e pode atingir desproporcionalmente as comunidades minoritárias; a é tratada por inteligência artificial e pode discriminar as mulheres; o Google e os algoritmos do Facebook muitas vezes decidem quais informações vemos e qual teoria da conspiração o YouTube deve nos oferecer a seguir. Mas os algoritmos que tomam essas decisões são bem guardados e com impacto global. No Vale do Silício, a conversa e os palestrantes mudaram. Não se trata mais de saber se a tecnologia pode discriminar. As perguntas agora incluem quem pode ser afetado, como podemos corrigir isso e o que estamos construindo. Quando um grupo de engenheiros majoritariamente brancos se junta para construir esses sistemas, o impacto nas comunidades negras é particularmente flagrante. Algoritmos podem reforçar o racismo em campos como e . O viés algorítmico reflete o que vemos no mundo real. A inteligência artificial reflete seus desenvolvedores e os dados com que é treinada. Onde antes havia uma mitologia popular de que os algoritmos eram apenas a maneira de a tecnologia servir ao conhecimento objetivo, agora existe um argumento grande e cada vez mais global sobre quem está construindo a tecnologia e o que ela está fazendo com o restante de nós. O surgimento da indústria de inteligência artificial está impulsionando essa conversa ainda mais à medida que sistemas de inteligência artificial que dominarão nossas vidas estão aprendendo e automatizando decisões em processos que são cada vez mais opacos e responsabilizáveis. No mês passado, mais de 40 grupos de direitos civis escreveram uma carta ao Congresso norte-americano pedindo que eles abordassem a discriminação baseada em dados. E, em dezembro, o Electronic Privacy Information Center (EPIC) enviou um ao Comitê Judiciário da Câmara detalhando o argumento de que a “” deveria ser exigida das empresas de tecnologia. “Na intersecção de lei e tecnologia, conhecer o algoritmo é um direito humano fundamental”, Marc Rotenberg, presidente do EPIC, sobre a questão. O objetivo declarado do novo instituto da Universidade Stanford é admirável. Mas eles têm um longo caminho até juntar um grupo que, de fato, represente amplamente a humanidade.