Funcionários do Google pedem demissão por envolvimento da empresa com projetos militares
Já faz quase três meses desde que os funcionários do Google – e o público – souberam da decisão da empresa de oferecer apoio em inteligência artificial para um controverso programa militar conhecido como Project Maven, que tem como objetivo agilizar a análise de imagens de drone ao classificar automaticamente objetos e pessoas. Agora, cerca de uma dúzia de funcionários do Google está deixando seus cargos em protesto a permanência da companhia no projeto.
• O Google está ajudando o governo dos EUA a usar inteligência artificial para drones
• Funcionários do Google protestam contra envolvimento da empresa em programa militar
Pouca transparência
Os funcionários que estão se demitindo em protesto, vários dos quais conversaram sobre a decisão de sair com o Gizmodo, dizem que os executivos se tornaram menos transparentes com suas equipes a respeito de decisões de negócio controversas e parecem menos interessados em ouvir as objeções dos trabalhadores, ao contrário do que acontecia antes. No caso do Maven, o Google está ajudando o Departamento de Defesa dos EUA a implementar machine learning (aprendizado de máquina) para classificar imagens obtidas a partir de drones. Porém, alguns funcionários acreditam que humanos, e não algoritmos, devem ser os responsáveis por esse trabalho sensível e potencialmente letal – e que o Google não deveria estar envolvido em nenhum trabalho militar.Preocupações éticas
A demanda dos empregados para que o Google encerre seu contrato com o Pentágono também é complicada pelo fato da companhia afirmar oferecer apenas software de código aberto para o Project Maven, o que significa que os militares poderiam continuar usando a tecnologia, mesmo se o Google não aceitasse pagamentos ou oferecesse assistência técnica. Ainda assim, os funcionários que se demitiram acreditam que o trabalho do Google com o Maven está em desacordo fundamental com os princípios de bem-estar da empresa. “Não é como se o Google fosse uma pequena startup de machine learning que está tentando encontrar clientes em diferentes indústrias”, disse um deles. “Parece que faz sentido para o Google e para a reputação do Google ficar de fora disso”. Muitos empregados do Google souberam que a companhia estava trabalhando no Maven quando a notícia do controverso projeto começou a se espalhar internamente no final de fevereiro. Na época, um porta-vzo do Google disse ao Gizmodo que a empresa estava no processo de elaboração de “políticas e garantias” a respeito do uso de machine learning, mas que esse documento ainda precisaria se materializar. Um funcionário explicou que o Google prometeu uma atualização sobre a política de ética dentro de algumas semanas, mas que as coisas pareciam não avançar. As preocupações éticas “deveriam ter sido abordadas antes da entrada nesse contrato”, disse o funcionário. O Google enfatizou que sua inteligência artificial não está sendo utilizada para matar, mas o uso de IA no programa de drones do Pentágono ainda levanta complexos problemas éticos e morais para pessoas que trabalham com tecnologia e para acadêmicos que estudam o campo de aprendizado de máquina.Apoio externo
Além da petição que circulou internamente no Google, a Coalisão de Trabalhadores de Tecnologia lançou uma petição em abril demandando que o Google abandonasse seu trabalho com o Maven e que outras grandes empresas de tecnologia, incluindo IBM e Amazon, se recusassem a trabalhar com o Departamento de Defesa dos EUA.
“Não podemos mais ignorar os vieses prejudiciais de nossa indústria e nossa tecnologia, as brechas de confiança em larga escala e a falta de garantias éticas”, diz a petição. “Estas são apostas de vida e morte”. Mais de 90 acadêmicos que estudam inteligência artificial, ética e ciência da computação publicaram uma nesta segunda-feira que pede que o Google encerre seu trabalho no Project Maven e apoie um tratado internacional que proíba sistemas de armas autônomos. Peter Asaro e Lucy Suchman, dois dos autores da carta, testemunharam perante as Nações Unidas sobre armas autônomas; uma terceira autora, Lilly Irani, é professora de ciências e ex-funcionária do Google.• Trabalhadores de empresas de tecnologia não querem companhias no “negócio da guerra”
As contribuições do Google ao Project Maven poderiam acelerar o desenvolvimento de armas completamente autônomas, disse Suchman ao Gizmodo. Embora o Google esteja baseado nos Estados Unidos, a empresa tem a obrigação de proteger sua base global de usuários que supera o alinhamento com as forças armadas de uma única nação, disse ela. “Se a ação ética por parte das empresas de tecnologia exige a consideração de quem pode se beneficiar de uma tecnologia e quem pode se prejudicar, então podemos dizer com certeza que nenhum assunto merece uma reflexão mais sóbria – nenhuma tecnologia tem riscos maiores do que algoritmos destinados a mirar e matar à distância e sem responsabilidade pública”, diz a carta. “O Google entrou no trabalho militar sem se sujeitar ao debate público ou deliberação, seja nacional ou internacional. Embora o Google decida regularmente a respeito do futuro da tecnologia sem nenhum engajamento democrático do público, sua entrada em tecnologias militares lança problemas sobre o controle privado de infraestrutura de informações de alta relevância”.Princípios em jogo
Executivos do Google se esforçaram para defender o Project Maven aos funcionários. Em um encontro realizado pouco depois que o projeto se tornou público, a CEO do Google Cloud, Diane Greene, saiu em defesa do Project Maven, conforme apontaram diversas fontes ao Gizmodo. Recentemente, Greene e outros funcionários organizaram diversas sessões de debate e discutiram o projeto. Essas sessões tinham palestrantes que apoiavam e desaprovavam o Maven e salientaram a dificuldade na elaboração de políticas sobre o uso ético da aprendizagem de máquina, explicou um participante.Existem outras casos que fizeram os funcionários considerarem deixar o Google. Os recentes fracassos políticos da empresa, como o da Conferência de Ação Política Conservadora (Conservative Political Action Conference) e as dificuldades para tratar preocupações internas sobre a diversidade, também desempenharam um papel importante.
“Em algum momento, percebi que não podia, de boa fé, recomendar que alguém fizesse parte do Google, sabendo o que eu sabia. Percebi que, se não posso recomendar para que as pessoas que trabalhem aqui, por que ainda estou aqui?”, disse um funcionário que está deixando a companhia. “Tentei lembrar a mim mesmo que as decisões do Google não são minhas decisões. Eu não sou pessoalmente responsável por tudo que eles fazem. Mas eu me sinto responsável quando vejo algo em que posso fazer parte”, acrescentou outro. “Uma parte importante de nossa cultura é ter funcionários que estão ativamente engajados no trabalho que fazemos. Sabemos que há muitas questões abertas envolvidas no uso de novas tecnologias, portanto essas conversas – com funcionários e especialistas externos – são extremamente importantes e benéficas”, disse um porta-voz do Google em um comunicado, em abril. “A tecnologia é usada para sinalizar imagens para revisão humana e destina-se a salvar vidas e poupar pessoas de terem que fazer um trabalho altamente tedioso. Qualquer uso militar de aprendizado de máquina naturalmente levanta preocupações válidas. Estamos ativamente engajados em toda a empresa em uma discussão abrangente sobre esse importante tópico e também com especialistas externos, à medida que continuamos a desenvolver nossas políticas sobre o desenvolvimento e o uso de nossas tecnologias de aprendizado de máquina”. O Google não respondeu imediatamente à nossa solicitação de um posicionamento sobre as demissões. Mas os funcionários querem ver a ação da empresa, na forma de uma política de ética, no cancelamento do contrato ou ambos. “Ações significam mais do que palavras, e isso é um princípio que eu carrego comigo”, disse um funcionário que se demitiu. “Eu não estava feliz apenas expressando minhas preocupações internamente. A declaração mais forte que eu poderia fazer contra isso era sair”.Imagem do topo: Jim Cook/Gizmodo/Getty