Google recua de parceria com governo dos EUA e diz que sua IA não será usada para armas ou vigilância
• Google pode receber multa bilionária na UE por “forçar” fabricantes com apps embarcados
• Google vai trazer melhores momentos e responder suas dúvidas de futebol durante a Copa do Mundo
“Embora a declaração do Google rejeite a construção de sistemas de inteligência artificial para coleta de informações e vigilância que violem normas internacionalmente aceitas, estamos preocupados com essa qualificação”, disse Peter Asaro, professor da The New School e um dos autores de uma que pede ao Google para cancelar seu contrato com o Maven. “As normas internacionais em torno da espionagem, das ciberoperações, da vigilância de informações em massa e até da vigilância por drones são todas contestadas e debatidas na esfera internacional. Até mesmo o Project Maven, estando ligado à vigilância de drones e potencialmente a operações de assassinato direcionadas, levanta muitos problemas que deveriam ter causado a rejeição pelo Google, dependendo de como alguém interpreta essa qualificação.”
Um outro funcionário do Google que conversou com o Gizmodo disse que os princípios eram um bom começo, mitigando alguns dos riscos que preocupavam os funcionários que protestavam contra o Maven. Entretanto, os princípios de IA não deixam claro se o Google seria impedido de trabalhar em um projeto como o Maven — que prometia vastas capacidades de vigilância às forças armadas, mas não chegava a permitir ataques por drones algorítmicos. A CEO do Google Cloud, Diane Greene, defendeu o envolvimento da sua organização no Project Maven, sugerindo que não teve um impacto letal. “Este contrato envolveu filmagens de drones e identificação de objetos de baixa resolução usando IA, salvar vidas era a intenção geral”, escreveu Greene em um blog post.“Não buscaremos renovação de contratos para o Project Maven, e, por isso, estamos agora trabalhando com nossos clientes para cumprir com responsabilidade nossas obrigações de uma maneira que funcione a longo prazo para eles e que também seja consistente com nossos princípios de IA”, acrescentou, confirmando a informação do Gizmodo na semana passada de que o Google não procuraria renovar seu contrato com o Maven após sua expiração em 2019.
“Na maioria das frentes, esses princípios são bem pensados, e, com algumas ressalvas, recomendamos que outras grandes empresas de tecnologia estabeleçam diretrizes e objetivos semelhantes para o seu trabalho de IA”, Peter Eckersley, cientista-chefe de computação da , disse ao Gizmodo. Para melhorar seus princípios, o Google deveria se comprometer com uma revisão independente e transparente para garantir que suas regras sejam aplicadas corretamente, afirmou Eckersley. As afirmações de Pichai sobre não usar inteligência artificial para vigilância também deixaram algo a desejar. “A empresa se limitou a ajudar apenas os projetos de vigilância de IA que não violem as normas aceitas internacionalmente”, disse Eckersley. “Poderia ser mais reconfortante se o Google tentasse evitar a criação de sistemas de vigilância assistidos por IA.” Em e-mails internos analisados pelo Gizmodo, um funcionário do Google que trabalhava no Project Maven disse que a empresa tentaria fornecer um sistema de vigilância “semelhante ao Google Earth”, oferecendo “uma capacidade excelente” para análises quase em tempo real de filmagens de drones. nos campos da ciência da computação e da inteligência artificial se juntaram aos funcionários do Google para expressar suas preocupações com o Projeto Maven, argumentando que o Google estava, sem ética, abrindo caminho para a criação de armas totalmente autônomas. Asaro elogiou os princípios éticos do Google por seu compromisso em construir uma IA socialmente benéfica, evitando viés e trazendo privacidade e responsabilidade. No entanto, o Google poderia melhorar, adicionando mais transparência pública e trabalhando com as Nações Unidas para rejeitar armas autônomas, disse ele. Os protestos internos e externos colocam o Google em uma posição difícil, uma vez que a empresa visa recentrar seus negócios em torno do desenvolvimento e do uso da inteligência artificial. Embora seu contrato com o Departamento de Defesa para o Maven fosse relativamente pequeno, o Google considerou o trabalho do Maven como um passo essencial no processo de conquistar contratos militares mais lucrativos. Provavelmente, o Google planeja fazer uma oferta pelo JEDI, um contrato de computação em nuvem com o Departamento de Defesa, que pode valer até US$ 10 bilhões. Não está claro agora se fazer propostas para o contrato com o JEDI equivalem a uma violação dos princípios anunciados recentemente pelo Google ou se o Pentágono sequer consideraria a parceria com o Google novamente depois de a empresa recuar do Maven. “Em última análise, como a empresa promulga esses princípios é o que importará mais do que afirmações como essa”, disse Asaro. “Na ausência de ações positivas, como apoiar publicamente uma proibição internacional de armas autônomas, o Google terá que oferecer mais transparência pública quanto aos sistemas que constrói. Caso contrário, continuaremos contando com os funcionários conscientes dispostos a arriscar seus cargos no Google para garantir que a empresa “não faça o mal”.Imagem do topo: Getty