CEO do Google diz que inteligência artificial deve ser regulada
Como poderia se esperar de um editorial de um CEO de uma empresa trilionária, o texto faz um bom papel de relações públicas: o executivo exalta alguns dos avanços da inteligência artificial que foram alcançados pela sua empresa, como o algoritmo capaz de ajudar médicos a identificar câncer de mama; a IA que faz do que os modelos atuais e a iniciativa com a companhia aérea Lufthansa que usa .
Os contrapontos que Pichai apresenta, no entanto, pouco tem a ver com os negócios do Google. “Ainda assim, a história está repleta de exemplos de como as virtudes da tecnologia não são garantidas. Motores de combustão interna permitiram que as pessoas viajassem para além de suas próprias áreas, mas também causaram mais acidentes. A internet tornou possível se conectar com qualquer pessoa e obter informação de qualquer lugar, mas também facilitou que a desinformação de espalhasse.”O executivo expressa que há preocupações sobre as consequências da inteligência artificial, desde o uso de deepfakes a iniciativas “nefastas” com o reconhecimento facial. Segundo ele, empresas como o Google não podem desenvolver tecnologias promissoras e permitir que as “forças do mercado” decidam como serão usadas. “É nosso dever garantir que a tecnologia seja aproveitada para o bem e disponível para todos”, comenta.
Pichai cita ainda que, em 2018, o Google publicou suas próprias diretrizes de IA para “guiar o desenvolvimento ético e o uso da tecnologia”:
“Essas diretrizes ajudam-nos a evitar preconceitos, a testar rigorosamente a segurança, a desenvolver com privacidade e a tornar a tecnologia responsável perante as pessoas. Elas também especificam áreas onde não iremos projetar ou implantar IA, como o apoio da vigilância em massa ou para a violação dos direitos humanos.”
A criação dessas diretrizes veio após críticas por envolvimento em um projeto militar dos Estados Unidos, batizado de Project Maven. Na ocasião, o Gizmodo revelou que a empresa estava ajudando o Departamento de Defesa dos Estados Unidos a desenvolver uma inteligência artificial que pudesse ser usada para analisar imagens de drones.
Em outubro do mesmo ano, a companhia abandonou a competição para um projeto de computação em nuvem do Pentágono que poderia valer até US$ 10 bilhões e durar até uma década.
Apesar dessas diretrizes, a companhia vez ou outra pode escorregar nos padrões éticos, como quando pagou US$ 5 para que pessoas “emprestassem” seus rostos para o treinamento de um software de reconhecimento facial para smartphones. Apesar de a iniciativa ser consentida, houve controvérsias sobre o método: uma agência contratada pela empresa e persuadia estudantes sob o pretexto de testar um novo aplicativo. O Google suspendeu os serviços dessas agências depois de o caso ter sido revelado.
De acordo com a , Pichai deve se reunir ainda nesta segunda-feira (20) com Margrethe Vestager, reguladora de concorrência da União Europeia – ela já aplicou multas ao Google por abusar de seu domínio de mercado e hoje foca na inteligência artificial e deve ser uma das protagonistas na criação das regulamentações. O editorial de Pichai pode apontar que o Google não irá se opor a criação de regulamentações, mas deixa claro que a empresa vai participar ativamente das discussões e que deverá tentar impedir medidas que ponham em risco o desenvolvimento de técnicas de inteligência artificial rentáveis, ainda que elas possam causar danos.“A regulamentação sensata também deve adotar uma abordagem proporcional, equilibrando possíveis danos com oportunidades sociais”, escreveu Pichai, destacando que não é preciso começar do zero e que o Regulamento Geral de Proteção de Dados da Europa (GDPR) pode ser um ponto de partida.
“Queremos ser um parceiro útil e comprometido com os reguladores enquanto eles lidam com as inevitáveis tensões e concessões.” Esse caminho de apoio público a regulamentações para desenvolvimento da inteligência artificial deve ser seguido por outras empresas do setor – até porque, com as discussões sobre privacidade e ética em voga, pegaria mal se opor publicamente. O grupo AI Now Institute da New York University, que estuda as implicações sociais da inteligência artificial, aponta as necessidades de novas leis e regras para esse campo – entre os pesquisadores do grupo estão funcionários da Microsoft e do Google. Resta esperar para ver como serão as negociações por de trás das cortinas.