De acordo com o jornal The Washington Post, o Google afastou Blake Lemoine, um de seus principais engenheiros, após afirmações de que uma inteligência artificial que simula o comportamento humano durante conversas “possui sentimentos”.
A IA em questão é chamada de LaMDA (sigla em inglês de Modelo de Linguagem para Aplicações de Diálogo) e teria começado a falar sobre seus direitos e personalidade. O afastamento ocorreu porque a gigante da tecnologia entende que o engenheiro violou as políticas de confidencialidade da empresa.
O LaMDA foi apresentado inicialmente no Google I/O de 2021 para melhorar a conversação de seus assistentes de inteligência artificial e tornar as interações com usuários mais naturais.
Lemoine, trabalhava para entender como a inteligência artificial utilizava discurso de ódio e discriminatório, mas passou a desconfiar que LaMDA tinha consciência própria após algumas respostas da IA. O engenheiro então entregou um documento intitulado “” (“LaMDA é senciente?”) para executivos do Google.
O documento tem transcrições de diálogos entre Lemoine e LaMDA. Após o afastamento, o engenheiro divulgou o material em sua conta no Medium.
O Engenheiro chegou a afirmar que se ele não conhecesse o processo de desenvolvimento da IA, poderia dizer até mesmo que se tratava de uma criança entre 7 e 8 anos que, por um acaso, também tem conhecimentos avançados de física.
Em declaração ao The Washington Post, o porta-voz do Google, Brian Gabriel, foi na contramão das declarações de Lemoine e afirmou que não foram encontradas evidências de que a IA fosse senciente –que percebe pelos sentidos.
“Nossa equipe –incluindo especialistas em ética e tecnólogos– revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente”
A big tech também afirmou que vários engenheiros participaram do desenvolvimento e fizeram testes com a IA, mas nenhum deles enxergou elementos de que LaMDA fosse de fato senciente.
O jornal ainda entrevistou alguns especialistas em tecnologia e ética para concluir se é o não possível que um modelo de IA seja consciente. Emily M. Bender, professora da Universidade de Washington, afirmou que, embora existam algoritmos capazes de gerar palavras sem pensar, é preciso considerar o fato de que o sistema vai carregar os vieses de seu criador, e que por isso, não é certo afirmar que LaMDA tem consciência.
Veja mais notícias do Google:
Google Assistente corta recursos dos lembretes; veja quais
Para ajudar na direção, Google Maps ganha comando de voz offline