Carros autônomos não sabem escolher quem matar em situações extremas, mas as pessoas têm várias opiniões
• Motorista de Uber autônomo que atingiu ciclista estava vendo The Voice durante acidente fatal
Máquina Moral. Imagem: MIT Media Lab
Os cenários incluíam a escolha de um grupo ou outro com base em avatares de diferentes gêneros, status socioeconômicos (por exemplo, um executivo contra um sem-teto), níveis de condicionamento físico, idade e outros fatores.Os pesquisadores descobriram que, como um todo, seus dados mostraram que as pessoas tenderam a preferir poupar mais vidas, jovens e humanos em vez de animais. Mas as preferências dos participantes se desviaram quando seus países e culturas foram levados em consideração. Por exemplo, os entrevistados na China e no Japão eram menos propensos a poupar os jovens do que os idosos, o que, como observou o , pode ser “devido a uma maior ênfase no respeito aos idosos” em suas culturas. Outro exemplo destacado pela revista foi que os entrevistados em países ou territórios “com alto nível de desigualdade econômica apresentam maiores lacunas entre o tratamento de indivíduos com alto e baixo status social”.
Máquina Moral. Imagem: MIT Media Lab
“As pessoas que pensam sobre a ética de máquinas fazem parecer que você pode criar um conjunto perfeito de regras para robôs, e o que mostramos aqui com dados é que não há regras universais”, disse Iyad Rahwan, cientista da computação do MIT e coautor do estudo, em um comunicado. Críticos que existem decisões prováveis que qualquer ultimato ético extremo quanto os apresentados nessa pesquisa. Mas, se alguma coisa, o que esses dados mostram é que há muito a se considerar sobre os processos de tomada de decisão da inteligência artificial. E os pesquisadores do estudo disseram que esperam que suas descobertas sejam um ponto de partida para uma discussão mais complexa em torno da ética universal das máquinas.“Usamos o dilema do bonde porque é uma maneira muito boa de coletar esses dados, mas esperamos que a discussão de ética não fique confinada nesse tema”, disse Edmond Awad, associado pós-doutorado no grupo Scalable Cooperation, do MIT Media Lab, e coautor do estudo, em entrevista ao MIT Technology Review. “A discussão deveria ir para a análise de risco — sobre quem está em mais ou menos risco — em vez de dizer quem vai morrer ou não, e também sobre como o viés está acontecendo.”
[, ]Imagem do topo: AP