M. Francis Portela
M. Francis Portela
Investigador
Como seria de esperar, os automóveis autónomos vão ser programados para evitar situações de perigo. Evitar pessoas na estrada, salvaguardar a vida dos passageiros, não destruir propriedade. Mas qual será a atitude das inteligências artificiais dos carros autónomos quando confrontados com um dilema moral?
M. Francis Portela
M. Francis Portela
Investigador

Essa é uma questão que vários grupos de investigadores têm tentado responder. Mas a resposta ficou mais próxima, graças ao trabalho do Instituto de Ciência Cognitiva da Universidade de Osnabrück, na Alemanha. Um grupo de investigadores criou um programa de realidade virtual, colocando várias pessoas a conduzir um carro por um percurso com pessoas, animais e objetos.

As respostas das pessoas às situações foram analisadas e colocadas num contexto moral. Leon Sütfeld, o líder do grupo, ficou surpreendido com as respostas humanas, que lhe permitiram começar a criar um algoritmo que vai ser usado na programação moral das inteligências artificiais que vão conduzir os automóveis. Mas os vários cientistas envolvidos admitem que escolha dessas morais é que vai ser o principal problema, já que têm de decidir se a inteligência artificial vai imitar comportamentos humanos ou seguir princípios teóricos de lógica moral.