M. Francis Portela
M. Francis Portela
Investigador
O ano passado, o Instituto de Tecnologia de Massachusets, mais conhecido como MIT, criou uma sondagem na forma de jogo online chamado Moral Machine, ou “máquina moral”. Neste jogo, uma pessoa tinha que decidir entre um de dois cenários de trânsito, com o conhecimento de que iria sempre resultar num acidente mortal. É este tipo de decisões que um carro autónomo vai ter que tomar no futuro, quando um sistema de inteligência artificial se deparar com a inevitabilidade de um acidente.
M. Francis Portela
M. Francis Portela
Investigador

A Moral Machine do MIT recolheu as respostas de mais de 40 milhões de utilizadores, representando 233 países e territórios autónomos. Um total de 130 países teve mais de 100 pessoas a responder, e dos 40 milhões, quase meio milhão aceitou revelar os seus dados demográficos. Isto permitiu aos investigadores do MIT identificar tendências em três grupos geográficos, “ocidental”, “oriental” e “meridional”. Este último preferiu sacrificar os mais idosos para salvar os mais jovens, mas o segundo preferiu o contrário.

Estes resultados, que foram publicados no jornal científico Nature, revelaram alguns resultados interessantes e talvez preocupantes, como a descoberta que quase todos os grupos demonstraram uma tendência para sacrificar a vida de pessoas que atravessavam a rua de forma ilegal. Há também uma tendência para sacrificar uma pessoa individual, seja ela um condutor ou um peão, para salvar um grupo de pessoas, para sacrificar animais e salvar pessoas, e se for possível salvar o animal, um cão na estrada é quase sempre prioritário em relação a um gato.

Estas respostas vão ser utilizadas para programar os sistemas de inteligência artificial que vão guiar o nosso carro autónomo do futuro sem a nossa interferência. Mas o próprio ato de programação já gerou uma nova questão moral, que partiu de uma investigação na Universidade de Osnabrück, na Alemanha: a programação deve ser feita com base em tendências humanas, muitas vezes baseadas em reações emocionais, ou devem seguir padrões baseados em lógica, correndo o risco de serem menos flexíveis?

Uma resposta que partiu de um construtor automóvel é que o carro autónomo deve sempre tentar salvar a vida que é mais fácil de preservar: a do condutor. Mas, em caso de embate, este vai estar sempre mais protegido pelos sistemas de segurança ativa e passiva, desde retenção dos cintos ao airbag, contando obviamente com as estruturas de absorção de impacto. É mais fácil um condutor sobreviver a um acidente violento contra um objeto, do que um transeunte sobreviver ao impacto de um veículo com uma tonelada e meia.

Com o tráfego urbano composto maioritariamente por veículos autónomos, o peão vai ser sempre o elemento imprevisível no trânsito. Isto significa que, antes de pensar o que vai sacrificar, a inteligência artificial do carro autónomo vai ter que levar outros parâmetros em conta, como a necessidade de identificar a presença de um maior número de peões numa determinada zona, reduzindo a sua velocidade.

Percorra a galeria de imagens acima clicando sobre as setas.