Ética automóvel

800

A programação de carros autónomos coloca problemas morais similares ao célebre problema do trolley. Como se pode ler no jornal Observador: “Os carros autónomos vão ser programados para escolher quem atropelar em caso de acidente inevitável. Uma grávida ou um idoso? Um rico ou um pobre? Um peão ou dez?”

Na sua opinião como deve um carro desses ser programado? O Instituto de Tecnologia de Massachusetts, mais conhecido por MIT, criou um site chamado Moral Machine em que são apresentadas situações em que assumimos a posição de um automobilista prestes a ter um acidente e em que temos de decidir o que fazer: atropelar um adulto ou uma criança, uma pessoa ou duas, etc.

Segundo o Observador, “o MIT já tem em seu poder milhões de respostas, oriundas de 160 países”, podendo-se concluir que a maioria dos indivíduos se inclina em favor do mal menor. Parece que a maneira como as pessoas responderem aos dilemas éticos apresentados em Moral Machine serão tidas em conta pelos programdores dos automóveis.

Quem disse que as teorias e discussões filosóficas não têm consequências práticas?

“Mais uma vez, é essencialmente o problema do trolley que está em causa, pois o que interessa é saber, quando estamos ao volante de um carro sem travões, quem decidimos sacrificar na passadeira de que nos aproximamos rapidamente: a senhora grávida que está bem à nossa frente, ou do velhote que se encontra um pouco mais à esquerda? E, já agora, adaptando esta questão à condução autónoma, quem é que preferíamos que o nosso automóvel sem condutor poupasse?

Um professor do MIT Media Lab, Iyad Rahwan, afirma que “as pessoas não gostam de ser colocadas perante estas questões”, e admite que “o tipo de respostas varia de país para país”. Mas hoje o MIT tem em seu poder milhões de respostas, oriundas de 160 países. Esses dados foram alvo de um estudo, ainda não publicado, que permite concluir que a maioria dos indivíduos se inclina em favor do mal menor, pelo que o algoritmo que controla a máquina que tomará as decisões sobre quem matar ou poupar, em caso de acidente, deverá respeitar este princípio.

Diga de sua justiça

Não deixe que sejam apenas os outros a decidir e contribua, também você, para a programação do algoritmo que vai comandar “a moral” dos automóveis do futuro – sendo que, em matéria em condução autónoma, o futuro está aí mesmo ao virar da esquina, pois a Tesla já anunciou que a vai disponibilizar a 100% até ao final deste ano. Para isso, o MIT desenvolveu a Moral Machine, um site que lhe permite participar activamente na forma como o seu automóvel se deverá comportar perante um cenário de vida ou de morte. As questões não podiam ser mais simples, mas os problemas morais que levantam são complexos.

Entre na Moral Machine e seja o juiz de uma série de situações em que tem de decidir quem vive e quem morre.# (Observador)

http://observador.pt/2017/01/19/conducao-autonoma-quem-morre-voce-decide/

About IsabelAMD

Professora de Filosofia
This entry was posted in Uncategorized. Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s