Os problemas de programação dos carros sem condutor

Há certas situações na vida real que não podem verdadeiramente ser quantificadas de forma matemática. São questões morais e um problema que se coloca aos programadores que terão de passar a tomar decisões quanto a elas na programação dos veículos. Um dos casos morais mais polêmicos é o do “Electrico Assassino”!

O caso do “Electrico Assassino” é algo que tem vindo a ser discutido à anos pelos filósofos e é uma situação que não tem verdadeiramente uma resposta correta, apesar de moralmente ela parecer existir.

Basicamente é uma daquelas situações cuja resposta nos define como humanos e que num mundo automatizado é verdadeiramente problemática.

Em que consiste esta questão?

Bem, imaginem um eléctrico que se desloca sobre os seus trilhos sem travões! E sobre a linha estão 5 pessoas distraídas e que não se apercebem da presença do mesmo. NUma linha paralela acontece exatamente o mesmo, mas há apenas uma pessoa sobre a linha.



Imaginem agora que há uma pessoa que está a ver isso mesmo, e que possui à sua frente uma agulheta que pode mudar o comboio de linha.

A questão agora é? Deve essa pessoa acionar a agulheta diminuindo o número de mortos de 5 para 1?

Naturalmente a resposta politicamente correta é “Sim”. Mas aqui o que se passa é que a pessoa em causa está a fazer o papel de Deus… a decidir aquilo que não é o que deveria decidir!

Porque imaginem que a pessoa que está sozinha é um médico humanitário que tem salvado inúmeras pessoas ao longo da sua vida e doado parte da sua fortuna para os mais carenciados e para a investigação, ao passo que as restantes 5 se vem a saber depois eram um conjunto de terroristas envolvidos em atentados e mortes de inocentes!

Como é que era possível saber-se isto? Será que a decisão politicamente correta acabou por ser a melhor?

Agora imaginem outra perspectiva. Que em vez de termos duas linhas tínhamos apenas uma com as 5 pessoas! E que poderíamos parar o eléctrico atirando uma pessoa para a frente do comboio!



É no fundo a mesma decisão… 5 por 1… Mas aqui quem o faria? Não seria esta decisão bem mais difícil e ser tomada? Quem teria a coragem de empurrar a pessoa? E não será que este caso era notoriamente um assassinato?

Curiosamente a maior parte das pessoas que pensava em mudar a agulheta no primeiro caso diria que não empurraria uma pessoa no segundo. Apesar de os resultados serem exatamente os mesmos!

A questão aqui é que estas são questões morais que dizem respeito apenas  humanos. Mas algo que os carros automatizados não tomarão em conta! Algo que terá de lhes ser programado e decidido por eles… pelo programador! Que fica assim com o encargo de tomar decisões morais para as quais não há verdadeiramente uma resposta correcta!

Será o programador capaz de decidir que o carro se deve atirar de um precipício abaixo no caso de o carro contra o qual chocaria se continuasse na rota, e que se deslocava na faixa errada , fosse uma camioneta cheia de crianças? Dificilmente!

Mas a verdade é que no futuro estas decisões terão de continuar a existir! E a máquina terá de saber  que fazer. Como se faz um algoritmo capaz de analisar isto tudo e agir não só de forma cívica e correcta, mas igualmente com a moralidade de um ser humano?



A resposta dada pelos programadores acaba por ser que a solução passa por nunca se colocar os carros auto conduzidos sob esta situação colocando-lhes sensores suficientes para se aperceberem das realidades e as evitarem totalmente. Mas será que isso é possível no caos do tráfego congestionado?

A questão é que a moralidade nem sempre existe. E a reação da máquina pode superar a do humano. No global é difícil de dizer se mesmo perante o problema a situação piora ou melhora. E se a segurança aumentar… a moralidade passa para segundo plano!



error: Conteúdo protegido