Os carros sem motorista funcionam com base em softwares que têm "sua própria moral" embutida. Como saber então como esses veículos deverão decidir, no caso de acidentes? A questão-chave, que inquieta o meio acadêmico, foi abordada em artigo científico* divulgado agora.
O dilema é o seguinte: em momentos críticos, o veículo deverá decidir se atropela um pedestre, ou se desvia para bater em um muro. Por isso importa saber como cada carro deverá ser programado por seu dono: se o mais provável é essa programação privilegiar a própria segurança ou a segurança do coletivo social (os pedestres na via).
Agora, nos Estados Unidos, um grupo de psicólogos descobriu que o problema pode ser largamente contornado com um bom debate público sobre a situação. Em determinada etapa de um experimento, os voluntários eram informados de que seus colegas estavam mais propensos a sacrificar sua própria segurança, e a programar seus veículos para bater no muro e sobre os pedestres na via. A partir daí, a porcentagem dos voluntários que passaram a abrir mão de sua própria segurança para salvar o coletivo aumentou em dois terços (!).
Os psicólogos pressupõem que, em decisões de alto risco de vida ou morte, as pessoas pensam de maneira diferente do que normalmente costumam pensar. Esses pesquisadores afirmam que não há absolutos morais para a tomada de decisão humana. Em outras palavras, o processo de decisão humana "é mais sutil", afirma o professor Jonathan Gratch, da Universidade Sudeste da Califórnia.
Risco para si x risco para o outro
Os pesquisadores conduziram quatro experimentos de simulação para tentar entender como as pessoas podem processar e agir sobre os dilemas morais que enfrentariam como operador a bordo de um carro sem motorista.
Os três primeiros experimentos enfocaram o comportamento humano diante de riscos para si mesmo e para os outros em caso de cenário negativo, em que o veículo teria que ser programado para bater no muro ou atingir cinco pedestres.
Como esperado, os participantes usaram a gravidade da lesão para si próprios e o risco para os outros como guias para a tomada de decisões: Quanto maior o risco para os pedestres, mais provável era que as pessoas sacrificassem a si mesmas. Além disso, o nível de risco para os pedestres não precisava ser tão alto quanto para o operador do veículo autônomo para que ele sacrificasse seu próprio bem-estar.
No quarto experimento, porém, os pesquisadores adicionaram uma dimensão social. Disseram aos participantes o que os colegas deles optaram por fazer na mesma situação. Em uma simulação, o conhecimento de que os colegas optaram por arriscar sua própria saúde mudou as respostas dos participantes, que passaram dos 30% dispostos a arriscar sua saúde para 50%. Mas o efeito ocorreu em ambos os sentidos, ou seja, eles limitaram seu próprio risco ao ouvir que seus colegas haviam feito o mesmo.
"Tecnicamente, há duas forças em ação. Quando as pessoas percebem que seus colegas não se importam, isso as puxa para o egoísmo. Quando elas percebem que seus colegas se importam, isso as puxa para cima," confirma Gratch.
Programação
Os autores sugerem que é importante que os fabricantes desses automóveis tenham consciência de como os humanos realmente tomam decisões em situações de vida ou morte.
Além disso, destacam a importância para o público de que haja transparência nas decisões sobre como as máquinas são programadas, bem como a liberação dos controles para os motoristas humanos, para que eles possam alterar as configurações relativas a essas situações de vida ou morte. Recomendam ainda que os legisladores também devem estar cientes de como os veículos podem ser programados.
Por último, dada a suscetibilidade humana de se conformar às normas sociais, os autores acreditam que campanhas de esclarecimento, relacionadas à forma como as pessoas programam seus veículos autônomos para o auto-sacrifício, podem influenciar futuros proprietários a alterar as configurações de seus veículos para serem mais orientados a proteger os outros de lesões e compartilhar os riscos e sacrifícios.
*Matéria baseada no artigo científico "Risk of Injury in Moral Dilemmas With Autonomous Vehicles", de autoria de Celso M. de Melo, Stacy Marsella, Jonathan Gratch, publicado na revista Frontiers in Robotics and AI
Leia também:
Nova York começa a testar serviço de carros autônomos
Primeiro ônibus inteiramente autônomo dos EUA é apresentado
Como o carro autônomo vai "ouvir" uma sirene?
Ônibus autônomo atropela pedestre em Viena
Carros autônomos, robôs e buracos na velha calçada