“O medo é o pai da moralidade.” (Friedrich Nietzsche)

No artigo “Hit the road, droid: a iminente disrupção nas estradas”, apresentamos a tecnologia dos carros autônomos (AVs) e mostramos que a sua introdução no mercado está cada vez mais próxima[1]. Como toda nova tecnologia, há inúmeros desafios jurídicos pendentes de definição e, conforme também assinalamos no artigo anterior, uma das principais questões a serem solucionadas consiste no dilema moral ao qual estarão submetidos os programadores dos AVs para definir seu comportamento diante de potenciais acidentes de trânsito envolvendo vítimas. Acreditamos que a superação desses impasses pode ser facilitada se buscarmos suporte na filosofia e é exatamente desse aspecto que pretendemos tratar no presente artigo. Contudo, antes de enfrentarmos esses desafios morais, precisaremos gastar algumas linhas para compreender melhor como é realizado o processo de tomada de decisão por um autômato.

Como toda estrutura robótica, a forma de reagir dos carros autônomos será pré-programada por meio de algoritmos, expressão que se tornou quase mística nos últimos tempos devido ao crescente hype em torno da inteligência artificial. Em linhas simples, o algoritmo é um passo a passo, sequencia de instruções pré-definidas, expresso em uma linguagem matemática estilizada, o qual é desenvolvido com a finalidade de resolver um problema[2]. Os algoritmos são fundamentais para a ciência da computação, pois, à medida que eles se tornam mais eficientes, mais avançado fica o sistema computacional, de modo a conseguir resolver um número cada vez maior de problemas.

Os AVs, portanto, operam com uma infinidade de funções algorítmicas para resolverem problemas como, por exemplo, reconhecimento de objetos, planejamento de trajeto, mapeamento e autolocalização, detecção de semáforos e muitos outros[3]. Todavia, especificamente a função algorítmica de otimização de colisões (crash-optimization) traz uma calorosa discussão moral, uma vez que a função permite ao automóvel “escolher” qual colisão irá causar a menor quantidade de dano[4].

Esse algoritmo ressuscitou um dilema antigo da filosofia, proposto no século passado pela filósofa Philippa Foot, mas que remonta aos pensamentos do grego Carnéades, cético radical e crítico ferrenho da moral estoica[5]. O chamado “problema do vagão” ou “dilema dos bondes” possui algumas variantes, mas nós iremos descrevê-lo de forma bem simples, pois nosso objetivo é apenas ilustrar a dificuldade existente para estabelecer parâmetros capazes de nos orientar diante de escolha dramáticas.

Basicamente, o dilema consiste numa situação hipotética em que o condutor de um bonde ou trem em alta velocidade e sem passageiros perde o controle dos freios e percebe que, se não fizer nada, cinco operários que trabalham mais à frente na ferrovia serão atropelados com toda certeza. Logo em seguida, o condutor verifica que há uma bifurcação no seu caminho e que é possível mudar o curso do trem para trilhos alternativos, onde há “apenas” um operário trabalhando. Se a direção for alterada, cinco trabalhadores serão poupados, mas isso custará a vida daquele que está trabalhando no trilho alternativo. Se você fosse o condutor, qual seria a sua decisão? É importante escolher uma posição antes de prosseguir com a leitura. Parece óbvio? Ótimo, pois então sigamos em frente.

Agora pense em outro cenário, no qual você está sobre uma ponte e o trem desgovernado irá passar por baixo dela, indo em direção aos mesmos cinco operários, que certamente perderão suas vidas no acidente. Dessa vez, não existem trilhos alternativos, mas há um homem próximo de você, sentado à beira da ponte, cuja massa corporal seria suficiente para frear o trem caso você o empurrasse e ele caísse nos trilhos antes de os operários serem atingidos. Daí surge o novo dilema: você sacrificaria a vida desse homem para evitar que os cinco operários morressem? A maioria das pessoas tende a responder negativamente a essa pergunta, apesar de optar por salvar a vida dos cinco operários no primeiro cenário[6].

Mas o que será que mudou entre as duas situações? É difícil dizer e certamente é mais difícil ainda encontrar a solução perfeita para esse dilema. Iniciemos nossa busca por uma resposta analisando a forma de pensar que nos leva a afirmar com relativa convicção que, no primeiro cenário, a conduta correta seria pegar o caminho alternativo de modo a evitar a morte dos cinco operários, ainda que isso significasse sacrificar a vida de um desafortunado trabalhador. Trata-se da teoria consequencialista – visão filosófica segundo a qual uma ação é moralmente correta quando produz as melhores consequências de um modo geral –, que está edificada fundamentalmente sobre duas proposições: (i) devemos medir se uma ação é certa ou errada com base unicamente em seus resultados e (ii) quanto mais consequências positivas uma ação produzir, melhor ela será[7].

Nessa linha, o utilitarismo – filosofia consequencialista introduzida por Jeremy Bentham no século XVIII – prega que um ato ou procedimento é moralmente correto quando produz mais felicidade que sofrimento para os membros de determinada comunidade[8]. De forma muito simplista, pode-se dizer que o termômetro da moralidade é medido pela escala de prazer versus dor[9]. Assim, se transportássemos a filosofia utilitarista para o “problema do vagão”, poderíamos concluir que seria perfeitamente moral permitir o sacrifício de um homem para salvar outros cinco, independentemente do contexto. A divergência entre a solução recomendada pela abordagem utilitarista e aquela escolhida intuitivamente pela maioria das pessoas nos leva a considerar que talvez essa abordagem filosófica não seja capaz de esgotar o assunto e de oferecer os melhores parâmetros para avaliar o quão justa é determinada conduta.

De fato, embora seja uma corrente da filosofia política que contribuiu muito para debates relacionados à justiça social, o utilitarismo não germinou como o seu genitor o concebeu. Isso porque há diversas falhas no raciocínio por trás dessa teoria, decorrentes, por exemplo, de seu caráter extremamente vago e impreciso. É possível igualar ou mensurar prazer e dor? Todo prazer vale a mesma coisa?

Para levar essa filosofia ao extremo e testar se seus princípios de fato possuem validade universal, pense no Coliseu lotado com sua capacidade máxima de 80 mil espectadores assistindo animais e escravos serem chacinados por entretenimento[10]. Nesse último exemplo, há mais pessoas sentindo prazer do que pessoas sentindo dor, mas será que isso garante que o grotesco espetáculo seja visto como moral? A resposta óbvia é negativa, e é por isso que o utilitarismo coleciona até hoje devotos opositores. O caráter vago e a subjetividade para medir as consequências e a utilidade dos atos comprometeram o prevalecimento desse pensamento.

Transportando a controvérsia para a realidade do nosso sistema jurídico, devemos observar que, embora a Constituição Federal de 1988 não tenha acolhido exclusivamente uma única filosofia política, certamente rechaçou o utilitarismo nas ocasiões em que seus preceitos afrontem o princípio da dignidade da pessoa humana. E, segundo a doutrina constitucionalista predominante atualmente, a dignidade da pessoa humana impõe que cada indivíduo seja tratado como um fim em si mesmo, jamais como um meio para atingir fins da coletividade, por mais legítimos que aparentem ser à primeira vista[11].

Apesar de úteis, tais considerações, na verdade, representam somente a substituição de uma pergunta por outra, de modo que persiste a questão: como conciliar a dignidade da pessoa humana com problemas como aquele aqui descrito, em que necessariamente haverá perda de vidas? É exatamente esse o dilema que os carros autônomos vão enfrentar quando tiverem que tomar uma decisão potencialmente fatal no trânsito.

Como solução para o dilema, a filosofia apresenta a doutrina do duplo efeito, também chamada de princípio do duplo efeito, que detém suas raízes na filosofia moral de Tomás de Aquino e consiste na noção de que uma ação pode ser moralmente aceitável mesmo quando uma de suas consequências for negativa da perspectiva moral[12]. Pensada inicialmente pelo frade dominicano como uma autorização para o exercício da legítima defesa e a preservação da vida, a teoria elenca algumas condições para que determinada ação se justifique moralmente ainda que ela resulte em consequências negativas, quais sejam: (i) a ação deverá ser moralmente pura, ou seja, se isolada de suas consequências, não pode ser, em si, moralmente reprovável; (ii) o efeito positivo deve resultar do próprio ato e nunca indiretamente do efeito negativo; (iii) o efeito negativo não deve ter sido diretamente desejado, podendo, no máximo, ter sido previsto e tolerado pelo agente ante sua intenção de gerar os efeitos positivos; (iv) por fim, o efeito positivo deve prevalecer sobre o negativo ou, ainda, ambos devem possuir importância semelhante[13].

Isso significa que já podemos rasgar o Código de Trânsito Brasileiro e adquirir os três volumes da milenar obra tomista Summa Theologiæ? Ainda não é o caso, entretanto parece claro que precisamos de uma regulamentação mais moderna que as legislações atualmente em vigor. Como afirmamos no início do texto, a regulação desses novos mercados e tecnologias é imprescindível, até mesmo para sua própria sobrevivência. Isso porque, se os AVs não se mostrarem inquestionavelmente mais seguros do que os automóveis tradicionais, dificilmente a sociedade aceitará sua comercialização[14]. E, se deixarmos o mercado se autorregular, os agentes econômicos provavelmente zelarão pelos próprios interesses, tornando os AVs menos seguros e confiáveis para a coletividade. Prova disso é que, em outubro de 2016, a Mercedes-Benz, por meio de seus executivos de segurança, afirmou que seus veículos autônomos priorizarão as vidas de seus passageiros[15], o que demonstra uma postura pró-clientela das montadoras, afinal, quem iria adquirir um AV que colocará a sua vida em risco em favor da vida de terceiros?[16]

É por isso que, antes de se conceder permissão para que os carros autônomos entrem em circulação, soluções para esse impasse devem ser apresentadas. Enquanto isso não acontece, você pode eleger a sua posição ou, melhor, sua “escolha de Sofia”, na Moral Machine desenvolvida pelo Massuchussets Institute of Technology – MIT[17], plataforma que coleta a perspectiva humana sobre decisões morais que inteligências artificiais como os veículos autônomos deverão adotar em situações potencialmente fatais. Divirta-se!

[1] BECKER, Daniel; LAMEIRÃO, Pedro. Hit the road, droid: a iminente disrupção nas estradas. Direito da Inteligência Artificial. Disponível em: https://direitodainteligenciaartificial.com/2017/07/18/hit-the-road-droid-a-iminente-disrupcao-nas-estradas/ – Acesso em 24 de jul. 2017.

[2] KLEINBERG, Jon. The Mathematics of Algorithm Design. Cornell University. Disponível em: https://www.cs.cornell.edu/home/kleinber/pcm.pdf – Acesso em 24 de jul. 2017.

[3] LEVINSON, Jesse et al. Towards fully autonomous driving: systems and algorithms. Carnegie Mellon University – School of Computer Science. Disponível em: https://www.cs.cmu.edu/~zkolter/pubs/levinson-iv2011.pdf – Acesso em 27 de jul. 2017.

[4] KIRKPATRICK, Jesse. The ethical quandary of self-driving cars. Slate. Disponível em: http://www.slate.com/articles/technology/future_tense/2016/06/self_driving_cars_crash_optimization_algorithms_offer_an_ethical_quandary.html– Acesso em 27 de jul. 2017.

[5] MERLE, Jean-Christophe. Como os argumentos de Kant sobre o estado de necessidade são refutados quando traduzidos em um experimento mental de duplo nível. Estudos Kantianos (Centro de Pesquisas e Estudos Kantianos “Valerio Rohden”), v. 1, n. 1. São Paulo: Departamento de Filosofia da Faculdade de Filosofia e Ciências da UNESP, 2013.

[6] STERN, Victoria. Famous “trolley problem” exposes moral instincts. Scientific American. Disponível em: https://www.scientificamerican.com/article/famous-trolley-problem-exposes-moral-instincts/ – Acesso em 24 de jul. 2017.

[7] KLEINMAN, Paul. Tudo o que você precisa saber sobre filosofia. São Paulo: Gente, 2015 (edição Kindle).

[8] KYMLICKA, Will. Filosofia política contemporânea. São Paulo: Martins Fontes, 2006, p. 11.

[9] CARDOSO DIAS, Maria Cristina Longo. Uma reconstrução racional da concepção utilitarista de Bentham: os limites entre a ética e a legislação. 2006. 210p. Dissertação (Mestrado) – Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo. São Paulo, 2006.

[10] SANDEL, Michael J. Justiça: o que é fazer a coisa certa. Rio de Janeiro: Civilização Brasileira, 2015, p. 51.

[11] BARROSO, Luís Roberto. A dignidade da pessoa humana no direito constitucional contemporâneo: natureza jurídica, conteúdos mínimos e critérios de aplicação. Interesse Público, Belo Horizonte, v. 14, n. 76, nov./jun. 2012. Disponível em: http://bdjur.stj.jus.br/dspace/handle/2011/52440 – Acesso em: 27 jul. 2017.

[12] Artigo 7 da Questão 64 In AQUINO, Tomás de. Suma Teológica. II-II, 2ª edição. São Paulo: Loyola, 2001.

[13] FERNANDES, Rita de Cássia Caldeiras. Entre a responsabilidade moral e a responsabilidade legal: escolha ou imposição? 2016. 102p. Dissertação (Mestrado) – Departamento de Filosofia da Universidade Católica do Rio de Janeiro. Rio de Janeiro, 2016.

[14] HEVELKE, Alexander; NIDA-RÜMELIN, Julian. Responsibility for crashes of autonomous vehicles: an ethical analysis. Science and Engineering Ethics, 21. Berlim: Springer, 2015.

[15] TAYLOR, Michael. Mercedes autonomous cars will protect occupants before pedestrians. Auto Express.

Disponível em: http://www.autoexpress.co.uk/mercedes/97345/mercedes-autonomous-cars-will-protect-occupants-before-pedestrians – Acesso em 21 de jul. 2017.

[16] BONNEFON, Jean-François; SHARIFF, Azim; RAHWAN, Iyad. The social dilemma of autonomous vehicles. Science Magazine. Disponível em: http://science.sciencemag.org/content/352/6293/1573.full – Acesso em: 25 de jul. 2017.

[17] MIT. Moral Machine. Massachussets Institute of Technology. Disponível em: http://moralmachine.mit.edu/ – Acesso em 21 de jul. 2017.


Fonte: http://www.lexmachinae.com/2017/07/28/filosofia-e-algoritmos-o-dilema-moral-dos-carros-autonomos/