Matemática moral.

Imagem de matemática

Ouça o artigo:

Sabe aquelas decisões morais que parecem simples, mas, quando olhamos de perto, viram um nó na cabeça? Tipo escolher entre salvar uma pessoa na qual gostamos ou cinco desconhecidas? Pois é, eu sempre achei que essas questões eram sobre sentimento, empatia, caráter. Mas aí me deparei com uma ideia que me virou do avesso: usar matemática para resolver dilemas morais.

Num primeiro momento, parece frio demais, não é? Reduzir a vida de alguém a uma equação? Mas, conforme fui entendendo melhor essa tal de “matemática moral”, percebi que ela não vem para substituir a ética, e sim para dar um empurrãozinho onde nossa intuição costuma falhar.

Imagina uma pessoa num lago, com salva-vidas de cada lado. De um lado, cinco pessoas se afogando. Do outro, uma. A pessoa que você conhece há muito tempo. Para a maioria das pessoas poderia ser salvar cinco pessoas. Simples? Nem tanto. Esse exemplo é só uma pontinha do iceberg. 

A matemática moral entra aí para mostrar que, às vezes, decisões morais envolvem mais do que o “instinto de fazer o bem”. Ela ajuda a quantificar, comparar, prever consequências. Não para desumanizar, mas para evitar decisões ruins baseadas em emoções confusas ou cenários mal calculados.

Tem umas armadilhas morais que todos nós podemos cair sem perceber. Por exemplo, tem gente que acha que é melhor se juntar a um grupo que já está ajudando centenas do que agir sozinho e salvar dez pessoas. Parece louvável, mas e se sua ajuda nem fizer diferença naquele grupo? Talvez salvar os dez sozinho fosse melhor.

Outro erro comum é ignorar chances pequenas. Vivemos desprezando eventos improváveis, tipo ganhar na loteria ou fazer a diferença numa eleição. Mas se a consequência for grande o suficiente, até uma chance minúscula merece atenção. Como votar, por exemplo. Pode parecer insignificante, mas se muita gente pensar assim...

Uma parte que me pegou foi sobre efeitos imperceptíveis. Tipo: se mil pessoas jogam uma gota d’água cada para ajudar soldados feridos, o resultado coletivo pode salvar vidas. Mas se essas mesmas mil pessoas derem um microchoque em alguém, o acúmulo pode matar. Aí entra a questão do todo versus a parte — o impacto individual pode parecer nulo, mas somado, vira uma avalanche.

É como quando jogam lixo na rua. “Ah, é só um papelzinho.” Mas se todo mundo pensar assim, pronto: cidade imunda.

Tem uma história que me fez pensar: na Segunda Guerra Mundial, os aliados usavam um computador analógico (o Norden Bombsight) para lançar bombas com precisão. O problema é que ele era tão sensível que qualquer diferença mínima nos dados mudava o resultado. Era preciso demais, a ponto de ser impraticável.

A moral da história? A matemática moral tem que ser sensível às circunstâncias, mas não tanto a ponto de travar. Tem que ser prática. Tem que funcionar no mundo real, onde tudo é cheio de incertezas.

Um exemplo engraçado (e bizarro) foi sobre a “pessoa de Boltzmann” — uma ideia da física que diz que, teoricamente, partículas poderiam se reorganizar sozinhas e virar uma pessoa viva, do nada. A chance disso acontecer é tão ridícula que ninguém dirige devagar para evitar atropelar uma pessoa que apareceu do nada no ar.

Por outro lado, atropelar um pedestre normal, que pode atravessar a rua de verdade, é uma possibilidade real. Então faz sentido dirigir com cuidado e não por medo de algo improvável, mas porque a chance, mesmo pequena, é concreta.

A vida é cheia de incertezas. A matemática moral tenta lidar com isso usando algo chamado “teoria da utilidade esperada”. Basicamente, você calcula a utilidade (ou benefício) de cada resultado possível, pondera pela probabilidade de acontecer e escolhe o que tiver a melhor média.

Um exemplo: o João prefere ganhar 1 milhão certo do que ter 50% de chance de ganhar 3 milhões. Porque, para ele, a diferença entre 1 e 3 milhões não é tão importante quanto a segurança de não ficar sem nada. Já a Maria, que precisa de 3 milhões prparaazer uma cirurgia que salva a vida dela, prefere arriscar. A utilidade dela é outra.

Agora pensa na Maria e no João decidindo doar dinheiro: salvar a floresta amazônica ou combater a pobreza? Se a gente conseguir calcular qual causa tem maior valor moral esperado, os dois deveriam doar para ela. Mas aí entra o problema: como podemos calcular isso com precisão? E se a floresta salva mais vidas a longo prazo? E se um pobre salvo agora for a chave para uma descoberta que salva milhões no futuro? Uma incerteza que reina.

Tem gente que defende uma ideia maluca (mas com lógica interna): que mesmo uma chance minúscula de um bem gigantesco (tipo salvar trilhões de pessoas no futuro) vale mais do que salvar milhões agora. Isso leva a umas decisões meio doidas, tipo investir bilhões em explorar o espaço enquanto tem gente morrendo de fome hoje. Esse pensamento é chamado de “fanatismo”. E o pior, ele nasce de uma aplicação matemática bem feita. A conta bate. Mas será que faz sentido moral?

A tal da ideia do “longotermismo” — pensar em ações que impactam não só nossos filhos, mas milênios à frente — parece nobre. Mas ela esbarra numa parede: a gente simplesmente não sabe o suficiente sobre o futuro. Quanto mais a gente tenta prever a longo prazo, mais nossas certezas viram fumaça. Tem até estudos mostrando que previsões muito distantes acertam menos do que chutes aleatórios. A matemática perde força quando a base de dados é zero.

O grande entendimento, para mim, foi essa: por mais poderosa que a matemática moral seja, ela não é uma bola de cristal. Ela serve para clarear o pensamento, reduzir o erro, dar um norte. Mas não para substituir o julgamento humano. Tem horas que o mais honesto é dizer: “não faço ideia do que vai acontecer”. Tipo aquela situação de investir em exploração espacial. É possível que dê certo? Sim. Mas também é possível que salvar vidas hoje seja o que vai criar o futuro brilhante que a gente sonha. Vai saber.

O que eu levo disso tudo é que a matemática moral não é um vilão gelado que ignora a humanidade das pessoas. Pelo contrário. Ela tenta mostrar que nossas emoções, por mais bem-intencionadas que sejam, nem sempre levam às melhores escolhas. E que, sim, existe valor em tentar entender o que é “melhor” com um pouco mais de rigor.

Mas também aprendi a respeitar os limites. Nem tudo que dá pra calcular deve ser calculado. E nem todo número bonito representa a realidade. Como diria Wittgenstein, o problema não é a lógica em si, mas quando a gente fica encantado demais com ela, a ponto de esquecer que, no fundo, estamos falando de pessoas, vidas, escolhas difíceis.

0 comments:

Postar um comentário