Diariamente, irrompem diversas pesquisas que supostamente comprovariam a inexistência do livre-arbítrio, com neurocientistas e físicos anunciando a necessidade de reformulação das leis penais. O presente ensaio analisa a forma de conciliar esses achados com o Direito Penal. Esse desafio dogmático requer que neurocientistas e físicos saiam do conforto acadêmico e voltem-se para o debate público, participando de congressos jurídicos, em vez de se confinarem em publicações especializadas. De igual modo, os juristas precisam inteirar-se dos principais fundamentos desse debate.
Em geral, quando confrontados com as consequências de suas descobertas, os cientistas retiram pressão sobre o assunto, temendo cair no foco do suplemento cultural da imprensa. Mas os juristas terão que suplantar essa barreira intransponível erguida por neurocientistas, que demoveram a autodeterminação no agir humano.
Esse embate não é novo. O advogado norte-americano Clarence Darrow conseguiu absolver vários assassinos na década de 1920, incluindo Leopold e Loeb, dois estudantes de direito ricos, que foram motivados a matar um adolescente inocente de 14 anos simplesmente pelo desejo de cometer um crime perfeito. O advogado utilizou argumentos deterministas aos juízes e ao corpo de jurados, convencendo-os de que nenhuma pessoa é responsável por suas ações.
Passadas algumas décadas, e após intensas pesquisas neurocientíficas, esse embate retornou ao mundo jurídico com força renovada. O pesquisador Gerhard Roth afirmou em artigo científico publicado em 2016 que o conceito de culpa em Direito Penal baseia-se no conceito metafísico de liberdade de vontade, que prevê uma capacidade puramente espiritual de agir de forma diferente sob condições físicas e psicológicas idênticas. Segundo ele, isto contradiz o pensamento científico e as descobertas psicológicas e neurobiológicas sobre o desenvolvimento da personalidade e da estrutura motivacional das pessoas. (in “Culpa e Responsabilidade: a perspectiva da pesquisa do cérebro” - traduzido do inglês).
Será essa uma verdade axiomática? Diante desse quadro de desabono do livre-arbítrio, é forçoso analisarmos mais a fundo as pesquisas atuais nos campos científicos que lhe dão guarida.
O livre-arbítrio entrou na alça de mira do meio científico, especialmente no ambiente acadêmico. Nesse embate entre automatismo e autodeterminação, surgiram novos achados científicos, oriundos da biologia e química quânticas, que contrariam o determinismo puro. De fato, muitas pesquisas nos últimos anos nas áreas de neurociência e da física de partículas conferiram maior credibilidade ao determinismo. Porém, tais avanços foram suplantados pelo progresso recente em áreas correlatas, como neurologia clínica, física da matéria condensada de muitos corpos, biologia quântica e química quântica.
As pesquisas trouxeram achados robustos, obrigando os juristas e neurocientistas a encararem seus resultados. De fato, os tribunais já não podem se dar ao luxo de considerar o livre-arbítrio um fato estabelecido e incontestável.
Tradicionalmente, presume-se que os seres humanos são agentes responsáveis livres para escolher cumprir as normas sociais advindas da cultura humana ou violá-las. A punição pressupõe a capacidade humana de resistir ao ato ilícito. A escolha é necessária para o livre-arbítrio e neurocientistas têm argumentado que as pessoas não fazem escolhas. No entanto, eles utilizam uma noção bastante específica de escolha. As definições de escolha e livre-arbítrio da neurociência não são exatamente as mesmas utilizadas pelo senso comum, que servem de base para as leis penais, gerando um problema epistemológico no diálogo entre a comunidade científica e o público.
Diversos autores se debruçaram sobre o embate entre o livre-arbítrio e o determinismo. Modernamente, essa contenda é representada pelo duelo acadêmico das duplas Robert M. Sapolsky e Sam Harris de um lado, e Kevin J. Mitchell e David Lawrence de outro. Os quatro possuem obras recentes, publicadas em 2023, atualizadas com os principais achados da neurociência. Os dois primeiros defendem o determinismo, enquanto os dois últimos são partidários do livre-arbítrio. Robert M. Sapolsky escreveu o livro “Determinado” e Sam Harris escreveu “Free Will”. Ambos entendem que o livre-arbítrio é uma ilusão, mas o segundo acha que isso não deve enfraquecer a moralidade ou diminuir a importância da liberdade social e política. Por sua vez, David Lawrence escreveu “Desmascarando o Determinismo”, onde defende que o livre-arbítrio é real, e não uma ilusão. Já Kevin J. Mitchell escreveu “Free Agentes”, onde explica como a evolução nos deu o livre-arbítrio. O livre-arbítrio é por vezes chamado de agência no âmbito anglo-saxônico.
No centro deste embate estão achados neurocientíficos intrigantes, que precisam ser analisados a fundo e confrontados com as pesquisas em áreas correlatas que podem destronar o determinismo puro.
Os neurocientistas clínicos trabalham em conjunto com neurologistas, psiquiatras e psicólogos clínicos para tratar Alzheimer, epilepsia e diversos tipos de vícios e transtornos, como o bipolar. A neurociência translacional foca no sistema nervoso e sensorial, nos campos de interface cérebro-máquina, na estimulação cerebral profunda, em implantes de retina, implantes auditivos e em peles eletrônicas com sensor tátil. Modernamente, o lítio tem sido utilizado para o tratamento do transtorno bipolar, assim como a terapia eletroconvulsiva, com a aplicação transcraniana de correntes elétricas. Mas afora esse avanço em diagnósticos e tratamentos, nos últimos anos os neurocientistas também entraram no debate sobre o livre-arbítrio e vaticinaram uma solução definitiva para a questão, conhecida como o problema forte da consciência, demovendo qualquer resquício de autodeterminação nas ações humanas. Com isso, o debate pendeu para o determinismo, até que dois campos recentes de estudo puseram em xeque suas premissas: a química quântica e a biologia quântica.
Segundo a vertente determinista dos físicos de partículas, caso se considere o estado inicial da função de onda do Universo primitivo e se aplique a equação de Schrödinger até os dias atuais, seria possível determinar com antecedência o estado atual do Universo. Estendendo esse raciocínio a todas as biomoléculas do corpo, seria possível determinar com exatidão todos os pensamentos e comportamentos humanos. No entanto, os físicos deterministas têm que considerar uma verdade inescapável: os resultados não dependem apenas das equações e dos dados iniciais, sendo impactados fortemente pelas limitações existentes no meio do caminho. Como exemplo, a forma da proteína funciona como uma limitação. São moléculas flexíveis, dobrando-se em torno das articulações. As distâncias entre os núcleos atômicos determinam que flexão é possível, o que restringe os movimentos de íons e elétrons.
A atividade microbiológica é baseada na forma física das moléculas, como DNA, RNA e proteínas. Por meio da cristalografia de raios X, é possível determinar a estrutura e as dobras complexas dessas moléculas. São as dobras das proteínas que determinam a sua função, por meio da estrutura quaternária, que emanam dos genes. Essas dobras são estudadas pela química quântica, com base na equação de Schrödinger. O resultado é expresso em termos de probabilidade de um evento. O efeito túnel, por exemplo, é modelado por esta equação, e está por trás de importantes mecanismos vitais, como a geração de energia por fusão nuclear no Sol e a fotossíntese nas plantas. Do comando do gene até a síntese proteica, com a conformação da dobra que caracteriza sua estrutura quaternária, haverá um caminho sinuoso, inconciliável com o determinismo.
No cérebro, os canais iônicos dependentes de voltagem na parede do axônio abrem ou fecham com base na diferença de voltagem elétrica entre o interior e o exterior da célula. Estes canais usam neurotransmissores para realizar as sinapses que conectam os neurônios entre si. A forma do canal iônico é determinante para que a sinapse ocorra. As restrições ao fluxo de íons e elétrons nos neurônios mudam com o tempo, conforme as experiências psicológicas que impulsionam pensamentos e sentimentos específicos, por meio do mecanismo da poda sináptica, uma característica ainda inexplicável da plasticidade cerebral. Desta forma, o sentimento de culpa, medo ou dó são eventos mentais que operam no nível psicológico do cérebro com base em experiências passadas e respostas inatas, e não no nível de íons e sinapses.
Estes eventos psicológicos alteram a forma dos canais iônicos, influenciando o movimento dos íons e elétrons no cérebro. Com isso, os dados iniciais e a equação que a rege são constantemente influenciados por eventos psicológicos, tornando impossível modelá-los de forma determinística. Os mecanismos físicos apenas permitem o funcionamento do cérebro, tais como potenciais de ação, canais iônicos, voltagem, íons e elétrons, mas não o determinam. Em última análise, são os eventos psicológicos que o determinam.
De igual modo, o mecanismo de regulação genética apenas permite essas conexões, mas não a determinam. Esse mecanismo opera por meio da expressão gênica, com a produção de proteínas específicas que alteram a força das conexões neurais nas sinapses, resultando no armazenamento de memórias. O que determina as memórias são eventos psicológicos irredutíveis, como o aprendizado advindo da experiência, a participação em um acidente de trânsito, que gera uma memória dolorosa por meio de um processo evolutivo. Esses eventos psicológicos alteram as conexões neuronais ao longo do tempo. Essas mudanças não podem ser previstas com base no estado inicial das conexões. O aprendizado advindo do acidente limita o fluxo de elétrons, alterando as microconexões neurais por meio da plasticidade cerebral. Tanto a dobra das proteínas quanto a poda sináptica fazem com que a propagada dependência das condições iniciais se perca inelutavelmente no meio do caminho.
Isso mostra que os estados mentais mudam a forma das proteínas que atuam no cérebro e o fluxo de elétrons e íons. Embora o cérebro seja formado de partículas fundamentais, as funções cerebrais emergem da interação entre os processos físicos e os eventos psicológicos. Isso se deve à estrutura hierárquica do cérebro, por meio da causação entre os níveis psicológico e físico, com resultados determinados por limitações que mudam ao longo do tempo, como as experiências vividas. Essa interação entre os processos físicos e os eventos psicológicos permanecem um mistério para a neurociência. Mesmo os potenciais de ação que percorrem as fibras dos neurônios não são plenamente explicados. Sabe-se apenas que eles codificam o pensamento de alguma forma.
Como a poda sináptica afeta o debate sobre a autodeterminação humana? Em um artigo muito aclamado, publicado em 26/11/2004, Jonathan Cohen e Joshua Greene, dois psicólogos, debateram o livre-arbítrio e a responsabilidade criminal frente aos estudos da neurociência cognitiva. Na parte 5 do artigo, eles confrontam a teoria materialista e o dualismo por meio do problema dos garotos do Brasil (The Boys from Brazil Problem). Neste artigo, os dois psicólogos indagam se o clone de Hitler no Brasil, a que dão o nome de Sr. Marionete, criado geneticamente idêntico a Hitler e submetido exatamente às mesmas experiências de vida, deveria ser responsabilizado por seus atos, caso se envolva em atividades criminosas. Essa indagação parte de um experimento mental que falha no momento da interação entre os processos físicos e genéticos de um lado e os eventos psicológicos advindos da experiência de outro.
De fato, o estudo de gêmeos univitelinos contrasta com essa visão determinista, reforçando a autodeterminação humana. Geneticistas comportamentais há muito buscam entender como organismos geneticamente idênticos se desenvolvem de formas tão distintas. Apesar de serem clones genéticos e ambientais, os pais conseguem distinguir cada um dos gêmeos desde a infância. As experiências e memórias específicas de cada um deles moldam suas personalidades desde o nascimento, por meio de influências ambientais não compartilhadas (NSE). Inúmeras pesquisas focaram em gêmeos univitelinos em que apenas um deles era disléxico, gay, autista, deprimido ou com talento musical. Os resultados indicam que os genes e a educação compartilhada não influenciaram no outro gêmeo. A importância do NSE prova que os genes não são determinísticos. Os gêmeos idênticos mostram grandes diferenças mesmo em habilidades cognitivas de comprovada influência genética, havendo ainda nítida diferença no temperamento.
Sobre o determinismo genético, a composição genética herdada por potenciais criminosos se assemelha à mística sânscrita do karma. Um estudo na Finlândia publicado no jornal “Psiquiatria Molecular” em 2014 mapeou dois genes que estariam vinculados a 5% a 10% dos crimes violentos do país. Existem famílias com histórico de violência há décadas, que se perpetua nas gerações futuras, fato que intriga os pesquisadores.
Adrian Raine escreveu um dos livros mais conhecidos no âmbito determinista, “Anatomia da Violência: As Raízes Biológicas do Crime”. O autor foi pioneiro no uso de imagens cerebrais de criminosos violentos. Segundo ele, as anormalidades podem afetar regiões específicas do cérebro que controlam as emoções, agressividade e decisões éticas. No entanto, as conclusões de Raine foram bastante questionadas. Alega-se que suas teorias estão impregnadas de viés político-ideológico, prejudicando uma análise calcada no método científico. O livro não cita a fonte de muitas estatísticas contidas no texto. Além disso, o autor fez extenso uso de estudos refutados, estatísticas não comprovadas e interpretações pessoais para apoiar sua agenda política. Como exemplo, ele diz que alguns crimes podem ser definidos como programas evolutivos, desde a agressividade masculina até as fofocas das mulheres, que também é tida como uma forma de violência para afugentar concorrentes. Para ele, o estupro seria mais traumático em mulheres em idade reprodutiva do que em crianças e mulheres na menopausa. O autor também afirma que as estatísticas confirmam (sem fornecer a fonte) que as mulheres engravidam mais em estupros do que em relações sexuais consensuais desprotegidas, por atingirem o clímax mais facilmente. O estupro seria uma estratégia para homens aumentarem sua contribuição genética, e não um comportamento naturalemente desviado ou criminoso. Esse argumento contrasta com os inúmeros casos de estupros de crianças e de mulheres fora da idade fértil por abusadores mentalmente sãos, além de parafilias, como a prática de zoofilia e necrofilia, que não possuem relação com a busca pela propagação genética.
Um tema recente suscitou novo interesse no embate natureza-criação: o aborto de fetos decorrentes de estupro. Décadas atrás, alguns especialistas chegaram a propor a existência do gene do estupro, que levaria a descendência de um estuprador a se tornar invariavelmente um estuprador por influência genética. Mas a existência desse gene foi descartada em definitivo por pesquisas recentes, e os argumentos que restam se aproximam de um viés eugênico. De fato, os levantamentos indicam que filhos de estupradores tendem a cometer mais abusos em comparação com a média da sociedade, mas isso não em decorrência da natureza, mas sim da criação, por conta da influência do meio. Apesar dessa influência, a escolha humana ainda é decisiva para a conduta.
David Eagleman também é um escritor bastante citado neste tema. Em “Incógnito”, publicado em 2011, ele explica no capítulo 6 porque a culpabilidade é a pergunta errada a ser feita no contexto criminal, pondo em xeque a noção de culpa. Segundo sua visão, a evolução da neurociência vem destruindo a noção de consciência no controle de nossas ações. O comportamento seria fruto de uma competição entre as áreas do cérebro, com a parte inconsciente sobrepujando a parte consciente na maior parte de nossas tarefas, inclusive na tomada de decisões. Todas as ações estariam ligadas a estados do cérebro e não a escolhas dos indivíduos, e por isso não deveríamos punir os criminosos. Alguns devem ser reabilitados por meio de processos mentais específicos e outros segregados da sociedade para a proteção de todos, uma visão semelhante à de Adrian Raine.
No mesmo livro, Eagleman também diz que a falta de livre-arbítrio em crimes cometidos por indivíduos portadores de patologia cerebral teriam um veredito de não criminalmente responsável ou inocente por razão de insanidade, conhecido nos Estados Unidos pela sigla NGRI, equivalente no direito pátrio à sentença absolutória imprópria, com imposição de medida de segurança. Segundo ele, o fato de o acusado ter um tumor cerebral constatado na autópsia após uma pena capital o exonera de qualquer responsabilidade, inclusive de indenizar a família da vítima com as forças da herança.
Alguns anos após “Incógnito”, David Eagleman publicou em 2015 o livro “Cérebro, uma Biografia”, em que faz ressurgir o livre-arbítrio. Por fim, em 2022, ele publicou “Cérebro em Ação”, onde expõe o livre-arbítrio no capítulo 10 com o título “modificado pela história”. Percebe-se que na última década desde “Incógnito”, o autor alterou sua posição sobre o determinismo, mudança também observada em outros neurocientistas e físicos outrora aguerridos na defesa do determinismo puro.
O livro “Livre-Arbítrio e o Cérebro: Perspectivas Neurocientíficas, Filosóficas e Jurídicas” (Cambridge University Press, 2018, na tradução do inglês), de Walter Glannon, é uma antologia de vários pesquisadores de diferentes países que elucidam até que ponto a vontade humana é realmente livre. Possui contribuições de psiquiatras, neurocientistas, filósofos e juristas. O livro contém um texto sobre o compatibilismo, de autoria de Jonathan Lowe e na parte 5 expõe as implicações legais da neurociência, com textos de Steven E. Hyman e Stephen J. Morse.
Já Jonathan Haidt escreveu o livro “A Mente Moralista” (Editora Alta Cult, 2020), que aborda pesquisas em neurociência, psicologia social e modelagem evolutiva no estudo da moralidade humana. Segundo o autor, a natureza humana não é intrinsecamente moral, mas sim moralista, crítica e propensa ao julgamento, o que possibilitou aos seres humanos criarem grandes grupos cooperativos, como tribos e nações, sem o laço da consanguinidade. Esse fato lhes rendeu diferentes visões de mundo e opções políticas e ideológicas, como as observadas atualmente em diversos países. Essas visões podem ser influenciadas pelo ambiente, mas não de forma determinista, havendo sempre o componente do livre-arbítrio na sua escolha.
Também é comum nos autores deterministas comparações entre o comportamento humano e animal, como chimpanzés e bonobos. No entanto, o reino animal é despido de responsabilidade moral. Os biólogos já catalogaram dezenas de crimes e trapaças praticadas por animais, inclusive crimes de guerra, como o estupro entre primatas rivais. Já a punição de terceiros, conhecido pela sigla em inglês TPP, como meio de impor a cooperação em resposta a violações de normas sociais, é um comportamento evolutivo exclusivo dos humanos. Esse comportamento foi selecionado por permitir a cooperação em larga escala e de longo prazo entre indivíduos geneticamente não relacionados por laços de parentesco. Espera-se com isso que o comportamento criminoso seja punido por decisões imparciais após análise da responsabilidade moral e da avaliação da punição legal adequada.
Uma comparação com o reino animal ocorreu em Odisha, no leste da Índia, quando um elefante pisoteou e matou uma mulher de 68 anos. No funeral, o mesmo elefante retornou com sua manada, atacando novamente a pira onde estava o corpo, jogando-o ao ar e pisoteando-o em seguida. Dias depois, em 09 de junho de 2022, o mesmo elefante, acompanhado de integrantes de seu grupo, atacou o vilarejo onde morava a aldeã, destruindo sua casa e as casas vizinhas, e pisoteando todas as cabras existentes nos currais. Foram três ataques em sequência. As autoridades indianas disseram que a mulher morta fazia parte de um grupo que havia matado o filhote do elefante. Sabe-se que o cérebro do elefante tem uma estrutura similar à do cérebro humano, com grande desenvolvimento do córtex e do hipocampo, área ligada à sensação e à memória. O mesmo ocorre com algumas espécies de cetáceos quando são libertados do cativeiro, como baleias e orcas, que podem encontrar seus filhotes ou suas mães vagando pelo oceano após décadas de separação.
Nos seres humanos, a poda sináptica faz com os eventos psicológicos moldem a conformação física do cérebro constantemente no decorrer da vida, após um pico na infância. Michael Merzenich foi quem primeiro teorizou que a neuroplasticidade faz com que o cérebro mude conforme seja utilizado. Essas pesquisas focam atualmente na experiência de eventos que duram milissegundos, durante o chamado “momento presente” do ciclo percepção-ação e nas teorias da consciência.
De uma maneira geral, a explicação da consciência está centrada em duas teorias que rivalizam a preferência dos estudiosos. O cerne da questão está relacionada à explicação dos chamados correlatos neurais da consciência, isto é, quais eventos neurobiológicos ocorrem concomitantemente à experiência da consciência subjetiva. Estas questões são chamadas de problemas fracos da consciência. Já o porquê de estes mecanismos gerarem a consciência é conhecido como problema forte da consciência, conforme formulado por Chalmers. Duas teorias buscam resolver o enigma: a teoria da informação integrada, conhecida pela sigla TII, formulada por Giulio Tononi em 2004, e a teoria do espaço de trabalho global, conhecida pela sigla GWT, formulada por Bernard Aars em 1988. O embate entre estas duas teorias impacta a visão acerca da autodeterminação humana.
O livro-texto “Princípios de Neurociência” (6ª edição, 2022) é um tratado de referência, voltado à neurologia clínica e psiquiátrica. No início do livro, Kandel e Shadlen explicam que os processos mentais são o produto de interações entre unidades de processamento elementar no cérebro. A localização de habilidades cognitivas no cérebro foi pioneiramente estudada no caso de distúrbios de linguagem e a organização modular no cérebro foi descoberta por Wernick.
Segundo estes autores: “A última fronteira das ciências biológicas – o desafio final – é compreender a base biológica da consciência e os processos encefálicos pelos quais o ser humano sente, age, aprende e lembra. Durante as últimas décadas, uma notável unificação dentro das ciências biológicas preparou o cenário para a formulação desse grande desafio. A capacidade de sequenciar genes e inferir a sequência de aminoácidos nas proteínas que eles codificam tem revelado semelhanças imprevistas entre as proteínas no sistema nervoso e aquelas encontradas em outras partes do organismo. Como resultado, tornou-se possível estabelecer um plano geral para a função celular, um plano que fornece um arcabouço conceitual comum para toda a biologia celular, incluindo a neurociência celular. O atual desafio para a unificação dentro da biologia, delineado neste livro, é unir o estudo do comportamento – a ciência da mente – e as neurociências – a ciência do encéfalo. Tal abordagem unificada, na qual mente e corpo não são vistos como entidades separadas, apoia-se na visão de que todo o comportamento é resultado da função encefálica. Aquilo que costuma ser chamado de ‘mente’ é um conjunto de operações executadas pelo encéfalo. Processos encefálicos formam a base não apenas dos comportamentos motores, como caminhar e comer, mas também de atos e comportamentos cognitivos complexos, que são entendidos como a quintessência do comportamento humano – o pensamento, a linguagem e a criação de obras de arte. Como corolário, todos os transtornos do comportamento que caracterizam as doenças psiquiátricas – transtornos afetivos (sentimento) e cognitivos (pensamento) – resultam de distúrbios da função encefálica. Como os bilhões de células nervosas individuais produzem comportamentos e estados cognitivos, e como essas células são influenciadas pelo ambiente, que inclui a experiência social? É tarefa das neurociências explicar o comportamento em termos de atividade encefálica, e o progresso das neurociências na tentativa de explicar o comportamento humano é um dos principais temas deste livro. A principal razão pela qual demorou tanto para entender quais atividades mentais são mediadas por quais regiões do cérebro é que estamos lidando com o enigma mais profundo da biologia: os mecanismos neurais que explicam a consciência e a autoconsciência. Atualmente, não existe uma teoria satisfatória que explique por que apenas algumas informações que chegam aos nossos olhos levam a um estado de consciência subjetiva de um item, pessoa ou cena. Sabemos que estamos conscientemente cientes de apenas uma pequena fração de nossas deliberações mentais, e aqueles pensamentos que perfuram a consciência devem surgir de etapas realizadas pelo cérebro inconscientemente. Algumas respostas aos enigmas da consciência podem estar mais próximas do que imaginamos.”
Existe uma crença padrão de que as pessoas são limitadas pelo ambiente, cultura, religião e influências biológicas, que impactam suas escolhas e, consequentemente, seu livre-arbítrio. Muitos especialistas alertam, contudo, que as pesquisas com psicopatas e detentos no corredor da morte são enviesadas. Isso porque estas pessoas dizem qualquer coisa que o pesquisador queira saber em troca de cigarros, que são a moeda de troca da prisão. Esses presos sabem exatamente aonde estão sendo conduzidos. Em uma apresentação no TED com mais de um milhão de visualizações com o título “A neurociência da justiça restaurativa” (traduzido do inglês), o médico norueguês Dan Reisel expôs sua pesquisa com detentos da prisão de segurança máxima de categoria B, “HM Wormwood Scrubs”, em Londres, onde ficam os prisioneiros mais perigosos da Inglaterra. A pesquisa consistia em encaminhar os presos para exames de ressonância magnética cerebral, com a finalidade de aferir se havia uma causa neurológica para sua condição. Segundo as conclusões de Reisel, os presos tinham um déficit nas amígdalas cerebrais, que fazem parte do sistema límbico, onde se processam as emoções.
Esse debate sobre autodeterminação também foi bastante discutido no caso do terrorista climático de origem polaca Theodore Kaczynski, que cometeu vários assassinatos nos EUA. Após uma extensa investigação, considerada a mais cara da história do FBI, ele foi finalmente descoberto e condenado a oito prisões perpétuas, depois de confessar o envio de cartas-bomba a várias vítimas. Durante seu julgamento, psiquiatras o diagnosticaram com esquizofrenia paranoide. Exames posteriores, no entanto, indicaram que ele era saudável. Na infância, ele teve urticária, o que o levou ao isolamento hospitalar por longos períodos, longe do convívio social. Na escola, ele participou de experiências psicológicas conduzidas por Henry Murray durante três anos, passando por mais de 200 horas de sessões. Acredita-se que essas experiências vinculavam-se ao MK Ultra, um projeto secreto da CIA que investigava técnicas de controle da mente. No seu julgamento, a defesa alegou que sua fixação antitecnológica adveio das técnicas de controle mental a que fora submetido na escola. Contrariamente, o próprio Kaczynski sempre enfatizou sua plena sanidade, buscando conferir credibilidade à sua causa. Ele cumpriu a condenação na penitenciária ADX Florence, tida como de “segurança supermáxima”. Em 2010, ele lançou o livro “Technological Slavery”, com elevada tiragem, cuja renda foi destinada aos familiares de suas vítimas. Em 2021, ele foi transferido para um hospital de custódia, com sintomas de um tumor cerebral irreversível, falecendo dois anos depois.
O livro de Kaczynski se insere em um debate mais amplo acerca do determinismo tecnológico. Esse debate se iniciou no alvorecer do século XX com Thorstein Veblen, passando por Chaplin (Tempos Modernos), Terry Gilliam (filme “Brazil”, de 1985) até Thomas Friedman (“O Mundo é Plano”). A oposição a essa forma de determinismo é encabeçada por Andrew Feenberg, no livro “Teoria Crítica da Tecnologia”, que discorre sobre a racionalidade tecnológica, a partir da filosofia da tecnologia, e sua aplicação a jogos digitais, educação à distância e internet. O debate sobre o determinismo tecnológico ganhou novo impulso com os progressos na área de inteligência artificial e a possível superação da capacidade cognitiva humana.
Nos séculos passados, os comportamentos aberrantes eram atribuídos à influência do diabo. Apenas no século XX que esses comportamentos passaram a ser vistos como déficits cognitivos e psicológicos, a partir da análise freudiana. Do ponto de vista da psicologia, os estudos atuais sobre a mente criminosa formam três linhas de pesquisa. A teoria psicodinâmica foca na primeira infância, analisando a probabilidade de cometer crimes futuros. Já a teoria comportamental indica que a percepção do mundo influencia o comportamento criminoso. Por fim, pela teoria cognitiva as pessoas são levadas a cometer crimes pela forma como manifestam suas percepções. Pela concepção psicodinâmica, inspirada em Freud, dolo é a atitude interior de aderir aos próprios impulsos intrapsíquicos antissociais, cedendo às pulsões.
Mas o ataque ao livre-arbítrio não se limita ao ambiente acadêmico da neurociência, com a física representando outro front de batalha dos deterministas. Físicos como Brien Greene e Stephen Hawking, notórios divulgadores de ciência, despenderam enormes esforços para minar esse paradigma fundante da culpabilidade. Em geral, o determinismo é defendido por físicos teóricos e de partículas. Já os físicos da matéria condensada de muitos corpos defendem a ideia oposta, já que possuem uma visão mais ampla da aleatoriedade, como o movimento Browniano.
Laplace acreditava que o ser humano era uma máquina, assim como todo o Universo. Atualmente, nem mesmo as máquinas são deterministas, existindo algoritmos de aprendizado de máquina que as fazem tomar suas próprias decisões sem previsibilidade, indo além de ações programadas, surgindo assim uma versão rudimentar de livre-arbítrio artificial.
Ao contrário do que afirmara Laplace, existe um componente de aleatoriedade no comportamento do Universo, tanto na escala macro quanto microscópica. Na cosmologia de grande escala, como o movimento de galáxias, os resultados são expressos apenas em termos de probabilidades estatísticas. A forma como a matéria escura se aglomera em torno das galáxias é um problema essencialmente estocástico.
O problema dos três corpos, como o movimento conjugado da Terra, da Lua e do Sol, também incorpora elementos de aleatoriedade e não pode ser modelado com exatidão. Na década de 1890, Poincaré estabeleceu a existência de um número infinito de soluções periódicas para o problema restrito dos três corpos. Em 2017 e 2018, Xiaoming Li e Shijun Liao encontraram 1.900 novas soluções para o problema, tanto para corpos com massas iguais quanto diferentes. Atualmente, o problema dos três corpos é objeto do estudo da dinâmica galáctica, formação de estrelas, trajetórias de naves espaciais tripuladas, satélites e aterrissadores robóticos.
Esse problema possui um análogo na mecânica quântica: o átomo de hélio. O átomo de hidrogênio pode ser resolvido analiticamente, com resultado exato, configurando um problema de dois corpos, com um elétron orbitando o núcleo. Já o átomo de hélio, com dois elétrons orbitando o núcleo, não pode ter sua dinâmica descrita com exatidão, caracterizando um problema de três corpos intrinsecamente estocástico. Essa dinâmica é caracterizada por tração harmônica e força repulsiva do cubo inverso, ao invés de interações de Coulomb do quadrado inverso no problema dos dois corpos. Sua modelagem matemática não passa de uma generalização, sem resposta exata, que independe da capacidade computacional. A alegação comum dos defensores do determinismo de que tudo é uma questão de falta de dados e poder de computação não escapa a um escrutínio mais acurado.
A visão determinista sobrevive graças à nova geração de autores, como a física de partículas Sabine Hossenfelder. Em seu primeiro livro, ela fala que o dogma da beleza na matemática prejudicou o avanço na física, citando as teorias fracassadas da supersimetria e da grande unificação, que não resistem aos requisitos de testabilidade e falseabilidade. No entanto, é possível olhar para esse fracasso por uma perspectiva inversa. O LHC provou que as partículas supersimétricas não podem ser geradas nas energias deste colisor, mesmo quando comissionados na potência máxima de 13,6 TeV, o que aponta para uma compreensão mais profunda do Universo em outro rumo. Essa constatação, ao invés de ser vista como um fracasso de uma teoria que perdura há quatro décadas, direcionou os esforços e investimentos para áreas mais promissoras. De fato, o colisor rendeu apenas um prêmio Nobel desde que foi inaugurado, mas o foco nesse prêmio tem sido apontado como prejudicial ao avanço da ciência. Já em seu livro mais recente, “A ciência tem todas as respostas?”, Sabine Hossenfelder afirma que o livre-arbítrio não existe aos olhos da física, e que toda a causalidade depende apenas das condições iniciais e de detalhes quânticos que o ser humano é incapaz de controlar.
Contraditoriamente, o livro contém um capítulo que analisa a seta do tempo, indicando que o tempo pode transcorrer nos dois sentidos. Se assim o fosse, seria possível retroceder nas equações e comparar seus resultados com o que realmente ocorreu no presente, revelando assim uma contradição embaraçosa para o determinismo puro que ela prega.
Um capítulo específico da obra analisa um estudo que comparou o Universo ao cérebro humano. Mas esse estudo teve muitas limitações. De fato, em 2020, um estudo publicado pela Universidade de Bolonha realizado por um astrofísico e um neurocirurgião confrontou as semelhanças entre o cérebro humano e o Universo. O estudo contém uma imagem comparativa entre uma seção do cerebelo magnificado em 40x com uso de microscópio eletrônico e uma seção de simulação cosmológica do Universo medindo 300 milhões de anos-luz de cada lado. O estudo causou furor no meio científico, e a física Sabine Hossenfelder chegou a indagar no título do capítulo se o Universo “pensa”. Porém, o próprio estudo enumera uma série de limitações, como o fato de a teia cósmica usar proximidade para definir sua rede, enquanto as teias neurais usam conexões de longo alcance, que não puderam ser avaliadas adequadamente devido às limitações técnicas do método utilizado. Em virtude dessas limitações, os dois autores do estudo afirmaram que não foi possível realizar uma análise sistemática e completa da conectividade das redes.
Recentemente, o físico Melvin Vopson publicou um estudo indicando que todos os sentidos humanos são apenas sinais elétricos que são codificados pelo cérebro, como um computador biológico, não havendo nada além disso. Ele é autor da chamada 2ª lei da infodinâmica ou da dinâmica da informação. Estudando as mutações do genoma da COVID, ele constatou que as mutações não são aleatórias e que resultam em redução da entropia, contrariando a 2ª lei da termodinâmica, que estabelece que a entropia ou desordem sempre aumenta ou permanece constante. Em 2021, físicos teóricos da Microsoft publicaram um artigo científico de 80 páginas demonstrando que todo o Universo não passa de uma simulação de computador. Já o cientista James Gates mostrou semelhança entre as equações das teorias das cordas e da supersimetria e a linguagem dos códigos de computador. Alguns cientistas viram incompatibilidade dessa relação com o teorema da incompletude de Gödel e com o Código Shannon. De qualquer maneira, alguma similaridade entre a matemática do funcionamento do Universo e a linguagem dos computadores não chega a impressionar, nem é prova que vivemos em uma simulação da matrix desprovidos de livre-arbítrio. O próprio DNA utiliza métodos semelhantes à linguagem computacional em seu funcionamento.
Em seu segundo livro, Sabine Hossenfelder incluiu uma entrevista com o veterano físico vencedor do prêmio Nobel Roger Penrose ao final do capítulo sobre determinismo. Ele é coautor da teoria da consciência quântica, que não possui nenhuma relação com misticismo. Essa teoria foi formulada em meados da década de 1990, com o nome de “Redução Objetiva Orquestrada”, juntamente com o médico anestesista Stuart Hameroff, e passou por uma revisão em 2014. A teoria postula que computações quânticas em estruturas celulares conhecidas como microtúbulos têm efeito no disparo de neurônios e, por extensão, na consciência. Os microtúbulos fazem parte do citoesqueleto de células cerebrais. O grande desafio desta teoria é conciliar os efeitos quânticos com as temperaturas fisiológicas, evitando a decoerência. Além disso, exige tempos muito curtos, não sobrevivendo às taxas lentas em que os neurônios disparam.
Mas a biologia e a química quânticas mostraram que é possível haver efeitos quânticos nas condições fisiológicas. Este efeito já foi demonstrado na fotossíntese, na bússola aviária, no olfato, nas enzimas, no DNA e na fenda sináptica. Em geral, ocorre decoerência em temperaturas fisiológicas, mas na fenda sináptica há uma barreira formada por íons que impede que os efeitos quânticos se degenerem.
Lisa Randall é outra física de partículas da nova geração de deterministas. Ela escreveu o livro “Batendo à Porta do Céu”, glorificando as colisões do LHC ao tempo da descoberta do bóson de Higgs. Contudo, após os fracassos que se seguiram no colisor, ela passou a publicar livros enigmáticos com teorias excêntricas, como a de que um disco de matéria escura teria extinguido os dinossauros.
Essas abordagens deterministas dos físicos de partículas são contestadas pelas atuais pesquisas na mecânica quântica aplicadas na física, biologia e química, que demonstram a existência de processos quânticos na fisiologia humana, com preponderância do princípio da incerteza. Além disso, existem eventos intrinsecamente aleatórios, o que também contraria o determinismo puro.
Na microbiologia, os processos moleculares se desvinculam dos dados iniciais por conta de bilhões de colisões entre moléculas a cada segundo em um movimento caótico. Muitas proteínas funcionam extraindo ordem do caos. Os detalhes do estado inicial de movimento estão inelutavelmente perdidos e a aleatoriedade molecular dá aos mecanismos celulares a opção de escolher os resultados que desejam e descartar os demais. Esse poder de escolha permite que os sistemas fisiológicos, como o coração e o cérebro, não estejam presos às interações moleculares, podendo escolher os resultados das interações preferidas de uma infinidade de opções, emergindo daí uma camada de ordem.
Historicamente, as ideias de Darwin mudaram a própria essência das questões que a ciência procurava responder. Em vez de extrair leis imutáveis da natureza, tentando encaixar o entendimento em um Universo mecânico, a ciência teve que abraçar a incerteza e a aleatoriedade como forças fundamentais. Em última instância, teve que aceitar que partes do Universo são incognoscíveis. São exemplos dessas abordagens a estatística de Ludwig Boltzmann, cuja equação de probabilidade relaciona a entropia com o número de microestados reais de um gás, a mecânica quântica, a energia nuclear, a tectônica de placas, os modelos climáticos e as vacinas de RNA mensageiro.
Por conta disso, muitos neurocientistas e divulgadores de ciência alteraram seu posicionamento nos últimos anos, passando a defender níveis distintos de livre-arbítrio. Mas ainda há os que se agarram ao determinismo puro, argumentando que a incerteza quântica não o contraria. Eles contra-argumentam com a ideia de que o princípio da incerteza seria como o jogar de dados no funcionamento da vida, o que também não se harmoniza com uma noção de livre-arbítrio.
A mecânica quântica despontou na virada do século XIX para o século XX. Seu surgimento só se tornou possível graças à chegada de uma geração de jovens físicos, desprendidos das ideias do século anterior. Para um rápido vislumbre, quando da elaboração de suas teorias, Heisenberg tinha 24 anos, Paul Dirac tinha 26 anos, Bohn tinha 28 anos e Einstein tinha 26 anos.
Além do princípio da incerteza, a interpretação de muitos mundos da física quântica também contraria o determinismo. Por ela, o indivíduo tem o poder de determinar seu futuro por meio de suas decisões, sem vinculação com o seu passado. Essa interpretação diz que pode ocorrer mais de um resultado de uma escolha, a partir de um único estado do Universo, conferindo ao indivíduo o poder de escolher o comportamento contrário.
Em regra, as vibrações decorrentes da temperatura corporal geram decoerência. Mas muitos trabalhos nos últimos anos demonstraram a natureza quântica de variados mecanismos biológicos. Daniel T. Kaplan e coautores publicaram um artigo seminal sobre o tema em 20/05/1996, intitulado “Dinâmica Subliminar em Axônios Gigantes de Lulas Estimulados Periodicamente” no prestigioso periódico “Physical Rev. Lett”, nº 76. O artigo analisou a eletrodinâmica do axônio gigante de lulas, filamentos que percorrem a maior parte do corpo do animal, com diâmetro de até 1,5 mm e comprimento de vários centímetros, presentes em neurônios que controlam a propulsão na água. Os intervalos irregulares em frequências de estimulação também indicaram pioneiramente a existência de caos em seu funcionamento.
As mitocôndrias também utilizam o tunelamento quântico na geração de ATP, tal como o fazem outras organelas. A produção do ATP na mitocôndria passa pelas cadeias de transporte de elétrons e gradientes de prótons. No ramo da bioquímica quântica, foi demonstrado que a atividade enzimática utiliza tunelamento quântico para transferir elétrons de um lugar para outro nas cadeias de transporte. As arquiteturas quaternárias de proteínas permitem o emaranhamento quântico sustentado e a coerência quântica, com base no princípio da complementariedade e na dualidade onda-partícula, transpondo barreiras de energia que seriam impossíveis pela mecânica clássica.
Os pássaros possuem magnetorecepção para orientação espacial, filtrando os campos magnéticos de seu interesse e descartando o campo gerado por descargas atmosféricas, por exemplo, que podem causar sua desorientação nas migrações. Eles podem voar entre polos e hemisférios da Terra, percorrendo até onze mil quilômetros sem interrupção. Experimentos em toutinegras e toudos expostos à frequência de rádio, que gerava obstrução do campo magnético, resultaram em prejuízo para a navegação destes animais. Estudos recentes nas ondas cerebrais alfa, captadas por eletroencefalograma e ressonância magnética funcional, comprovaram que os humanos também possuem magnetorecepção. Estudos atuais indicam que essa capacidade funciona por meio de pares de radicais quanticamente emaranhados.
Outros estudos demonstraram a existência de motores brownianos em processos celulares com influência de efeitos quânticos. O ciclo de Krebs ou TCA são as reações químicas que ocorrem na célula para manter seu metabolismo. O ácido cítrico passa por várias etapas, desde a quebra de carboidratos e aminoácidos até a transformação do ADP em 38 moléculas de ATP. A energia necessária ao processo oxidativo do ciclo é transferida por elétrons altamente energéticos, por meio de efeitos quânticos.
A modelagem artificial de proteínas e demais moléculas faz uso de uma generalização para fins práticos, já que sua estrutura e forma podem adotar uma infindável quantidade de configurações. Demonstrou-se que a indeterminação quântica rege esse processo, tornando-o essencialmente estocástico.
De uma maneira geral, a química quântica busca resolver a equação de Schrödinger ou a equação de Dirac (na química quântica relativística), com determinação da estrutura eletrônica da molécula. Mas uma solução exata só é possível para o átomo de hidrogênio. Todos os outros sistemas atômicos e moleculares envolvem os movimentos de três ou mais partículas, não sendo possível uma solução exata, apenas uma distribuição de probabilidades, por envolver uma dinâmica quântica de observáveis ao longo do tempo. A função de onda de um elétron em um orbital atômico no átomo de hidrogênio indica o estado quântico da partícula, de onde se extrai a sua amplitude de probabilidade por meio de um número complexo. O módulo ao quadrado desse número fornece a densidade de probabilidade da localização do elétron dentro da nuvem eletrônica. Essa visão essencialmente probabilística adveio da interpretação de Copenhagen.
A biologia indica que a vida surgiu em ambiente líquido. Houve uma confluência de fatores bastante específicos, como o peso molecular da água, seu ponto de fusão e seu calor de vaporização para possibilitar esse surgimento. Por conta de suas extensas ligações de hidrogênio, a água é líquida em uma faixa maior de temperatura e pressão em comparação ao seu peso molecular. A atração intermolecular dipolo-dipolo da água é mais fraca que a ligação covalente e mais forte que as forças de Van Der Waals. Isso possibilita que quebrem e se refaçam constantemente. São necessários 110 Kcal para quebrar uma ligação covalente e apenas 5 Kcal para quebrar uma ponte de hidrogênio. A água líquida só existe em uma faixa estreita de temperatura e pressão, relacionadas por um gráfico curvo. A água se formou por meio do intemperismo espacial, quando íons de hidrogênio disparados pelo Sol atingiram os átomos de oxigênio dos asteroides. Uma parte significativa da água líquida originou-se na própria Terra primitiva, e a outra parte veio por meio da colisão de asteroides. Essas duas origens da água possuem uma assinatura química específica, por conta da presença de deutério no manto terrestre, um isótopo do hidrogênio. O processo que levou à centelha vital é aleatório e raríssimo, tanto que jamais foram encontrados resquícios de vida fora da Terra, mesmo após sondagens de bilhões de corpos celestes que passaram por processos semelhantes. Após o surgimento da vida, o desenvolvimento de sua complexidade também adveio de processos aleatórios, como a carnivoria e a explosão de Avalon, além das mutações genéticas e a seleção natural. Atribuir todo esse processo às condições iniciais do universo primitivo desde a inflação cósmica até o presente, como fazem os deterministas, desconsidera esse componente de aleatoriedade.
A explicação sobre a dinâmica do Universo é repositório de variadas teorias, algumas delas sem nenhuma evidência científica. O físico Roger Penrose explorou com maestria esse movimento no livro “Moda, Fe e Fantasía en La Nueva Fisica del Universo” (2016), fruto de uma série de três conferências proferidas por ele na Universidade de Princeton em 2003.
Em julho de 2022, o LHC iniciou sua terceira fase de busca de dados. Os injetores foram comissionados a operar com 13,6 TeV, energia bem superior à primeira fase, quando o bóson de Higgs foi descoberto. Apesar disso, nenhum resultado promissor foi alcançado. Isso porque, novas descobertas na física de partículas exigem uma quantidade de energia várias ordens de grandeza superiores à empregada atualmente, o que não seria possível sequer com um colisor que percorresse todo o diâmetro terrestre. Os detectores Atlas e CMS buscavam a origem da assimetria entre matéria e antimatéria no Universo. Os físicos que trabalham no CERN foram obrigados a reconsiderar os princípios orientadores da pesquisa, que já duravam 40 anos, constatando que o Universo tem um componente antinatural. Após 2016, com o fracasso da segunda rodada de coleta de dados no colisor, houve uma debandada de físicos de partículas para outras áreas, já que o LHC não demonstrou nenhuma prova concreta e estava enterrando carreiras de jovens físicos. Essa busca visava averiguar a existência de partículas supersimétricas, como o “selectron”, o simétrico do elétron, e o “fotino”, o simétrico do fóton. Mas nada foi encontrado após a análise de uma quantidade infindável de dados de colisões.
Os físicos de partículas apegados ao determinismo puro precisam lembrar que na escala subatômica a teoria da relatividade é complementada pela teoria quântica. As colisões no LHC, por exemplo, são modeladas usando os operadores da mecânica quântica, para prever o resultado dos observáveis. As fórmulas da teoria da relatividade fornecem resultados bem diferentes dos indicados nos sensores do colisor. Para a relatividade, o espaço e o tempo podem ser comprimidos e estendidos a depender da massa e da velocidade da partícula, enquanto para a mecânica quântica essas medidas são imutáveis sob quaisquer circunstâncias.
Afirmar que o funcionamento do Universo e da vida na Terra, em especial a vida humana, pode ser prevista pela física de partículas, e que por isso o livre-arbítrio não passa de uma ilusão, esbarra no fracasso recente das Teorias de Tudo. De fato, as mecânicas newtoniana, relativística e quântica são complementares, mas suas previsões só funcionam adequadamente em seus respectivos campos de atuação, não havendo superação integral entre elas. Uma teoria que se aplica em todas as escalas está distante das evidências empíricas. Muitos físicos chegam a duvidar se será possível alcançar uma teoria do tipo com os métodos empregados atualmente, como Sabine Hossenfelder declarou em seu primeiro livro. Outros cientistas chegam a afirmar que o Universo é essencialmente inexplicável, afinal, as dimensões extras exigidas por diferentes versões destas teorias não podem ser comprovadas experimentalmente. A isso se soma a constante de estrutura fina, que viabiliza as ligações químicas e a formação de carbono, essencial para a vida, em detalhes até a 11ª casa decimal. De fato, se a fração da constante se alterasse de forma ínfima, de 1/137 para 1/138, a vida seria impossível. Diante desses argumentos, o determinismo puro na dinâmica do Universo não repousa em bases sólidas. Caso incluído o funcionamento da vida e da consciência humana, triunfa o imponderável .
Na escala de aplicação da relatividade geral, como no horizonte de eventos de buracos negros, a complexidade é ainda maior que na mecânica newtoniana, não possuindo solução analítica. Recorre-se a aproximações por métodos numéricos, por meio da “relatividade numérica” e da “computação científica” para a resolução das equações tensoriais. A equação de Einstein da relatividade geral introduz mínimas correções nas fórmulas da geometria euclidiana, mas atinge quase todas as equações conhecidas da física macroscópica. Quando a velocidade da luz tende ao infinito, dela se derivam a equação de Newton da gravitação universal, a equação de Poisson, com o caráter atrativo das forças gravitacionais, as equações da mecânica dos fluidos, como a equação de continuidade e a equação de Euler, as leis de conservação da massa-energia e do momento, o caráter euclidiano do espaço, as equações de Maxwell, a lei de Coulomb, a conservação da carga elétrica e a lei de Lorentz.
Já na escala subatômica, os dados experimentais dos campos quânticos confirmam as previsões da eletrodinâmica quântica com maior precisão, para dígitos mais significativos, ao lado da cromodinâmica quântica e da teoria eletrofraca. De seu turno, a teoria de campo estatística tenta estender a teoria de campo para sistemas de muitos corpos, que é regida pela mecânica estatística, podendo ser abordada pelo número infinito de argumentos de graus de liberdade. Por outro lado, o “princípio da ação” é equivalente na mecânica clássica às leis de Newton. Ele representa uma das grandes generalizações da ciência física. O comportamento de um sistema depende de todos os caminhos permitidos e do valor de sua ação. Esse princípio fornece as amplitudes de probabilidade dos vários resultados possíveis. Ele é usado com maior frequência na mecânica quântica. Além das leis de Newton, as equações de Maxwell também podem ser derivadas desse princípio.
A mecânica estatística descreve sistemas físicos em equilíbrio termodinâmico, mas a maioria dos fenômenos naturais ocorre em condições de não equilíbrio. O teorema das flutuações foi desenvolvido na década de 1990, com aplicação em uma variedade de conjuntos estatísticos. Em 2020, pesquisas mostraram que a convecção turbulenta na fotosfera solar satisfaz as simetrias previstas pela relação de flutuação prevista por esta teoria. Ela postula que os processos termodinâmicos podem ser reversíveis ou irreversíveis, dependendo da mudança na entropia durante o processo. O teorema da flutuação de Crookes é contraintuitivo por descrever processos complexos reversíveis. Um exemplo seria um motor a jato absorvendo calor do ambiente e gases de escape, gerando como resultado querosene e oxigênio. Esse efeito é improvável para ocorrer na escala macroscópica, mas em processos microscópicos há uma possibilidade não trivial de sua ocorrência, já que a probabilidade de observar uma trajetória reversa depende da escala do sistema. Esse efeito em máquinas moleculares pode ser visualizado por meio de pinças ópticas e microscópio de força atômica. Esta teoria foi verificada experimentalmente no dobramento de RNA. De uma maneira geral, os teoremas de flutuação especificam uma probabilidade diferente de zero de observar a produção de entropia negativa, contrariando a segunda lei da termodinâmica.
Ao descrever o comportamento caótico na natureza, o meteorologista Edward Lawrence pontificou que o bater de asas de uma borboleta no Brasil pode causar um tornado no Texas. Alguns estudiosos o chamam de “caos determinístico”, ou seja, a natureza determinista do sistema não os torna previsíveis. O comportamento caótico é observado no fluxo de fluidos, batimentos cardíacos, clima, bolsa de valores e no tráfego rodoviário. Mas estudos também comprovaram a existência de caos na natureza e no corpo humano. Isso não significa que não haja ordem no funcionamento do corpo, mas sim que esta ordem é extraída da aleatoriedade que lhe é inerente, por meio dos processos ergódicos.
Além da física, biologia e química, o determinismo puro ainda esbarra na matemática, que desenvolveu muitos métodos para lidar com erros e aproximações, como a distribuição normal e a distribuição de poisson. As equações de Lorenz são formadas por três equações diferenciais ordinárias não lineares, utilizadas para estimar a dinâmica dos fluidos atmosféricos e prever a mudança no clima. Mas a falta de acurácia nos dados leva a resultados discrepantes, já que essas equações são muito sensíveis às mínimas oscilações nas condições iniciais, com pequenos erros de truncamento resultando em grandes desvios nos resultados.
De uma maneira geral, no cálculo diferencial, a derivação numérica, por ser subtrativa, tende a amplificar os erros nos dados empíricos. Já a integração numérica cancela os erros, por ser uma soma de erros positivos e negativos arbitrários. Além disso, o teorema da existência e unicidade das equações diferenciais utiliza a iteração de Picard para aferir se existe uma solução para a equação diferencial e se ela é única.
Diversos eventos, seja na física, química, biologia ou mesmo na dinâmica das sociedades, são modelados pela cadeia de Markov, uma matriz de probabilidades de transição de estados com os respectivos vetores de probabilidade. Esse método é bastante usado para prever os estados de chuva e seca, por exemplo, além de outros processos estocásticos da natureza, como a herança genética por meio de genes dominantes e recessivos. O processo aleatório de Markov, no entanto, só utiliza variáveis restritas, sem influências externas, limitando-se ao estado atual e ao estado seguinte, o que restringe sua aplicação. Como exemplo, as migrações humanas entre países e continentes em um determinado ano estão sujeitas a alterações nas condições políticas, econômicas e ambientais, variáveis externas que impactam na sua previsão, inviabilizando o uso da cadeia de Markov para modelá-las.
O determinismo também esbarra na inconstância dos fluxos de matéria e energia. Os nutrientes são transportados por grandes distâncias pelos ventos da atmosfera e pelo movimento das águas de cursos d’água e de correntes oceânicas. Eles fazem parte dos ciclos biogeoquímicos globais, como os ciclos hidrológico, do fósforo, do nitrogênio, do carbono e o ciclo solar.
A aleatoriedade está presente até mesmo em doenças graves, como câncer. O câncer cerebral é extremamente grave e a chance de desenvolvê-lo ao longo da vida é de 1%. No entanto, concussões e ferimentos na cabeça aumentam esse risco em até quatro vezes. Essa associação entre lesões cerebrais e a formação de tumores era há muito cogitada, mas foi confirmada recentemente. A natureza sistêmica e a resistência inevitável à terapia torna a recorrência metastática praticamente incurável. Essa recorrência é em grande parte dos casos imprevisível e aleatória. A dormência do tumor e as aberrações moleculares ajudam a prognosticar o risco de recorrência, mas a compreensão dos fundamentos biológicos permanece um mistério no meio científico. O câncer continua se regenerando mesmo após ser bombardeado por todo tipo de terapia. É um mistério que persiste por décadas. O centro de um tumor é um ambiente hostil para medicamentos, já que muitas células cancerígenas produzem a molécula P-glicoproteína, que age como um cão de guarda, retirando materiais que ameaçam o tumor, tornando-o resistente à quimioterapia.
De seu turno, os príons são apenas proteínas modificadas, sem material genético. Eles se reproduzem no sistema linfático, e em seguida, alcançam o cérebro humano, invadindo os neurônios e dominando seus núcleos, causando doenças gravíssimas no cérebro. Possuem certa semelhança com alguns tumores cerebrais, como o glioblastoma, cujas células cancerígenas produzem proteínas que imitam as proteínas produzidas pelas células cerebrais saudáveis. A cada nova substância terapêutica contra tumores ocorre uma pressão evolutiva que os tornam mais sagazes. A imunoedição tumoral e a evasão imune completam o quadro de malignidade. Tanto os príons quanto as células cancerígenas do glioblastoma usam o engodo para vencer as barreiras imunológicas e conseguir invadir o cérebro. A mutação genética também é um evento imprevisível, fundado na aleatoriedade. A heterogeneidade genética e bioquímica das mutações conduz à resistência às terapias, produzindo clones tumorais com características distintas. A mutação pode trazer um ganho de função em oncogenes, além de uma perda de função em genes supressores de tumor, beneficiando-o duplamente.
Também predominam processos randômicos na fecundação por espermatozóide, na mitose e na meiose. A aleatoriedade e a imprevisibilidade são características inerentes da biologia evolutiva e da genética. A seleção darwiniana é aleatória por natureza, uma loteria genética combinatória que leva a gametas e à fertilização segundo leis probabilísticas. Mesmo a biologia molecular, outrora baseada em premissas determinísticas da precisão das interações entre moléculas, passou por uma recente revisão. De fato, experimentos atuais mostraram uma dimensão intrinsecamente estocástica das vias intracelulares. As mutações no nível de nucleotídeos do DNA ocorrem aleatoriamente, e a deriva genética se dá por meio de flutuações aleatórias nas frequências dos genótipos.
De uma maneira geral, os processos biológicos na Terra ocorrem em temperatura e pressão constantes, como na atmosfera e no fundo do oceano, com balanços de entropia e energia livre de Gibbs atuando no metabolismo e crescimento celular, demonstrando a aleatoriedade subjacente.
De forma simplificada, é possível afirmar que a consciência é só biologia complexa, que não passa de química complexa, que se resume a física complexa. Mas além das ciências fortes, como biologia, física e química, a aleatoriedade que contraria o determinismo também está presente nas chamadas ciências suaves, como sociologia, antropologia e psicologia. Afora a consciência individual, as ações humanas são tomadas sob influxos das relações coletivas, que formam a psicologia, antropologia, sociologia e o próprio direito. São todas manifestações reducionistas da cultura humana. Na visão do sociólogo Niklas Luhmann, o direito no subsistema social pressupõe a autodeterminação do homem.
A esse respeito, o experimento do aprisionamento de Stanford é lembrado pelos deterministas sociais para dissipar o conteúdo de livre-arbítrio no comportamento humano, mas esse experimento foi acometido de vários vieses metodológicos, além de problemas de replicabilidade e falseabilidade, não tendo verificação científica. De fato, dentre os diversos vieses que impactam as pesquisas científicas, destaca-se as pressões para publicar. Cientistas submetidos a pressões diretas ou indiretas para publicar podem ser mais propensos a exagerar a magnitude e a importância de seus resultados para garantir muitas publicações de alto impacto e novas bolsas. Um tipo de pressão para publicar é induzido por políticas nacionais que conectam o desempenho da publicação com progressão na carreira e financiamento público para instituições.
O determinismo social também se revela sob outras facetas. Em suas obras, Gilberto Freyre demonstrou uma visão determinista quanto às condições climáticas e geográficas. Da mesma forma, o ensaísta Vianna Moog atribuiu muitos problemas brasileiros à forma de colonização aqui praticada, uma característica que seria determinante para o destino do país. Ele passou uma temporada de dez anos nos Estados Unidos pesquisando a forma de colonização lá pratica, buscando encontrar particularidades que explicassem os diferentes destinos de ambas as nações, compilando seus achados no livro “Bandeirantes e Pioneiros”.
De forma mais geral, o livro “Tábula Rasa”, de Steven Pinker, publicado em 2002, expõe o embate natureza-criação, contrastando as influências culturais do ambiente com as influências genéticas. Ele busca demonstrar que o comportamento humano é moldado pela psicologia evolutiva, já havendo previamente um condicionamento básico na conduta humana que se amolda às contingências sociais à medida que se desenvolve. Dentre outros temas, o livro aborda o fantasma da máquina e o medo do determinismo, inserindo-se em um debate mais amplo acerca da natureza humana alicerçada na biologia e na genética, em confronto com os modelos deterministas culturais. Atualmente, o debate natureza-criação tende para um consenso acerca da influência de ambos, mas restando um componente de autodeterminação na escolha individual.
Após essa exposição, constata-se que o determinismo puro nas ações humanas não se sustenta em nenhuma de suas versões, seja física, genética, biológica, ambiental, sociocultural, antropológica, geográfica, climática ou política (como a forma de colonização). Desde a constante de estrutura fina, passando pela plasticidade cerebral e a poda sináptica, e chegando nos processos aleatórios que moldam uma metrópole, um nível razoável de aleatoriedade emana da natureza, fazendo predominar a autodeterminação nas ações humanas.
Com isso em mente, é forçoso analisar a influência que essa constatação tem para o Direito Penal, já que o debate sobre o livre-arbítrio se relaciona tanto à imputabilidade do agente quanto ao poder agir de outro modo, dois elementos da culpabilidade. Existem autores que entendem o livre-arbítrio como um elemento material (Roxin), enquanto outros o entendem como um elemento funcional (Jakobs) da culpabilidade. Esse debate também atraiu a atenção de novos estudiosos.
José Maria Delgado Garcia, jurista e professor espanhol, discorreu sobre a “neurofisiologia da liberdade” no livro “Neurociências e Direito Penal” (editora Tirant Brasil, 2020). Essa obra também explora a filosofia da linguagem de Ludwig Wittgenstein no contexto da consciência. Ressalte-se que estudos pioneiros de neurociência estavam vinculados ao funcionamento da linguagem humana. Já no livro “Linguagem do Cérebro” (editora Tirant Brasil, 2019), o mesmo autor aprofunda o estudo dos mecanismos químicos e elétricos utilizados na linguagem cerebral, como o potencial de ação nas sinapses.
Dentre autores brasileiros, destaca-se a obra “Neurolaw: Direito, Neurociência e Sistema de Justiça” (editora Revista dos Tribunais, 2021, pág. 62), onde Matheus Milan e João Sérgio discorrem sobre os aspectos modernos do tema, vinculados à inteligência artificial e ao “machine bias”, um software para avaliação de risco de reincidência criminal, com base em 137 perguntas. Esse programa gerou polêmica após seu uso no sistema penitenciário norte-americano, com alegações de viés de algoritmo. Na obra, os autores expõem os resultados supostamente neutros da inteligência artificial no serviço judiciário.
Frederico Horta e Paulo Romero publicaram o artigo “Fundamentos da culpabilidade e o debate biologicista sobre o livre-arbítrio: o direito penal posto à prova ou um falso problema interdisciplinar?”, na Revista do TRF 1° Região (ano 36, nº 2, 2024), onde analisam os estudos de Sapolsky. Os autores lembram que Libet refutou o determinismo na obra "Mind Time" em 2004. Eles fazem uma breve incursão nos estudos de Steven Pinker, David Eagleman, Jakobs e Roxin, concluindo que a decisão de cometer um crime passa pela reflexão acerca do risco de uma pena ser infligida, assim como a decisão de sair pela manhã com um guarda-chuva passa pela reflexão do risco de chover durante o dia. Essa comparação final dos autores contrasta com o determinismo de Sapolsky. Eles sustentam uma explicação sociológica para a prevenção geral positiva da pena, que pressupõe a autodeterminação humana.
Esse debate repercutiu nas teorias da ação, havendo inúmeras contribuições que buscam modificá-las ou acrescentar novos requisitos. Tal como Roger Penrose alertou quanto às novas teorias da física, também no Direito Penal muitas intervenções podem ser atribuídas simplesmente à moda.
Dentre os novos aportes, destacam-se a teoria da ação significativa de Vives Antón e o conceito jurídico-comunicativo de ação, que se baseia no agir comunicativo de Habermas e a virada linguística.
Martinelli e Schmitt de Bem entendem a ação como manifestação da autonomia (Direito Penal, Lições Fundamentais, Parte Geral, editora D’Plácido, 9ª edição, 2024, pág. 508). Mais à frente, os autores discorrem brevemente no espaço limitado de uma página sobre o livre-arbítrio e o determinismo. Por outro lado, Ângelo Roberto Ilha da Silva, Desembargador do TRF da 4ª Região egresso do MPF, percorre o assunto em 11 páginas, analisando o efeito das pesquisas neurocientíficas sobre o livre-arbítrio e a culpabilidade. (Teoria Geral do Crime, editora D’Plácido, 3ª edição, 2024, pág. 299).
Na doutrina clássica, Claus Roxin discorreu sobre o conceito material de culpabilidade como o poder de atuar de outro modo, aduzindo: “se o livre-arbítrio é indemonstrável, o determinismo estrito tampouco é empiricamente verificável, o que conduziria sempre à absolvição em virtude do princípio in dubio pro reo. Isso tornaria impossível um Direito Penal da Culpabilidade.” Na referência 31 na mesma página ele cita os estudos de Engisch, Danner (determinista) e Dreher (libertário). (in “Derecho Penal, Parte General”, Tomo I, Civitas, 2ª edição, 1997, pág. 799).
De seu turno, Günther Jakobs entende se tratar na verdade do conceito funcional da culpabilidade, e não material, encarando com irrelevância o debate sobre o livre-arbítrio. Para ele, o livre-arbítrio não cabe ser demonstrado no caso concreto, carecendo de dimensão social, mas teria a “função” de assegurar a ordem social. Não se trata se o agente tem realmente uma alternativa de comportamento realizável individualmente, mas sim se há uma alternativa de organização. Ele cita Kohlrausch, que afirma que “o poder individual na culpabilidade é uma ficção necessária para o Estado”, concluindo que esse poder se trata de uma construção normativa. Na referência 48 ele também cita Dreher, além de Lackner e Tiemeyer, para quem deve viger uma liberdade relativa como pressuposto da culpabilidade, a partir da ausência de impedimentos captáveis empiricamente (como pulsão externa, enfermidade mental, etc). Jakobs se refere à vertente de Schünemann, que apregoa a existência do livre-arbítrio fundada em considerações linguísticas, como puramente especulativa. Na referência 49 ele elenca fundamentos psiquiátricos e filosóficos que remontam ao tempo dos embates entre Welzel, Engisch e Festschrift. Na referência 51 ele cita Schreiber, o qual aduz que o livre-arbítrio é necessário para a convivência não se converter em um caos. De maneira geral, para Jakobs, o livre-arbítrio pertence ao conceito funcional da culpabilidade, e o atuar de outro modo se relaciona aos fins da pena. (in “Derecho Penal, Parte General”, 2ª edição, Marcial Pons, 1997, pág. 585).
Em ambos os autores tedescos percebe-se uma preocupação acerca da comprovação empírica do livre-arbítrio, com evidências práticas e concretas do poder atuar de outro modo, que compõe a culpabilidade.
Na visão crítica de Guilherme Nucci: “Por todos, Jakobs diz que colocar o livre-arbítrio como pressuposto geral da culpabilidade, já que ele não comporta prova no caso concreto, fomenta um conceito carecedor de dimensão social. Não nos parece seja assim. A possibilidade e a exigibilidade de alguém agir conforme as regras impostas pelo ordenamento jurídico, em nosso entendimento, são perfeitamente comprováveis. Como Schünemann afirma, o livre-arbítrio é uma parte da reconstrução social da realidade, vale dizer, é real.” (Curso de Direito Penal, Vol. 1, ed. Forense, 6ª edição, 2022, pág. 466).
Nucci complementa: “A culpabilidade para Jakobs não mais seria analisada sob o prisma individual, mas sim no âmbito da política criminal. Roxin critica a posição de Jakobs, na medida em que defende a culpabilidade como fundamento e limite para a aplicação da pena, a fim de coibir abusos do Estado, que não pode valer-se do indivíduo, ao destinar-lhe uma sanção penal, como mero instrumento de reafirmação dos valores do direito penal. A posição que se pretende pós-finalismo e pós-funcionalismo, na realidade, mescla um pouco de tudo e acredita com isso ter criado uma teoria inédita…O juiz alemão, ad argumentandum, bem formado culturalmente, com poucos casos na sua mesa para julgar, de crimes de média lesividade, talvez possa meditar sobre a política criminal de um país sério, de baixa criminalidade, para chegar a um veredicto sadio e justo acerca da culpabilidade funcionalista. Basta transportar tudo isso para o juiz brasileiro, com pilhas de processos, num país que nem legislar com base em uma política criminal definida consegue e tantos outros problemas e poder-se-á aquilatar o que significa migrar a culpabilidade para o caráter puramente normativo…Permanecemos fiéis à teoria normativa pura, que não nos parece defeituosa; ao contrário, é a única que congrega fatores de valoração com a concreta situação do ser humano e de sua capacidade inegável de agir de acordo com seu livre-arbítrio. Não concordamos com as posições que criticam essa utilização. Por todos, Jakobs diz que colocar o livre-arbítrio como pressuposto geral da culpabilidade, já que ele não comporta prova no caso concreto, fomenta um conceito carecedor de dimensão social. Não nos parece seja assim. A possibilidade e a exigibilidade de alguém agir conforme as regras impostas pelo ordenamento jurídico, em nosso entendimento, são perfeitamente comprováveis. Como Schünemann afirma, o livre-arbítrio é uma parte da reconstrução social da realidade, vale dizer, é real…O livre-arbítrio pode levar o agente a subtrair coisa pertencente a terceiro, porém em situação excepcional. A análise dessa anormalidade pode ser feita por qualquer magistrado, de modo que não há necessidade de recorrer a critérios normativos ou funcionais, nem ao menos à política criminal. A culpabilidade, pois, deve ser um juízo de censura voltado ao imputável, que tem consciência potencial da ilicitude, e, dentro do seu livre-arbítrio (critério da realidade), perfeitamente verificável, opte pelo caminho do injusto sem qualquer razão plausível a tanto. Concentramos nessa síntese as críticas àqueles que negam, com um método lógico, o livre-arbítrio, tal como os funcionalistas. (Curso de Direito Penal, Vol. 1, editora Forense, 6ª edição, 2022, págs. 466/467).
Na visão de Cezar Roberto Bitencourt: “O Direito Natural, do qual Pufendorf (1636-1694) é reconhecido como autêntico representante, apresenta a primeira aproximação à teoria da culpabilidade, partindo da ideia de imputação, que corresponderia à atribuição da responsabilidade da ação livre ao seu autor, ou seja, atribuía-se a responsabilidade penal àquele que, livremente, praticasse a ação. A essa concepção de imputação, com longos intervalos, seguiram-se outras, como a dos hegelianos, segundo a qual a imputação subjetiva justificava-se porque o indivíduo, livremente, por sua vontade particular, afastava-se da vontade geral, isto é, da lei. No entanto, a sistematização conceitual da culpabilidade data bem mais recente. Em meados do século XIX, com Adolf Merkel e, especialmente, com Binding, foram lançados os primeiros delineamentos das definições e estruturação contemporânea da culpabilidade…Com o deslinde existencial do problema do livre-arbítrio, Welzel substituiu a pergunta inicial do 'se' pela do 'como': como é possível ao homem o domínio da coação causal por meio de uma direção orientada no sentido, em virtude da qual, unicamente, pode fazer-se responsável por haver adotado a decisão falsa em lugar da correta? O determinismo tradicional incorreu no erro de considerar que existe somente uma forma de determinação, a denominada monismo causal. No campo do acontecer externo vimos que há uma conformação do vínculo causal com o vínculo final...A inegável coerência dos argumentos de Welzel forma, no entanto, amplamente criticados na medida em que a liberdade de vontade, enquanto capacidade de poder atuar conforme ao sentido, não pode ser, de fato, aferida no processo de atribuição de responsabilidade penal, mas sim compreendida como uma condição transcendental ou metafísica das relações intersubjetivas, isto é, das relações humanas no contexto das sociedades liberais modernas. Por esse motivo a reprovação de culpabilidade deixa, paulatinamente, de estar fundamentada no ‘poder individual de atuar de outro modo’, para pautar-se no ‘poder geral de atuar de outro modo’. Postura que também foi amplamente criticada, porque em lugar de oferecer uma solução aos problemas suscitados pelo livre-arbítrio, criou um novo foco de debilidade para a concepção normativa da culpabilidade, qual seja, a pretensão de fundamentar uma reprovação ética contra um indivíduo a partir de considerações acerca das capacidades da maioria das pessoas - o protótipo do homem médio -, sem saber se elas concorrem, de fato, no autor do injusto…Apesar da coerência da tese de Welzel, e da proposta de estandardização da exigibilidade defendida posteriormente por autores como Jescheck, o fundamento do juízo de reprovabilidade do comportamento injusto, com base na capacidade do sujeito de atuar de outro modo, recebeu muitas críticas. Engisch afirmou a impossibilidade de demonstrar empiricamente o livre-arbítrio humano, como pressuposto do poder atuar de outro modo.” (Tratado de Direito Penal, Vol. I, editora Saraiva, 2022, págs. 466/490).
Por fim, no escólio de Winfried Hassemer: “A justiça penal, dia a dia, deve decidir se alguém é imputável ou não, se atuou dolosa ou imprudentemente, se há circunstâncias atenuantes em sua personalidade que advoguem por ele. Com cada um dos juízos dessa classe que pronuncie, a justiça penal está pressupondo faticamente e certificando a possibilidade de que existam livre-arbítrio e culpabilidade. Não pode suspender seus julgamentos até a conclusão da discussão em torno do livre-arbítrio, que pode durar décadas ou séculos, e isso significa: não pode dar por válido o determinismo. Durante a semana, juízes e promotores de justiça devem executar o princípio de culpabilidade, e só no fim de semana poderão formular uma acesa defesa do determinismo…Gostaria de mostrar que as ciências empíricas do ser humano não as únicas chamadas a falar sobre a liberdade, e, muito menos, a dar a última palavra. Pois essa palavra não existe neste mundo…Toda ciência só vê aquilo que seus instrumentos permitem acesso, e encontra uma resposta unicamente onde seu instrumento lhe permite uma pergunta que corresponda à resposta no plano categorial. Se a ciência atua fora do âmbito que lhe resulta acessível, confunde as coisas e as categorias e cria o caos…No que nos interessa, resulta decisivo que o §20 StGB - Código Penal alemão - (equivalente ao art. 26 do CPB) não exige uma constatação da culpabilidade de um ser humano em um determinado caso concreto, e, por isso, tampouco que se constate a liberdade e a capacidade de atuar de outro modo em uma determinada situação. Exige algo completamente distinto: ausência de perturbações que fundamentariam uma inimputabilidade. Não ordena um procedimento positivo, mas um duplamente negativo…O Direito Penal, sua ciência e praxis, nunca rechaçaram in limine os conhecimentos das ciências naturais sobre o objeto “culpabilidade”; pelo contrário, reclamaram-nos; estão obrigadas a reclamá-los, se querem manter a dogmática da culpabilidade em dia. Na dogmática da culpabilidade, que se concretiza no § 20 StGB e que conecta esse preceito com constelações de casos individuais, estão contidos aqueles conhecimentos das biociências que são relevantes para o Direito Penal.” (Neurociência e Direito Penal, organizador Paulo César Busato, editora Atlas, 2014, págs. 3/15).
Esta última citação consta no livro “Neurociência e Direito Penal”, publicado em 2014 pela editora Atlas, e se refere a uma conferência proferida por Hassemer em 2011 na Seção de Direito Penal da Real Academia de Jurisprudencia y Legislación de Madrid. Esta obra é pioneira na literatura nacional, tanto pelo ineditismo quanto pela extensão e profundidade dos argumentos sobre o livre-arbítrio. O livro é coordenado por Paulo César Busato, contando com a participação de 13 coautores. Entre ensaios e conferências, essa antologia discute a liberdade para agir como a pedra de toque do moderno direito penal. Alguns autores sustentam que a liberdade de vontade não existe, uma vez que o ato de decisão humana advém de impulsos inconscientes do sistema cerebral. Outros adotam um posicionamento moderado, exaltando os avanços da neurociência cognitiva, mas sem implicar necessariamente em superação da ideia de liberdade no agir e de sua relação com a teoria da pena. Por fim, há os que defendem o livre-arbítrio de forma aguerrida.
Guaranini e Guimarães assinam o ensaio mais substancioso da obra acima, tanto em extensão quanto em profundidade, merecendo uma análise mais criteriosa dos argumentos lançados. Numa explanação de cinquenta páginas, os autores mesclam dogmática penal com temas da física e da neurociência. Segundo eles, Muñoz Conde, em aula sobre dogmática penal proferida na UFPR em julho de 2013 afirmou que o avanço da medicina, com o DNA, fez crescer os partidários da relação entre a criminalidade e a questão biológica. Além do DNA, essa corrente atualmente se baseia nos fundamentos supostamente inquestionáveis da neurociência, para chegar às mesmas conclusões da escola positiva do direito penal, o que Demetrio Crespo chamou de neurodeterminismo. Muñoz Conde recorda que Lombroso era judeu, e que, juntamente com Darwin, foram apropriados pelos nazistas, trinta anos depois do lançamento de “O Homem Criminoso”, que corromperam os estudos de Lombroso e Darwin com a finalidade de justificar a eliminação jurídica de pessoas no holocausto, em especial os judeus.
Ainda segundo os autores do ensaio, o conteúdo material da culpabilidade, ou seja, a liberdade de agir, foi posta em xeque por estudos derivados das ciências do ser, como o mapeamento do genoma humano. Também atuaram nesse sentido as ponderações da psicologia, como a de Jonathan Haidt, segundo a qual grande parte dos julgamentos morais são feitos de maneira automática. O ensaio faz um escorço sobre os experimentos em neurociência que sustentaram o determinismo. Acerca dos experimentos analisados, deve-se lembrar que o próprio Libet não apoiou as conclusões apressadas que fizeram de seus estudos. Na participação no livro de 2004, Libet mostrou-se contra o determinismo das funções mentais, declarando que a afirmação de que o livre-arbítrio é ilusório exige evidências diretas, o que não era o caso dos seus experimentos, que haviam captado apenas evidências sinuosas e indiretas.
De fato, em 1964, cientistas alemães fizeram um experimento com voluntários mostrando por análise das ondas cerebrais que o cérebro escolhe antes de a pessoa apertar o botão, com milissegundos de antecedência, chamando-o de potencial de prontidão. Eles viram o cérebro se preparando para tomar uma decisão antes que se manifestasse no ambiente externo. Libet refez o experimento em 1983 e conseguiu captar uma diferença bem inferior, passando de 500 milissegundos para 150 milissegundos, uma diferença formidável e que impacta sobremaneira a interpretação dos resultados.
Mas em 2010, Aaron Schurger realizou estudos que contradizem as conclusões dos neurocientistas. Ele viu semelhanças entre os gráficos do comportamento cerebral e as alterações no mercado de ações e no comportamento climático, como as tempestades. Em 2012, ele teorizou que o experimento de Libet não implicaria que o cérebro decidiu mover o dedo antes que a pessoa percebesse, o que seria o mesmo que apertar o gatilho e só depois perceber que havia atirado. Ele concluiu que estas flutuações fazem pender a balança próximo a um limiar, salvando-nos da indecisão interminável quando confrontados com uma tarefa arbitrária. Experimentos recentes feitos por cientistas da École Polytechnique Féderale de Lousanne, na Suiça, também demonstraram o livre-arbítrio na respiração, por meio do potencial de prontidão no ato de expirar.
Os autores do ensaio ainda afirmam que as conclusões das pesquisas, de certa forma, têm procurado demonstrar a diferença temporal entre a tomada de decisão e sua percepção consciente. Para eles, o experimento de Libet, de apertar um botão, com a associação entre imagens e movimentos manuais, não pode ser comparado à decisão de praticar um homicídio. O ensaio cita o jurista Michele Taruffo quando afirma que a consciência não se compara com a digestão, que se produz no estômago, já que ela implica uma complexa interação entre cérebro, corpo e mundo, e que “nós não somos nossos cérebros”, no sentido de que não nos limitamos ao mundo fisiológico.
O ensaio prossegue com citações de: Jescheck, que em texto de 2003, afirmou que o cérebro não possui um centro para o processamento das informações; Klaus Gunter, que em texto de 2007 aludiu ao descobrimento de leis da bioquímica que regem o desenvolvimento ontogenético do ser humano e que, junto com a influência do entorno, determinam o funcionamento do cérebro; e Romeo Casabona, que em texto de 2007 se reporta aos níveis neurofísico e neuroquímico, além do genoma humano. Segundo este último, idênticas sequências de DNA, e as proteínas quimicamente produzidas, geram respostas neuronais diversas, implicando diferentes reações e atitudes nos indivíduos. Por fim, os autores citam Arthur Schopenhauer, que expôs três tipos de liberdade: a física, a intelectual e a moral. Esse filósofo diferencia a potência do agir da potência do querer, aludindo que a liberdade residiria no ser e não na ação. Em passagem enigmática, os autores pontificam: “o recolhimento de tal aspecto no seio da linguagem é a só expressão da constitutividade da liberdade para a experiência do eu-consciente”. No contexto em que colocado, o sentido deste termo sugere uma relação com a autoconsciência humana. Em seguida, os autores afirmam que a abordagem neuropsicológica e neurofisiológica da autoconsciência indica a existência de vias complexas de ativação/integração do cérebro e do sistema de neurônios-espelho na autoconsciência. A livre vontade seria uma “ficção estatal necessária”, no dizer de Kohlrausch. A Constituição e o Direito não tomariam parte da questão antropológica, limitando-se a consagrar um princípio regulativo ou ficção necessária. É importante lembrar que o uso desse recurso não é estranho ao Direito Penal, que se vale de inúmeras ficções em sua dogmática, como a criminalização de pessoas jurídicas. Os autores arrematam o texto com a declaração de que a liberdade humana é parte constitutiva do “eu-consciente”. Como este último termo não possui definição, resta a dúvida se os autores tiveram a intenção de excluir de sua abrangência o subconsciente humano. De fato, a psicanálise defende que o inconsciente se comunica com a mente consciente por meio do subconsciente. E a liberdade de agir no âmbito do livre-arbítrio deve englobar esses três níveis. A quarta conclusão do ensaio alude à fragilidade experimental. Cremos que os autores referiram-se à fragilidade das interpretações extraídas dos experimentos, certamente apressadas e equivocadas. No entanto, os experimentos em si, citados no ensaio, apesar de controvertidos, seguiram o método científico e os protocolos clínicos. Por fim, na 14ª conclusão os autores dizem que, por ora, as pesquisas em neurociência não permitem qualquer alteração relevante, seja no Direito Penal, seja no Direito Processo Penal. Idêntica conclusão chegaram Frederico Horta e Paulo Romero no artigo citado acima, publicado em 2024 na Revista do TRF da 1ª Região.
Mas esse vaticínio repetido durante uma década, de 2014 a 2024, começa a ser alterado com o advento de tecnologias revolucionárias que impactam sobremaneira os institutos do Direito Penal. De fato, desde a publicação deste livro há dez anos, muitos estudos sobre a neurociência do livre-arbítrio e sua repercussão no Direito Penal despontaram em diversos periódicos científicos.
O ensaio acima foi escrito a quatro mãos por dois membros do Ministério Público. Mas na visão de um Defensor Público as conclusões não foram diferentes. Em tese de doutorado na Universidade de Lisboa (“Neurociência e Culpa Jurídico-Penal, Reflexões entre a Liberdade e a Consciência”, 2017/2018), o Defensor Público do Rio Grande do Sul, João Batista Oliveira de Moura, expôs na conclusão que o lapso de tempo de 350 a 400 milissegundos entre a decisão inconsciente e a consciência da decisão não tem o condão de alterar o conceito de liberdade, no que interessa ao direito penal, sendo possível coexistirem conceitos de ação voluntária diferentes, um aplicado à neurociência e outro à ciência criminal. Além disso, dentre outras conclusões, destacam-se: as emoções e as causas de sua formação devem fazer parte da aferição da liberdade para fins de culpa penal, paradigma reforçado pela neurociência ao demonstrar que fatores de ordem neurobiológica e genética são moduladores do comportamento criminoso; quanto à negligência consciente, os aportes da neurociência devem centrar-se na identificação do momento em que se inicia essa consciência, os quais poderão revelar sinais objetivos de seu marco; e a capacidade do indivíduo abaixo da média não pode ter o condão de conduzir à atipicidade da conduta negligente, pois significaria o esvaziamento do relevo da negligência ao nível da culpa, podendo ser apreciada ao nível da dosimetria da pena.
No ambiente acadêmico nacional destaca-se a tese de doutorado de João Daniel Rassi, intitulada “Neurociência e Prova no Processo Penal: Admissibilidade e Valoração”, apresentada em 2017 na USP, com orientação de Gustavo Badaró. A tese também foi publicada no formato de livro em 2020 pela editora Tirant Lo Blanch Brasil, contando com o mesmo título e prefácio do orientador. Neste trabalho de fôlego, o autor vai além do direito penal, debruçando-se na parte processual, em especial na admissibilidade e valoração dessa espécie de prova técnica. O livro conta com extensa referência bibliográfica sobre o tema, inclusive com duas obras do orientador. O autor alerta para a supervaloração da prova científica, que não pode por si só reconstruir o complexo mosaico que representa o episódio criminoso, e sustenta que a liberdade de autodeterminação está protegida pela Constituição Federal pelo princípio da dignidade da pessoa humana. Ele se baseia nos ensinamentos de Niklas Luhmann, que examina os subsistemas que compõem a sociedade moderna perante as novas situações de desenvolvimento tecnológico. Citando Luhmann, o autor aduz: “estamos diante de um desenvolvimento hipercomplexo da sociedade, que afeta também a diferenciação funcional nas esferas de ação e pensamento”. Nessa toada, o Direito seria apenas mais um dos subsistemas que busca inserir-se e adaptar-se às constantes modificações sociais e tecnológicas. O autor finaliza com a defesa da aplicação da teoria luhmanniana para legitimar a admissão e valoração da prova neurocientífica, com o juiz assumindo a função de gatekeeper (guardião) da prova pericial, realizando uma atividade pré-valorativa por ocasião de sua admissibilidade, desde que haja compreensibilidade do método pelo juiz e pela sociedade. Citando Nobre, o autor discute as críticas sobre a pesquisa científica jurídica no Brasil, que não teria acompanhado o crescimento daquelas realizadas pelos outros ramos das ciências humanas, especialmente sob o ponto de vista internacional. Esse atraso teria ocorrido por causa do isolamento do Direito em relação aos demais ramos do conhecimento, referindo que a pesquisa empírica nesta área centra-se apenas nos efeitos das normas e na orientação de determinado tribunal. Ao final de sua tese, o autor investigou empiricamente a aplicação das provas neurocientíficas pelo STF e STJ, mas não encontrou decisões que a consideraram no julgamento, resumindo-se a jurisprudência desses tribunais a exames de DNA, principalmente em ações de investigação de paternidade.
É forçoso examinar a influência desse debate na culpabilidade, a fim de conferir um suporte dogmático seguro na aplicação da lei e na adequação típica pelos tribunais nos casos criminais relacionados com as novas tecnologias disruptivas. Segundo Reno Feitosa Gondim: “Para além de um determinismo absoluto dos desdobramentos causais, há, nesse sentido, hipóteses que se afiguram sobre probabilidades matemáticas que não afastam o mundo do corpus da racionalidade humana. Assim, as ciências da natureza fornecem um suporte estatístico para o desenvolvimento do conhecimento humano. Como reflexo do paradigma científico da idade moderna, o debate fomentado pela teoria física do determinismo mecânico absoluto da causalidade natural se faz sentir até os dias atuais no direito penal, quando se trata de avaliar se é possível ao homem desenvolver uma ação com vontade livre e consciente, ou se sempre atua motivado por força exterior (determinatio pure extrinseca), o que , em última instância, representaria a total irresponsabilidade penal ou a injusta aplicação da sanção penal condenatória. (Epistemologia Quântica & Direito Penal, Juruá, 2005, pág. 17).”
Historicamente, o abuso constatado por séculos na aplicação de penas criminais levou o escritor suíço Jacques Rousseau a propor reformas no sistema de punição na obra “O Contrato Social”, publicada em 1762. Dois anos depois, Beccaria publicou a obra “Dos Delitos e Das Penas”, propondo uma ampla reformulação no método de aplicação de penas. Nascido logo em seguida, em 1775, o alemão Feuerbach elaborou o Código Penal da Baviera de 1813, inaugurando a moderna ciência do direito penal. Inicialmente, ele se inspirou na doutrina de kant, mas com o tempo se libertou do absolutismo kantiano, que entendia a pena como um imperativo categórico, passando a defender a teoria da dissuasão psicológica da pena.
Immanuel Kant também diferenciava a Ética e o Direito. Para ele, na ética devemos seguir as leis que demos a nós mesmos, com autonomia e vontade. Por sua vez, o direito é uma heterodenominação, imposta pelo Estado, para frear os impulsos individuais.
No dizer de Beccaria, a conduta criminosa é uma “verdade palpável, alcançável pelo raciocínio lógico-dedutivo, sem necessidade de quadrantes e telescópios". Os telescópios usam lentes esféricas para focalizar a luz de objetos celestes. Já os quadrantes eram usados para medir a altura dos astros, utilizando um compasso astronômico para mensurar o ângulo entre o horizonte e um objeto celeste de referência, como a estrela polar, visível apenas no hemisfério Norte. Ao lado da bússola, o quadrante foi crucial na navegação marítima. Essa metáfora utilizada por Beccaria revelava sua crença na natureza insondável da consciência humana, que não podia ser perscrutada por nenhum instrumento jamais concebido. No entanto, atualmente muitos tribunais utilizam inteligência artificial em exames de ressonância magnética funcional e tomografias computadorizadas para definir os parâmetros da conduta criminosa e da punição adequada.
É atribuída a Feuerbach a fundação da ciência do Direito Penal, libertando-a do absolutismo kantiano do imperativo categórico, que entendia a pena como inevitável. Ele passou a ver a pena como medida preventiva, e não apenas retributiva. Pouco tempo depois, Karl Binding elaborou o tipo penal descritivo, em substituição aos mandamentos de não fazer.
Em 1906, Beling sistematizou o modelo clássico de crime, com a teoria naturalística da ação, influenciado pelo positivismo das ciências empíricas. Ele tomou como base a filosofia de Kant, que diferenciava o mundo fenomênico do numênico. Para ele, o fato típico seria o mundo externo (fenomênico), onde se analisa a conduta, enquanto a culpabilidade seria o mundo interno (numênico), onde se analisa o elemento subjetivo. Segundo Kant, a dignidade do homem era uma categoria autoevidente, e não mística, tendo em conta que os humanos possuem livre-arbítrio, não sendo movidos pelo instinto animal. A epistemologia kantiana remonta a um debate filosófico mais antigo, que remete a Platão. O idealismo transcendental de Kant discute a experiência humana através da separação entre a percepção por meio dos sentidos e a representação formada pelo cérebro. Nesse sentir, a apreensão do mundo pode não corresponder com exatidão à realidade percebida. Platão a chamava de lacuna metafísica.
Como a mente e o sistema sensorial são participantes ativos na apreensão do mundo, a neurociência pode ser classificada como um conhecimento sintético a priori propugnado por Kant. Neste modelo não haveria espaço para uma prova judicial empírica de viés neurológico.
Segundo Eric Hilgendorf, jurista da Universidade de Würzburg, em obra de fôlego composta de nove volumes (na tradução do alemão): “A influência do finalismo na compreensão do crime é mais evidente no novo posicionamento do dolo em uma situação factual subjetiva. A nova doutrina permitiu resolver satisfatoriamente uma série de questões doutrinárias complexas que antes incomodavam a doutrina do Direito Penal. Isso inclui, por exemplo, a distinção entre crimes dolosos e negligentes, o problema do conhecimento necessário das proibições e a elaboração de um conceito normativo consistente de culpa, distinguindo entre elementos que justificam a censura e elementos subjetivos que podem ser determinados empiricamente. [Handbuch des Strafrechts Band 2: Strafrecht Allgemeiner Teil I (Manual de Direito Penal, Volume 2: Direito Penal Geral, Parte I), Hilgendorf, Kudlich e Valerius, editora Müller C.F., 1ª edição, 2019, §27, E, V, item 57].
Esta determinação empírica de que fala Eric Hilgendorf tem sido extensivamente utilizada pelos tribunais ao redor do mundo, mesmo em casos de acusados sãos, com forte impacto no debate sobre o livre-arbítrio. Cezar Roberto Bitencourt anuncia: “O livre-arbítrio como fundamento da culpabilidade tem sido o grande vilão na construção moderna do conceito de culpabilidade, e por isso mesmo, é o grande responsável pela sua atual crise. (Tratado de Direito Penal, Vol. I, editora Saraiva, 2022, pág. 485).
Os ataques ao livre-arbítrio atingem não apenas a culpabilidade, mas também o dolo, que para o finalismo está alojado no fato típico. A vertente tradicional entende o dolo como a consciência e vontade no agir delituoso. Mas há teorias que o despem do elemento volitivo, persistindo somente o elemento cognitivo. Wolfgang Frisch é um dos principais teóricos do dolo puramente cognitivo, entendendo desnecessário analisar a vontade do agente na conduta criminosa.
Vontade, intenção, motivo, finalidade e imputabilidade estão no cerne dos debates sobre o livre-arbítrio. Em geral, estes aspectos psicológicos são analisados em diferentes estágios, seja na conduta, no elemento subjetivo especial, na tipicidade, na dosimetria ou na culpabilidade. Sua aferição é comumente feita por meio do exame das circunstâncias fáticas que cercam o crime, mas alguns tribunais têm buscado subsídios em perícias neurológicas para sua aferição segura, desde que estejam em consonância com outras provas igualmente robustas.
O exame do livre-arbítrio da pessoa jurídica também tem se mostrado útil como mais um instituto ficcional no Direito, que se reporta à consciência humana de seus administradores. Neste sentido, o Superior Tribunal de Justiça decidiu no Recurso Especial nº 1.977.172, julgado em 2022, que o princípio da intranscendência da pena e a extinção da punibilidade pela morte do agente se aplicam à pessoa jurídica, conforme previsto no art. 5º, XLV, da CF/88 e no art. 107, I, do CP. Assim, caso a pessoa jurídica autora do crime de poluição, por exemplo, seja incorporada a outra, não haverá transferência da responsabilidade penal, por não constar essa possibilidade no art. 1.116 do Código Civil e no art. 227 da Lei nº 6.404/1976. Conforme constou do acórdão que negou provimento ao recurso do Ministério Público: “Se o direito penal brasileiro optou por permitir a responsabilização criminal dos entes coletivos, mesmo com as peculiaridades decorrentes da ausência de um corpo biológico, não pode ser negada a eles a aplicação de garantias fundamentais utilizando-se dessas mesmas peculiaridades como argumento”.
No âmbito da criminalidade empresarial, a Teoria do Autocontrole, também chamada de teoria geral do crime, proposta por Hirschi e Gottfredson no início dos anos 1990, tenta explicar os comportamentos criminosos no ambiente corporativo como atos de força ou fraude empreendidos em busca de interesse próprio, praticados por indivíduos com baixo autocontrole.
A autodeterminação na conduta humana como componente da culpabilidade não é prevista expressamente em lei, sendo presumida segundo as circunstâncias do caso concreto, que conformam a convicção do julgador. Mas é possível extraí-la “a contrario sensu” de disposições específicas de leis penais especiais, por meio da interpretação lógica. O art. 9º-A, §5º, da LEP prevê a identificação do perfil genético do condenado por crimes violentos, exceto fenotipagem genética e busca familiar. A fenotipagem forense visa a previsão individual de pigmentação, cor dos olhos, da pele e do cabelo. O Decreto nº 7.950/2013 regulamentou o Banco Nacional de Perfis Genéticos, administrado por um perito criminal federal com experiência em genética, conforme art. 1º, § 4º, com redação dada pelo Decreto nº 9.817/2019, podendo ser utilizado para a identificação de pessoas desaparecidas, conforme seu art. 8º. O art. 5º-A, §1º, da Lei nº 12.037/09 (Lei de Identificação Criminal), com a redação dada pela Lei nº 12.654/2012, dispõe que as informações genéticas contidas nos bancos de dados de perfis genéticos não poderão revelar traços somáticos ou comportamentais das pessoas, seguindo-se as normas internacionais sobre genoma humano. Os traços somáticos se referem à morfogênese, como as feições, cor da pele e a conformação física. Para evitar a identificação dos traços somáticos, é utilizado o DNA não codificante. O art. 7º-C, § 3º, da Lei nº 12.037/09, com a redação dada pela Lei Anticrime, dispõe que o Banco Nacional Multibiométrico e de Impressões Digitais será integrado pelos registros biométricos, de impressões digitais, de íris, face e voz colhidos em investigações criminais. Por sua vez, o §6º do mesmo artigo dispõe que o compartilhamento da identificação de natureza civil, administrativa ou eleitoral com Banco Nacional Multibiométrico e de Impressões Digitais será limitado às impressões digitais e às informações necessárias para identificação do seu titular.
Esta limitação no compartilhamento busca evitar estudos genéticos que tenham o escopo de padronizar perfis pré-dispostos à delinquência, rechaçando, por conseguinte, o determinismo. No entanto, isso não impede que haja uma utilização preventiva dos dados, como nos casos de crimes sexuais, que seguem uma certa padronização, relativizando o livre-arbítrio. Neste caso, é plenamente aceitável que um estuprador decida voluntariamente continuar preso após o cumprimento da pena ou de benefícios penais, sabendo que continuará cometendo crimes se for solto.
De fato, o livre-arbítrio individual pode ser regulado, com intervenções pontuais na autodeterminação humana, ainda que a conduta não envolva terceiros. A automutilação não é crime, assim como não o é a tentativa de suicídio. Também é permitido fumar em casa, desde que não afete vizinhos. Mas há exemplos de proteção do indivíduo contra si mesmo. Leis estaduais proíbem cães da raça pit bull de circularem em locais movimentados, como praças e parques, ou exigem o uso de focinheira e enforcadores, estendendo a proibição a cães das raças fila, doberman e rotweiller. Algumas leis municipais chegam a proibir a própria criação de cães da raça pit bull no território do município, ainda que não saiam da residência, por conta de inúmeros casos de ataques graves, muitos dos quais letais, contra os próprios criadores e seus familiares. Essa intervenção na autonomia individual se baseia na prevenção de condutas com elevado risco de autolesão. Essa mesma discussão foi travada há alguns anos quando da obrigatoriedade do uso de cinto de segurança pelos motoristas, contando com um ingrediente a mais, consistente nos altos gastos em saúde impostos a toda a sociedade em decorrência do incremento na gravidade dos acidentes automobilísticos, que não raras vezes necessitam de suporte à vida de alta complexidade, quando motoristas e passageiros estão sem cinto.
A título de conclusão deste ensaio, é importante lembrar que o automatismo que caracteriza algumas funções cerebrais é compatível com o livre-arbítrio e com a tomada de decisão consciente. As células de Purkinje no cerebelo se programam com a experiência prática para tomar decisões automáticas. O cerebelo condicionado permite contornar a função executiva do córtex pré-frontal, facilitando as atividades do dia a dia. O treinamento dessa região do cérebro está por trás dos esportes de alto rendimento, que focam no aprendizado cerebelar, diferenciando a prática constante da prática aleatória, visando um comportamento habilidoso nos aspectos neurobiológicos. Mas isso não impede a tomada de decisões pela mente humana em situações cruciais.
Os sentidos humanos também reforçam a importância da consciência para o livre-arbítrio. A música não é apenas uma descrição minuciosa da pressão exercida pelas ondas sonoras no tímpano, mas sim os sentimentos que ela proporciona. Todas as músicas se diferem apenas em alguns aspectos mecânicos, como a frequência de choque das ondas sonoras, a amplitude e a harmonia. No entanto, depois de processadas, podem resultar em euforia, relaxamento ou contemplação, a depender da história de vida e das memórias evocadas ao nível da consciência de cada ouvinte. A Nona de Beethoven, Rock n’ Roll Train de AC/DC, O Guarani de Carlos Gomes ou a desarmônica música indiana, causam diferentes sensações na consciência humana, a depender das preferências individuais e experiências vividas, ainda que utilizem dos mesmos princípios físicos e matemáticos da teoria musical. O olfato utilizado para sentir o cheiro de rosas e perfumes também possui mecanismos quânticos em seu funcionamento. No entanto, a sensação que causa na consciência humana não pode ser descrita por modelos matemáticos e fórmulas químicas. De igual forma, um poema não é só uma sequência de estrofes. A escansão do Soneto de Fidelidade de Vinicius de Moraes revela dez sílabas poéticas em versos isométricos. Mas seus leitores possuem diferentes sensações ao lerem o poema, desde a indiferença até o enlevo, a depender da experiência e das memórias evocadas. Um mesmo leitor terá reações distintas ao soneto ao lê-lo em diferentes estágios da vida.
Em geral, as decisões morais são tomadas após um momento de reflexão, mas existem situações em que um ser humano é confrontado a tomar decisões morais em tempo muito curto, menor que os 500 milissegundos para disparo dos neurotransmissores, como campos de batalha e incursões policiais em meio a civis, manobras em caças e leitos de urgência hospitalar. Ainda que mitigada em certas ocasiões, quando há alguma influência do meio, a autodeterminação humana sempre estará presente.
Oficial de Justiça do TRT 7° Região.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: COELHO, LEONARDO RODRIGUES ARRUDA. O livre-arbítrio no banco dos réus. Conteudo Juridico, Brasilia-DF: 19 set 2024, 04:59. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/66501/o-livre-arbtrio-no-banco-dos-rus. Acesso em: 23 dez 2024.
Por: MATEUS DANTAS DE CARVALHO
Por: Marco Aurelio Nascimento Amado
Por: Marcos Antonio Duarte Silva
Por: RODRIGO KSZAN FRANCISCO
Por: Adel El Tasse
Precisa estar logado para fazer comentários.