Resumo: O presente artigo incursiona no Direito da Engenharia Climática no contexto da COP 30 no Brasil. A regulação da geoengenharia visa descartar propostas esdrúxulas na corrida frenética que se instalou na área, selecionando métodos mais viáveis e com menor risco aos ecossistemas. Para tanto, serão confrontadas as propostas NCS e NbS no âmbito ambiental e SMR e CDR no âmbito climático. O final do artigo conta com um apêndice com a exposição de uma proposta de Engenharia Climática Geomagnética, que parte dos primeiros estudos de Descartes e Kant sobre o sistema solar, até o desenvolvimento de lasers ultracurtos modernos.
Palavras-Chave: Direito da Engenharia Climática; Princípios Ambientais; Geoengenharia; COP 30.
Abstract: This article explores Climate Engineering Law in the context of COP 30 in Brazil. The regulation of geoengineering aims to discard outlandish proposals in the frantic race that has taken place in the area, selecting more viable methods that pose less risk to ecosystems. To this end, the NCS and NbS proposals will be compared in the environmental sphere and SMR and CDR in the climate sphere. The end of the article includes an appendix with the presentation of a proposal for Geomagnetic Climate Engineering, which starts from the first studies of Descartes and Kant on the solar system, up to the development of modern ultrashort lasers.
Keywords: Climate Engineering Law; Environmental Principles; Geoengineering; COP 30.
Sumário: Introdução; 1 - Engenharia Climática na COP 30; 2 - Regulação da Engenharia Climática; 3 - Aplicação dos Princípios da Precaução, Igualdade, Transparência e Responsabilidade Comum, mas diferenciada; 4 - Estado de Direito Climático; 5 - Proscrição das Armas Climáticas; 6 - Transição Energética; 7 - Meio Ambiente vs. Clima; 8 - Considerações Finais; Referências.
APÊNDICE: I - Histórico da Mudança do Clima; II - Panorama Atual das Mudanças Climáticas; III - Cenários Futuros; IV - Propostas de Geoengenharia; V - Engenharia Climáticas Geomagnética.
Introdução
Existem quatro âmbitos de engenharia para controle do clima em casos extremos, cada uma com um nível distinto de abrangência: quântica, climática, planetária e cosmológica. A engenharia planetária também é conhecida de terraformação, e se desenvolve em paralelo com a Engenharia Climática.
A engenharia quântica busca alterar o espectro de absorção das moléculas de CO2. De fato, a reemissão de fótons pelo dióxido de carbono é um dos maiores mitos do debate climático, pois só raramente isso ocorre, com as moléculas retornando ao estado fundamental majoritariamente por meio de colisões.
A engenharia cosmológica é menos conhecida, mas pode se tornar uma necessidade num cenário futuro de aumento abrupto do raio solar. Das quatro áreas, apenas a climática já é viável, prevendo-se sua implementação nos próximos anos. As outras três ainda estão no campo teórico e carecem de mais avanços tecnológicos.
Dada a urgência na execução de métodos eficazes de Engenharia Climática, sua regulação entrou na pauta dos debates jurídicos internacionais. Com isso, o Direito das Mudanças Climáticas despontou com vigor nos últimos anos. Em paralelo, o novo ramo do Direito da Engenharia Climática também ganhou corpo, principalmente depois de contribuições científicas recentes publicadas em artigos e obras especializadas.
A geoengenharia ganhou impulso através de conferências científicas e acadêmicas, a exemplo do Seminário Internacional de Geoengenharia Climática, realizado no Rio de Janeiro em junho de 2019. O tema entrou na agenda da COP, com diversos painéis voltados à sua implementação. Com o aprofundamento dos debates, surgiu a necessidade de regular as propostas mais maduras, irrompendo um novo ramo do Direito, ao lado do Direito Ambiental e Climático.
Para um rápido vislumbre dos contributos recentes sobre o Direito da Engenharia Climática, Jesse L. Reynolds escreveu o capítulo 33 - “Solar Climate Engineering, Law and Regulation” - do livro “The Oxford Handbook of Law, Regulation and Technology”, publicado em 2017. No ano seguinte, Tracy Hester e Michael B. Gerrard publicaram o artigo “Going Negative: The Next Horizon in Climate Engineering Law”. O mesmo Michael Gerrard aprofundou o tema na obra “Climate Engineering and Law” (editora Cambridge University Press, 2018).
À medida que a tecnologia e os projetos estão progredindo, o Direito da Engenharia Climática vai se firmando no mundo acadêmico. Como exemplo, em novembro de 2024, a UCLA School of Law abriu vaga para o cargo de Diretor do “Emmett Institute on Climate Change and the Environment”, para a gestão do projeto “Geoengineering Law and Policy”.
É importante salientar que a urgência da geoengenharia não depende apenas das emissões antrópicas. Afinal, mesmo que sejam contidas, existem inúmeros processos naturais de emissões capazes de desregular o clima. Daí a necessidade de se criar uma válvula de escape para situações críticas.
O presente artigo pretende examinar o estado atual da Engenharia Climática, os aspectos de sua regulação e a conciliação com os Direitos Climático e Ambiental. O texto contém um apêndice final com exposições sobre as mudanças climáticas e as propostas de geoengenharia.
1- Engenharia Climática na COP 30
Existem diversas “conferências de partes” vinculadas às questões de escala mundial, desde armas químicas até desertificação, como a recente COP 17. Muitas dessas conferências surgiram e desapareceram sem deixar rastros, dado o embate de interesses contrapostos.
Com a COP climática não é diferente. A COP 29 em Baku foi tida como um trampolim para a COP 30 no Brasil. A cimeira no Azerbaijão iniciou com a expectativa de investimentos climáticos na casa de quase 10 trilhões de dólares, mas acabou minguando para 0,3 trilhão de dólares, com a maior parte vinda de empréstimos, e não de financiamento público.
Após o fiasco da COP 29, a COP 30 no Brasil pode ser a última tentativa do tipo, caso não leve adiante um espectro mais amplo de soluções para o aquecimento global, como a Engenharia Climática. A incorporação da engenharia genética para reflorestação também deve constar na agenda da diplomacia climática. Ela proporciona árvores com maior capacidade de absorção de carbono. Além disso, o uso de tecnologia genética na Amazônia tem grande potencial como gerador de renda para a população local, diminuindo a pressão para o desmatamento.
A COP 30 deve debater seriamente a utilização de métodos de Engenharia Climática baseados na natureza, como engenharia genética em florestas, oceanos, pântanos e turfeiras, transformando-as em sumidouros aprimorados de carbono. Tanto os oceanos quanto as plantas podem absorver mais carbono através de técnicas de modificação do DNA.
O G20 também discutiu brevemente os problemas climáticos. A declaração do grupo emitida no final de 2024 instou os países a triplicar a capacidade de energia renovável e duplicar a eficiência energética. A reunião ocorreu sob os auspícios do “Relatório sobre a Lacuna de Emissões”, que tornou públicas as promessas não cumpridas dos inúmeros encontros climáticos anteriores.
Além dessa lacuna, os países doadores também passam por aperto fiscal, com a meta para a COP 30 bem mais realista, de 1,3 trilhão de dólares. É preciso ainda ficar atento ao cinismo que prejudica o debate climático. Em Baku não foi diferente, com os negociadores dos países partes chegando e partindo em jatos particulares. Para além dos discursos inflamados, é necessário priorizar o deslocamento a Belém em voos comerciais, para demonstrar comprometimento com a causa climática.
Essa postura previne contradições que foram vistas nas COPs anteriores. Na península arábica, os países aumentaram a produção de petróleo para mais de 30 milhões de barris por ano, liderados pela Arábia Saudita. A região produz cerca de um terço do petróleo mundial. O Catar sediou a COP 18, mesmo sendo um país integralmente dependente de hidrocarbonetos, emitindo 40 toneladas de CO2 por habitante. Após uma década, foi a vez dos Emirados sediarem a COP 28, que emite 25 toneladas de CO2 por habitante, logo à frente da Arábia Saudita, que emite 18 toneladas de CO2 por habitante. E estes números ainda não consideram o petróleo exportado, com os sauditas liderando o ranking com quase nove milhões de barris por dia. Durante a realização da COP 28, os Emirados anunciaram investimentos de 150 bilhões de dólares até 2027 no aumento da produção de petróleo e gás.
As sedes da COP climática são escolhidas em uma base rotativa entre os cinco grupos regionais da ONU. Mas a COP 29 foi a terceira conferência consecutiva realizada em países tidos como petroestados. Muitos executivos do setor petrolífero aproveitaram as reuniões da última conferência para fechar negócios em combustíveis fósseis. O próprio país anfitrião fechou contratos de fornecimento de gás à Bulgária e à Eslováquia durante a conferência.
A corrupção climática é uma sombra que sempre ronda a diplomacia climática. A sede da COP 31 vive um impasse entre Turquia e Austrália. A primeira tem metas climáticas extremamente baixas, enquanto a segunda é a maior exportadora de gás natural liquefeito de petróleo. Nesta questão, há um dilema quanto à contribuição de cada país para a degradação do clima, com a contribuição real indo além do mero consumo interno, devendo ser contabilizada também a pauta de exportações.
Apesar de algumas declarações polêmicas, o anfitrião da COP 29 em Baku destacou a hipocrisia da mídia norte-americana, que sempre se reporta ao Azerbaijão como um petroestado, mas esquecem que os EUA produzem vinte vezes mais petróleo. O presidente também mencionou a postura contraditória da União Europeia, que critica seguidamente o seu país por não reduzir a produção de petróleo e gás, mas com a eclosão da guerra da Ucrânia, pediu que aumentasse a produção de suas plataformas offshore, a fim de suprir os lares europeus no inverno.
A financeirização das mudanças climáticas também se popularizou, resultando na criação de diversos institutos relacionados, como mercado de carbono, criptomoedas e títulos verdes, que são verificados por terceiros, a exemplo do Climate Bond Standard Board. Estes instrumentos possuem estreita relação com a neutralidade de carbono, que apregoa emissões líquidas zero através de ações de compensação negociadas no mercado de carbono. Somam-se ainda as emissões negativas, que ocorrem quando, além das emissões zero, há captura de carbono da atmosfera.
Todo debate climático depende do comprometimento dos dois maiores poluidores. O Acordo de Paris não contará com a assinatura dos EUA, o maior poluidor per capita. O Secretário de Energia dos EUA, Chris Wright, chegou a sustentar os supostos aspectos positivos da mudança climática, como tornar o planeta mais verde, aumentar o crescimento das plantas e elevar a produtividade agrícola.
A reunião anual da AGU (“American Geophysical Union”) no final de 2024 congregou mais de 25 mil pesquisadores em Washington, de longe o maior encontro climático do mundo. Contudo, a grande preocupação esboçada pelos participantes foi o corte nos financiamentos públicos para pesquisas, que podem resultar em milhares de demissões na ciência do clima e áreas correlatas. Em compensação, o investimento em Engenharia Climática pode gerar milhares de novas vagas de emprego para pesquisadores especializados, e não inibirá os repasses às nações vulneráveis.
Já a China, o maior poluidor em termos absolutos, tinha como motor da economia os investimentos imobiliários e em infraestrutura, que demandam elevado consumo de cimento e aço, consumindo metade do estoque mundial. Atualmente, porém, a matriz econômica da China está em fase de transição para indústrias de baixo carbono. No entanto, o país ainda não atingiu o pico de emissões, projetado para 2030, quando só então tomará uma trajetória declinante, que pode ser gradual (linha curva descendente) ou rápida (linha reta aguda).
De fato, muitos países em desenvolvimento tidos como grandes poluidores defendem o direito de aumentarem ainda mais suas emissões até atingirem o pico nos próximos anos, para só então iniciar uma trajetória de queda, a exemplo da China, Índia, Indonésia, México, Turquia, Arábia Saudita e Coreia do Sul.
A COP 30 também deve aprofundar a discussão sobre a criação de uma Agência Internacional de Lítio, Cobalto, Fosfato e Carbono - ILCPCA. Os dois primeiros minerais são essenciais para a eletrônica, enquanto o terceiro é a base dos fertilizantes minerais, que alimentam metade da população mundial, apesar de emitirem metano. Há muito tempo se divulga que as principais reservas de fosfato no Marrocos, Argélia e China estão em níveis críticos. Mas não se sabe até onde esse movimento é meramente especulativo, para elevar o preço no mercado internacional.
O controle destes quatro componentes essenciais não pode ficar à mercê do capricho do mercado ou de governos corruptos, já que impactam em áreas fundamentais da população mundial. Esta agência atuaria nos moldes da Agência Internacional de Energia Atômica - IAEA, realizando fiscalizações, divulgando relatórios e aplicando sanções quando necessário.
2 - Regulação da Engenharia Climática
Para além do Direito Ambiental, o Direito das Mudanças Climáticas despontou na literatura recente. Karl S. Coplan e coautores publicaram em 2021 o livro “Climate Change Law” pela editora Edward Elgar. A obra discorre sobre as principais regulamentações de projetos de energia, além da adaptação às emissões de gases do efeito estufa nos setores de construção e transporte. Também traça a relação entre as mudanças climáticas e os direitos humanos, discute os litígios para compelir ações de mitigação e expõe a cooperação internacional através de tratados climáticos. É importante lembrar que o Acordo de País fez apenas uma referência preambular aos direitos humanos, ao lado do direito ao desenvolvimento.
Pela mesma editora Edward Elgar, também foi publicada a obra “Climate Change Law” por Daniel A. Faber, da Universidade da Califórnia, e por Marjan Peeters, da Universidade de Maastricht, nos Países Baixos.
É importante salientar que o Direito Climático não se resume à transição energética. Esse nascente ramo do Direito tem forte inspiração no Direito Ambiental, cujas bases já estão bem estabelecidas, entrando na pauta dos foros internacionais.
Consolidado o Direito das Mudanças Climáticas, surge em paralelo o Direito da Engenharia Climática. Esse novo ramo busca não só aplacar os efeitos imediatos do atual aquecimento global, mas também conferir à humanidade maior controle sobre o clima em eventuais mudanças futuras.
O regramento e a principiologia bem estabelecidos dos Direitos Climático e Ambiental podem servir de norte para fincar as bases do Direito da Engenharia Climática, contando ainda com o aporte regulatório da engenharia ambiental. Mas seu objeto material, a geoengenharia, ainda é tratada com desdém e ceticismo, e não é para menos, já que é objeto de experimentos excêntricos, tocados por bilionários e amadores. Tome-se como exemplo o gerenciamento da radiação solar.
Recentemente, um indivíduo que fundou uma startup nos Estados Unidos pegou uma van e foi em direção à Baixa Califórnia, no México. Chegando lá, lançou dois balões meteorológicos cheios de dióxido de enxofre alcançando a estratosfera. Ele pretendia desviar a luz solar e resfriar a superfície da Terra, mas só conseguiu gerar mais poluição.
Em 2021, Bill Gates financiou um estudo para borrifar pó de giz (Carbonato de Cálcio - CaCO3) na estratosfera, buscando refletir parte da radiação solar. Esse pó é inerte e atóxico, não reagindo com o ambiente, mas se cair no oceano, pode alterar o pH marinho.
Esses métodos contêm elevados riscos de efeitos não lineares, que podem causar surpresas rapidamente. Estes efeitos exponenciais já foram observados em outros experimentos, como na introdução de espécies exóticas invasoras em ecossistemas da Austrália, resultando em rápido descontrole.
Em 2023, George Soros, um bilionário nonagenário húngaro-americano, também financiou projetos para o desvio da radiação solar. E o bilionário Dustin Moskovitz, cofundador do Facebook, investiu recentemente em estudos de geoengenharia solar no Brasil e em outros países. Mas nenhuma dessas pesquisas trouxe qualquer conclusão relevante, e tampouco contribuíram na prevenção de riscos ou na eficácia da geoengenharia. Tanto que em 18 de março de 2024, o experimento ScoPEx (com o pó de giz) foi encerrado prematuramente.
A maioria desses projetos somente saem do papel por iniciativa de fundos privados. Afinal, o país que investe dinheiro público em projetos de Engenharia Climática são vistos com maus olhos, acusados de desviarem o foco de sua responsabilidade por emissões. Mas os entes privados não possuem mandato para atuar pela humanidade.
Felizmente, essa visão tacanha tem se alterado, e a cada dia consolida-se um consenso em torno da inevitabilidade destes métodos, que devem ser conjugados com as medidas de mitigação. Essa conjugação pode ser observada nas publicações dos sites “Carbonbrief.org” e “Geoengineering.global”. Daí emerge a necessidade imprescindível de uma regulação da Engenharia Climática que concilie estes dois vetores.
3 - Aplicação dos Princípios da Precaução, Igualdade, Transparência e Responsabilidade Comum, mas Diferenciada.
3.1 - Princípio da Precaução
O princípio da precaução deve nortear o novo ramo do Direito da Engenharia Climática. Ele foi previsto inicialmente de forma vaga na Convenção de Barcelona de 1976. Posteriormente, outros tratados o explicitaram de forma mais didática, como o art. 7° da Declaração de Londres de 1987 para proteção do mar do norte contra substâncias perigosas, que instou as partes a controlar a entrada destas substâncias “mesmo antes de uma relação causal ter sido estabelecida por evidências científicas absolutamente claras”.
É bom lembrar que o Direito Climático frequentemente entra em rota de colisão com o Direito Ambiental. Com o Direito da Engenharia Climática não é diferente. Nos últimos anos, os tribunais nacionais e as cortes internacionais se viram diante de dilemas na aplicação dos princípios “in dubio pro natura” e “in dubio pro clima”, com prevalência oscilante de ambos. Também no Direito da Engenharia Climática, há casos em que prevalecerá o princípio “in dubio pro ingenium”, priorizando-se uma solução tecnológica de larguíssima escala oriunda do aprofundamento das pesquisas em geoengenharia. Para tanto, é necessário que o risco de danos adversos seja baixo, e caso ocorram, sejam de baixo impacto.
No âmbito do controle de convencionalidade, deve prevalecer a norma mais protetiva, seja a internacional seja a infraconstitucional, segundo o princípio ‘in dubio pro homine”. No direito ambiental, esse princípio assumiu o nome “in dubio pro natura”, que advém de “in dubio pro damnato” (na dúvida, em favor do prejudicado). O princípio “in dubio pro natura” se baseia no princípio da precaução, irradiando efeitos práticos na interpretação das leis e na inversão do ônus da prova.
O art. 4º do Acordo de Escazú (2018) albergou o princípio “in dubio pro natura et clima”, prevendo no item 7 o princípio da progressividade e no item 8 o princípio da interpretação mais favorável.
Há casos em que o princípio “in dubio pro clima” se sobrepõe ao princípio “pacta sunt servanda”, com a consequente rescisão de contratos que não se enquadrem nos padrões climáticos. Essa postura deve ser absolutamente excepcional, pois tem o potencial de abalar a segurança jurídica. A sua conciliação com a função climática dos contratos é geralmente aplicada em contratos imobiliários e de energias renováveis.
Anke Blöbaum e colaboradores publicaram o artigo “Conservação da Natureza versus Proteção Climática: um conflito básico de objetivos em relação à aceitação de medidas de proteção climática?” (traduzido do inglês) em 2023 na plataforma Frontiers, onde explicam esse embate valorativo entre os bens ambientais e climáticos.
Essa interligação também é vista nas propostas de mitigação. De fato, os problemas climáticos podem encontrar soluções baseadas na natureza, como a restauração de ecossistemas naturais que mitigam eventos extremos, a exemplo de inundações e ondas de calor. Emerge desse embate as propostas NCS, NbS, SMR e CDR. As Soluções climáticas naturais - NCS - buscam a mitigação climática com foco exclusivo na redução de carbono. Já as soluções baseadas na natureza - NbS - possuem um foco mais amplo, abrangendo biodiversidade, água, solo, adaptação climática e produção de fibra para alimentação humana. Da mesma forma, as medidas de Engenharia Climática SMR focam no gerenciamento da radiação solar, enquanto as medidas CDR focam na remoção de dióxido de carbono, com distintos níveis de risco e proporção de danos.
Por meio desse raciocínio, haverá casos em que o princípio “in dubio pro clima” se sobrepõe ao princípio “in dubio pro natura”, prevalecendo a proteção climática em detrimento da ambiental. Esse conflito entre subprincípios interpretativos oriundos do princípio da precaução igualmente ocorrerá no Direito da Engenharia Climática, devendo sua regulação nortear os casos em que o princípio “in dubio pro ingenium” prevalecerá sobre os demais.
3.2 - Princípio da Igualdade
O Direito da Engenharia Climática também deve seguir o princípio da igualdade, que constou pioneiramente no princípio 1 da Declaração de Estocolmo de 1972, ao lado da liberdade e do desfrute de condições de vida adequadas.
O princípio da igualdade foi previsto genericamente no caput do art. 5° da CF. O art. 225 foi mais específico, valendo-se de uma ficção jurídica ao utilizar o pronome indefinido “todos” com um sentido estendido, albergando também as futuras gerações. No Direito Climático, o princípio da igualdade é chamado de equidade climática. De fato, existem encargos desiguais nos efeitos das mudanças climáticas, bastando citar que mais de 80% dos refugiados climáticos são mulheres e crianças, seja no Sudão do Sul, Etiópia ou Somália.
Na definição tradicional de Bandeira de Mello, princípio é “um mandamento nuclear de um sistema, verdadeiro alicerce dele, disposição fundamental que irradia sobre diferentes normas, compondo-lhes o espírito e servindo de critério para exata compreensão e inteligência delas, exatamente porque define a lógica e a racionalidade do sistema normativo, conferindo a tônica que lhe dá sentido harmônico”. Para o autor, a violação de um princípio “representa insurgência contra todo o sistema, subversão de seus valores fundamentais, contumélia irremissível a seu arcabouço lógico e corrosão de sua estrutura mestra”.
Em análise específica sobre o princípio da igualdade, Celso Antônio Bandeira de Mello adverte:
“Poder-se-ia supor, em exame perfunctório, que para esquivar-se de tal coima bastaria formular a lei em termos aparentemente gerais e abstratos, de sorte que sua dicção em teor não individualizado nem concreto servir-lhe-ia como garante de lisura jurídica, conquanto colhesse agora e sempre um único destinatário. Não é assim, contudo. Uma norma ou um princípio jurídico podem ser afrontados tanto à força aberta como à capucha. No primeiro caso expõe-se ousadamente à repulsa; no segundo, por ser mais sutil, não é menos censurável. É possível obedecer formalmente a um mandamento, mas contrariá-lo em substância. Cumpre verificar se foi atendida não apenas a letra do preceito isonômico, mas também seu espírito, pena de adversar a notória máxima interpretativa: Scire leges non est verba earum tenere sed vim ac potestatem (Celsus, Digesto, Livro I, Título III, frag. 17). Ou pôr em oblívio a sábia dicção: Littera enim occidit spiritus autem vivificat (São Paulo aos Coríntios, Epístola II, Capítulo III, vers. 6). Black, a sabendas, averbou que o ditame implícito na lei ‘é tanto parte de seu conteúdo como o que nela vem expresso’ (Black, Construction and Interpretation of Law, p. 62). (O Conteúdo Jurídico do Princípio da Igualdade, editora Malheiros, 1978, p. 24).
Esse ensinamento de Bandeira de Mello sobre a igualdade da lei mantém-se atual, sendo perceptível no Direito Ambiental, como subramo do Direito Administrativo, assim como no nascente ramo do Direito da Engenharia Climática. De fato, sua regulação deve tratar a todos igualmente, não apenas no aspecto formal, mas também material, incluindo as futuras gerações.
3.3 - Princípio da Transparência
O princípio da transparência no Direito Ambiental consolidou-se no âmbito jurisprudencial, tendo em conta a insistência e perspicácia de legitimados ativos de ações coletivas.
No IAC 13, o STJ acatou o tríplice dever de transparência ambiental da Administração Pública: ativa, passiva e reativa. A primeira se aplica na divulgação espontânea de informações ambientais. A segunda ocorre quando houver solicitação da informação. A terceira se aplica quando a informação é inexistente, devendo a Administração Pública produzi-la. A Corte também decidiu que as hipóteses de sigilo nestes casos são excepcionais, seguindo a gradação da Lei de Acesso à Informação. Na transparência passiva, as hipóteses de sigilo são mais restritas que na transparência ativa. E no caso da transparência reativa, a Administração Pública só pode se negar a produzir estudos e relatórios ambientais se a obrigação for irrazoável.
O tratamento conferido ao princípio da transparência ambiental deve ser estendido ao Direito da Engenharia Climática. De fato, há diversos casos de classificação “top secret” destas informações, equivalente no Brasil à classificação de ultrassecreto.
Após o fim da Guerra Fria, a CIA desviou o programa secreto de satélites de espionagem, de codinome CORONA, passando a espionar o clima da Terra. E em 2009 a mesma agência criou um “Centro sobre Mudanças Climáticas e Segurança Nacional”.
No Brasil, a terrível seca de 1979 fez com que o governo tornasse sigilosa a informação de que as secas na região nordeste provavelmente coincidiam com os ciclos solares de 11 anos. A informação foi tratada como segredo de estado para não causar pânico na população. Atualmente, essa correlação não possui base científica.
De fato, as informações e descobertas climáticas não podem ficar submetidas a sigilo, devendo ser divulgadas à população, a menos que ameacem a soberania. Esse dever de transparência se aplica também à iniciativa privada. Na década de 1980, as maiores companhias de petróleo produziram relatórios secretos sobre o efeito estufa, como o relatório confidencial da Shell de 1988.
Na regulação do Direito da Engenharia Climática é preciso garantir que os riscos e a eficácia das diversas propostas sejam esclarecidas ao público, aplicando integralmente o princípio da transparência. Isso inclui a desclassificação dos relatórios e memorandos sobre os impactos dos projetos implementados.
3.4 - Princípio da Responsabilidade Comum, mas Diferenciada
A convergência dos princípios da igualdade e da precaução resultou no princípio da responsabilidade comum, mas diferenciada, previsto no Princípio 7 da Declaração da Rio/1992. Cinco anos depois, em 1997, foi firmado o Protocolo de Kyoto, mas os EUA negaram-se a implementá-lo, alegando prejuízos na concorrência com o mercado asiático, tanto da China quanto dos tigres asiáticos, que estavam com suas economias em ascensão.
A esse respeito, é preciso salientar que muitos países industrializados, tanto da Europa quanto da América do Norte, terceirizaram seus parques fabris para a China, por conta da abundância de mão de obra e recursos naturais, priorizando em seus territórios a economia da inovação. Com isso, uma parte significativa da poluição gerada pela manufatura chinesa deve ser atribuída indiretamente às nações desenvolvidas.
Em 2018, a China proibiu a importação de resíduos de reciclagem de plástico provenientes dos Estados Unidos, Reino Unido, Alemanha, Canadá e Austrália. Malásia, Filipinas e Indonésia também seguiram o mesmo caminho. Este bloqueio interrompeu um processo que já durava décadas de exportação do lixo dos países desenvolvidos para os países do sudeste asiático. As cidades dos países exportadores de lixo tiveram que recorrer à sua queima a céu aberto e ao empilhamento em aterros sanitários.
As nuances que cercam a responsabilidade comum, mas diferenciada também se estendem aos possíveis danos causados pelos projetos de geoengenharia, inclusive os extrapatrimoniais. O dano moral coletivo ambiental já está consolidado na jurisprudência, a exemplo das situações de desmatamento e derramamento de óleo. Nestes casos, o STJ dispensa a prova de intranquilidade social ou abalo psíquico, bastando a comprovação de uma violação injusta e intolerável de valores fundamentais titularizados pela coletividade (grupo, classe ou categoria de pessoas).
Já o dano moral climático, seja individual seja coletivo, ainda carece de uma estrutura científica sólida, enfrentando dilemas quanto à sua estimativa e ao nexo de causalidade probabilístico. Esse mesmo desafio é enfrentado pelo Direito da Engenharia Climática, cuja obrigação por danos deve ser solidária. A fiscalização por comitês independentes não deve impedir a responsabilização dos Estados por omissão, aplicando-se o entendimento sobre a responsabilidade solidária, com execução subsidiária, conforme a Súmula 652 do STJ, incidindo prioritariamente no fundo climático criado e gerenciado por uma agência especializada.
4 - Estado de Direito Climático
A regulamentação da Engenharia Climática vem paulatinamente tomando corpo, após um início apático. Para espelhar essa apatia, o governo alemão publicou em dezembro de 2023 sua “Estratégia sobre Política Externa Climática”, contendo mais de 80 páginas, mas dedicou apenas um parágrafo à modificação da radiação solar.
Por outro lado, na COP 10 da Convenção da Diversidade Biológica, a decisão X/33, parágrafo 8°, (W) e (X), expressou extrema preocupação com a Engenharia Climática, principalmente a técnica de fertilização dos oceanos, dado seu estágio avançado de implementação, mas ao mesmo tempo permitiu pesquisas científicas em pequena escala para coletar dados científicos específicos, sujeitos à avaliação prévia de seus impactos potenciais.
Com isso, as diretrizes de regulação não podem chegar ao ponto de inviabilizar as pesquisas de Engenharia Climática, inibindo conclusões sobre sua possível eficácia. De fato, a experiência parlamentar de diversos países demonstra que é possível legislar sobre um tema com a intenção mal disfarçada de impossibilitar sua eficácia, a pretexto de regulamentar sua prática. É preciso ficar atento à criação de amarras legais, podendo a regulação de novos tratamentos de saúde e defensivos agrícolas servir de norte.
Tome-se como exemplo o excesso regulatório nos ramos do Direito Ambiental e Climático. Um relatório da ONU Meio Ambiente divulgado em 2019 mostrou um aumento de quase 40 vezes na quantidade de leis ambientais em todo o mundo nas últimas décadas. No entanto, o que impressionou os relatores foi a fraca aplicação destas leis, que não foram capazes de conter o aumento das mudanças climáticas, poluição, perda de espécies e habitats.
A legislação pátria não foge a essa regra. De fato, foram aprovadas nos últimos anos diversas leis ambientais e climáticas, muitas das quais em linguagem rebuscada, apinhadas de frases de efeito, mas que na prática não passam de “tigres desdentados”, sem força normativa. Mesmo em países desenvolvidos esse problema é evidente, como no entendimento adotado pelo Tribunal Constitucional Federal da Alemanha em julgamento sobre o art. 20-A da Lei Básica, do qual foi colhida a metáfora em destaque.
Esse excesso regulatório prevalece também no âmbito internacional, no chamado “Estado de Direito Ambiental”. De fato, desde 1972 foram firmados mais de 1.100 acordos ambientais. Mas sem estrutura e orçamento doméstico, a maioria dos países signatários viram-se incapazes de cumprir as metas estabelecidas nos diversos tratados e protocolos assinados.
A regulação do clima também inclui as constituições dos países, que geralmente se limitam à proteção do meio ambiente. Em muitos casos, como nos EUA, as discussões buscam alterar a constituição com a inclusão de cláusulas climáticas autoexecutáveis, chamadas de “emendas verdes”. Em solo europeu, a França foi o primeiro país a tentar uma reforma constitucional climática em 2021, após uma onda de protestos dos coletes amarelos, mas a reforma não foi aprovada.
Algumas emendas do tipo avançaram em países da África e da América do Sul. No Brasil, a PEC 37/2021 busca incluir no artigo 5º da CF/88 o direito fundamental ao clima estável. Já a PEC 31/2024, conhecida como “PEC do Clima”, busca estruturar a proteção climática com a constitucionalização de um conselho nacional e um fundo climáticos.
No plano infraconstitucional, há propostas mais específicas, como o PL 327/2021, que institui o Paten - Programa de Aceleração da Transição Energética. No âmbito privado, as empresas também criaram uma força tarefa corporativa para tratar do clima e do meio ambiente, conhecida como TNFD - Task Force on Nature Related Financial Disclosures.
Ao lado do excesso normativo há uma intensa litigiosidade climática. O relatório do “Climate Change Litigation Databases” revelou a existência de 230 litígios estratégicos climáticos no mundo, que vão desde descarbonização até fraudes em valores mobiliários ambientais, envolvendo 55 países, incluindo Brasil, EUA, Índia, China e África do Sul.
Esse movimento se encaixa na definição de “advocacy”, que não se confunde com o lobby. Os litígios estratégicos também não se confundem com os processos estruturais e coletivos. A “advocacy” climática é mais difusa que o lobby, e busca colocar o assunto em pauta. De modo semelhante, os litígios estratégicos visam conferir visibilidade ao objeto da reivindicação. Ambos buscam a formulação de políticas e a alocação de recursos públicos.
Localizada nos Países Baixos, a Holanda possui um terço do território abaixo do nível do mar, o que a torna um país vulnerável ao aquecimento global. Ainda assim, é um dos maiores emissores per capita de gases do efeito estufa da Europa. O país também é palco das principais contendas judiciais envolvendo as mudanças climáticas, mas sem resultados práticos consistentes.
No caso da Fundação Urgenda, a Suprema Corte da Holanda determinou em 2019 que o governo holandês cortasse imediatamente as emissões em um quarto até 2020. O governo holandês havia se comprometido espontaneamente em cortar 49% até 2030 e 95% até 2050. Mas na prática, as últimas estimativas apontam uma redução bem mais modesta, em torno de 6%.
Mais recentemente, em novembro de 2024, um tribunal de apelações em Haia proveu o recurso de uma grande petrolífera holandesa (Shell), revertendo a decisão anterior e desobrigando a companhia de reduzir suas emissões de gases do efeito estufa. Segundo o tribunal, a proteção contra o aquecimento global é um direito humano básico, mas não ficou claro se a redução das emissões causadas pelos produtos da companhia ajudaria na luta contra as mudanças climáticas.
Também em Haia, mas com jurisdição em todo o mundo, a Corte Internacional de Justiça concluiu em dezembro de 2024 as audiências no processo de reparação pelas mudanças climáticas. As oitivas envolveram nações sob grave risco de desaparecimento, como as Ilhas Cook. Antígua e Barbuda é uma nação insular no caribe que também tem sofrido com o aumento do nível do mar, causando erosão da costa e encobrimento de terras vitais do país. O desaparecimento de arquipélagos densamente habitados, como Tuvalu, tem o potencial de criar até 12 milhões de refugiados climáticos só no Pacífico e no Caribe.
Esse litígio na corte internacional, contudo, dificilmente terá efeitos práticos, à semelhança dos demais que envolvem o aquecimento global. Isso porque ostenta natureza eminentemente consultiva, e o grupo de maiores poluidores, como China, Índia, Reino Unido e EUA, alegou perante a Corte que apenas tratados podem instituir obrigações de reparação.
De fato, a responsabilidade internacional dos Estados por reparações em decorrência de danos causados a terceiros é prevista no direito consuetudinário, dispensando previsões expressas em tratados, como os danos transfronteiriços. Contudo, a extensão genérica às alterações climáticas representa um desafio interpretativo.
Para mais, os critérios eletivos para a escolha dos países credores das compensações não são claros. Afinal, muitos países que enfrentam problemas com o aquecimento global possuem eles próprios grandes passivos ambientais. A Índia, por exemplo, é a um só tempo um país vulnerável e um grande poluidor.
De fato, o excesso de litígios, leis internas e acordos internacionais não tem se mostrado promissor para o clima, por conta do efeito backlash climático. Como exemplo, os seguros de responsabilidade pessoal relacionados ao clima explodiram nos últimos anos, sendo repassados aos preços ao consumidor nos mais diversos setores econômicos, pressionando a inflação.
Nos próximos anos, espera-se que o círculo de nações mais poluidoras componham um grupo comum para defesa de seus interesses na arena climática, mesmo que estejam em lados opostos na geopolítica global, congregando tanto nações do G7 quanto do BRICS.
Também no tema das reparações exsurge o embate entre os Direitos Ambiental e Climático, o primeiro vinculado à qualidade de vida, enquanto o segundo se vincula à própria viabilidade de vida humana.
Possivelmente, toda essa discussão judicial na CIJ irá resultar na criação de um fundo de perdas e danos para a compensação de países em desenvolvimento, principalmente pequenas nações costeiras e insulares.
5 - Proscrição das Armas Climáticas
Em 1965, o presidente dos Estados Unidos Lyndon Johnson declarou que o único remédio para o aquecimento do planeta era a geoengenharia. Depois disso, os soviéticos tentaram criar armas climáticas, sendo seguidos pelos norte-americanos no programa HAARP.
De fato, na década de 1970, durante a Guerra Fria, foram realizados diversos estudos para a criação de “Técnicas de Modificação Ambiental” - EMTs, para a criação artificial de terremotos, tsunamis e ciclones, além da alteração das correntes oceânicas. O uso de semeadura de nuvens na Guerra do Vietnã foi o estopim, com a ONU finalmente adotando em 1976 a Convenção de Modificação Ambiental - ENMDO, que baniu as pesquisas com escopo militar.
Estrategicamente, o uso da engenharia climática como arma de guerra é de difícil implementação tática, dada sua imprecisão contra alvos determinados. Nada obstante, é possível aproveitar aspectos da governança das armas nucleares como um análogo útil contra a geoengenharia predatória. Afinal, a fissão nuclear pode tanto produzir energia quanto armas de destruição em massa. E mesmo estas últimas não podem ser totalmente proscritas, pois o mundo pode precisar delas contra um possível evento de impacto. Da mesma forma, as técnicas de Engenharia Climática devem ser direcionadas exclusivamente para fins pacíficos.
O princípio da precaução também se aplica neste caso. Logo, atrelada às pesquisas de geoengenharia, deve seguir-se em simultâneo a elaboração de meios de defesa contra seu possível uso militar, como salvaguarda.
6 - Transição Energética
A transição energética como solução para o aquecimento global não acompanha o ritmo da urgência das mudanças climáticas. Nesse quesito a realidade ainda se impõe, com mais de 80% da energia consumida no mundo sendo proveniente de combustíveis fósseis. A energia de fontes renováveis ainda corresponde a uma fração do consumo total, além de pairar dúvidas quanto à efetiva natureza limpa de seus processos.
O Brasil possui 84% de sua matriz energética oriunda de fontes renováveis, principalmente hidrelétrica, mas esse percentual cai pela metade se for considerado o gasto na logística da produção de energia.
O hidrogênio verde é uma matriz bastante discutida atualmente, mas nada menos que 99% do hidrogênio e da amônia são produzidos com emissão de CO2, principalmente de gás natural. Paralelo a isso, diversas companhias de energia eólica estão falindo ao redor do mundo.
A fusão nuclear, que não gera rejeitos radioativos, é tida atualmente como inalcançável. De fato, a maioria dos cientistas considera impossível simular o núcleo estelar na Terra, e já descartou em definitivo essa possibilidade. Não à toa o financiamento para essa matriz energética despencou nos últimos anos.
A alternativa mais viável para a conversão limpa de energia em larga escala é a energia solar. Mas esta fonte enfrenta uma série de desafios. Estima-se que a energia solar que chega à superfície da Terra em um único dia, mesmo após passar pelo filtro atmosférico, é suficiente para suprir toda a demanda energética da população mundial por um ano. Em outros termos, se fosse possível converter toda a energia solar que incide numa pequena porção da Terra, como uma estreita faixa do Saara, durante um ano, todas as demais fontes seriam dispensáveis. Mas é justamente na conversão em energia elétrica e térmica que os maiores desafios se impõem.
Os atuais painéis fotovoltaicos são poluentes por si próprios, tanto na fase de produção quanto de descarte, sendo inviável sua reciclagem. Seus componentes também enfrentam alta nos preços, como a subida do polissilício da China. Mas é no aumento da eficiência onde reside o maior desafio tecnológico. O princípio de funcionamento das placas envolve propriedades quânticas em semicondutores, como poços quânticos e efeito túnel. O primeiro é uma metáfora com o gráfico, que possui um ralo semelhante a um poço. O segundo é um mecanismo de salto entre níveis discretos de energia, impossível de ocorrer pelas leis da física clássica, assemelhando-se a um túnel que serve de atalho para transpor uma barreira de potencial.
Estes mecanismos fornecem às placas fotovoltaicas uma eficiência máxima de cerca de 33%, por conta do limite de Shockley-Queisser (lê-se “chóklei-káisser”). Em teoria, esse limite poderia ser transposto com a utilização de células fotovoltaicas multijunção com camadas infinitas em luz solar não concentrada, chegando hipoteticamente a 86%. Em 2024, a empresa chinesa LONGi conseguiu fabricar uma célula tandem com o recorde de 34,6% de eficiência, um feito promissor, mas muito longe de viabilizar uma transição energética em larga escala.
O petróleo sintético é uma medida alternativa ao petróleo natural. Ele utiliza hidrogênio e carbono. Mas para ter valor ambiental, ele precisa usar o carbono retirado do ar, que depois volta após a combustão, com zero emissões líquidas. O diesel verde, conhecido como HVO, também é uma opção. É um óleo vegetal hidrotratado, que utiliza óleo de soja, óleo de girassol, aparas de madeira ou gordura animal, que são colocados em contato com hidrogênio sob alta pressão. Ele se diferencia quimicamente do biodiesel, que é um mistura de ésteres. O HVO não emite dióxido de carbono, e gera entre 50% e 90% menos gases do efeito estufa em seu ciclo de produção do que o diesel fóssil.
Esses desafios tecnológicos tornam a transição energética muito lenta, inviabilizando a substituição dos combustíveis fósseis a médio prazo. Porquanto devem ser integrados a métodos de Engenharia Climática.
7 - Meio Ambiente vs. Clima
O embate entre clima, natureza e pessoas pode ser representado por um diagrama de Venn com três círculos intercalados. De fato, há medidas prol da natureza que podem afetar populações humanas e medidas em prol do clima que podem afetar a natureza. Para proteger a natureza tal como é feito com o clima, seria preciso adotar uma métrica única abrangente. Mas as métricas do meio ambiente são diferentes do clima. A biodiversidade e os ecossistemas são mais amplos, não se limitando a uma única métrica, o que dificulta sua avaliação constante. De fato, não é possível quantificar a degradação da natureza ao equivalente em toneladas de CO2.
Soma-se a este embate a diferença espacial, com a deterioração do clima atingindo todo o globo, enquanto a degradação do meio ambiente tem efeitos locais. De fato, a proteção ao meio ambiente não possui uma meta única acordada mundialmente, tal como ocorre com o clima, cujo Acordo de Paris limitou o aumento da temperatura a 2°C, com esforços para atingir 1,5°C.
Além disso, o obstáculo de soberania é mais rarefeito nos debates climáticos, enquanto nos debates ambientais tem se mostrado um empecilho tormentoso. Apesar da abstração climática, que só se torna nítida quando atinge um estágio crítico, a poluição atmosférica pode ter uma conotação mais concreta, como no acidente da Bhopal. Trata-se de uma fábrica indiana de inseticidas que emitiu 40 toneladas de isocianato de metila, um gás letal, em dezembro de 1984, causando a morte direta de quase 4 mil pessoas e lesando outras 25 mil.
Como regra, os autores pátrios colocam a questão climática em segundo plano. Mesmo obras estrangeiras que são referência em Direito Ambiental abordam o problema climático de forma superficial, como o livro de Zygmunt Plater, que expõe sucintamente o tema do aquecimento global apenas no último capítulo (“Environmental Law and Policy: Nature, Law, and Society”, editora Aspen Publishing, 5° edição, 2016, Capítulo 22, D.2).
Da mesma forma, a obra de Celso Antônio Pacheco Fiorillo aborda sumariamente o clima no último capítulo da parte I, referente ao Direito material ambiental. (Curso de Direito Ambiental, editora Saraivajur, 25° edição, 2025, Capítulo XXVII).
O livro de Paulo Bessa Antunes, com mais de 600 páginas, dedica menos de 20 páginas para tratar sobre as mudanças climáticas, na parte referente à política energética. Ainda assim, é um dos autores nacionais que mais se aprofunda no tema. (Direito Ambiental, editora Atlas, 23° edição, 2023, 3° Parte, Capítulo 14).
De fato, o clima possui uma conotação mais abstrata em comparação aos estudos sobre meio ambiente, já que é geralmente vinculado à escala planetária.
Na visão de Paulo Affonso Leme Machado: “Os gases dióxido de carbono - CO2, dióxido nitroso - N2O, metano - CH4, hidrofluorcarbonos (HFC), perfluorcarbonos (PFC) e hexafluoreto de enxofre - (SF6) têm contribuído para formar uma capa na atmosfera que funciona como telhado de uma estufa. O excesso desses gases na atmosfera vem causando um aquecimento anormal do Planeta - o efeito estufa.” (Direito Ambiental Brasileiro, editora Malheiros, 21ª edição, 2012, p. 622).
Em edição mais recente, o mesmo autor adotou o termo “Direito da Mudança do Clima”, seguindo a tendência estrangeira, analisando brevemente 16 COPs, desde a COP 3 em Kyoto/1997 até a COP 29 em Baku/2024. (Direito Ambiental Brasileiro, editora Juspodivm, 31° edição, 2025, Capítulo III, item 6).
Dada a falta de aprofundamento, os autores pátrios costumam se valer de reportagens antigas publicadas em jornais, transcrevendo-as em suas obras, em capítulos limitados a comentários concisos sobre a Lei 12.187/2009, que instituiu a Política Nacional sobre Mudança do Clima.
Essa lei tratou genericamente sobre os métodos de absorção de carbono, determinando que o comitê gestor destine parte dos recursos do fundo climático para sumidouros e geração de renda, como a redução do desmatamento e a reflorestação. Mas pode ser interpretada ampliativamente para albergar medidas de maior escala, que envolvam os progressos recentes em engenharia genética e geoengenharia. A necessidade da Engenharia Climática pode ser vista na observação de Édis Milaré: “Por sua vez, o Planeta deve ser trabalhado a fim de tornar-se hábil para adaptar-se aos ciclos adversos de mudança do clima” (Direito do Ambiente, editora Revista dos Tribunais, 12ª edição, 2021, p. 1.432).
Contudo, a legislação ainda não adentrou nesta seara, insistindo em medidas de mitigação de duvidosa eficácia prática. Como exemplo, a Lei n° 15.042/2024 regulamentou o comércio de emissões de gases de efeito estufa, regendo no art. 14 dois ativos negociados no mercado de capitais, a Cota Brasileira de Emissões - CBE e o Certificado de Redução ou Remoção Verificada de Emissões - CRVE, sob controle da Comissão de Valores Mobiliários. No mesmo sentido, o projeto de lei n° 1.425/2022 busca instituir a reciclagem de CO2, com medidas de armazenamento e posterior reaproveitamento, visando a descarbonização da economia.
A legislação penal também não alcança a degradação do clima. O art. 38 da Lei de Contravenções Penais prevê a conduta de provocar abusivamente emissão de fumaça, vapor ou gás, que possa ofender ou molestar alguém. Já o art. 54 da Lei de Crimes Ambientais tem uma objetividade jurídica mais ampla, tipificando a conduta de causar poluição de qualquer natureza em níveis tais que resultem ou possam resultar em danos à saúde humana, ou que provoquem a mortandade de animais ou a destruição significativa da flora, sendo crime formal na primeira modalidade e material nas demais.
De fato, a emissão de CO2 não é uma conduta tipificada, mas ações cíveis passaram a incluir os danos climáticos no cálculo de indenizações por desmatamento e queimadas, com fundamento no dano causado ao clima. Esse dano é de difícil mensuração e estabelecimento de nexo causal, mas a tese já foi acatada por tribunais pátrios, como os precedentes do Tribunal Regional Federal da 1° Região, em cuja circunscrição se encontra a maior parte da floresta amazônica.
Esse confronto entre o Direito Ambiental e o Climático se torna mais evidente na atual preponderância do paradigma climacêntrico em detrimento do ecocêntrico. Esse novo paradigma, que avulta diante do crescente risco de danos incomensuráveis, reclama a regulação de medidas de maior abrangência, oriundas da Engenharia Climática.
A Lei n° 14.904/2024 determinou a elaboração de “Planos de Adaptação” às mudanças climáticas, diante de “efeitos adversos atuais e esperados”, visando a gestão do risco. Da igual maneira, é urgente traçar um plano de adaptação à geoengenharia, instituindo diretrizes, princípios e instrumentos para a gestão dos possíveis efeitos adversos.
8 - Considerações Finais
A COP 30 tem um número sugestivo, dada as promessas climáticas corriqueiras para o ano de 2030. Além disso, pode tornar efetiva a promessa original da COP 3 em Quioto. Por isso deve organizar painéis e pavilhões que discutam com seriedade a regulação da Engenharia Climática, cuja implementação é inevitável.
Tal como o aquecimento global não é uma farsa (hoax), a Engenharia Climática também não é, e sua urgência se impõe diante da realidade. O ressalto inicial com a ideia é perfeitamente normal, dada a relutância natural com as novas tecnologias e seus riscos intrínsecos.
A tecnologia dos para-raios também foi ridicularizada no início. Na época de seu surgimento, as cúpulas e torres das igrejas costumavam ser os lugares mais altos das comunidades, o que atraía descargas atmosféricas, resultando em incêndios e desabamentos do teto. Os para-raios evitaram os incêndios tão comuns nas igrejas, o que foi encarado como uma ofensa a Deus, causando repugnância em grande parte da população. Mas após uma relutância inicial, essa tecnologia se mostrou essencial, sendo aceita pela comunidade.
A floresta Amazônica existe há cinquenta milhões de anos, tendo resistido a inúmeras eras do gelo e eventos extremos, e agora corre o risco de sucumbir para fabricação de papel higiênico. De fato, a floresta pode se tornar uma savana relvada pelo aquecimento global, desmatamento e extração de madeira e celulose para a fabricação de embalagens e itens de higiene pessoal.
É importante lembrar que no confronto tecnológico entre o espaço e as florestas, estas levam vantagem. A exploração espacial proporcionou o surgimento de muitas tecnologias populares, como o imageamento médico e as câmeras digitais. Mas sem dúvida as florestas possibilitaram o desenvolvimento de tecnologias mais essenciais, como medicamentos. E outras mais estão sendo desenvolvidas, como os microchips baseados em nanofibras de celulose. Por isso a necessidade de protegê-las.
Sem muita surpresa, os setores mais poluidores são justamente aqueles que se relacionam com as principais necessidades humanas, como moradia, transporte, vestuário e alimentação. Por isso as medidas simplistas de mitigação, como a redução das emissões em percentuais ínfimos não surtirá o efeito esperado no clima.
O embate climático intergeracional polariza os vivos contra os mortos, os jovens contra os idosos e a população atual contra a vindoura. O doomismo climático também é uma ideologia bastante difundida entre os jovens, pregando não haver nada que se possa fazer quanto às mudanças climáticas e só restando esperar pelo pior. Essa ideia conduz à inação climática, estimulando uma postura passiva que se resume apenas em apontar possíveis culpados.
A regulação da geoengenharia pode sanar esse derrotismo climático das novas gerações. Para tanto, é imperioso que a governança da Engenharia Climática leve em consideração a participação pública, com a criação de comitês independentes, considerando seus métodos um bem público mundial, que traga benefícios a todos, não se limitando a regiões ou populações específicas. As regras jurídicas já existentes em tratados internacionais devem servir de inspiração para traçar as diretrizes do Direito da Engenharia Climática, como as regulamentações da Antártida e da exploração lunar, em especial à que proíbe os fins militares.
Referências
Antunes, Paulo Bessa Direito Ambiental, editora Atlas, 23° edição, 2023.
Fiorillo, Celso Antônio Pacheco. Curso de Direito Ambiental, editora Saraivajur, 25° edição, 2025.
Gerrard, Michael B. Climate Engineering and Law, editora Cambridge University Press, 2018.
Hartmann, Dennis L. Global Physical Climatology, editora Elsevier Science, 2015.
Jacobson, Brynna. Geoengineering Discourse Confronting Climate Change, editora Lexington Boos, 2022.
Keller, Edward A. Devecchio, Duane E. Natural Hazards, editora Pearson, 4ª edição, 2015.
Liss, Peter S. Johnson, Martin T. Ocean-Atmosphere Interactions of Gases and Particles, editora Springer Open, 2014.
Lowrie, William. Fichtner, Andreas. Fundamentals of Geophysics, editora Cambridge University Press, 3ª edição, 2020.
Machado, Paulo Affonso Leme. Direito Ambiental Brasileiro, editora Malheiros, 21ª edição, 2012.
____Direito Ambiental Brasileiro, editora Malheiros, editora Juspodivm, 31° edição, 2025.
Mello, Celso Antônio Bandeira de. O Conteúdo Jurídico do Princípio da Igualdade, editora Malheiros, 1978.
Milaré, Édis. Direito do Ambiente, editora Revista dos Tribunais, 12ª edição, 2021.
Moldwin, Mark. An Introduction to Space Weather, editora Cambridge University Press, 2ª edição, 2022.
Mullan, Dermott J. Physics of the Sun, editora CRC Press, 2ª edição, 2022.
Plater, Zygmunt. Environmental Law and Policy: Nature, Law, and Society, editora Aspen Publishing, 5° edição, 2016.
Rohli, Robert V. Vega, Anthony J. Climatology, editora Jones & Bartlett Learning, 4ª edição, 2017.
Talley, Lynne D. Descriptive Physical Oceanography, editora Academic Press, 6º edição, 2011.
Tipler, Paul A. Llewellyn, Física Moderna, editora LTC, 5ª edição, 2008.
Wallace, John M. The Atmosphere General Circulation, editora Cambridge University Press, 2023.
APÊNDICE: As Mudanças Climáticas e as Propostas de Geoengenharia.
I- Histórico da Mudança do Clima.
O registro histórico mostra que a Terra já passou por inúmeras mudanças no padrão climático, algumas delas de forma abrupta. Muitas evidências demonstram, por exemplo, que choveu por até dois milhões de anos ininterruptamente no Evento Pluvial Carniano, há 232 milhões de anos.
De fato, o planeta passou por inúmeros períodos em que era inabitável para os humanos, até que o clima arrefeceu. No século XX, por exemplo, a maior chuva foi registrada em Maui entre 1939 e 1940, quando choveu por 331 dias consecutivos. A chuva trouxe grandes inconvenientes, mas não tornou a região inabitável.
A palavra klima vem do grego e quer dizer inclinação. O termo se refere à inclinação do Sol, marcando a distância angular à linha do equador. Segundo a concepção dos gregos antigos, essa distância era o que determinava as condições climáticas das diversas regiões do planeta. Mas atualmente esse fato é só um detalhe, já que o clima na superfície é determinado principalmente pela ação humana.
Dentre os gregos, Aristóteles foi um dos primeiros a escrever sobre o clima. Ele publicou a obra “Meteorologia” em 340 a.C, que serviu de base para os estudos meteorológicos até meados do século XVII. Neste livro ele reuniu os conhecimentos dos gregos, egípcios e babilônios existentes até então, sendo traduzido para o árabe e para o latim. Ele intuiu que os quatro elementos estavam em constante intercâmbio, com o calor do Sol colidindo com a água fria, e criando ar e névoa.
Na visão de Aristóteles, o comprimento da Terra é muito maior que a largura. Segundo seus cálculos, a distância dos pilares de Hércules, em Cádiz, até a Índia excedia a distância da Etiópia, atual Sudão, até o lago Mareotis, onde hoje é o Mar de Azov. Estava errado, mas ele teve o mérito de descrever uma Terra esférica, composta por uma litosfera, uma hidrosfera de água e uma atmosfera de ar e fogo. Também tratou sobre raios e furacões, descreveu a Via Láctea e a aurora boreal. Aristóteles comparou a aurora a um gás em chamas de cor vermelho-sangue. Ele intitulou o capítulo 14 do Livro I de “Mudanças Climáticas”, dando mostras que o tema já era uma preocupação na sua época.
Atualmente, sabe-se que a Terra passa por ciclos de variação climática em diferentes escalas temporais e com níveis distintos de impacto na temperatura. Os ciclos solares de 11 anos possuem efeitos mínimos na temperatura da Terra, variando no máximo 0,3°C. Da mesma forma, a flutuação climática do El Niño, em ciclos de 2 a 7 anos, altera a metade disso, 0,15°C. São ciclos de pequenos intervalos temporais.
Já os mínimos solares possuem um efeito mais perceptível, tendo ocorrido 25 vezes nos últimos 11 mil anos. A última ocorrência se deu entre os anos de 1645 e 1715, que coincidiu com a “Pequena Era do Gelo Medieval”. Contudo, esse mínimo solar foi muito fraco para causar esse resfriamento, sendo esse período atribuído à atividade vulcânica. De fato, o enxofre expelido pelos vulcões pode alterar a temperatura global em até 2°C. O registro histórico mostra que no ano 540 d.C a erupção do Ilopango em El Salvador atingiu a estratosfera, causando inversão nas estações, com verões frios e secas prolongadas, varrendo todo o planeta com pestes e fome por vários anos.
As oscilações orbitais possuem intervalos maiores e modificam a temperatura de forma proeminente, oscilando até 6°C. Elas ocorrem em ciclos sobrepostos de 23 mil, 41 mil, 100 mil, 405 mil e 2,4 milhões de anos, conhecidos como ciclos de Milankovitch. O ciclo de excentricidade varia entre 0,0034 e 0,0058, o da obliquidade varia entre 22,1° e 24,5°, havendo ainda o ciclo de precessão axial, que aumenta a exposição das regiões polares à maior incidência de radiação solar, ocasionando o derretimento do gelo e a transferência de CO2 do oceano para a atmosfera. Estes ciclos tanto anulam o efeito de radiador exercido pelos polos quanto intensificam o efeito estufa, agindo duplamente na temperatura do planeta.
O ciclo do termostato de intemperismo também opera em longas escalas de tempo, a cada 100 mil anos, mantendo a temperatura dentro de uma zona propícia à vida. O ciclo da tectônica de placas tem um efeito drástico no clima, alterando a temperatura em até 30°C, mas opera numa escala gradual de milhões de anos.
Os eventos de impacto não possuem efeitos perceptíveis na temperatura global, com exceção de um impacto específico. De fato, existem 190 crateras de impacto catalogadas na Terra, mas apenas a de Chicxulub, no México, que ocorreu há 66 milhões de anos, modificou o clima do planeta, causando um resfriamento de 20°C que durou séculos, tendo em seguida elevado a temperatura em 5°C.
A evolução também pode modificar o clima, alterando a temperatura em até 5°C, como no caso do surgimento de cianobactérias no ecossistema terrestre. Esse fenômeno opera na escala de milhões de anos. Por fim, as grandes províncias ígneas, que são inundações de magma subterrâneo em escala continental, podem elevar a temperatura em até 9°C, causando chuva ácida, névoa ácida, poluição por mercúrio e destruição da camada de ozônio, além de emitir metano e CO2 em níveis bem acima ao que o termostato do intemperismo é capaz de suportar. Esse ciclo foi o responsável pela extinção do Permiano, operando na escala de milhões de anos.
Essa extinção é conhecida como a “Grande Morte” e foi a mais cruel que já ocorreu na Terra, dizimando cerca de 95% das espécies, marcando a transição entre o Permiano e o Triássico. Esse evento ocorreu há 251,9 milhões de anos e decorreu de erupções vulcânicas na Sibéria, que emitiram quantidades colossais de gás carbônico na atmosfera, reduzindo o estoque de oxigênio. Isso tornou o ar pouco respirável e elevou a temperatura. A concentração de gás carbônico nessa época chegou a 2.500 ppm. A essas erupções somou-se ainda uma colisão de um asteroide em Araguaína, no Brasil, que liberou uma quantidade enorme de metano na atmosfera. O impacto gerou uma cratera de 40 quilômetros de diâmetro, visível do espaço. É importante pontuar que o clima pós-extinção pode ser pior que o próprio evento de extinção em si.
Levando em consideração todos esses ciclos nos modelos climáticos atuais, resta apenas uma variável capaz de explicar o aquecimento global: a emissão de gases do efeito estufa, cuja concentração atmosférica aumentou 45% desde 1750.
Segundo Edward A. Keller e Duane E. Devecchio:
“A força climática antropogênica se refere à força relacionada ao homem. As mais importantes são as emissões de gases de efeito estufa (especialmente dióxido de carbono e emissões de partículas de aerossol). A evidência da força antropogênica resultando em um mundo mais quente é baseado, em parte, no seguinte: o aquecimento recente nas últimas décadas de 0,12ºC por década não pode ser explicado pela variabilidade natural do clima ao longo da história geológica recente; o forçamento da era industrial de 1,6 W/m² deve-se principalmente às emissões de dióxido de carbono que, juntamente com outros gases com efeito estufa, aumentaram significativamente em concentração nas últimas décadas; os modelos climáticos sugerem que as forças naturais dos últimos 100 anos não podem ser responsáveis pelo que sabemos ser um aumento de quase 1ºC na temperatura global da Terra. Quando as forças naturais e antropogênicas são combinadas, as mudanças observadas podem ser explicadas. Os processos humanos também estão causando um ligeiro resfriamento. A reflexão de partículas de poluição do ar (aerossóis) reduziu a energia solar recebida em até 10%. Isso é denominado escurecimento global. O forçamento negativo dos aerossóis na era industrial é de -1,4 W/m² e pode estar compensando até 50% do desperdício esperado resultante dos gases do efeito estufa.” (“Natural Hazards”, editora Pearson, 4ª edição, 2015).
De uma maneira geral, a Terra possui mecanismos naturais de suporte para lidar com mudanças graduais no clima, mas não diante de uma intervenção rápida e intensa. O planeta é habituado a ciclos de aquecimento e resfriamento, que são essenciais para a evolução e manutenção da vida. Esses ciclos ditam as eras glaciais e seus interstícios a cada 100 mil anos. A última era glacial ocorreu há 21 mil anos, seguindo-se um período de 10 mil anos de aquecimento, com aumento de 50% na emissão de CO2 e elevação da temperatura em 6°C. Em termos absolutos, nos últimos cem anos foi emitida uma quantidade equivalente de CO2 à emitida nos 10 mil anos de aquecimento que se seguiram à última era glacial.
É certo que parte da comunidade científica acredita que a Terra estava entrando num ciclo de resfriamento no final do século XVIII, antes do atual aquecimento global. Em termos específicos, um período de aquecimento iniciou em 1850 até a década de 1940, quando começou a cair gradualmente. Na década de 1950, houve um nivelamento da temperatura, com nova queda na década de 1960. A partir daí, a temperatura voltou a subir. Apesar dessa oscilação, a tendência gráfica é de alta na temperatura da Terra desde a revolução industrial.
Para compreender esta comunhão de fatores que impactam na temperatura da Terra é necessário conjugar diferentes áreas de estudo. Robert V. Rohli e Anthony J. Vega explicam alguns subcampos:
“A hidroclimatologia envolve os processos (em todas as escalas espaciais) de interação entre a atmosfera e a água próxima à superfície em formas sólida, líquida e gasosa. Este subcampo analisa todos os componentes do ciclo hidrológico global. A hidroclimatologia interage especialmente de perto com os estudos de outras “esferas”, incluindo a litosfera, a criosfera e a biosfera, porque a água está presente em todas essas esferas e as interações ocorrem prontamente entre elas. Outro subcampo da climatologia é a climatologia dinâmica, que se preocupa principalmente com a dinâmica atmosférica geral - os processos que induzem o movimento atmosférico. A maioria dos climatologistas dinâmicos trabalha na escala planetária.” (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Mais à frente os autores expõem:
“Enquanto as pistas da concentração atmosférica de CO2 no passado distante vêm da análise química de bolhas de ar presas no gelo, a concentração de CO2 tem sido medida diretamente desde 1957 no topo de Mauna Loa no Havaí - um local o mais distante possível de fontes locais de poluição. A série temporal de CO2 atmosférico desde 1957 é conhecida como curva de Keeling, que não apenas verifica o rápido aumento desde 1957, mas também revela o ciclo sazonal de CO2…O crescimento exponencial de longo prazo na concentração atmosférica de CO2 preocupa a maioria dos climatologistas e cientistas ambientais. O dióxido de carbono é um componente integral do balanço energético da Terra porque ele absorve energia que é irradiada da Terra e então reemite energia de volta para a Terra, mantendo assim a superfície mais quente do que seria se o CO2 não estivesse presente. O rápido aumento na quantidade de CO2 atmosférico é considerado o culpado pelos aumentos observados na temperatura da superfície da Terra nas últimas décadas”. (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Discorrendo sobre o paradoxo do Sol Jovem e Fraco, os autores asseveram:
Evidências contidas em rochas sedimentares e sedimentos, camadas de gelo e fósseis revelam que a temperatura média da Terra permaneceu dentro de uma faixa de cerca de 15ºC durante a maior parte, se não toda, de sua história geológica. Isso implica que mesmo mudanças em escala global nas condições ambientais médias, desde eras glaciais até condições sem gelo na Terra, ocorreram dentro de uma faixa de variabilidade de temperatura que é menor do que a diferença de temperatura do verão para o inverno na maioria dos locais fora dos trópicos. Esse fato causou considerável consternação para muitos cientistas do clima por causa de uma aparente contradição entre o que se sabe sobre a energia liberada durante a evolução das estrelas, como o Sol, e a evidência da temperatura da Terra através do tempo geológico. As estrelas obtêm energia através da fusão nuclear constante de hidrogênio em elementos mais pesados. Essas reações fazem com que as estrelas se expandam gradualmente e fiquem mais quentes e brilhantes ao longo do tempo. Eventualmente, as estrelas gastam suas fontes de energia e se extinguem. Podemos assumir que a energia emitida pelo Sol primitivo era cerca de 25% a 30% menor do que a emitida hoje, porque esse padrão é observado ao longo do ciclo de vida de outras estrelas como o Sol. Também sabemos que mesmo pequenas mudanças na produção solar podem induzir mudanças climáticas drásticas na Terra…Essa contradição entre um Sol fraco, mas condições globais relativamente quentes é o paradoxo do Sol Jovem e Fraco. Como as temperaturas poderiam ter ficado acima de zero durante os primeiros tempos da história geológica?...A resposta mais lógica é que o sistema Terra-oceano-atmosfera deve ter algum tipo de regulador interno que mantenha as temperaturas dentro de uma faixa razoável, independentemente das mudanças na produção solar ao longo do tempo…Então, quais gases de efeito estufa poderiam ter ajudado a Terra primitiva a permanecer relativamente quente? Os dois gases de efeito estufa mais abundantes na atmosfera são vapor de água e CO2. Até onde podemos dizer, a quantidade de vapor de água permaneceu relativamente constante desde os tempos primordiais…Mas se níveis excessivos de CO2 realmente fizeram com que a Terra permanecesse quente apesar de um Sol fraco, tais concentrações provavelmente teriam sido altas demais para permitir a geração de moléculas orgânicas, então a vida não poderia ter existido facilmente. Além disso, nenhuma evidência geológica foi encontrada para sugerir que as concentrações de CO2 foram grandes o suficiente para ter criado um efeito estufa tão forte. (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Foram propostas explicações alternativas para o paradoxo acima, como a de Carl Sagan, que propôs um efeito estufa causado pela amônia (NH3). Nos anos 2000, cientistas de Harvard propuseram uma explicação baseada em micróbios conhecidos como metanógenos, que produzem metano, tendo eles originado o efeito estufa na Terra pré-fotossíntese. Para os autores, “alguns geocientistas supõem que o fim dos metanógenos causou a primeira era glacial global na Terra e talvez tenha contribuído para eras glaciais subsequentes”. (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Discorrendo sobre o clima atual, os autores ainda ponderam:
“Outro controle importante sobre o clima é uma variável de ‘situação’ conhecida como continentalidade - localização relativa a grandes corpos de água (especialmente oceanos). Esses grandes corpos são capazes de armazenar enormes quantidades de energia durante períodos de alta energia (verão) e liberar essa energia lentamente para a atmosfera durante períodos de baixa energia (inverno). Esses fluxos de energia podem ter um efeito significativo no clima de um local adjacente ao corpo de água.” (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Expondo as variações espaciais e sazonais de energia, os autores arrematam:
“O clima de um local resulta da culminação de todos os controles climáticos trabalhando cumulativamente. Alguns fatores contribuem para grandes variações de energia no globo ao longo do ano, apesar do fato de que a circulação está constantemente trabalhando para equilibrar esses desequilíbrios de energia. O resultado é que a temperatura varia de um local para o outro na Terra e em qualquer local específico ao longo do ano…Além dos principais controles no sistema climático, como os efeitos de latitude, relações Terra-Sol, continentalidade, circulação atmosférica e oceânica, elevação e características locais gerais, as interações entre atmosfera, hidrosfera, litosfera e biosfera também devem ser consideradas.” (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017)
Por fim, tratando sobre a relação do El Niño e o aquecimento global, os autores relatam:
“Embora muita pesquisa tenha sido feita sobre eventos ENSO (El Niño Oscilação Sul), trabalho adicional ainda é necessário. O aquecimento global atual é exacerbado pela emissão humana de poluentes conhecidos como gases do efeito estufa. A especulação recente de que o aquecimento global desencadeia eventos ENSO extremos foi gerada por uma maior incidência de eventos ENSO intensos durante os últimos anos de altas temperaturas globais. Desde 1970, eventos ENSO quentes ocorreram com uma periodicidade de cerca de 2,8 anos. Isso excede significativamente a frequência da média de longo prazo de 4,7 anos…Pesquisas recentes apoiam uma explicação mais plausível para o aumento de eventos ENSO extremos desde 1970, por meio do fenômeno oceânico conhecido como Oscilação Decadal do Pacífico (PDO), que está diretamente ligado à força e frequência do ENSO.” (“Climatology”, editora Jones & Bartlett Learning, 4ª edição, 2017).
Em termos de história climática, as evidências observacionais indicam uma duplicação global na deposição de poeira desde 1750. Atualmente, o Saara é a maior fonte de poeira do mundo, mas no início do holoceno era uma paisagem vegetada com muitos lagos e zonas úmidas. As alterações nas chuvas das monções, envolvendo feedbacks de vegetação e poeira, acabou com o Saara verde, levando a grandes deslocamentos de assentamentos humanos para partes da África e da Ásia.
De fato, o exame da arte rupestre pré-dinástica do Egito revelou pinturas que mostram o deserto do Saara habitado por hipopótamos e girafas. Essas pinturas remontam ao período anterior ao faraônico, e são pouco conhecidas fora do meio científico, sendo confeccionadas com estêncil e geoglifos.
Para estudar a histórica do clima, os paleoclimatologistas utilizam as pinturas modernas para constatar mudanças perceptíveis. As pinturas feitas na Europa durante os séculos XVII a XIX mostram pores do Sol avermelhados, revelando os efeitos da “Pequena Idade do Gelo” na região. Um exemplo desta linha de pesquisa pode ser vista nos estudos sobre o céu do quadro “O Grito” de Edvard Munch, que mostra nuvens que podem ter sido causadas pela erupção do Krakatoa na Indonésia nove anos antes ou nuvens estratosféricas do tipo 2.
A palinologia também revela alterações naturais no clima através do exame dos grãos de pólen, que se preservam por séculos. Esses grãos indicam o tipo de vegetação que existia no sítio de coleta, revelando o clima que predominava na época. As asas dos mosquitos também contêm informações sobre a história do clima. Mas nada se compara aos núcleos de gelo, que são verdadeiras cápsulas do tempo. Já foram extraídos núcleos com 130 mil anos na Groenlândia. Na Antártica, foi extraído um núcleo de gelo com 800 mil anos na estação Concórdia. Trata-se de uma estação permanente, que funciona o ano inteiro, operada desde 2005 por um consórcio franco-italiano. Esse núcleo de gelo foi extraído do Dome C, uma das colinas mais frias do Planalto Antártico, que tem mais de três mil metros de altitude, nos confins da Antártica Oriental.
O núcleo de gelo polar é de melhor qualidade para pesquisa, já que não sofre fusão, que corrompe o registro dos gases aprisionados e gera impurezas. O estudo de núcleos de gelo mostra que a quantidade de gás carbônico ficou estável nos últimos mil anos até o século XIX, quando teve um salto considerável, elevando-se em cerca de 50%. As listras paralelas no cilindro de gelo indicam uma sucessão de períodos glaciais frios mais longos, intercalados por períodos interglaciais quentes mais curtos, de cerca de 100 mil anos. O núcleo de gelo GISP2 da Groenlândia revelou o enigmático “evento 8,2ka”, quando em apenas vinte anos a temperatura esfriou 3,3ºC, há 8.200 anos. Esse evento permaneceu um mistério por um longo tempo, mas atualmente sabe-se que foi causado pelo rompimento de uma barragem natural de um enorme lago pro-glacial, cujas águas doces escorreram para o mar de Labrador, alterando sua densidade e as correntes de circulação oceânica.
Os registros do núcleo de gelo da Groenlândia também mostram claramente um resfriamento entre 14.025 e 13.904 anos antes do presente, com a temperatura baixando até 7ºC durante os eventos conhecidos como Dryas Antigo e Dryas Jovem. As causas destes dois eventos são objeto de uma grande quantidade de literatura que trata principalmente do impacto da água do degelo glacial das camadas de gelo da América do Norte e do norte da Europa.
O chamado “Clima Ótimo do Holoceno” perdurou entre 7 mil e 3 mil anos atrás. Nesse período, a região amazônica experimentou temperaturas mais altas e condições mais secas. Já no hemisfério Norte, houveram verões mais quentes. De seu turno, o chamado “Período Quente Medieval” ocorreu entre os anos 900 e 1300 d.C, atingindo regiões distintas, como Europa, China, Andes, Tasmânia e Nova Zelândia, mas poupou o mediterrâneo e a América do Sul. O aumento de 2ºC nesse período é atribuído à maior incidência de radiação solar. Sua maior concentração foi no Atlântico Norte devido à ação da Corrente do Golfo.
Jericó é a cidade mais antiga ainda existente, tendo mais de 11 mil anos, ostentando muitos registros históricos do clima nesse período. Ela é uma prova da adaptação humana às mudanças climáticas. Os registros históricos indicam que, entre 20.000 e 5.000 a.C, houve um aquecimento global que possibilitou o surgimento de novos tipos de plantas e animais, que sustentaram a revolução agrícola. Durante esses 15 mil anos, houve o surgimento da agricultura, das cidades e da civilização.
Em 20.000 a.C, o nível mais baixo do mar uniu massas de terra como a Tasmânia, Austrália e Nova Guiné em uma só planície. Assim também ocorreu com Bornéu, Java e Tailândia, formando cadeias de montanhas na floresta tropical mais extensa da Terra, maior que a do Congo e da Amazônia. De uma maneira geral, a evidência paleoclimática para épocas distantes é escassa. Períodos recentes, como o Holoceno médio, estão melhor documentados, mas envolvem pequenas mudanças climáticas, que não chegam a 1ºC, tornando-se pouco úteis para estudos sobre o futuro do clima.
A obra do historiador Geoffrey Parker sobre crises globais no século XVII retrata as mudanças climáticas nas décadas de 1640 e 1650, que tiveram resultados desastrosos sobre a colheita, causando muitas mortes diretas e indiretas. As principais consequências foram a escassez de alimentos, subnutrição e doenças, além da diminuição de nascimentos. Estima-se que a população mundial tenha encolhido até um terço nesta época. Essas mudanças também causaram grande agitação política e social em diversas partes do mundo, desde a Inglaterra até o Japão, do Império Russo à África Subsaariana e nas Américas do Norte e do Sul.
Apesar de todo esse avanço, um grande paradoxo ainda paira sobre os paleoclimatologistas que estudam o clima passado da Terra, com o registro climático revelando uma tendência de resfriamento no planeta entre 6.500 antes do presente e 1800 d.C, que foi repentinamente revertida.
Darrell S. Kaufman e Ellie Broadman publicaram um artigo seminal em 2023 na revista Nature (“Revisitando o Enigma da Temperatura Global do Holoceno” traduzido do inglês), explicando esse paradoxo, que conta com 85 citações e mais de 15 mil acessos. Nele, os autores expõem o contraste entre as simulações dos modelos climáticos (que revelam uma tendência de frio) e os registros naturais em corais, pólens e sedimentos marinhos (que indicam uma tendência de aquecimento). As explicações para esse paradoxo permanecem um mistério.
No período moderno, constatou-se um aumento de 0,85ºC desde o advento do registro instrumental, em 1880, com base na correção de erros metodológicos dos métodos aplicados em diferentes épocas, como os termômetros de mercúrio antigos. No passado, os registros eram feitos em bases rurais. Atualmente, os instrumentos ficam em bases urbanas, o que faz com que ilhas de calor possam enviesar os dados.
Já os registros nos oceanos eram feitos principalmente em navios. Esses registros podem mudar conforme a altura da estação no mastro ou mesmo pelo material de que o navio é feito. Os registros mais antigos no oceano eram realizados medindo a temperatura da água que passava pelo porão do navio, o que incluía o calor gerado por ele. É necessário levar em conta ainda a hora do dia da medição em diferentes estações do ano. Além disso, os locais de coleta dos registros se limitavam às rotas marítimas. Atualmente, esses registros são feitos em estações meteorológicas, navios e boias espalhadas por todo o oceano, e não apenas nas rotas marítimas. Além disso, as informações coletadas são validadas pela comparação com a leitura dos termômetros de infravermelho do satélite “Aqua” da NASA.
A Lei de Stefan-Boltzmann foi descoberta por dois físicos na Áustria em 1880, constatando que a quantidade de radiação infravermelha que um objeto emite aumenta com a sua temperatura à razão da quarta potência. Essa lei se aplica ao equilíbrio radiativo da Terra, quando o planeta não ganha nem perde energia e sua temperatura se mantém constante. Nesse quesito, também é preciso levar em conta o albedo médio da Terra de 0,30, que varia conforme as estações do ano. Esse valor pode se alterar a depender de qual parte do planeta está voltada para o Sol, havendo uma gradação crescente no brilho, começando pelos oceanos, os continentes, as nuvens, a neve e o gelo.
Modernamente, Humboldt, Fourier e Eunice iniciaram os estudos climáticos ainda no século XIX. Pouco tempo depois, um artigo pioneiro publicado em 1912 relacionou o consumo de carvão com o efeito estufa, estimando que a queima de 2 bilhões de toneladas de carvão em contato com o oxigênio atmosférico adicionaria até 7 bilhões de toneladas de CO2 na atmosfera. Logo em seguida, foram publicadas as duas obras que marcaram os estudos climáticos: “The Evolution of Climate” de 1922 e “Climates of the Past” de 1926. Antes, porém, Svante Arrhenius publicou um estudo sobre o efeito estufa em abril de 1896, no qual demonstrou que o aumento do gás carbônico na atmosfera ocasiona uma elevação da temperatura média na superfície do planeta. Na sequência, Guy Callendar publicou um estudo em 1938 relacionando o gás carbônico emitido nos últimos cinquenta anos ao aumento da temperatura. Por fim, o artigo científico de Manabe & Wetherald publicado em 1967 no “Jornal das Ciências Atmosféricas” foi pioneiro no cálculo do aquecimento global resultante da emissão de gases do efeito estufa.
Keeling instalou seu primeiro analisador de gás infravermelho em Mauna Loa, no Havaí, em março de 1958. Ele foi o primeiro a perceber que a concentração de CO2 no ar era maior à noite do que durante o dia. De maneira inversa, ele constatou também que a proporção de C-13 para C-12 era menor durante à noite do que de dia. Além disso, ele observou um aumento mensal nas concentrações de CO2 até maio, voltando a diminuir até outubro, num ciclo anual. Era como se a Terra inspirasse e expirasse uma vez por ano, em decorrência dos processos de vida. Segundo suas palavras, ele testemunhou pela primeira vez a retirada de CO2 do ar pela natureza para o crescimento das plantas durante o verão e o retorno do nível de CO2 no inverno.
De fato, o CO2 emitido pelo homem é um acréscimo relativamente pequeno em meio a um vasto ciclo natural de carbono que se move entre a crosta terrestre, os oceanos, as plantas e a atmosfera. O vapor d’água é controlado pelo aquecimento devido ao CO2 e outros gases não condensáveis. Esse controle segue a equação termodinâmica de Clausius-Clapeyron, que relaciona a pressão do vapor e a temperatura durante uma transição de fase. Quando o CO2 é removido dos modelos de circulação geral da Terra (GCM), o planeta esfria 35% e o conteúdo de vapor d’água cai 90%. Logo, apesar das participações relativas de cada gás, é o CO2 o principal motor do clima na Terra.
A impressão digital isotópica do CO2 é evidenciada pela origem do atual dióxido de carbono atmosférico, que é proveniente de matéria vegetal terrestre de um tempo muito remoto, decorrente da queima de combustíveis fósseis. O período carbonífero data de 300 milhões de anos. Já o petróleo se originou na era mesozóica, um pouco mais recente, entre 252 e 66 milhões de anos atrás. Esse período coincide com o jurássico, mas nada tem a ver com os dinossauros. Pela teoria orgânica, o petróleo se formou pela decomposição de algas e animais microscópicos no fundo dos lagos e dos mares. A conjugação de pressão e temperatura ajudou a formar as cadeias de hidrocarbonetos.
O C-12 tem seis nêutrons, sendo preferido pelas plantas na realização da fotossíntese, por ser mais leve. Já o C-13 é mais pesado, sendo emitido pelas erupções vulcânicas. O C-14 é restrito à matéria orgânica mais jovem. A proporção de C-13 e C-12 na atmosfera se mantém constante ao longo do tempo. Porém, houve um aumento nas últimas décadas na proporção de C-12, cuja origem é justamente a queima de hidrocarbonetos.
O carvão gera mais CO2 que petróleo e gás, variando conforme a concentração de carbono, seja o mais jovem (linhito) com 25%, seja o médio (betuminoso) com 66%, seja o mais velho (antracito) com 90%. O oxigênio tem peso atômico de 16 e o carbono de 12, o que faz o CO2 ter um peso molecular de 44, 3,67 vezes mais pesado que o carbono. Logo, a queima de um quilo de carvão antracito, contendo 900g de carbono, gera 3,3 kg de CO2.
Neste caso, o carbono forma duas ligações duplas covalentes, com compartilhamento de elétrons. Mas é na configuração do átomo de carbono que compõe a molécula onde a evidência antrópica avulta. O carbono possui quinze isótopos, mas apenas dois são estáveis, havendo no último século um aumento na proporção de C-12 no CO2 atmosférico em comparação ao C-13. O primeiro é mais leve, tendo seis nêutrons, facilitando o processo de fotossíntese, por conta do efeito isotópico cinético, sendo por isso preferido pelas plantas. O segundo é mais pesado e tem origem predominantemente vulcânica, apesar de também compor o tecido vegetal em menor medida.
Além da assinatura isotópica, caso o aumento da temperatura adviesse da atividade solar, a camada da atmosfera mais afetada pelo calor seria a mais externa. Mas ocorre o contrário. A camada mais baixa é a mais afetada. A atividade antrópica emite atualmente 40 bilhões de toneladas de gás carbônico na atmosfera todo ano, dez bilhões a mais que no início do século XXI.
Essa emissão de CO2 se intensificou na revolução industrial. Na primeira fase, James Watt aperfeiçoou o motor a vapor de Newcomen, que usava carvão mineral como combustível, criando nele um segundo cilindro. Isso lhe conferiu um rendimento muito maior. Na segunda fase, adveio a invenção do motor a combustão interna para locomoção de veículos. Durante cem anos, do final do século XVIII até o final do século XIX, houve uma intensa corrida de patentes para novos motores, desde o primeiro motor de combustível líquido de Robert Street em 1794 até o motor por compressão de Rudolf Diesel em 1892. Na terceira fase, surgiram os motores elétricos.
Além da eficiência dos motores, as fases da revolução industrial também tiveram avanços na eficiência dos combustíveis. De fato, a eficiência de um motor é maior quando a razão de compressão aumenta. A diferença entre a explosão e a detonação é a velocidade de combustão. A explosão dentro do cilindro exerce uma força constante no pistão, semelhante à força que um ciclista impõe ao pedal da bicicleta. Já a detonação é como se o ciclista tentasse conduzir a bicicleta dando marteladas nos pedais. A octanagem mede a capacidade do combustível operar com uma alta razão de compressão sem detonação. A cada década, os motores e combustíveis se tornam mais eficientes e menos poluentes.
Apesar disso, existe um forte apelo para o total abandono dos motores a combustão na transição energética. O custo desta transição possui estimativas que giram em torno de 130 trilhões de dólares a 275 trilhões de dólares, como o custo previsto no relatório da McKinsey. No entanto, estes custos não levam em conta o avanço tecnológico em energias limpas, que baixaram muito os custos de implantação, além do advento de novas tecnologias para sua adaptação, como o balanceamento de carga otimizado por computador e as redes elétricas inteligentes. Os custos dos desastres ambientais evitados também não entraram na conta.
II - Panorama Atual das Mudanças Climáticas.
A energia e a massa são intercambiáveis, conforme a equação de Einstein. Já pela Segunda Lei da Termodinâmica, tanto a energia quanto a massa se movem de áreas de maior concentração, como a Terra e a baixa atmosfera, para áreas de menor concentração, como o espaço. Logo, a atmosfera mantém o equilíbrio hidrostático entre a força da gravidade direcionada para o centro e a força de empuxo em direção ao espaço.
Mas há equilíbrios no planeta que estão desregulados. A diferença de temperatura entre as camadas da atmosfera em decorrência da difusão da energia solar origina o movimento dos ventos na Terra. Da mesma forma, a diferença de temperatura no decorrer da heliosfera impulsiona o vento solar que chega ao planeta. Um corpo em equilíbrio térmico emite a mesma quantidade de calor que recebe. No estágio atual, a Terra está em desequilíbrio térmico, pois emite menos do que recebe, absorvendo constantemente na superfície parte do calor que chega do Sol.
Considerando o balanço de energia radiativa, compensando o que entra e o que sai da Terra, o cálculo da temperatura na superfície seria de 255 K, ou -18ºC, bem inferior à temperatura média global observada, que é de 288 K, ou 15ºC, uma diferença de 30ºC atribuída ao efeito estufa. Coincidentemente, a temperatura na atmosfera varia de 15ºC na superfície até -18ºC na troposfera.
A temperatura na atmosfera se assemelha a um sanduíche. A estratosfera aumenta a temperatura com a altitude, por conta da maior concentração de ozônio, que absorve radiação solar ultravioleta. No lado oposto, a troposfera inferior está próxima à superfície, absorvendo a radiação infravermelha da Terra. Entre ambas, a troposfera superior não contém ozônio nem está próxima à superfície, tornando-se mais fria.
A destruição do ozônio causa o resfriamento da estratosfera, concomitantemente ao aquecimento da troposfera inferior. No último século, aquela resfriou 0,5 K por década, ao passo que esta aqueceu 0,5 K por década. Essas medidas de temperatura foram aprimoradas nos últimos anos. O AR5 do IPCC, lançado em 2013, atribuía baixa confiança à quantificação da taxa de aquecimento e resfriamento da atmosfera. Já o AR6 melhorou o grau de confiança, principalmente dos registros após 2001, com a incorporação de dados de Rádio Ocultação do Sistema Global de Navegação por Satélite (GNSS).
Para fins didáticos, chamaremos o problema atual de “desajuste climático”, em contraposição às flutuações, mudanças e tendências climáticas. Esses três últimos conceitos fazem parte de ciclos naturais da Terra. Estudos recentes demonstraram que as flutuações climáticas, e até mesmo as mudanças climáticas, são essenciais para a manutenção das condições de vida, desde que sigam a tendência climática. Mas a liberação desmedida de gases do efeito estufa causa um desajuste nessa tendência, desregulando intensamente o clima na escala humana. A Terra possui mecanismos naturais para o retorno gradual às suas tendências históricas, mas somente depois de vascolejar a população com inúmeros eventos extremos.
Apesar do histórico de mudanças climáticas, dois efeitos evidenciam a impressão digital humana, um da química e outro da física: o efeito isotópico cinético e a fluorescência de fótons.
Como a troposfera esquenta mais que a estratosfera, isso exclui os vulcões e o Sol como culpados. A hipótese do aquecimento global remonta aos primeiros experimentos realizados em 1856. Para se tornar uma teoria, passou pelos estágios anteriores, amadurecendo até tornar-se um consenso entre os climatologistas. Contudo, em termos epistemológicos, a correlação entre a emissão de CO2 antropogênico e o aquecimento global deve ser falseável.
Em 1993, 50 membros da Sociedade Meteorológica Americana assinaram uma carta intitulada “Conspiração, Consenso ou Correlação? O que os cientistas pensam sobre a ‘visão popular’ do aquecimento global” (P. Michaels, Revisão do Clima Mundial, 1993). A carta tinha a forma de manifesto, onde os cientistas expressaram sua discordância com a ideia de que “o aquecimento global catastrófico decorre da queima de combustíveis fósseis e requer ação imediata”, classificando-a de “teoria altamente incerta”.
Desde o século XIX, sabe-se que o CO2 retém calor, enquanto os gases mais comuns da atmosfera, como Oxigênio (O2) e Nitrogênio (N2), não retêm. Para falsear a teoria seria necessário realizar experimentos revisados cujas conclusões desvinculassem as toneladas de CO2 antropogênico emitidas nos últimos dois séculos do aquecimento observado na superfície do planeta, ou o atribuísse às emissões naturais. Neste caso, no entanto, restaria o dilema de apontar o destino de todo o CO2 emitido pela atividade industrial, que não pode ser simplesmente descartado.
É preciso salientar que tanto a atmosfera quanto o oceano são dinâmicos, alterando-se constantemente por processos naturais. Logo, constatar mudanças fora do padrão é bastante desafiador. Mas houve um progresso recente com o uso de algoritmos de aprendizado profundo para processamento do enorme conjunto de dados de observações oceânicas e atmosféricas. O oceano global modifica-se continuamente por movimentos verticais e horizontais, que decorrem da diferença nos gradientes de temperatura e salinidade, que variam conforme a latitude, longitude e profundidade.
Segundo expõem Lynne D. Talley e colaboradores:
“A SST (temperatura média da superfície do oceano aberto) é expressa como uma média de todas as longitudes e exibida como um função da latitude, diminuindo de 28ºC logo ao norte do equador para quase -1,8ºC perto do gelo marinho em altas latitudes. Essa distribuição corresponde intimamente à entrada de radiação de onda curta (principalmente do Sol), que é mais alta nos trópicos e mais baixa em altas latitudes…Os processos verticais que afetam a termoclina são a transferência de calor para baixo da superfície do mar e a ressurgência ou subssurgência (dependendo da localização no oceano e do que cria o movimento vertical). Pode-se esperar que, como as águas superiores são mais quentes, o calor seria transferido para baixo por difusão, apesar do efeito inibidor da estabilidade na picnoclina/termoclina, e que a diferença de temperatura entre as camadas superior e inferior acabaria desaparecendo. No entanto, as águas frias mais profundas são alimentadas continuamente pelas águas superficiais de altas latitudes (regiões de formação de águas profundas, principalmente no norte do Atlântico Norte, no Mar da Groenlândia e em várias regiões ao redor da Antártica). Essas entradas profundas mantêm a diferença de temperatura entre as águas superficiais quentes e as águas profundas frias. As águas profundas emergem e aquecem por meio da difusão descendente de calor. Se a ressurgência das camadas mais baixas para perto da superfície ocorrer por todo o oceano, a velocidade ascendente seria de 0,5-3,0 cm/dia. Infelizmente, essas velocidades são muito pequenas para serem medidas com precisão com os instrumentos atuais, então não podemos testar a hipótese diretamente. O resultado da difusão vertical descendente de calor equilibrada por essa ressurgência persistente das águas frias mais profundas resulta em um perfil vertical exponencial de temperatura, que se aproxima do formato da termoclina permanente.” (“Descriptive Physical Oceanography”, editora Academic Press, 6º edição, 2011, item 4.2.3)
O estudo da Lua também é de suma importância para o entendimento do movimento dos oceanos. Neste tema, William Lowrie e Andreas Fichtner observam:
“Investigações modernas da Lua foram realizadas a partir da Terra e naves espaciais em órbita. O alcance a laser fornece medições muito precisas da distância Terra-Lua, que tem sido monitorada no experimento LLR desde 1969. Painéis retrorrefletores foram instalados em cinco locais na Lua por astronautas das missões americanas Apollo 11, 14 e 15, e por módulos de pouso remotos das missões Luna da União Soviética. Um feixe de pulsos de laser rápidos e curtos transmitidos da Terra é refletido pelos refletores exatamente de volta ao longo de seu caminho. O tempo de viagem bidirecional de um pulso é medido com precisão; ele viaja na velocidade da luz e, portanto, a distância de um refletor da Terra pode ser determinada.” (“Fundamentals of Geophysics”, editora Cambridge University Press, 3ª edição, 2020, item 1.5.4)
A escala selenológica mede o tempo lunar com base em marcadores geomorfológicos, como crateras de impacto, vulcanismo e erosão, definindo-se cinco períodos espevificos com nomes sugestivos: pré-Nectário, Nectário, Imbriano, Eratostheniano e Copernicano. A Lua é atualmente o único corpo do sistema solar do qual os humanos possuem amostras de rochas com um contexto geológico conhecido.
Mais à frente, os autores arrematam:
“Geólogos há muito tempo estão cientes da condição dinâmica da Terra. Várias hipóteses tentaram explicar os mecanismos subjacentes. No final do século XIX e início do século XX, a ortodoxia geológica favoreceu a hipótese de uma Terra em contração. Acreditava-se que as cadeias de montanhas se formavam em sua superfície encolhida como rugas em uma maçã dessecada. Deslocamentos tectônicos horizontais eram conhecidos, mas eram considerados um subproduto de movimentos verticais mais importantes…Uma nova escola de pensamento surgiu na qual a construção de montanhas era retratada como uma consequência de deslocamentos horizontais…No final do século XIX, os geólogos descobriram que as rochas podem carregar um registro estável da direção do campo geomagnético no momento de sua formação. A partir da direção da magnetização, é possível calcular a posição do polo magnético naquele momento; isso é chamado de posição do polo geomagnético virtual (VGP)...A hipótese do dipolo axial geocêntrico pode ser verificada para rochas e sedimentos de até alguns milhões de anos, mas sua validade tem que ser assumida para épocas geológicas anteriores. No entanto, a autoconsistência dos dados paleomagnéticos e sua compatibilidade com reconstruções continentais argumentam que a hipótese do dipolo axial também é aplicável ao antigo campo magnético da Terra…Evidências geofísicas por si só não produzem movimentos absolutos de placas. A sismicidade atual reflete o movimento relativo entre placas contíguas, padrões de anomalias magnéticas oceânicas revelam movimento de longo prazo entre placas vizinhas, e o paleomagnetismo não resolve deslocamentos em longitude em torno de um paleopolo. (“Fundamentals of Geophysics”, editora Cambridge University Press, 3ª edição, 2020, item 2.9.1)
O vulcanismo também é um importante contribuinte para o sistema Terra-oceano-atmosfera. O vulcanismo ativo é normalmente lembrado apenas quando ocorrem grandes erupções, mas há uma atividade constante que contribui para a regulação do clima planetária.
O dimetilsulfeto (DMS) é um gás emitido naturalmente no oceano que pode afetar o balanço radiativo da Terra, alterando o albedo das nuvens. Expondo o ciclo do DMS em modelos climáticos, Peter S. Liss e Martin T. Johnson asseveram:
“A (in)capacidade dos modelos de prever o máximo de DMS de verão que é frequentemente observado em latitudes baixas a médias, pareceu afetar significativamente as estimativas das emissões globais de DMS previstas pelos modelos. Uma conclusão importante desta intercomparação foi que os modelos DMS prognósticos precisam dar mais peso ao impacto direto da força ambiental (por exemplo, irradiância) na dinâmica do DMS para dissociá-lo dos processos ecológicos…A variação nos resultados do modelo ilustra o quão importante é melhorar nossa compreensão dos processos subjacentes do ecossistema.” (“Ocean-Atmosphere Interactions of Gases and Particles”, editora Springer Open, 2014, item 1.2.1.3).
John M. Wallace e colaboradores expõem a comparação corriqueira da circulação geral na atmosfera com o funcionamento de uma máquina térmica, explicando:
“Em média, sobre a massa da atmosfera, a circulação geral se comporta como uma máquina térmica, recebendo energia em uma temperatura mais alta e perdendo-a em uma temperatura mais baixa, e realizando trabalho. A energia é adicionada principalmente pelos fluxos de calor latentes no limite inferior. O calor latente é transformado em calor sensível quando o vapor de água condensa em regiões de convecção cúmulo profunda e em regiões de ascensão estratiforme em ondas e ciclones. A energia é perdida principalmente pela emissão de radiação infravermelha para o espaço. O trabalho realizado pela máquina é equivalente à geração de energia cinética pelo fluxo horizontal através das isóbaras de pressão mais alta para mais baixa.” (“The Atmosphere General Circulation”, editora Cambridge University Press, 2023, item 2.5)
De uma maneira geral, a pesquisa climática necessita se aprofundar em inúmeras variáveis que afetam o clima, como: a transferência radiativa através da atmosfera; o equilíbrio radiativo; o papel das gases vestigiais, como vapor d’água, dióxido de carbono e ozônio; os mecanismos físicos por trás da absorção seletiva de frequências de ondas longas por moléculas poliatômicas, como é o caso do CO2; o efeito das nuvens na transferência radiativa e a influência do conteúdo de água e do raio das partículas que as formam; o equilíbrio radiativo-convectivo e o efeito de diferentes tipos de nuvens no balanço energético e na temperatura da superfície.
O AR6 do IPCC divulgou que é muito provável que o aquecimento global aumente de 1ºC a 1,8ºC até 2100 em um cenário de baixa emissão de gases do efeito estufa. Num cenário intermediário, o aumento seria de 2,1ºC a 3,5ºC. E no pior cenário, o aumento pode variar entre 3,3ºC e 5,7ºC. Com isso, até um terço do planeta se tornará igual ao Saara. Além do calor e da seca, um aquecimento desta ordem pode desencadear frio intenso e ondas de ciclones-bomba, que ocorrem quando a pressão atmosférica no centro do ciclone cai até 24 milibares em menos de 24 horas. Estes ciclones causam os chamados “ice jams”, ou congestionamentos de gelo, com grandes pedaços de gelo bloqueando o fluxo de rios, causando inundações. Estes eventos também podem causar “frostbite”, uma redução no fluxo sanguíneo para as extremidades do corpo como resposta ao frio, causando a morte do tecido e amputação de membros.
Os modelos climáticos atuais utilizam várias derivadas parciais, que envolvem leis de conservação do momento, da energia, da massa, da água e do calor. Na sua forma básica, os modelos possuem 16 variáveis, que vão desde temperatura e velocidade até o vetor de radiação e a rotação da Terra, podendo acoplar outras variáveis, como a fricção do vento na superfície. Apesar deste avanço metodológico, ainda não foi possível chegar a uma solução geral das equações de Navier-Stokes, mesmo após um século de esforços. Essa dinâmica pode conter singularidades com pontos intrinsecamente incognoscíveis.
Os modelos de circulação geral (GCMs) contendo apenas as forçantes climáticas naturais são incapazes de reproduzir o aquecimento observado no século XX. É necessário incluir as influências antropogênicas para se chegar a um resultado condizente com as medições.
A época com a melhor combinação de extensa documentação e grande magnitude de mudanças climáticas é o Último Máximo Glacial (LGM), que juntamente com os períodos glaciais e interglaciais anteriores, está associada aos ciclos de variações orbitais de Milankovitch, que podem ser usados para inferir a sensibilidade de um futuro clima aquecido. No entanto, o clima LGM ainda não é tão conhecido, pelo menos não o bastante para modelá-lo em um Modelo Climático Global (GCM), dada a não linearidade do sistema climático e as anomalias de eventos extremos.
A computação científica utiliza dezenas de modelos sofisticados para as projeções climáticas. Há um constante aperfeiçoamento dos modelos, que devem levar em conta diversos fatores difíceis de mensurar, como a diferença nas propriedades térmicas das superfícies continentais e oceânicas, as variações topográficas, as transformações de energia na atmosfera e os movimentos dos ventos em diferentes direções, tanto na horizontal quanto na vertical, com distintas escalas de calor, momento, umidade, velocidade e energia, como furacões e ciclones.
De fato, há muito o que ser compreendido no clima da Terra, como a interação da convecção com a circulação geral em diferentes ambientes termodinâmicos. Outros fatores incluem os aerossóis, a radiação e a forma como as nuvens interagem com a turbulência para determinar a presença ou ausência de nuvens estratos-cúmulo marinhas. É preciso compreender ainda o impulso que se manifesta na camada limite, que é a área onde ocorre o atrito entre a atmosfera e a superfície da Terra, implicando diferentes transferências de momento, conforme a camada seja continental ou oceânica.
Os modelos dos sistemas terrestres (ESM) demonstram que a biosfera não só responde às alterações climáticas, como também influencia diretamente a direção e magnitude dessas alterações. Com o advento dos modelos de sistemas terrestres, a ciência do clima não se limita apenas à base física das projeções climáticas, passando a incluir projeções da biosfera, como o armazenamento de carbono na terra e no oceano, a extinção das florestas, os incêndios florestais, o rendimento das colheitas e a captura de peixes e outros recursos marinhos.
Esses são os modelos mais completos na evolução contínua de modelos globais envolvendo atmosfera, oceano, criosfera e terra. Os ESMs acoplam módulos de componentes distintos para a física terrestre, atmosférica e oceânica, com a incorporação da dinâmica dos ecossistemas e da biogeoquímica.
Mas ainda persiste o dilema de incorporar os diferentes ciclos dos elementos. Os ciclos gasosos abrangem o carbono, o oxigênio e o nitrogênio. Já os ciclos sedimentares passam pela crosta terrestre e compreendem o fósforo e o enxofre. Os ciclos geológicos incluem o ciclo tectônico, o ciclo da água e o ciclo das rochas, que é causado pelos dois ciclos anteriores.
Uma afirmação corrente é que à medida que o clima aquece, mais água evapora dos oceanos, criando mais nuvens, que refletem mais luz solar, criando assim um feedback negativo que resfriaria a superfície. No entanto, as nuvens não dependem da proporção de mistura do vapor de água. Essa proporção muda drasticamente com a temperatura, segundo a equação de Clausius-clapeyron. De fato, os fatores que realmente influenciam são a umidade relativa, a estabilidade estática e outros fatores ambientais que não variam com o aquecimento. Além disso, nuvens em diferentes altitudes têm efeitos radiativos opostos. Algumas refletem mais luz solar, mas têm pouco efeito na radiação longa, resfriando o planeta. Outras são mais finas, refletindo menos luz solar, mas ficam acima da emissão do céu claro, reduzindo a emissão de ondas longas para o espaço. As mudanças na altura das nuvens e na espessura óptica também contribuem para os feedbacks positivos e negativos no clima.
A comparação entre modelos gerais de circulação atmosféricas de diferentes planetas terrestres também é um recurso válido para o estudo dos efeitos conjugados de diferentes variáveis no clima, como a convecção e liberação de gases do manto, campos magnéticos planetários e a fuga atmosférica. Este recurso não é aplicável a planetas gasosos. Já a dinâmica e a estrutura atmosférica de planetas terrestres são todas governadas pela mesma física básica, podendo ser alteradas as variáveis de entrada, como composição, estrutura interna e radiação solar. Isso permite comparações de processos atmosféricos e de feedbacks, bem como o entendimento das forças motrizes e influências externas no clima da Terra.
Uma boa comparação pode ser feita com Vênus, Marte e Titã, além de planetas terrestres extrasolares, que hospedam muitos processos comuns com a Terra, como as interações de ondas curtas e da radiação térmica com a atmosfera, condensação e vaporização de voláteis, dinâmica atmosférica, química e formação de aerossóis, e o papel da superfície e do interior do planeta na evolução do clima a longo prazo. Esses corpos celestes possuem em comum um clima moldado pela radiação do Sol, embora a distâncias variáveis. E a luz do Sol continua a controlar as temperaturas e composições de suas atmosferas.
Na Terra, existe um equilíbrio latitudinal do aquecimento radiativo. Os trópicos recebem mais luz solar do que o calor que emitem para o espaço, enquanto as latitudes mais altas emitem mais que absorvem. Isto deve ser compensado pelo transporte de calor das latitudes baixas para as altas, mantendo o equilíbrio. Este é o motor fundamental das circulações da atmosfera e do oceano. O componente atmosférico do transporte de calor é realizado principalmente pela circulação de Hadley nos trópicos e por redemoinhos em escala sinóptica criados pela instabilidade baroclínica nos extratrópicos. Baroclínica significa regiões da atmosfera cuja densidade depende da temperatura e da pressão, como as latitudes médias e polares. Se contrapõe ao barotrópico, cuja densidade depende apenas da pressão, como nas regiões tropicais.
Já a circulação oceânica é impulsionada por dois componentes fundamentais. Uma circulação superficial no topo, de até cem metros de profundidade, impelida pela interação friccional com os ventos atmosféricos da superfície e força de Coriolis, e uma circulação termohalina conduzida por gradientes de densidade devido a diferenças de temperatura e salinidade. A circulação termohalina é mais profunda e seu percurso é como uma cobra enroscada, dando três voltas entre os hemisférios norte e sul da Terra. Sua interrupção significaria o pior cenário para as mudanças climáticas. Acoplar os modelos de circulação atmosférica e oceânica em um grande modelo geral é a chave para a compreensão do clima na Terra, tanto que os relatórios de avaliação do IPCC dedicam vários capítulos inteiramente a discutir os modelos numéricos climáticos e seus resultados.
Em meados da década de 1970, foi propagado que a Terra iniciaria um período de intenso resfriamento global, causado pelos aerossóis na atmosfera e por mudanças nas forças orbitais. Mas este cenário foi retratado como uma falácia, já que não refletia a literatura científica da época.
As principais influências antropogênicas sobre o clima da Terra são a emissão de gases do efeito estufa e as alterações no uso da terra, como urbanização e agricultura. Mas quem sobrevoar as regiões do Brasil na poltrona da janela, tanto de dia quanto à noite, perceberá que a maior parte do território nacional não possui urbanização e tampouco agricultura, dada a extensão e o relevo acidentado. China, Índia e África do Sul seguem o mesmo roteiro.
Por outro lado, a vista aérea da Europa mostra um denso conjunto de cidades e de produção agrícola, com enormes círculos adjacentes percorrendo extensas áreas. Já nos EUA, a produção agrícola se concentra no meio-oeste.
As diferenças de urbanização também podem ser constatadas pelas imagens noturnas de satélites. O continente africano possui uma população equivalente ao subcontinente indiano, mas é bem menos iluminado, havendo apenas três pontos visíveis: Lagos, Luanda e Joanesburgo, considerando o Cairo pertencendo ao Oriente Médio. Uma viagem aérea noturna pelo continente revela a existência de poucas luzes em solo, mesmo em regiões densamente habitadas. A necessária inclusão dessas populações no produto e consumo mundiais tensiona a questão climática. Afinal, em termos concretos, nenhuma grande população conseguiu se desenvolver sem aumentar substancialmente o consumo de energia e as emissões de gases do efeito estufa.
Apesar de estarmos todos no mesmo barco, a elevação da temperatura da Terra não obedece aos princípios jurídicos, como a igualdade, atingindo desigualmente as regiões do planeta.
Essa diferença pode ser explicada pelas leis da física, tanto da óptica quanto da termodinâmica. Elas fazem com que a água reflita grande parte da energia do Sol de volta para a atmosfera, enquanto as massas de terra absorvem a maior parte da energia incidente. Logo, é preciso mais calor adicionado para aumentar a temperatura do oceano do que dos continentes. Isso faz com que o aquecimento seja mais intenso em terra do que no mar, principalmente perto do polos, resultando no derretimento da neve e do gelo. Esse derretimento diminui a refletividade da superfície branca, criando novas áreas de terra nos polos, que absorvem mais calor.
Esse ciclo faz com que os polos se aqueçam bem além da média global, elevando a temperatura em mais de 4°C, sendo impulsionado também pelas alterações na circulação oceânica e nos padrões de nuvens. Mas fora dos polos, outras regiões do planeta sofrem elevações de temperatura acima da média, como o Oriente Médio e o norte da Ásia, por conta de mudanças nos padrões de vento e na cobertura de nuvens. De fato, o aumento global de 1,2°C é apenas uma média, havendo concentração em altas latitudes no norte planetário, como Sibéria, Islândia, Alasca e Canadá.
Os oceanos absorveram mais de 90% do aquecimento da Terra desde 1971, através do calor latente, que ocasiona a dilatação térmica volumétrica. A essa dilatação soma-se ainda a expansão decorrente do derretimento do gelo nas calotas polares, que altera a densidade da água. De uma maneira geral, a quantidade de água na Terra permaneceu constante ao longo do tempo, mas esses fatores físicos relacionados à agitação e ao arranjo das moléculas elevou o nível do mar em muitas regiões. Essa elevação ameaça países insulares do pacífico, como Kiribati e Ilhas Marshall, que ficam em atóis, no topo de vulcões extintos, correndo o risco de desaparecer.
Mesmo longe do oceano, há nações que sofrem de forma mais grave os efeitos das mudanças climáticas, principalmente em decorrência da seca, como o Chade, no centro da África, a Síria, no Oriente Médio, e Bangladesh, no sudeste asiático. Além disso, à medida que os oceanos aquecem, diminui sua capacidade de armazenar CO2, pressionando ainda mais a temperatura na troposfera e a frequência de eventos extremos, que atuam como uma válvula de escape planetária quando ocorre desregulação do clima.
De fato, foi contabilizado em 2020 um recorde de 30 furacões no Atlântico Norte, o que despertou suspeitas de que o aquecimento global estivesse por trás desse aumento. No entanto, a NOAA publicou um levantamento em 13/07/2021 na Nature Communications mostrando que o registro de furacões no Atlântico não se alterou nos últimos 150 anos. Mas é consenso de que estão ficando mais intensos e demorando mais para se desfazer na costa. Em 2005, o furacão Katrina atingiu a categoria 5 no mar e 3 em terra, perdurando por oito dias sobre uma extensa área do caribe, de Nova Orleans a Cuba, resultando em 1.392 mortes e mais de uma centena de desaparecidos.
A atribuição de eventos extremos ao aquecimento global é uma tarefa complexa. Em fevereiro de 2024, a costa chilena foi atingida por incêndios intensos que causaram 130 mortes. Um levantamento posterior do WWA mostrou que o aquecimento global não teve um impacto estatisticamente significativo para esse evento extremo. O estudo contou com a participação de pesquisadores brasileiros, e utilizou um índice para medir as condições quentes, secas e ventosas durante quatro dias seguidos (HDWI). Os cálculos mostraram que essa convergência de fatores só ocorre uma vez a cada 30 anos. Logo, tanto a combinação das três variáveis (temperatura máxima, umidade relativa e velocidade dos ventos), quanto seus valores individuais, não indicaram nenhuma tendência significativa.
A ciência da atribuição também não encontrou correlação entre o aquecimento global e os incêndios devastadores na ilha havaiana de Maui em agosto de 2023. Na época, o governador do Havaí atribuiu a catástrofe a um “furacão de fogo” causado pelo aquecimento global. Mas demonstrou-se posteriormente que os incêndios decorreram de uma confluência de fatores, tanto no ar quanto em terra, e poderiam ter sido evitados. De fato, uma onda de calor ficou aprisionada sobre o Havaí por muitos dias. A alta pressão no local e a influência do furacão Dora nas proximidades fizeram com que os ventos alísios na ilha atingissem rajadas fortes e velozes. Essa coincidência rara, cuja ocorrência remonta há mais 40 anos, encontrou uma cobertura de gramíneas extremamente inflamáveis na ilha, decorrendo daí toda a devastação que se seguiu.
De modo geral, a ciência da atribuição não é capaz de responder se um evento extremo foi causado pelo aquecimento global, mas apenas se tornou sua ocorrência mais provável ou mais intensa. Essa área de pesquisa utiliza modelos climáticos de alta resolução, que demandam elevada capacidade computacional e experimentos custosos e prolongados.
Por mais paradoxal que seja, dentre os eventos extremos, a NOAA classifica os incêndios florestais como os de menor confiança na atribuição com o aquecimento global. Por outro lado, ondas de calor e nevascas intensas possuem uma ligação consistente com as mudanças climáticas, tornando-se mais intensas e frequentes.
A onda de calor que atingiu o mediterrâneo em julho de 2024, por exemplo, teve forte correlação com o aquecimento global, tendo uma ocorrência altamente improvável sem essa variável. Essa onda de calor se estendeu de Portugal e Marrocos até a Grécia e Itália, causando 23 mortos.
Os idosos são mais afetados pelas ondas de calor, devido à sua capacidade reduzida de regular a temperatura corporal. A insolação causa a dilatação dos vasos, para o sangue fluir para as extremidades. Sem reidratação, o coração fica sobrecarregado, fazendo a pressão arterial despencar, levando à falência dos órgãos. A insolação ocorre quando a temperatura ambiente excede a temperatura de 37,5°C do corpo humano, dificultando a transpiração. Isso se deve porque o suor é evaporado pelo calor do ar, e não pelo corpo. Na insolação, o corpo não consegue manter a temperatura, levando ao inchaço do cérebro e danos no coração, rins e músculos.
Quando a temperatura do corpo alcança 40°C, o estado mental fica alterado, com delírios e convulsões. O estresse térmico também aumenta a frequência cardíaca. Em crianças e adolescentes, o sistema nervoso central ainda não está totalmente desenvolvido, sendo mais vulnerável a danos em virtude do aumento da temperatura. Já os idosos possuem um sistema nervoso central mais vulnerável devido ao tempo, sendo mais propensos a danos provocados pelas ondas de calor. Os diabéticos também são atingidos fortemente pelas ondas de calor, havendo mais de 13 milhões no Brasil.
Os efeitos do aquecimento global pressionam ao extremo a homeostase, que regula a resposta corporal às alterações no corpo. Dentre outras funções, ela promove o nivelamento de glicose. Quando a glicose está alta, o pâncreas libera insulina. Já quando a glicose está baixa, o fígado converte glicogênio em glicose, retomando o nível. No calor, os mecanismos fisiológicos de termorregulação da homeostase liberam suor, que evapora e resfria o corpo, excretando toxinas.
É preciso substituir esse excesso de eventos extremos por métodos eficazes de Engenharia Climática, auxiliando o planeta de forma ativa.
Em termos de psicologia social, a emergência dos eventos extremos atribuídos ao aquecimento global contrasta com a mentalidade imediatista disseminada mundialmente, que encara com desdém os “possíveis” eventos futuros, principalmente diante dos problemas destrutivos mais imediatos, que não possuem relação com o aquecimento global. A própria Itália, atingida pela onda de calor citada acima, sofreu um tremor de terra de magnitude 6,2 em 2017 que resultou em mais de 300 mortos.
Em 2023, o terremoto na Turquia deixou quase 60 mil mortos e mais de cem mil feridos, resultando num rastro de destruição que atingiu até o castelo de Gaziantep, construído no império romano. O tremor no Japão em 2011, seguido por um tsunami, matou mais de 15 mil pessoas. O terremoto no Haiti um ano antes deixou impressionantes 316 mil mortos. O terremoto na China em 2008 resultou em 87 mil mortes. O tsunami de 2004 no Oceano Índico causou 230 mil mortes. O terremoto no Irã em 2003 deixou 31 mil mortos. E em 1985, a capital do México foi varrida por um tremor com dois minutos de duração, que deixou até 10 mil mortos e um rastro de destruição.
Somam-se os milhões de mortos da pandemia de COVID-19, surtos anuais de dengue, malária e febre amarela, além de soterramentos constantes no início das quadras chuvosas. E em muitos locais do mundo ainda há uma convivência diária com a violência armada e o terrorismo. Diante desses problemas, não é de se admirar que o aquecimento global seja encarado como uma questão secundária por boa parte da população.
Em 1920, morreram cerca de 500 mil pessoas em desastres climáticos. Um século depois, em 2021, foram registradas 7 mil mortes pela mesma razão. Alguns levantamentos indicam que no período de 40 anos, entre 1980 e 2020, os Estados Unidos registraram 273 catástrofes meteorológicas, com uma média de cerca de 70 por ano, a um custo estimado em trilhões de dólares. O país é o maior poluidor per capita do mundo, e os eventos extremos em seu território estão se tornando mais intensos e prolongados, como tornados, ciclones, anticiclones, nevascas, snowpocalypse, furacões e ressacas de furacões. Estas perduram por anos, como a ressaca de furacão que atingiu as Carolinas entre os anos de 2015 e 2019, causando inundações recorrentes.
O supertufão Haiyan, que atingiu as Filipinas em 2013, teve rajadas de vento de 370 km/h, e a chuva em Zhengzhou na China em 2021 chegou a 550 mm em menos de 24 horas, mostrando que os piores cenários das mudanças climáticas já são uma realidade. Com isso, propostas de geoengenharia passaram a ser encaradas com seriedade e urgência.
III - Cenários Futuros.
Os animais e plantas já estão se adaptando ao aquecimento global. Muitas plantas estão florescendo mais cedo na primavera e as aves estão procurando novas rotas migratórias. O pássaro chapim-real já antecipou seu ciclo de alimentação e de postura de ovos.
A atual concentração de CO2 na atmosfera passou de 420 ppm. A de metano se aproxima de 2.000 ppb, sendo a maior parte antropogênica. E a de N2O está chegando em 350 ppb.
Os melhores climas para a agricultura serão deslocados para o norte. O cinturão do milho no centro-oeste dos Estados Unidos vai se mudar para o Canadá, que não tem o solo apropriado para essa cultura. De igual maneira, serão atingidas as extensas áreas de produção agrícola do centro-oeste do Brasil. A agricultura necessita da junção de clima e solo apropriados. E o deslocamento do clima evidentemente não será acompanhado do deslocamento do solo. Mesmo que houvesse a redução imediata de 80% na emissão de gás carbônico, ainda levaria décadas para a inversão climática.
As mudanças climáticas podem elevar o Delta do Mekong, rio que corta seis países na Ásia e que é lar de mais de 60 milhões de pessoas, acabando com as vastas plantações de arroz na sua margem.
A agricultura intensa afeta o clima global, atingindo o albedo continental, a rugosidade da superfície, as trocas de dióxido de carbono na natureza, além de emitir gás carbônico em excesso para a atmosfera, por depender dos combustíveis fósseis em seus processos. Os fertilizantes utilizados na agricultura também emitem compostos nitrogenados.
Nos últimos anos, aumentou bastante o risco de explosão de bombas climáticas, como a alteração radical da corrente oceânica do Golfo e o degelo do permafrost, que pode lançar quantidades colossais de gases do efeito estufa na atmosfera. Na Antártica Ocidental ficam as geleiras Pine Island e Thwaites, conhecidas como geleiras do juízo final, uma vez que seu derretimento pode aumentar o nível do mar em até 3 metros. E 8 das 10 maiores cidades do mundo são costeiras. A eustasia, que é a fusão de glaciares e calotas polares, também altera o volume de água no oceano global, ocasionando a chamada transgressão, com o avanço do mar na costa. Paradoxalmente, a superfície do mar não é plana, assemelhando-se ao relevo na terra. Nos Estados Unidos, por exemplo, foi constatado que o mar na costa oeste é mais alto que na costa leste.
A literatura aborda esses efeitos no passado. Na obra “A Próxima Supertempestade Global” publicada em 1999, os autores argumentam que um bloqueio da Corrente do Golfo causado pelo derretimento das calotas polares pode liberar uma inundação de ar congelante vinda do Ártico. Segundo eles, esse fenômeno já teria ocorrido outras vezes na história, e citam como evidência as ruínas de Nan Madol, na Micronésia. Neste sítio histórico existem templos feitos de blocos de basalto pesando até 50 toneladas, além de túneis submersíveis. Esses feitos de engenharia só poderiam ser realizados por uma civilização avançada, mas nenhuma consta nos registros modernos. Logo, a civilização de Nan Madol só pode ter sido extinta repentinamente por uma onda congelante. Eles reforçam a ocorrência desse fenômeno climático com a análise dos fósseis de mamutes peludos, que foram mortos com comida na boca ou não digerida no estômago. Os autores dizem que eles foram congelados subitamente por uma nevasca global.
Na ficção popular, um cenário extremo foi exibido no filme distópico “Soylent Green”, lançado em 1973. O enredo retrata o mundo em 2022 como um lugar quase inabitável por conta do efeito estufa, com convulsões sociais em Nova Iorque após uma catástrofe climática, com o planeta abarrotado com 20 bilhões de habitantes. Relatórios oceanográficos secretos revelam que os oceanos estão morrendo e não produzirão mais o plâncton a partir do qual o Soylent Green, o alimento das multidões, é fabricado. O final do filme é típico de um armagedon climático, com os corpos dos mortos servindo de alimento para os vivos. Apesar do roteiro fictício, a explosão populacional tão em voga nos anos de 1970 felizmente não se concretizou.
O Direito da Engenharia Climática também deve aprender com o histórico de propostas mirabolantes, como as que buscaram a fragmentação de furacões com bombas atômicas, ou o uso de bombas termonucleares em vulcões e meteoros, que podem lançar partículas radioativas sobre a Terra. Já tentaram usar compostos químicos no passado, semeando as nuvens do furacão, mas o programa falhou e foi abandonado na década de 1980.
Propostas mais arrojadas buscam colidir os furacões um contra o outro, causando o efeito Fujiwhara. Por meio dele, os dois furacões começam a girar em torno de um centro comum, até que o furacão menor é absorvido pelo furacão maior. Considerando as diferenças de magnitude, o efeito Fujiwhara se assemelha ao canibalismo galáctico, quando a colisão de galáxias faz com que a maior absorva a menor por meio da interação gravitacional.
Um alerta na cultura popular foi dado no último episódio do seriado “Família Dinossauro”, que foi ao ar em 1995. O episódio teve um tom fúnebre e sem piadas, o que desagradou os fãs. No enredo, a solução encontrada para a mudança do clima foi jogar bombas em vulcões, criando erupções por todo o planeta. Mas não apareceram nuvens chuvosas, e sim nuvens cinzentas de gás sulfúrico que cobriram o céu e bloquearam a luz solar. Logo, os métodos de Engenharia Climática devem levar em conta os efeitos inesperados que podem ocasionar.
No extremo, caso a temperatura do oceano aumente para impressionantes 48ºC, é possível que haja a formação de um hipercano, um mega furacão que chegaria até a estratosfera superior, com rajadas de vento próximas a 1.000 km/h. Isso equivale à vazante próxima ao local de detonação de uma bomba atômica. Sua área de tempestade pode ser pequena, em torno de 25 km², com um olho de 300 km de diâmetro, mas seu sistema atmosférico pode ter milhares de quilômetros, cobrindo todo o território do Brasil. O hipercano pode durar várias semanas, e suas águas podem induzir a formação de outros hipercanos. Ele pode atingir até 30 km de altura, transformando o ozônio em oxigênio. Esses megafuracões já foram documentados na história, formando-se pelo impacto de meteoros, como o que dizimou os dinossauros, e com erupções de supervulcões subaquáticos.
É preciso considerar esses efeitos no ecossistema e biodiversidade. Existem previsões plausíveis de que todas as espécies atualmente ameaçadas de extinção serão extintas em um século, o que pode corresponder a 75% dos animais atuais. A extinção é um processo natural, mas está sendo acelerado pelo aquecimento global. De fato, a endogamia cria um pool genético superficial com pouca variedade, deixando os indivíduos com baixa saúde genética e poucas chances de sobreviver à seleção natural. A extinção também pode ser o resultado simples da competição entre espécies. Esse processo pode ser acelerado quando ocorre a introdução de espécies invasoras ou secas anormais. E há a extinção decorrente da especiação. Afinal, se um ramo da árvore da vida se divide em dois, o ancestral comum evidentemente se extingue.
Mas há casos promissores de preservação. Os Condores-da-Califórnia estiveram à beira da extinção, chegando a existir apenas 22 exemplares, até que um filhote fecundado na natureza emplumou e formou descendentes, evitando a extinção da espécie.
As Harpias também habitavam extensas regiões do Brasil ao México, mas hoje há poucos exemplares encontrados exclusivamente na Amazônia. Sua caça indiscriminada está vinculada à crença equivocada de que essa ave de rapina rouba e come crianças. De fato, os bugios fazem parte de sua dieta, mas os humanos não. Essa crença infundada somou-se à perda de habitat, levando a espécie a constar na Lista Vermelha de Espécies Ameaçadas, na classificação vulnerável. Essa postura se assemelha aos prêmios dados pela caça aos tubarões no Brasil, que buscam promover o turismo no litoral. Mas os tubarões são peças-chave no controle das águas-vivas.
A definição de equilíbrio ambiental, para ser científico, deve significar estável e não estático. De fato, alguns lagos alternam constantemente seu estado entre cristalino e coberto de escuma, simplesmente em decorrência de batalhas entre diferentes espécies de algas.
Charles Elton teorizou em 1927 a existência de uma teia alimentar na natureza. Nela, as plantas fazem o papel de produtoras de energia, que é retida nas ligações químicas das moléculas de carboidratos a partir da luz solar. Essa energia é transferida para os demais níveis tróficos, até os saprótrofos, como bactérias e fungos, que decompõem a matéria orgânica. Mas a maior parte dessa energia é perdida pelo calor e pelos dejetos. A eficiência desse processo é de apenas 10%. Por isso, os ecossistemas contêm muitas plantas e poucos predadores, e as cadeias alimentares são curtas, com no máximo quatro ou cinco níveis.
Os ecossistemas não são localizações geográficas, como os habitats. Eles são sistemas termodinâmicos governados pelas leis da física. Os fluxos de energia e de biomassa são tidos como entidades equivalentes, assim como na equação de Einstein. Os ecossistemas não são fechados, havendo peças móveis, como aves migratórias e peixes que crescem em corais antes de irem para o mar. Eles são tratados como sistemas termodinâmicos fechados apenas para facilitar o estudo das complexas interações que o regem.
No futuro próximo, até o organismo humano terá que se valer dos mecanismos evolutivos para desenvolver uma defesa contra a matéria particulada ultrafina. Com diâmetro inferior a um micrômetro, ela passa pelas membranas corporais, causando graves problemas pulmonares e cardiovasculares, que são as maiores causas de mortes no mundo.
Um cenário com maior aumento na temperatura pode trazer ondas de calor prolongadas, secas e eventos extremos recorrentes. O planeta pode se tornar incapaz de hospedar vida selvagem. Tempestades de categoria 5 podem ser rotineiras. A agricultura estará ameaçada, e atingirá tanto os principais grãos, como milho, soja, trigo e arroz, como as culturas especiais, como café, uva e cacau.
A intensa variação atmosférica, com ventos mais fortes, pode acelerar a taxa de rotação da Terra, encurtando o dia em até um milissegundo. A inércia rotacional da Terra é geralmente afetada apenas por grandes impactos, como o que criou a Lua. O giro axial da Terra já encurtou o dia em 1,59 milissegundos.
Mas esses cenários ainda não despertaram a atenção da população, com as mudanças climáticas virando programas turísticos. De fato, muitas agências oferecem pacotes para a observação do derretimento da neve nas altas cadeias de montanhas ou o espetáculo de desprendimento do gelo nas geleiras polares, principalmente no Ártico. O subártico também tem sofrido erosão glacial por arrancamento e abrasão.
Esses efeitos já são perceptíveis na economia, ocasionando dupla explosão inflacionária, decorrente tanto das mudanças climáticas quanto das medidas de mitigação. Como exemplo, às 02h00mim da manhã do dia 26 de setembro de 2022, explodiram três dos quatro dutos do gasoduto Nord Stream, que se estende por 1.200 km sob o mar, cessando o fornecimento de gás natural para grande parte da Europa. Isso fez o preço do gás chegar a 340 euros por megawatt-hora. Como resposta, sanções econômicas atingiram o petróleo e carvão russos, mas pouparam o gás. Em 31 de agosto de 2022, três semanas antes da explosão, o gasoduto já havia sido desativado. Mas com o incidente, o governo russo pode alegar força maior e evitar as pesadas multas contratuais. Com o avanço das investigações, as evidências demonstraram que a explosão foi causada por ucranianos a bordo de um iate.
O corte no fornecimento de gás à Europa forçou seus habitantes a recorrerem à lenha. Mas o estoque de árvores lenhosas leva de seis meses a um ano para reposição. Além disso, a queima de lenha emite fuligem prejudicial à saúde e ao meio ambiente.
Essa explosão inflacionária climática irá se somar ao já enorme passivo global, que ultrapassa a casa de 315 trilhões de dólares, tendo aumentado 100 trilhões só na última década, segundo o IIF - Instituto de Finanças Internacionais, o que equivale a três vezes o PIB mundial. Só a dívida pública global ultrapassou a casa de 100 trilhões de dólares, encargos esses que recairão sobre as novas gerações.
VI - Propostas de Geoengenharia
O relatório NCA5 dos Estados Unidos publicado em novembro de 2023 constatou uma queda na emissão de gases do efeito estufa de 12% entre 2005 e 2019, um ritmo muito lento para reverter o aquecimento do planeta.
Para intensificar as medidas de mitigação, novas alternativas foram implementadas, mas sem efeito prático. A Noruega adotou um imposto para o carbono, mas ainda assim viu suas emissões aumentarem. No Japão, até mesmo cidades como Tóquio e kyoto, baluartes da preocupação climática, também aumentaram suas emissões em decorrência da necessidade de crescimento.
Dentre as medidas de mitigação mais drásticas está a concessão de licenças de carbono, com limitação diária de emissão, juntamente com um sistema de bandeiras, similar ao usado no consumo de energia elétrica, com as cores vermelha, amarela e verde. A medida seria acompanhada de sanções para quem descumprisse a cota diária, como multas e cortes na permissão, a exemplo do que foi adotado no racionamento de energia no Brasil em 2001.
O ritmo lento e a ineficácia dessas medidas estimularam propostas no sentido oposto. De fato, se não é possível reduzir as emissões a tempo, as opções restantes são capturar os gases emitidos, expulsá-los da atmosfera ou impedi-los de causar o efeito estufa. Daí emergem as propostas da Engenharia Climática.
A geoengenharia não é uma ideia nova. A semeadura de nuvens para precipitação, por exemplo, existe desde 1890. Mas o que foi produzido até hoje sobre geoengenharia pode ser lido num voo transatlântico.
Os relatórios do IPCC abordam vagamente a geoengenharia, indicando que a modificação da radiação solar poderia compensar os efeitos do aumento dos gases do efeito estufa no clima global e regional, assim como nos ciclos do carbono e da água. O AR6 do IPCC é composto de três relatórios separados sobre as mudanças climáticas, tratando sobre o estado físico atual, o impacto causado e as ações de mitigação.
O Sumário do AR6 do IPCC inicia falando de períodos de tempo de 2 mil a 800 mil anos atrás e calcula uma população vulnerável entre 3,3 e 3,6 bilhões de pessoas. O relatório especifica que a temperatura média da Terra subiu 1,09ºC desde a era pré-industrial, e que uma catástrofe iminente está por vir. O relatório de mitigação foi feito pelo Grupo de Trabalho 3, tendo mais de 2 mil páginas divididas em 17 capítulos e anexos.
O glossário do relatório diferencia “mudança climática” de “variabilidade climática”. Esta última é dividida em intrínseca e extrínseca. A primeira ocorre por meio de flutuações de processos internos do sistema climático, enquanto a segunda é causada por variações naturais ou antropogênicas.
O relatório de mitigação cita a geoengenharia quando trata das emissões associadas ao comércio internacional, definindo suas propostas como uma “ampla classe de tecnologias especulativas”. O relatório trata diferentemente as propostas de remoção de CO2 da atmosfera, conhecidas como CDR, das modificações da radiação solar, conhecidas como SRM, por terem características geofísicas distintas. Mas conclui que as opções atuais de captura e armazenamento de CO2 são mais caras que as formas tradicionais de mitigação, como a redução das emissões.
No que toca às medidas de controle da desflorestação da Amazônia, por exemplo, o AR6 foca apenas em propostas convencionais, como o monitoramento baseado em satélites, a criação de novas áreas protegidas e a demarcação de terras indígenas. Não adentra em alternativas de engenharia genética com alto potencial de absorção e geração de renda sustentável às populações que lá residem.
Em 2011, o IPCC publicou um relatório com pouco mais de cem páginas de uma conferência sobre geoengenharia realizada em Lima, no Peru, mas seus anexos apenas listam temas para discussão, a exemplo dos riscos envolvidos, sem aprofundamento prático de implementação.
A Engenharia Climática atravessou uma etapa crucial de escrutínio público, passando pelo descarte de ideias midiáticas e a consolidação de propostas viáveis. Mas para sua implementação é necessário que os países adiram ao esforço conjunto de regulação.
Diversos dilemas climáticos de nível global foram superados com a conjugação de esforços. A chuva ácida era uma ameaça na década de 1980, causada pela emissão de dióxido de enxofre e óxidos de azoto nos processos industriais. Foi contida pelas ações bem sucedidas tomadas na década de 1990, como a “Lei do Ar Limpo” nos Estados Unidos, que foi seguida por outros países.
Outro exemplo dessa comunhão de esforços foi o buraco na camada de ozônio. A NASA lançou vários satélites observacionais na década de 1970, confirmando por acaso a existência de um enorme buraco na camada de ozônio no pólo sul, com o tamanho equivalente a três vezes o território do Brasil. A espessura da camada estava reduzindo drasticamente. Essa camada protege contra a radiação ultravioleta, uma radiação ionizante que quebra as ligações químicas e mata os tecidos vivos.
O ozônio não é emitido diretamente, mas a partir da reação com a luz solar, sendo produzido por reações fotoquímicas. Sua presença na estratosfera é um bom sinal, mas na troposfera, próximo à superfície, pode causar graves problemas de saúde. A depleção da camada de ozônio poderia desencadear uma onda dos três tipos de cânceres de pele, que atingiria em massa a população, além de catarata, danos ao crescimento vegetal e à produção agrícola, prejudicando também os fitoplânctons e a reprodução de peixes.
Em 1974, o pioneiro cientista mexicano Mario Molina associou a emissão de CFCs à destruição da camada de ozônio, mas foi atacado tanto pela indústria quanto pela comunidade científica. Mas os estudos posteriores confirmaram sua hipótese, comprovando a ligação entre o buraco na camada de ozônio e a reação do cloro dos CFCs.
De fato, a Janela Atmosférica é a radiação que atravessa a atmosfera e vai para o espaço sem ser absorvida pelos gases naturais do efeito estufa, como vapor d’água e dióxido de carbono, por terem comprimento de onda entre oito e doze micrômetros. No entanto, essa radiação pode ser absorvida por outros gases, como CFCs.
Após a comprovação da origem antrópica da depleção da camada de ozônio, uma grande mobilização mundial conseguiu aprovar o Protocolo de Montreal, que entrou em vigor em 1987, resolvendo o problema dos CFCs com uma ampla adesão de países. Em 2019, entrou em vigor a emenda Kigali ao Protocolo de Montreal, banindo também o uso de HFC.
Estes exemplos demonstram que é possível enfrentar os problemas climáticos globais com a comunhão de esforços. Com a Engenharia Climática não é diferente. Ela era pouco conhecida do grande público, com a imprensa referindo-se a seus métodos como excêntricos e distantes, semelhantes a viagens espaciais. Mas atualmente a Engenharia Climática se consolidou no meio científico.
Em 2020, Kim Stanley Robinson popularizou a geoengenharia com a publicação da ficção climática (cli-fi) “The Ministry of Future” (O Ministério do Futuro), que retrata técnicas de geoengenharia na Antártica para reverter o aquecimento global. O romance também aborda temas como agricultura regenerativa, reflorestamento e terrorismo contra petroestados. Apesar de tecnicamente bem fundamentado, o enredo traz muitos erros sobre Cromodinâmica Quântica, além de exaltar discursos pseudocientíficos, como os de Vandana Shiva, uma física indiana ativista contra OGM, fertilizantes minerais e glifosato em pesquisas genéticas, com ideias anticientíficas semelhantes ao lysenkoismo soviético.
Popularizada no grande público e consolidada na comunidade científica, a Engenharia Climática passou a ser objeto de intensa discussão em seminários e congressos. De uma maneira geral, a Engenharia Climática abrange três âmbitos de propostas: na superfície, na atmosfera e no espaço.
Uma das medidas na superfície mais amadurecida em termos de eficácia climática e contenção de riscos é a fertilização de ferro nos oceanos, tida como uma opção mais viável que a injeção de sulfeto na atmosfera.
As plantas são divididas em três partes principais: raízes, caule e folhas. Cada uma delas possui células especializadas para tarefas específicas, como absorver nutrientes no solo, transportá-los contra a gravidade e gerar energia. Mas os plânctons fazem todas estas atividades com uma só célula. Pelo princípio da exclusão competitiva, duas espécies competem pelos mesmos recursos, resultando na extinção de uma delas. Mas esse princípio fundamental da natureza não se aplica aos plânctons, já que mesmo uma escassez de recursos sustenta uma grande variedade de espécies. O ferro serve de alimento para a proliferação de fitoplânctons, que então removeriam o CO2 atmosférico. Em setembro de 2024, 17 cientistas assinaram um estudo defendendo a urgência e viabilidade da medida (“Próximos passos para avaliar a fertilização oceânica com ferro para remoção de dióxido de carbono marinho”).
Outra medida bastante debatida é o uso de nódulos polimetálicos para a oxigenação de zonas mortas no oceano, aproveitando o baixo preço do minério de manganês. A proposta é transformar o oceano em uma nova floresta amazônica, estimulando-o a absorver os gases do efeito estufa. O oceano contém 40 bilhões de toneladas de carbono, ao passo que a atmosfera tem cerca de 1 bilhão, havendo mais 3,5 bilhões em terra. A maior parte do carbono do oceano não vem dos animais e plantas que o habitam, mas sim dos íons carbonato e bicarbonato. Esse carbono tem aumentado nos últimos anos, reduzindo os efeitos das alterações climáticas. O bicarbonato do oceano absorveu cerca de 30% do carbono emitido desde meados do século XIX.
Também existem projetos para despejar no oceano toneladas do mineral brucita, constituído de hidróxido de magnésio, um efervescente usado contra a acidez estomacal. Em tese, ele aumentaria o pH da água, tornando-a alcalina, e desencadearia reações de captura de dióxido de carbono. Mas os efeitos no ecossistema marinho são incertos.
Medidas convencionais, como a simples substituição de combustíveis, não são suficientes. Os biocombustíveis à base de soja e trigo podem gerar mais emissões que a própria queima de combustíveis fósseis. Os fertilizantes utilizados nestas duas culturas liberam óxido nitroso, um gás do efeito estufa com 300 vezes a capacidade de retenção do calor do que o dióxido de carbono. Além disso, o próprio desmatamento para o plantio também libera gás carbônico. A substituição de carne por peixes a nível mundial também não traria grandes resultados. A produção de bagres tem alto nível de emissões, por conta da necessidade de adaptação às exigências ambientais, havendo um padrão elevado de utilização de terras, energia e água. Tanto o bagre quanto a carne bovina produzem 20 vezes mais gases do efeito estufa por grama de proteína do que o salmão e o frango. As cadeias produtivas da lagosta, do camarão e da tilápia também possuem emissões elevadas, uma vez que os barcos de lagostas requerem muito combustível e as fazendas de camarão e tilápia consomem muita energia.
A maioria das propostas de engenharia climática são terrestres, o que representa riscos para os ecossistemas. As soluções baseadas no espaço são menos arriscadas, desde que reversíveis. O desvio de 2% da radiação solar incidente na Terra já seria suficiente para contrabalançar o desequilíbrio radioativo e reverter o atual aquecimento global. No entanto, a geoengenharia solar ainda carece de estudos aprofundados sobre a fotosfera e a heliosfera.
Neste âmbito, uma proposta promissora foi formulada por pesquisadores do MIT. A ideia utiliza pequenas bolhas espaciais infláveis interconectadas para desviar a radiação solar. É uma proposta mais viável que a colocação de espelhos, já que as bolhas seriam feitas de silício e fabricadas no próprio espaço, diminuindo os custos. Além disso, elas poderiam ser facilmente destruídas pela quebra do equilíbrio de superfície, revertendo o processo sem gerar detritos espaciais. Para tanto, as bolhas seriam colocadas no ponto Lagrangiano L1. Os cinco pontos lagrangianos são locais onde existe equilíbrio gravitacional na órbita terrestre em torno do Sol, com anulação do campo gravitacional dos dois corpos. O ponto L1 é o mais próximo da Terra, distando apenas 1,5 milhão de quilômetros, uma distância pequena para os padrões astronômicos.
Mas essas propostas devem passar pelo teste de “estudos de perigo e operabilidade" (HAZOP) e “técnicas de incidentes críticos” (TIC), como precaução de cenários catastróficos. A dimensão dos projetos de geoengenharia pode exigir a fórmula de novas técnicas de controle de risco, dados os efeitos não lineares que elas podem desencadear.
Na percuciente advertência de Dennis L. Hartmann:
“O clima afeta as vidas humanas de muitas maneiras; por exemplo, o clima influencia o tipo de vestimenta e moradia que as pessoas desenvolveram. No mundo moderno, com os grandes avanços tecnológicos do século passado, pode-se pensar que o clima não constitui mais uma força capaz de mudar o curso da história humana. É evidente, pelo contrário, que nós estamos tão sensíveis agora quanto sempre fomos às flutuações climáticas e às mudanças climáticas. Como os sistemas de fornecimento de alimentos, água e energia são pressionados para atender à demanda e são otimizados para as atuais condições climáticas médias, flutuações ou tendências no clima podem causar sérias dificuldades para a humanidade…Moléculas que compreendem uma fração minúscula da massa da atmosfera fazem quase toda a absorção e emissão pelo ar. A dependência do clima da abundância desses constituintes minoritários torna o clima sensível a mudanças naturais e induzidas pelo homem na composição atmosférica. Mudanças relativamente pequenas na composição podem afetar o fluxo de energia através do sistema climático e, assim, produzir mudanças climáticas surpreendentemente grandes.” (“Global Physical Climatology”, editora Elsevier Science, 2015, item 3.1).
Uma métrica comparativa pode ser feita com a equação IPAT, utilizada nos estudos ambientais, estendendo-a à geoengenharia. Esta equação relaciona o impacto ambiental “I” ao produto da população “P”, afluência “A” e tecnologia “T”. A afluência está ligada ao consumo. Como exemplo de aplicação, as emissões dos veículos mais novos foram reduzidas pela tecnologia, diminuindo o impacto ambiental. O mesmo ocorreu com as emissões das chaminés das indústrias. Por outro lado, a afluência cresceu, com o aumento da demanda per capita por veículos e produtos industriais, elevando o impacto ambiental mesmo em locais em que a população se manteve constante.
No âmbito da Engenharia Climática, diante da atual limitação nas técnicas de mitigação, o maior progresso no impacto do clima “I” só pode advir do avanço tecnológico. Uma comparação pode ser feita com as técnicas tradicionais utilizadas na indústria, a exemplo dos processos de adsorção de dióxido de enxofre e o ciclone para matéria particulada. Essas partículas possuem um momento maior, sendo removidos pela força centrífuga no movimento helicoidal. Os precipitadores eletrostáticos também são muito úteis. Neste caso, a matéria particulada é carregada por alta tensão, que produz íons que se prendem às partículas, removendo-as. E o depurador Venturi usa a impactação do ar poluído com gotículas de água, o que também remove a matéria particulada. Essas tecnologias tiveram enorme efeito no âmbito ambiental, mas no âmbito climático as medidas possuem dimensões bem maiores.
Segundo expõem Walter W. Wallace, John Myers e Jona Hasanova:
“A geoengenharia é vista como uma solução potencial para combater as mudanças climáticas, especialmente quando medidas tradicionais como a redução das emissões de gases de efeito estufa não são suficientes. Os benefícios potenciais incluem uma rápida redução nas temperaturas globais e a prevenção dos piores efeitos das mudanças climáticas. No entanto, há riscos e incertezas consideráveis associados à geoengenharia…A geoengenharia merece um exame mais detalhado tanto por seus benefícios potenciais quanto pelos riscos associados. A mudanças climática está progredindo mais rápido do que muitos modelos previram originalmente, e as medidas existentes para reduzir as emissões de gases de efeito estufa podem não ser suficientes para atingir as metas globais de temperatura…A pesquisa e o desenvolvimento de técnicas de geoengenharia também podem levar a novos insights científicos e inovações tecnológicas que podem ser úteis em outras áreas da ciência ambiental e climática…Muitos modelos climáticos mostram que as emissões globais de gases de efeito estufa devem ser reduzidos de forma rápida e abrangente para evitar os piores efeitos das mudanças climáticas.” (“Handbook of Geo-Engineering”, editora Bremen University Press, 2024).
De seu turno, na visão de Brynna Jacobson:
“Diferentemente dos esforços de mitigação que ajustariam o comportamento humano e econômico à luz da mudança climática antropogênica, a geoengenharia inclui uma série de propostas de ‘conserto tecnológico’ destinadas a modificar o funcionamento do próprio clima. Falhas recorrentes nas negociações da cúpula do clima criaram as condições políticas para que a engenharia climática surgisse no discurso científico, político e da mídia como potencial ‘plano B’...O desafio das mudanças climáticas e o emprego da solução óbvia de redução de emissões têm sido particularmente intratáveis devido à extensão em que as emissões de carbono são uma externalidade central na economia energética global.” (“Geoengineering Discourse Confronting Climate Change”, editora Lexington Boos, 2022).
Jeff Goodell é autor da obra pioneira “How to Cool the Planet”, publicada em 2010 pela editora Houghton Mifflin Harcourt. Segundo exposto na apresentação do livro: “Essa questão levou um grupo de cientistas a buscar soluções extremas: enorme engenhocas que sugariam CO2 do ar, máquinas que iluminam as nuvens e desviam a luz do sol da Terra, até mesmo vulcões artificiais que pulverizam partículas refletoras de calor na atmosfera…Como vamos mudar a temperatura de regiões inteiras se não conseguimos nem prever o clima da próxima semana? E as guerras travadas com o controle do clima como arma principal? Certamente há riscos, mas Goodell nos convence de que a geoengenharia pode ser nossa última e melhor esperança, um plano B para o meio ambiente.”
Por fim, na exposição de David Keith sobre a técnica tradicional de dispersão atmosférica de ácido sulfúrico:
“A aeronave especializada e os sistemas de dispersão necessários para começar poderiam ser implantados em alguns anos pelo preço de um filme de sucesso de Hollywood. Não defendo um começo tão rápido e sujo para a engenharia climática, nem espero nenhuma ação tão repentina, mas a ciência subjacente é sólida e os desenvolvimentos tecnológicos são reais…Muitas pessoas sentem uma sensação visceral de repugnância ao ouvir falar de geoengenharia pela primeira vez. Essa repulsa intuitiva me parece saudável; nossa cultura obcecada por gadgets é facilmente atraída por uma nova solução tecnológica brilhante. Um foco estreito no poder de uma tecnologia facilmente nos cega para seus riscos…Assim como a capacidade de projetar nosso próprio genoma, a humanidade está desenvolvendo rapidamente a capacidade de projetar o ambiente planetário.” (“A Case for Climate Engineering”, editora The MIT Press, 2013).
A produção de alimentos, tanto na agricultura quanto na pecuária, responde por boa parte das emissões de gases do efeito estufa, logo atrás da indústria e do transporte. Mas num futuro próximo, projeta-se a substituição das fazendas em terra por fazendas oceânicas, tanto flutuantes quanto submarinas. De fato, a agricultura marinha e o enorme potencial do oceano em fornecer peixes e frutos do mar podem suprir sustentavelmente a população mundial projetada em 11 bilhões de pessoas nas próximas décadas.
O Brasil utiliza uma área para a agricultura bem inferior à que seria normalmente utilizada em outros países, por ter duas ou até três safras por ano. É uma experiência exitosa que deveria ser replicada em outros países tropicais. Estas safras recorrentes economizam quase 130 milhões de hectares, que seriam necessários para alcançar o mesmo nível de produção com uma safra única anual.
Por outro lado, o plantio de milhares de plantas como método de geoengenharia para captura de carbono teve um efeito superestimado. Os estudos atuais indicam que o efeito no clima seria mínimo. Utilizando técnicas de previsões eleitorais, com uso de estimativas de erro, demonstrou-se que a captura total de carbono e biomassa seria muito inferior à prevista originalmente pelos modelos estatísticos iniciais.
O desvio da energia solar é parcialmente eficaz, já que não é capaz de impedir que o CO2 da atmosfera intensifique a acidificação dos oceanos. O ácido carbônico é uma catástrofe para os ecossistemas marinhos, atingindo os recifes de corais. Esses recifes fornecem proteção para milhões de pessoas contra tempestades. A acidificação ainda causa a proliferação de áreas pobres em oxigênio no mar, difundindo zonas mortas.
Outras propostas buscam a injeção de partículas de aerossol reflexivas nas estratosfera, reduzindo a incidência solar ou a pulverização de aerossóis de sulfato e óxido de alumínio para aumentar a refletividade das nuvens. Há propostas para o uso de nanosatélites que atuariam como um enxame sincronizado de drones.
No sentido oposto, o sequestro de carbono é uma ideia consolidada, com enfoques biológico, geológico e oceânico, como a construção de enormes sumidouros no oceano, para a captura de toneladas de dióxido de carbono da atmosfera, e posterior armazenamento no interior das rochas, ou a calagem oceânica, com aplicação maciça de cal no mar, um eficiente absorvedor de CO2.
No enfoque biológico, há propostas para uso de turfeiras. As turfas são formadas por plantas em decomposição, compondo um grande reservatório terrestre natural de CO2. Sua restauração pode se transformar num poderoso sumidouro de CO2 atmosférico.
Uma abordagem moderna propõe incorporar aprendizagem profunda em partículas inteligentes, que migrariam para regiões orbitais nos pólos da Terra, preservando a temperatura no Ártico e na Antártica.
A inteligência artificial tem potencial para alavancar as propostas, tirando os projetos do papel. Sob certo sentido, ela pode até ter um impacto ambiental negativo. Mas já é utilizada no rastreamento de icebergs, que seguem trajetórias caóticas, na previsão do clima, no rastreamento de plástico no oceano e no aumento da reciclagem. Da mesma forma, se bem empregada, ela pode trazer benefícios para a Engenharia Climática. Muitos pesquisadores têm sustentado sua incorporação, como Pijush Samui, que publicou um artigo de 15 páginas sobre a “aplicação da inteligência artificial na geoengenharia” (in “Tecnologia da Informação em Geoengenharia”, 25/09/2019). Apesar de sucinto, o artigo analisa a incorporação das mais diversas técnicas de IA na Engenharia Climática, desde Redes Neurais Artificiais - RNA até Sistemas de Interferência Neuro Fuzzy Adaptativo - ANFIS.
Por seu turno, Wengang Z. Hang e colaboradores publicaram um artigo robusto e revisado por pares em 2022 intitulado “Aplicação de Algoritmos de Aprendizado de Máquina, Aprendizado Profundo e Otimização em Geoengenharia e Geociências: Revisão Abrangente e Desafios Futuros”, no qual examinam a integração de técnicas de ML, DL e algoritmos de otimização na pesquisa de Engenharia Climática. O estudo também abordou os cinco Vs do Big Data, dentre os quais se destaca a velocidade. A esse respeito, as técnicas de IA podem integrar-se com a computação quântica para tornar a geoengenharia viável. Os qubits da computação quântica funcionam exponencialmente por meio da expressão 2 elevado a N, bem superior à computação clássica, que atua proporcionalmente a 2N. Além disso, a superposição e emaranhamento dos qubits permitem simular processos no nível molecular.
Recentemente, foi batida a barreira de 1.000 qubits quanticamente emaranhados, chegando a 1.305 qubits, o que pode resultar numa capacidade de 2 elevado a 1.305, muitas ordens de grandeza a mais que os mais modernos supercomputadores climáticos. No entanto, ainda persistem problemas de estabilidade dos qubits emaranhados. E além da estabilidade, outros desafios ainda precisam ser enfrentados, já que essa capacidade extraordinária de processamento não depende apenas da função de bits quanticamente emaranhados, sujeitando-se também à capacidade dos transistores, numa associação entre software quântico e hardware quântico.
Os avanços tecnológicos em diversas frentes têm possibilitado a efetiva implementação da Engenharia Climática para controle do clima, vencendo os preconceitos enraizados sobre a ideia. De fato, o estigma com a geoengenharia se assemelha aos círculos em plantações no sul da Inglaterra, que intrigaram os cientistas e a mídia durante 13 anos. Em 1991, técnicos japoneses levaram instrumentos de medição, mas ainda assim não descobriram a origem dos círculos, até que dois homens confessaram sua autoria usando tábuas de madeira. Ainda assim, durante muitos anos após essa confissão, a população e parte da comunidade científica continuaram sem aceitar a realidade, conjecturando causas imaginárias para os círculos.
Por sorte, a eficácia e urgência da geoengenharia já integra os círculos científicos, e logo seus primeiros resultados serão conhecidos.
V - Engenharia Climática Geomagnética
A geoengenharia abrange técnicas superficiais, atmosféricas e espaciais, sendo esta última preferível por representar menor risco aos ecossistemas. Por outro lado, devem preponderar técnicas que foquem no CO2 atmosférico, e não apenas no desvio da energia solar, impedindo o aumento da acidificação dos os oceanos. Tendo em conta esses fatores, uma técnica adequada de manejo climático pode fazer uso do campo magnético terrestre para aumentar a fuga atmosférica de CO2.
Contudo, é preciso ficar atento aos riscos. Apesar de apenas 0,04% da atmosfera ser formada por gás carbônico, é ele o grande regulador do clima, pois seus átomos são capazes de vibrar na maneira certa para absorver a energia que a Terra emite, além perdurarem por um longo período. Mas o CO2 também é um importante componente da fisiologia humana, não se limitando ao controle do clima. É ele que regula o pH do sangue e a afinidade da hemoglobina.
O CO2 é um subproduto do metabolismo dentro da célula. O corpo humano produz seu próprio CO2, e o elimina no ambiente pela expiração. As flutuações de CO2 no corpo podem causar distúrbios, como a hipercapnia, decorrente da retenção anormal de CO2, além do Efeito Bohr, descoberto pelo pai de Niels Bohr. Segundo esse efeito, um baixo teor de CO2 no corpo fortalece a ligação entre a hemoglobina e o oxigênio, tornando mais difícil para o oxigênio sair do sangue e ir para as células do corpo. Essa ausência de CO2 é compensada com o aumento da pressão arterial e dos batimentos cardíacos. O baixo teor de CO2 também deixa o sangue alcalino, prejudicando a atividade de mais de 1.000 enzimas e vitaminas.
Quando o CO2 está em excesso, o corpo desencadeia o impulso hipóxico, com os quimiorreceptores centrais enviando um sinal para o centro respiratório na medula oblonga, estimulando a contração mais rápida dos músculos que controlam a ventilação, aumentando assim a frequência respiratória e fazendo o corpo eliminar o CO2 em excesso.
É dióxido de carbono, não o oxigênio, que impulsiona a respiração. Não à toa atletas de elite treinam a frequência respiratória em repouso e em atividades intensas, para manter a troca gasosa nos alvéolos pulmonares em alto nível.
Considerando a importância do CO2 para o clima da Terra e para a saúde humana, o escape controlado deve ter mecanismos reversíveis.
A base da proposta de Engenharia Climática Geomagnética vai além do balanceamento radiativo, incidindo no balanço das moléculas de gás carbônico.
Inicialmente, a nucleossíntese foi confirmada na década de 1950, quando o tecnécio foi detectado na atmosfera de uma estrela. Trata-se de um elemento radioativo com meio-vida bem inferior à idade das estrelas. Logo, sua detecção na atmosfera estelar provou que ele era produzido no núcleo da estrela.
Em 2010, colisões de partículas no acelerador do Fermilab resultaram em cerca de 1% mais matéria que antimatéria, um desequilíbrio muito superior ao que era previsto. Essa quebra na paridade de simetria decorre de alguma preferência enigmática da natureza, e possibilitou o surgimento dos elementos na nucleossíntese estelar, como o carbono, que é formado a partir do hélio por meio de um processo intrincado de fusão nuclear.
Na história da Terra, há tanto uma produção cosmogênica constante de carbono, como também uma pequena fuga para o espaço. Essa produção cosmogênica pode ser afetada pela atividade solar. Em sentido oposto, também é possível aumentar a velocidade de efusão de CO2.
Existem dois tipos de escape: o térmico, conhecido como escape Jeans, relacionado à temperatura da exobase, e o escape hidrodinâmico, relacionado à deposição de energia na termosfera. Obviamente, essa técnica de manejo climático não é infensa a riscos. Afinal, o escape atmosférico foi o responsável pelo fim do vapor d'água de Vênus. Além disso, tanto a pressão quanto o conteúdo atmosféricos da Terra podem ser afetados pelo escape. Mas uma gestão eficiente do risco é perfeitamente possível.
O processo de difusão dos gases move naturalmente o dióxido de carbono para a camada mais alta da atmosfera, por ser mais denso, ao contrário do gás metano, que é menos denso. Apenas uma quantidade muito pequena de CO2 escapa para o espaço de forma natural. Isso porque, apesar de ser um gás, o CO2 tem peso, estando sujeito à força da gravidade da Terra. Logo, é necessário fornecer energia à molécula de dióxido de carbono para que ela escape da força gravitacional e fuja para o espaço.
A energia cinética da molécula deve se equiparar à energia gravitacional para o escape ocorrer. Quanto maior a altitude do gás, menor será a força da gravidade, que é inversamente proporcional ao quadrado da distância ao centro da Terra. O raio do planeta mede 6.378 km, e a espessura da atmosfera é de 100 km, o que aumenta a distância para até 6.478 km. É uma diferença pequena, mas se torna mensurável ao ser elevada ao quadrado, reduzindo um pouco a energia necessária para o escape ocorrer.
Por outro lado, a energia cinética molecular é proporcional ao quadrado da velocidade, com a molécula de gás carbônico sendo mais lenta que a do gás oxigênio.
O vento solar curva o campo magnético da Terra, causando um acoplamento elétrico que aquece as partículas na atmosfera. Uma parte dessas partículas são ejetadas pelas linhas geomagnéticas dos pólos da magnetosfera. Por meio deste processo, toneladas de gás oxigênio escapam para o espaço, tanto do lado diurno quanto do lado noturno das auroras.
O hélio e o hidrogênio estão na exosfera, e seu escape ocorre naturalmente devido à maior incidência de energia solar. As moléculas de hidrogênio escapam à razão de 3 kg/s, ao passo que as moléculas de hélio, mais pesadas, escapam à razão de 50 g/s.
A exobase é o topo da atmosfera, logo abaixo da exosfera e acima da termosfera. Abaixo da exobase, a atmosfera é densa. Assim, mesmo que uma partícula tenha energia cinética maior que sua energia potencial gravitacional, ela perderá essa energia em colisões com outras partículas antes de poder escapar. Mas na exobase há poucas colisões. Além disso, a taxa de fluxo de escape decai exponencialmente com a massa.
Logo, o escape depende essencialmente da localização da molécula na atmosfera, da sua massa e da sua velocidade cinética. Teoricamente, esta última pode ser aumentada utilizando as partículas energéticas que atingem a magnetosfera.
A plasmasfera foi descoberta pelo astrônomo soviético Konstantin Gringauz, utilizando os dados coletados pela espaçonave Luna 2, a primeira a chegar à Lua. É um gás frio e eletricamente carregado, que funciona como uma barreira persistente e impenetrável de elétrons ultrarrelativísticos.
A magnetosfera é um sistema dinâmico e interconectado, respondendo ao fluxo solar, planetário e interestelar. O choque de arco com o vento solar tem uma espessura incrivelmente fina, de apenas 17 km. É neste local que as partículas do Sol esbarram com o campo magnético da Terra.
A magnetopausa se assemelha a uma peneira, permitindo a entrada de partículas do vento solar através das instabilidades de Kelvin-Helmholtz, que decorrem da diferença de velocidade em interfaces de fluidos. Trata-se do mesmo processo que forma a Mancha Vermelha de Júpiter.
Os cinturões de Van Allen são dois anéis de partículas energéticas que circundam a Terra, mantidos pelo campo magnético terrestre, funcionando como escudos contra elétrons que bombardeiam constantemente a Terra com a velocidade próxima à da luz.
Por fim, a fotoionização é o impacto de fótons que ejetam elétrons, com a consequente troca de carga. Trata-se de um processo corriqueiro, aplicado no efeito fotoelétrico.
Tal como o escape de oxigênio pelas linhas da magnetosfera, canhões de laser com configurações precisas de energia apontados para regiões específicas da magnetopausa e da plasmasfera têm potencial para aumentar a velocidade de efusão de CO2. A velocidade cinética da molécula de dióxido de carbono pode ser elevada com o impacto de elétrons ultrarrelativísticos ou de fótons superenergéticos, constituindo uma válvula de escape para controle da concentração de CO2 na atmosfera.
Com o aprofundamento das pesquisas em attofísica, em breve será possível criar lasers de pulsos ultracurtos, com intervalos em attossegundos, o que equivale a um pulso contínuo para os fins práticos. Caso sua potência chegue a zettawatts, será possível transformar gás em plasma, alterando o estado da matéria.
Como regra, as moléculas sofrem transição de estados excitados para o estado de menor energia. Existem três tipos de energia molecular: eletrônica, vinculada à energia dos elétrons; vibracional, vinculada à oscilação dos átomos; e rotacional, vinculada ao giro da molécula. Algumas moléculas também possuem energia translacional. Em geral, a energia eletrônica é a de maior magnitude, da ordem de 1 eV. A vibracional é até cem vezes menor. E a rotacional é cerca de mil vezes menor. A energia rotacional característica da molécula é inversamente proporcional ao seu momento de inércia. Quanto mais rapidamente a molécula gira, maior é a distância entre os átomos que a compõe, e portanto, maior o momento de inércia e menor a energia rotacional.
Em termos relativos, a energia vibracional pode ser mil vezes maior que a energia rotacional e dez vezes maior que a energia térmica. Ao contrário dos estados rotacionais, os estados vibracionais não são facilmente afetados por colisões à temperatura ambiente. Por isso, nesse nível de temperatura a maioria das moléculas se encontra no estado fundamental de menor energia. As energias dos estados rotacionais são pequenas em comparação com a energia térmica, tendo cerca de duas ordens de grandeza a menos. Assim, à temperatura ambiente de 300K, uma molécula pode facilmente ser excitada por colisões com outras moléculas para níveis de energia rotacionais mais elevados, mas as mesmas colisões não têm energia suficiente para excitar os elétrons da molécula, que permanecem no estado fundamental.
A frequência de vibração de uma molécula depende das forças exercidas pelos átomos um sobre o outro. Estas grandezas estão relacionadas com os números quânticos rotacional e vibracional de cada molécula, além da ligação do espectro vibracional-rotacional com as linhas do ramo P, R e Q. Mas para moléculas poliatômicas, como o CO2, a energia vibracional pode variar sem que a energia rotacional mude, por ter vibrações e rotações mais complexas. Para uma molécula triatômica, que forma o gás carbônico, existem vibrações simétricas, assimétricas e de flexão. Na vibração simétrica, as duas ligações encurtam e alongam juntas. Na vibração assimétrica, uma ligação encurta enquanto a outra aumenta. Na vibração de flexão, é o ângulo de ligação que oscila.
Segundo Paul A. Tipler e Ralph A. Llewellyn:
“Todas as moléculas diatômicas apresentam um espaçamento maior entre as linhas no centro do espectro vibracional-rotacional; entretanto, muitas moléculas poliatômicas possuem vibrações e rotações mais complexas e, em consequência, as transições com Δl=0 podem ser permitidas, isto é, a energia vibracional pode variar sem que a energia rotacional mude. Nesse caso, aparece uma linha de frequência f, ou seja, no centro do espectro vibracional-rotacional. Linhas desse tipo recebem o nome enigmático de linhas do ramo Q” (Física Moderna, editora LTC, 5ª edição, 2008).
Em termos técnicos, o CO2 não tem momento dipolar em estado de repouso, com ambos os lados da molécula exibindo os mesmos átomos e a mesma carga elétrica. Mas quando vibra, a distribuição se altera e a molécula adquire um momento dipolar. A chamada vibração de flexão ocorre quando o átomo de carbono oscila pelo plano dos dois átomos de oxigênio, fazendo com que a molécula atinja seu potencial de efeito estufa.
Por seu turno, na fórmula da energia de um fóton, o numerador é formado pela multiplicação de dois números invariáveis, a velocidade da luz no vácuo e a constante de Planck. O que faz sua energia variar é apenas o denominador, formado pelo comprimento de onda. Quanto menor for o comprimento de onda, maior será a sua energia, por ser inversamente proporcional. A molécula que absorve essa energia fotônica tem sua energia aumentada pela excitação rotacional, vibracional e eletrônica.
O espectro determina a frequência e o comprimento de onda da luz, que define sua energia. O Sol emite luz visível, por conta de sua alta temperatura. Já a Terra emite luz infravermelha, por ter uma temperatura mais baixa. Da luz solar que atinge a atmosfera, 30% é refletida e 70% é incorporada ao sistema climático. A superfície irradia uma parte destes 70%, mas os gases do efeito estufa impedem que eles escapem.
Os fótons de luz visível provenientes do Sol possuem uma energia que não impacta nas transições energéticas da molécula de gás carbônico, atravessando-as sem interação. Já os fótons de luz infravermelha emitidos pela Terra carregam a quantidade exata de energia para excitar a molécula de gás carbônico. Após a excitação, os elétrons da molécula retornam ao estado fundamental, liberando energia em direções aleatórias, metade da qual retorna à superfície da Terra, aquecendo-a.
O vapor d’água está concentrado nas partes mais baixas da atmosfera e tem baixa capacidade de absorção. Logo, apesar de existir uma concentração até cem vezes maior de vapor d’água na atmosfera do que de CO2, o gás carbônico tem um efeito estufa muito mais forte, por se concentrar nas camadas mais altas, o que facilita a absorção da energia.
Em 1897, Thomson percebeu que as partículas que constituíam os raios catódicos eram sempre as mesmas, quaisquer que fossem os elementos do catodo, do anodo e do gás dentro do tubo. Tratava-se de um constituinte universal da matéria, que foi batizado de elétron. Com isso, Thomson mostrou empiricamente que o átomo não era indivisível. Mais tarde, Bohr revelou que o átomo é formado por um conjunto de partículas, e que os elétrons saltam entre estados estacionários em transições descontínuas.
Em 1995, um século depois de Thomson, o quark top foi finalmente descoberto no acelerador Tevatron do Fermilab, após duas décadas de buscas intensas. Após essa descoberta, fechou-se o modelo de seis tipos de quarks que compunham todos os prótons e nêutrons, permanecendo o elétron como partícula fundamental indivisível.
Os fótons são indistinguíveis, exceto pelo comprimento de onda, que se distribui probabilisticamente, com maior incidência em torno de 10 micrômetros. Pela Lei de Wien, é possível estimar a temperatura de uma fonte a partir dos dados do espectro de emissão. Por meio dela, calcula-se o comprimento de onda emitido pela superfície da Terra, considerando sua temperatura média (2,89 mm-k/289k), resultando em 10 micrômetros. Mas a maior incidência da molécula de CO2 ocorre em torno de 15 micrômetros.
Pela fluorescência, um fóton incidente é absorvido por um elétron orbital da molécula de CO2, que adquire energia cinética. A molécula então passa a colidir com as demais até passar do estado excitado para o estado fundamental, eventualmente emitindo um novo fóton. Importante pontuar que o fóton incidente não existe mais, e a energia absorvida é usada principalmente em colisões. Já os fótons eventualmente reemitidos são diferentes dos fótons incidentes, mas ambos estão no espectro de infravermelho.
Coeficiente de absorção e alargamento colisional. O espectro de absorção e as linhas espectrais variam ligeiramente conforme a altitude, pressão atmosférica e temperatura.
O CO2 absorve radiação infravermelha na faixa de 4,3 a 15 micrômetros. O ozônio absorve principalmente radiação ultravioleta, mas também uma pequena faixa de radiação infravermelha, entre 9 e 10 micrômetros. O vapor d’água absorve radiação infravermelha numa ampla faixa de 6 a 30 micrômetros, com concentração nas bandas de absorção de 6,3, 9,6 e 18 micrômetros.
Para impedir que o CO2 produzisse o efeito estufa, seria necessário modificar o espectro de absorção da molécula, incursionando na engenharia quântica. Por isso a fuga atmosférica é mais viável.
A energia molecular do CO2, os fótons e os elétrons formam a trinca da Engenharia Climática Geomagnética. As pesquisas nesta área têm se aprofundado. Atualmente, o mundo vivencia uma nova corrida espacial, com a participação ativa de atores privados. Tecnologias antes tidas como avançadas, como satélites, estão se tornando parafernálias do passado, e sendo substituídas por enormes torres espaciais.
A meteorologia espacial também ganhou novo impulso. Na última década, houve um forte incentivo para a iniciativa privada explorar o clima espacial, com a criação de “Zonas de Inovação Econômica”. Um avanço nesse sentido são os estudos de luminosidade estelar, como os megamasers, uma emissão superrradiante no espaço que amplifica a linha espectral, com origem em núcleos galácticos antigos, possuindo uma luminosidade cem vezes maior que a do Sol.
Para se tornar prática, a Engenharia Climática Geomagnética carece de estudos aprofundados sobre o funcionamento da luminosidade estelar e da opacidade atmosférica, já que o clima depende da interação de ambas. É preciso ainda se aprofundar sobre os efeitos da magnetosfera e do núcleo terrestre no controle do clima. De fato, muitas pessoas costumam se impressionar com as auroras, mas há muitos fenômenos intrigantes na estratosfera, como elves, halos, blue jets, giant blue jets e sprites, a maioria dos quais permanecem inexplicáveis.
Dentre os efeitos solares mais proeminentes neste tema está a produção de carbono na Terra. Além de modulações heliomagnéticas e geomagnéticas dos raios cósmicos galácticos, a produção do isótopo C-14, por exemplo, pode estar ligada também a explosões energéticas de curto prazo de partículas liberadas por erupções solares e ejeções de massa coronal do Sol.
Estudos dendrocronológicos em árvores turfeiras do período glacial, resgatadas do fundo dos rios Danúbio e Reno, mostraram um pico abrupto de C-14 ocorrendo em um único ano, em 14.299 antes do presente, que é atribuído a um evento SEP, uma emissão descomunal de partículas energéticas solares, que foi seguido por um período de um século de mudanças drásticas no clima.
Essas pesquisas possuem uma dificuldade vinculada à falta de conhecimento preciso sobre a produção cosmogênica durante um evento SEP. A produção comum de C-14 pelos raios cósmicos galácticos ocorre principalmente na estratosfera inferior, que contribui com cerca de dois terços, e na troposfera superior, que contribui com um terço, com uma dependência da latitude ligada à rigidez do corte geomagnético.
As relações entre as produções estratosféricas e troposféricas e a dependência latitudinal podem ter sido diferentes para os eventos SEP, durante os quais a produção de C-14 teria ocorrido principalmente na estratosfera de alta latitude.
Outra limitação é a modulação geomagnética relativa da produção cosmogênica, que é maior no Equador e mais baixa nos pólos. A partir disso, as variações nos núcleos de gelo polar podem sub-representar as variações de produção cosmogênica de CO2 ligadas às mudanças no campo geomagnético.
A intensidade do campo geomagnético varia lentamente em escalas de tempo superiores a séculos, o que implica que eles não poderiam ter contribuído para as flutuações decadais de C-14. Os ciclos de variabilidade na radiação solar podem ser constatados pela quantidade de radionuclídeos de berílio-10 nos testemunhos de gelo.
Essa produção cosmogênica de CO2 remonta à formação do Sistema Solar. Descartes foi o primeiro a propor uma explicação para a formação desse sistema, antes da gravitação newtoniana, propondo uma teoria que não se encaixava no comportamento da matéria. No século seguinte, depois da popularização da teoria de Newton, o filósofo Immanuel Kant aperfeiçoou a teoria nebular, propondo que o sistema solar começou como uma nuvem de partículas dispersas, que passaram a se mover e colidir em decorrência das atrações gravitacionais mútuas, mantendo-se unidas por forças químicas.
Um século e meio depois da teoria de Kant, Percival Lowell publicou o primeiro de três livros sobre Marte em 1895. Seus estudos sustentaram uma teoria muito popular na década de 1940 de que Marte, Vênus e Terra representavam estágios progressivos de desenvolvimento planetário propício à vida. Vênus é o único planeta do sistema solar cuja rotação é na direção oposta à sua órbita. A Terra, como os demais planetas, gira na mesma direção de sua órbita, por conta da captura do momento angular a partir do disco de acreção durante o início do sistema solar. Alterações pontuais na rotação da Terra costumam impactar as correntes de jato e influir no clima da superfície. A Lua também orbita a Terra na mesma direção da rotação terrestre. A desaceleração da rotação da Terra devido ao arrasto das marés aumenta o momento angular da Lua, por efeito da lei de conservação do momento angular, fazendo com que a Lua se afaste gradualmente da Terra à razão de 4 cm por ano.
Segundo Mark Moldwin:
“O clima espacial é o campo emergente dentro das ciências espaciais que estuda como o Sol influencia o ambiente espacial da Terra e os impactos tecnológicos e sociais dessa interação…A sociedade moderna depende de previsões precisas do clima (variabilidade diária de temperatura, umidade, chuva, etc) e da compreensão do clima (tendências climáticas de longo prazo) para comércio, agricultura, transporte, política energética e mitigação de desastres naturais…Assim como o clima, o clima espacial tem suas raízes no Sol. As principais distinções entre os dois tipos de clima são onde ele ocorre e o tipo de energia do Sol que o influencia…O vento solar não é estável ou uniforme, mas muda constantemente. Essas mudanças afetam o ambiente espacial da Terra de várias maneiras, incluindo a criação de nova radiação corpuscular que bombardeia a atmosfera superior da Terra, causando auroras e grandes correntes elétricas.” (“An Introduction to Space Weather”, editora Cambridge University Press, 2ª edição, 2022, item 1.4.3, traduzido do inglês).
Na visão de Dermott J. Mullan:
“…estamos em posição de nos voltar para um estudo interpretativo dos fótons, que são os principais meios pelos quais as informações chegam até nós do Sol. Se pudermos fazer certas medições nos fótons do Sol, como sua distribuição em comprimentos de onda e o fluxo integrado de energia radiante, será possível extrair informações quantitativas sobre a temperatura e outras quantidades físicas na região de onde os fótons se originaram…É salutar lembrar que, para obter uma compreensão das propriedades de um objeto macroscópico muito grande (por exemplo, o Sol, contendo cerca de 10 elevado a 57 átomos/íons), é necessário focar nossa atenção às vezes nos detalhes individuais. O objetivo é entender como as propriedades detalhadas de certos átomos desempenham um papel na determinação dos parâmetros do grande objeto macroscópico do qual dependemos para a vida.” (“Physics of the Sun”, editora CRC Press, 2ª edição, 2022, item 3, traduzido do inglês).
Os pólos magnéticos da Terra mudam a cada 300 mil anos. Mas há outros efeitos com ciclo menor, como as excursões geomagnéticas, que duram menos e ocorrem com uma frequência dez vezes maior que as inversões de pólos. A última excursão ocorreu há 35 mil anos, no evento que formou o Lago Mono, na Califórnia. As tempestades geomagnéticas, que penetram na atmosfera e formam a aurora boreal, por meio da interação de elétrons carregados e as partículas da atmosfera superior.
O paleomagnetismo, por exemplo, permite o estudo dos fluxos de lava e da mineralogia magnética em amostras de rochas que contêm magnetita. A magnetostratigrafia reversa também é usada para datar locais com fósseis de hominídeos. E ainda temos a datação arqueomagnética, para datação de antigas civilizações, quando a datação por radiocarbono não é uma opção. De fato, diante da ausência de artefatos orgânicos, os compostos ferrosos na argila permitem uma datação precisa por meio das propriedades magnéticas.
O campo magnético da Terra varia bastante ao redor do globo. Na Rússia, chega a 60 mil nanotesla, e nos pólos chega a 70 mil. O Brasil é uma exceção, existindo uma anomalia magnética onde a intensidade do campo cai para 20 mil nanoteslas. Em outubro de 2024, o Sol atingiu a fase máxima do atual ciclo magnético de 11 anos.
A magnetosfera é produzida pelo geodínamo terrestre. O núcleo externo da Terra se move de forma suave e viscosa em longos intervalos de tempo geológico, fluindo a taxas de vários centímetros por ano. Mais profundamente dentro da Terra, no entanto, o núcleo líquido flui a uma taxa geologicamente rápida de alguns décimos de milímetro por segundo.
No futuro, as pesquisas em Engenharia Climática podem evoluir para Engenharia Cosmológica, como o estilingue gravitacional. Por meio dele, um cometa ou meteoro teria sua rota desviada para passar próximo à Terra, transferindo seu momento linear e energia cinética, alterando ligeiramente a órbita terrestre. Neste caso, o corpo celeste não poderia passar tão perto a ponto de atingir a zona de captura da gravidade da Terra. Essa medida extrema seria necessária caso o Sol aumentasse ou diminuísse abruptamente de tamanho, como na época da “Terra Bola de Neve”, de forma a manter o planeta dentro de uma zona habitável.
Em um cenário ficcional, caso a Terra tivesse que se desgarrar da órbita do Sol, a exemplo de outros planetas sem estrelas, ou o Sol não pudesse mais servir de fonte de energia, ainda seria possível utilizar a energia do núcleo terrestre para manter as condições de vida.
Os estudos de terraformação completam a geoengenharia. Mas o dilema de Marte é o oposto da Terra. Enquanto nesta o problema é o excesso de CO2 na atmosfera, naquele é sua ausência. Um estudo da NASA publicado em 2018 e amplamente divulgado pela mídia especializada usou dados de três sondas marcianos lançadas pela agência para concluir que a Engenharia Planetária de Marte não era possível com a tecnologia atual.
O objetivo principal é liberar gases do efeito estufa para esquentar o planeta e possibilitar que ele abrigue água líquida. Em Marte, há vários cursos de rios extintos na superfície, indicando fluxos líquidos recentes, que datam de no máximo 600 mil anos. Um terço da superfície de Marte tem água congelada enterrada. A maior fonte de CO2 fica nas calotas polares, que poderiam ser vaporizadas com explosivos. Mas não há CO2 e vapor d’água suficientes para tornar o efeito estufa duradouro. Além disso, a pressão atmosférica em Marte é de apenas 0,6% da Terra, por conta da distância ao Sol.
Seis anos depois, em agosto de 2024, uma proposta promissora de Engenharia Planetária veio à tona, com o uso de aerossóis artificiais feitos de nanopartículas condutoras feitas de ferro e alumínio, dois materiais abundantes em Marte. As hastes teriam 9 micrômetros de comprimento, do tamanho da poeira marciana, mas se assentam a uma taxa dez vezes mais lenta, perdurando por mais tempo na atmosfera. Além disso, elas teriam um potencial de efeito estufa cinco mil maior, que se somaria ao fechamento das janelas espectrais, aprisionando a radiação na superfície marciana. Este estudo promissor de Samaneh Ansari e colaboradores foi publicado na revista Science em 07/08/2024 com o título "Viabilidade de Manter Marte Aquecido com Nanopartículas” (traduzido do inglês).
Estes estudos parecem assustar os incautos, mas as medidas de mitigação, como a financeirização, possuem um alcance limitado. Se supervulcões de repente se tornassem ativos, emitindo gigatoneladas de gás carbônico na atmosfera, alguns iriam propor sua financeirização, criando-se os “apocalypse bonds” negociados na bolsa. A saída é complementar essas medidas com geoengenharia. A Engenharia Climática Geomagnética pode estar a meio caminho entre a geoengenharia e a cosmoengenharia, mas pode representar uma válvula de escape definitiva para o controle do clima da Terra, revertendo o pior cenário das mudanças climáticas, sejam elas naturais ou antropogênicas.
Oficial de Justiça do TRT 7° Região.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: COELHO, LEONARDO RODRIGUES ARRUDA. A Regulação da Engenharia Climática na COP 30 Conteudo Juridico, Brasilia-DF: 06 fev 2025, 04:53. Disponivel em: https://conteudojuridico.com.br/consulta/artigo/67771/a-regulao-da-engenharia-climtica-na-cop-30. Acesso em: 06 fev 2025.
Por: Benigno Núñez Novo
Por: CYLLENE ZÖLLNER BATISTELLA GONÇALVES
Por: Medge Naeli Ribeiro Schonholzer
Por: VAGNER LUCIANO COELHO DE LIMA ANDRADE
Precisa estar logado para fazer comentários.