A Terra existe há 45 milhões de séculos e, no entanto, este em que estamos vivendo é único na história.

“É o primeiro século em que uma espécie, a nossa, possui tanto poder e é tão dominante que tem o futuro do planeta em suas mãos”, escreve o prestigioso astrônomo britânico Martin Rees em On The Future: Prospects for Humanity (Sobre o Futuro: Perspectivas para a Humanidade, em tradução livre).

“O que está em jogo é mais importante do que nunca; o que acontecer neste século será sentido por milhares de anos”, diz ele no livro, lançado em 2018.

Na verdade, Rees vinha repetindo esses avisos há mais de duas décadas. Para muitos, elas pareciam interessantes, mas improváveis. Talvez naquela época, essas advertências tivessem mais cara de ficção científica do que ciência.

Foto Pixabay

Ele mesmo reconheceu em uma palestra de TED que “nos preocupamos muito com riscos menores: acidentes de avião improváveis, alimentos carcinogênicos, baixas doses de radiação … Mas nós e os políticos que nos governam vivemos na negação dos cenários catastróficos”.

Mas quando veio 2020, cada palavra de Rees passou a ter uma atualidade assustadora.

Por exemplo, naquela palestra que proferiu em 2014, ele afirmou que agora “os piores perigos vêm de nós”: “E não há só a ameaça nuclear. No nosso mundo interligado (…) as viagens aéreas podem espalhar pandemias em questão de dias e as redes sociais podem espalhar pânico e boatos literalmente à velocidade da luz”.

Mas havia quem não precisasse da pandemia da covid-19 para prestar atenção a Rees.

Desde 2015, um pequeno grupo interdisciplinar de pesquisadores trabalha sob sua liderança no chamado Centro de Estudos de Risco Existencial (CSER) da Universidade de Cambridge, no Reino Unido.

O centro, que conta com a assessoria de personalidades da academia — como o físico Stephen Hawking — e da indústria — como o empresário Elon Musk —, investiga os perigos que podem levar à extinção da humanidade ou ao colapso da civilização e o que fazer para mitigá-los.

É justamente nesse segundo aspecto que atua a bióloga molecular peruana Clarissa Ríos Rojas, que ingressou no CSER em março, pouco antes de o governo britânico decretar a quarentena do coronavírus.

A bióloga molecular peruana Clarissa Rios Rojas atua no CSER na área de políticas públicas – Foto cedida pela pesquisadora

“Já tivemos pandemias antes, mas a covid-19 nos pegou desprevenidos”, disse Ríos à BBC Mundo, o serviço hispânico da BBC. “Então, o que deu errado? Quais são as lições que podemos aprender com este experimento e como podemos nos preparar novamente para o futuro?”, questiona.

Seu trabalho em Cambridge é identificar por que previsões baseadas em dados científicos não são ouvidas e, assim, gerar políticas públicas que preparem a humanidade para a próxima catástrofe global.

A crise profunda causada pelo coronavírus não foi a primeira — e não será a última.

Cinco áreas de risco

A primeira coisa que Ríos explica é que existe uma diferença entre risco catastrófico e risco existencial.

Embora as definições variem ligeiramente entre elas, geralmente entende-se que eventos de risco catastrófico são aqueles que, se ocorrerem, matariam 10% da população mundial ou causariam danos equivalentes.

Para referência, considera-se que o acontecimento mais letal do século 20 foi a pandemia de influenza de 1918, mais conhecida como gripe espanhola, em que entre 1% e 5% da população mundial morreu, segundo diferentes estimativas.

Por outro lado, um evento de risco existencial implica o aniquilamento de todos os seres humanos ou uma redução populacional tão grande que não permita continuar com os padrões de vida atuais, que acabe drástica e permanentemente com seu potencial.

O CSER estuda este último tipo de eventos, que divide em cinco grandes áreas: riscos biológicos, ambientais, tecnológicos, derivados da inteligência artificial e injustiças sociais.

Alguns exemplos são muito claros, como pandemias, na área biológica, ou mudanças climáticas na área ambiental. Outros perigos naturais — como o impacto de um asteroide ou a erupção de um supervulcão — estão muito presentes no imaginário coletivo, pois já demonstraram seu poder devastador no passado.

Mas existem outros riscos existenciais menos óbvios, como a inteligência artificial.

“O medo da inteligência artificial não é que surja um Arnold Schwarzenegger que mate todos”, diz Ríos em referência ao personagem do filme O Exterminador do Futuro.

“Na realidade, pode acontecer que, para atingir o objetivo de salvar a humanidade, todo o ecossistema seja destruído porque não foram dados os parâmetros necessários para guiar aquela inteligência artificial que continua a aprender por si mesma”, explica.

Nesse caso, a tarefa de Ríos seria, por exemplo, trabalhar em conjunto com os governos para estabelecer protocolos e ferramentas de monitoramento para instituições da área, ou garantir que os programas de estudos das universidades vinculadas à engenharia tenham uma sólida base ética.

A injustiça social é outra área cujo nível de risco pode não ser tão perceptível. Mas há um exemplo muito claro na história: a conquista europeia da América.

Este episódio “resultou na perda potencial de mais de 80% das populações indígenas, no colapso das civilizações asteca, inca e zapoteca e na morte, tortura, ruptura cultural e desestabilização política que ocorreram como resultado do comércio transatlântico de escravos”, o CSER afirma em seu site.

E acrescenta: “Até hoje, a colonização europeia continua a ter impactos catastróficos em escala global, incluindo a negligência com as doenças tropicais”.

Efeito covid-19 – Leia mais AQUI