Há algumas semanas, o ensaio “Understanding “longtermism”: Why this suddenly influential philosophy is so toxic” trouxe novamente à tona o conceito de “longtermism”, uma vertente filosófica que defende um pensamento a longo prazo, em maior escala, sobre o destino e o potencial da humanidade. A ideia encontra ressonância não apenas em nível acadêmico, com autores como Nick Bostrom e demais pesquisadores associados ao Future of Humanity Institute (FHI), mas também na indústria com nomes como Elon Musk.
Mas o que isso significa, na prática? Anos atrás, quando conheci o escritor Alexey Dodsworth, tive contato com sua tese em filosofia sobre a ética e a metafísica do transumanismo. Ele traz em pauta o fato de que Thomas Hobbes considerava a morte violenta (isto é, assassinatos) como o maior dos males, um conceito que foi depois atualizado por Hans Jonas ao propor que o mal supremo não está na morte em si, mas na extinção de uma espécie.
Quando o “longtermism” fala sobre riscos existenciais, não necessariamente aborda sobre guerras ou mesmo a questão climática. Dentro do escopo maior do movimento filosófico, esses seriam apenas detalhes que, a longo prazo, não farão tanta diferença. Ainda que conflitos como as guerras mundiais tenham causado a morte de milhares de pessoas e que isso tenha sido terrível, para o “longtermism”, esse não seria necessariamente um risco existencial para a espécie humana porque, afinal, seguimos existindo.
Émile Torres, o autor do ensaio citado no início, é bastante didático ao explicar por que isso é problemático. Ele mesmo já chegou a flertar com essa ideia, tendo publicado um livro a respeito dessa visão de futuro em maior escala. Porém, hoje, ele vê quão perigosa e controversa é essa ideia à medida que ela é utilitarista. Isto é, de um ponto de vista utilitário, se queremos salvaguardar a existência humana, faria mais sentido investir na proteção de países ricos do que pobres – afinal, eles já estão em um “estágio mais avançado” e, por isso mesmo, conseguem garantir avanços em diferentes esferas da sociedade.
Além de antiética e racista, esse tipo de conclusão também é precipitada. Torres dá como exemplo um brilhante economista que morreu nos anos 1930, com apenas 26 anos. Sua morte foi sentida não apenas a nível individual, mas também por conta da perda de uma mente tão genial que poderia, hipoteticamente, ter contribuído ainda mais com a sociedade, caso tivesse vivido por mais tempo. Isso não significa que, necessariamente, ele continuaria produzindo um trabalho notável, pois sua vida poderia ter tomado outros rumos.
Ou seja, quando o “longtermism” fala sobre a responsabilidade de salvaguardar a espécie humana devido ao potencial que ainda temos que alcançar, trata-se também de uma hipótese ou mesmo uma esperança. Só que há bilhões de dólares sendo investidos em grupos filantrópicos, empresas e projetos governamentais que compartilham dessa mesma hipótese ou esperança. Há muita gente e muito dinheiro sendo investido nessa aposta – algo que já foi discutido em meu texto sobre bilionários indo ao espaço, aliás.
De certa forma, o “longtermism” se conecta muito a outras ideias como o aceleracionismo ou o conceito do basilisco de Roko, dos quais já tratei aqui anteriormente. Isto porque estamos falando de uma profecia autorrealizável: acredita-se que a humanidade, de fato, alcançará um patamar superior caso utilizemos desenvolvimento tecnológico para amplificar nossas capacidades físicas, biológicas e cognitivas. Mas para que isso aconteça, precisamos investir nesse tipo de projeto imediatamente.
É nesse ponto, justamente, que acontece a intersecção entre o “longtermism” e o transumanismo. Apesar de os simpatizantes do primeiro evitarem o uso do segundo termo, devido às associações eugênicas que o movimento ganhou nos Estados Unidos, trata-se de uma estratégia de prevenção e de realização da profecia: trabalhar em torno da potencialização da espécie e da sobrevivência dos mais fortes, neste caso, mais ricos.
Em sua tese, Alexey fala justamente sobre como o transumanismo poderia ser uma forma de contornar o mal supremo proposto por Jonas. Só que, diferentemente dos simpatizantes do “longtermism”, sua visão não é utilitarista e sim cosmocêntrica. Ou seja, não é sobre uma perspectiva de colonização espacial na qual a espécie humana (ou pós-humana) impõe seus valores em prol de sua sobrevivência, mas sim a consideração de outros tipos de existências, mesmo que inanimadas.
Alexey cita Martyn J. Fogg para definir o que seria a visão da ética cosmocentrista:
“O Cosmo tem seus próprios valores, eles afirmam, e sua mera existência não dá apenas o direito a existir, mas o direito de ser preservado de qualquer intenção humana. Um princípio moral como esse poderia ser chamado de Princípio da Santidade da Existência, sendo a unicidade seu mais básico valor intrínseco. O comportamento moral diante de um sistema como esse envolveria a não-violação de ambientes extraterrestres e a preservação de seu estado de existência.”
Esse é um tipo de reflexão que perpassa por diferentes níveis do transumanismo (levando em conta que há diferentes correntes dentro do movimento). Contudo, de acordo com Torres, parece que quem tem dinheiro e influência não está necessariamente interessado em garantir harmonia entre todas as espécies, mas sim a sobrevivência humana.
Tão utilitarista é essa perspectiva que, para esses simpatizantes do “longtermism”, certos sacrifícios valem a pena, desde que a perspectiva seja maior e de longo alcance. É literalmente o enredo de qualquer distopia: muitos morrem, mas alguns poucos sobrevivem e desfrutam de uma sociedade perfeita onde não há fome, morte ou dor. Não importa se eu ou você morreremos por não sermos parte do 1% mais rico do mundo, desde que isso garanta que esse 1% sobreviva e, assim, a humanidade não seja exterminada. É a cena final de “Don’t Look Up”.
Inclusive, é interessante que, nesse filme da Netflix, os sobreviventes acabam aterrissando em um planeta de florestas tropicais. Nus entre folhagens verdejantes, eles remontam a imagética do mito de criação e a promessa de que os eleitos encontrarão o paraíso. Em contrapartida, quando falamos sobre sobrevivencialistas ou especialmente os primitivistas, encontramos a estratégia de rejeitar tecnologias avançadas para o retorno ao que seria o “bom selvagem” – outro mito.
Com isso, dou um último salto para mencionar uma palestra que viralizou no Twitter na época da Brasil Game Show (BGS). O desenvolvedor Mark Venturelli conseguiu emplacar uma palestra sobre o futuro dos games quando, na realidade, ele usa seu tempo para esmiuçar a problemática por trás das NFTs e toda a baboseira que pode estar escondida na palavra “futuro”. No caso do blockchain, Venturelli questiona o motivo de estamos escolhendo uma tecnologia tão cara (em termos de poder de processamento e de energia utilizada, daí as consequências ambientais) para garantir uma ferramenta que automatize a autenticidade das coisas e a confiança entre pares.
Apesar de a sociedade ter se desenvolvido à base de convenções, ainda assim há rupturas e desobediências. O problema é que, para muitos, acredita-se que chegamos a um ponto em que é impossível confiar no outro. Não existe mais o compromisso feito no fio do bigode, não existe palavra de honra. Então, já que não dá para confiar em ninguém, que uma tecnologia faça isso por nós. O que Venturelli sugere é que, apesar de esse discurso ser apresentado com floreios inovadores, trata-se, na verdade, de um retrocesso social.
Ou seja, até que ponto as propostas tecnológicas e inovadoras do “longtermism” estão, de fato, encaminhando a espécie humana para uma “evolução”? O caso é que nós, ocidentais, adoramos extremos: ou viramos máquina e vivemos em uma simulação ou então retornamos às cavernas (daí o embate entre transumanistas e anarcoprimitivistas, por exemplo). Nesse ponto, a pergunta que faço é: será que o desejável é mesmo sobreviver, mesmo que em poucas unidades, como no caso de animais em extinção?
Não é de hoje que narrativas grandiosas que falam sobre “pátria”, “raça” ou “moral” suscitam ideias perigosas. O que ocorre é que essas ideias cada vez mais estão se refinando ao ponto de não conseguirmos tão facilmente identificá-las. Criar uma colônia humana em Marte pode parecer uma ideia incrível e que demonstra quão avançados estamos enquanto espécie, mas e se esses humanos tiverem uma estimativa e qualidade de vida piorados? E se esses forem os únicos humanos existentes?
E o que dizer a respeito da modificação de ecossistemas para a adaptação da vida humana? Recentes discussões em torno da “invasão” de uma espécie de planta estrangeira aos desertos islandeses trouxeram à pauta a problemática da modificação de ambientes – algo particularmente sensível para países que passaram por colonização.
Dentro do campo da astrobiologia, por exemplo, há um segmento que se preocupa com a questão ética da exploração espacial e como devemos lidar com outras espécies e existências fora do planeta Terra, de modo que não cometamos os mesmos erros. Isso tudo para dizer que não só o “longtermism” é uma visão perigosa ao descartar o valor de vidas individuais em face à sobrevivência da espécie, como, em sua grandiosidade, ela é, ainda assim, míope ao ignorar que a espécie humana é só uma minúscula parte de todas as diferentes formas de vida (animada e inanimada) e como cada uma está entrelaçada.
Ao ressaltar a importância da sobrevivência de uma espécie em particular, ignoramos o fato de que vida não é um conceito singular, mas expandido. Esquecemos que boa parte de nossos corpos é composto por bactérias, que grande parte da polinização de plantas é feita por aves e insetos, que as florestas estariam soterradas por árvores mortas se os fungos não as decompusessem, e assim por diante. O desejável, portanto, é evitar o mal absoluto proposto por Jonas, mas sem cair em tentação de achar que a vida humana é mais importante do que todas as outras.
Imagem da capa: Matt Chinworth para The Washington Post