El futuro de la humanidad: ¿pensamos en nuestros nietos o en los humanos de 9022?

El Largoplacismo es una corriente que estima que nuestra “prioridad moral” es garantizar una buena vida a los habitantes del futuro. Este verano sus postulados han generado debate por servir de coartada a las aventuras espaciales de Elon Musk

Miembros del equipo 125 EuroMoonMars B simulan una misión espacial a Marte, en el desierto de Utah (Estados Unidos), en marzo de 2013.
Miembros del equipo 125 EuroMoonMars B simulan una misión espacial a Marte, en el desierto de Utah (Estados Unidos), en marzo de 2013.Jim Urquhart (Jim Urquhart / Reuters / Contact)

Anote este nombre: Largoplacismo. Longtermism en inglés. Es posible que a partir de ahora no se hable de otra cosa. Ya es así en las élites de la tecnología y del pensamiento donde se concentran las ideas y el dinero. También podríamos decir que el Largoplacismo es el cuerpo filosófico que estaba esperando, por ejemplo, Elon Musk, para vestir de imperativo moral sus proyectos espaciales. Pero no es nuestra intención predisponer al lector contra esta corriente. Al menos no tan rápido.

William MacAskill tiene 35 años y es profesor asociado de Oxford desde 2015. En su día fue el académico de Filosofía más joven contratado en la historia de esa universidad inglesa. Durante 12 años ha liderado el Altruismo Efectivo, un movimiento nicho que ha evolucionado al Largoplacismo. Entonces, MacAskill aconsejaba a los estudiantes de élite buscar un empleo bien pagado en finanzas o ciencias de la computación para luego donar al menos la mitad del salario a proyectos con un impacto tangible en la vida de los más desfavorecidos. Con esa estrategia consiguió 460 millones de dólares para luchar contra la malaria.

MacAskill comparte piso con otras dos personas y lava su ropa a mano. Limita su presupuesto anual a 26.000 libras y dona el resto a causas “efectivas”, pero la frugalidad ha dejado de estar en el centro de su vida. Ese lugar lo ocupa ahora el futuro. No el suyo o el mío, tampoco el de sus hijos, nietos o bisnietos, sino el de las almas que llegarán dentro de varios milenios y encontrarán una civilización devastada. Porque de lo que no dudan los largoplacistas es de nuestra extinción, completa o parcial, pero inevitable. Algunos hablan tanto de ella y de sus planes para el día después que casi parecen desearla. Toby Ord, uno de los referentes largoplacistas, asegura en su libro The precipice (El precipicio, 2020) que las probabilidades de una catástrofe existencial en el próximo siglo son de una entre seis. Las mismas de jugar a la ruleta rusa.

En un reciente artículo en The New York Times —que coincide con la promoción de su último libro: What we owe the future (Lo que le debemos al futuro, 2022)—, MacAskill proponía a los lectores imaginar que se reencarnaban sucesivamente, una y otra vez, y vivían todas las existencias adjudicadas a nuestra civilización. “Si supieras que ibas a vivir todas esas vidas futuras, ¿qué te gustaría hacer en el presente? ¿Cuánto dióxido de carbono emitirías a la atmósfera? ¿Cuán cuidadoso serías con las nuevas tecnologías que pueden descarrilar para siempre el futuro? (…) La idea de influir positivamente en el futuro a largo plazo es una prioridad moral clave de nuestro tiempo”. La promoción del libro, bendecido por un retuit de Elon Musk, constituye la presentación en sociedad de este movimiento filosófico.

Si quieres apoyar la elaboración de periodismo de calidad, suscríbete.
Suscríbete

Para un largoplacista no hay nada peor que sucumbir a “un riesgo existencial”, así llaman a los peligros que amenazan esas vidas futuras. Identificarlos es una de sus prioridades. Curiosamente, el cambio climático no está entre los primeros de la lista. Ellos ven un mayor desafío en una inteligencia artificial desbocada que convierta el futuro en una distopía totalitaria perpetua, en las 9.000 cabezas nucleares que amenazan a la humanidad y en los patógenos modificados en los laboratorios. Para enfrentar estos peligros proponen acciones concretas, aquí y ahora, que protejan a unas personas que vivirán dentro de 7.000 años.

Nadie se atrevería a cuestionar estos nobles propósitos si no fuera porque algunos largoplacistas creen que para priorizar estas urgencias del futuro habría que dejar de invertir en proyectos “emocionales y cortoplacistas” que mejoran las vidas de hoy. Esta ha sido quizás la primera antipatía que han levantado. Consciente de ello y de su labor de vender mejor el movimiento, MacAskill lo niega explícitamente. “¿Implica el largoplacismo sacrificar el presente en el altar de la posteridad? La respuesta es no”, escribe en The New York Times. El libro nace destinado a ser la biblia amable del Largoplacismo, por eso resume la corriente en tres ideas sencillas: las personas del futuro importan; la gran mayoría de las vidas, si la inteligencia originada en la Tierra no se extingue prematuramente, existirán en el futuro, y, por último, tenemos la obligación moral de garantizar que estas personas existan y tengan una buena vida. ¿Quién podría estar en desacuerdo?

Pero varios exaltruistas, llamemos así a los antiguos seguidores de MacAskill, alarmados con la deriva del movimiento, han aireado otras ideas mucho más radicales que están en los cimientos del Largoplacismo.

Émile P. Torres es profesor de la Leibniz Universität Hannover y estuvo “muy metido” en el Altruismo Efectivo, y luego en el Largoplacismo. “Conocía a mucha gente de la comunidad, pasé tiempo en el Future of Humanity Institute de Oxford y fui profesor invitado en el Center for the Study of Existential Risk (CSER) de Cambridge, pero cuando comencé a cuestionar en público algunos de los supuestos filosóficos subyacentes, el 70% de la comunidad dejó de hablarme de inmediato. Me bloquearon y pidieron a mis colegas que dejaran de colaborar conmigo. Son encantadores”, ironiza vía correo electrónico.

En su opinión, los orígenes del Largoplacismo hay que buscarlos en el artículo Astronomical waste (Residuo astronómico), publicado en 2003 por el filósofo sueco Nick Bostrom, profesor de Oxford y considerado el padre del Largoplacismo. Bostrom afirmaba que como en el futuro podría crearse un número astronómico de personas con simulaciones digitales, concretamente menciona la cifra de 10^58 seres, nuestras prioridades debían ser, por un lado, reducir los riesgos existenciales que amenazaran a esa civilización poshumana, y por otro, colonizar el espacio cuanto antes para hacerles hueco. Un artícu­lo que también ha retuiteado Elon Musk.

“El Altruismo Efectivo surgió alrededor de 2009, y se centró en aliviar la pobreza global. Su objetivo principal era ‘hacer el mayor bien posible’, y usar toda la evidencia científica disponible para conseguirlo. El Largoplacismo es lo que surge del encuentro de los Altruistas Efectivos con las ideas de Bostrom. De repente lo vieron claro: si se espera que haya un número inmenso de personas en el futuro, ‘hacer el mayor bien posible’ significa concentrarse en ellas en lugar de en nuestros contemporáneos. En 2013 esta idea fue puesta negro sobre blanco en la tesis doctoral del filósofo largoplacista Nick Bestead, llamada On the overwhelming importance of shaping the far future (Sobre la abrumadora importancia de modelar el futuro lejano). Ambos textos, el de Bostrom y el de Bestead, son los documentos fundacionales de esta corriente de pensamiento”, precisa Torres, que advierte del peligro de popularizar una doctrina “influyente y tóxica”.

Torres asegura que detrás del bum largoplacista hay mucho dinero. “Han cortejado a multimillonarios y han usado su dinero para infiltrarse en los medios de comunicación, los gobiernos mundiales y la ONU”. En 2023 Naciones Unidas celebrará su Summit of the Future con una agenda que incluye algunas ideas largoplacistas. “Esto supone un respaldo similar a lo que fue en los setenta la celebración del Día de la Tierra para los ecologistas. Sería una tragedia que esta ideología se extendiera de un modo acrítico”, advierte el filósofo de la Universidad de Hannover.

El robot humanoide AMECA, creado por la empresa Engineered Arts, en la feria de electrónica de Las Vegas de 2022.
El robot humanoide AMECA, creado por la empresa Engineered Arts, en la feria de electrónica de Las Vegas de 2022. PATRICK T. FALLON (AFP via Getty Images)

Aubrey de Grey es gerontólogo biomédico. Su fe en el futuro es infinita. Está convencido de que la medicina podrá conseguir que los seres humanos no mueran por causas relacionadas con la edad, y así lo ha explicado en dos libros fundamentales del movimiento Antienvejecimiento, The mitochondrial free radical theory of aging (1999) y El fin del envejecimiento (Lola Books, 2007). El Largoplacismo le parece un movimiento de “pensamiento positivo”. “Aunque no creo que las hipotéticas vidas del futuro sean más valiosas que las que ya están aquí, en la práctica eso no cambia nuestras prioridades. Todo lo que hagamos por las personas que vivirán en el año 3000 funcionará para las que habiten en 2100″, asegura vía correo electrónico.

La idea de ser visto con buenos ojos por los seres que habiten el futuro la ha desarrollado Roman Krznaric en su libro El buen antepasado: Cómo pensar a largo plazo en un mundo cortoplacista (Capitán Swing, 2022). Krznaric es un filósofo australiano que cree que las generaciones futuras podrían considerarnos unos auténticos delincuentes. “Tenemos que reconocer que hemos colonizado el futuro usándolo de basurero para la degradación ecológica y tecnológica, como si no hubiera nadie allí. La tragedia es que el futuro está habitado por millones y millones de personas que no tienen voz”.

En su libro, Krznaric afirma que nadie sabe explicar qué es el pensamiento a largo plazo. “La expresión puede generar casi un millón de resultados en una búsqueda online, pero rara vez va acompañada de una idea clara de lo que significa, cómo funciona, qué horizontes temporales intervienen y qué pasos debemos dar para convertirla en la norma. Aunque figuras públicas como Al Gore defiendan sus virtudes, sigue siendo un concepto abstracto, amorfo, una panacea sin principios ni programa. Ese vacío intelectual es nada menos que una emergencia conceptual”.

Quizás el Largoplacismo sea un intento de llenar esa ausencia de cuerpo teórico, y el entusiasmo de Elon Musk y otros tecnomillonarios, la tranquilidad de encontrar, al fin, una coartada moral para conquistar el sistema solar. Krznaric quiere dejar claro que sus ideas no están alineadas con el Largoplacismo y que no forma parte de esa corriente. “Creo que subestiman el impacto futuro de una crisis ecológica global porque se interesan más por riesgos tecnológicos como la inteligencia artificial y tienen una fe ciega en que la tecnología podrá revertir el cambio climático. Solo consideran como peligros existenciales aquellos que puedan provocar una extinción total de todas las especies o un colapso completo que haga retroceder nuestra civilización a niveles preindustriales”.

Según esta definición, una inteligencia artificial asilvestrada que pueda acabar con la humanidad es más peligrosa para la civilización que la muerte de cientos de millones de personas en las crisis ecológicas que con toda probabilidad marcarán las próximas décadas. “Es moralmente inaceptable, y estoy usando palabras suaves, minimizar el sufrimiento humano derivado de los desastres naturales y poner tanto énfasis en la amenaza más lejana de los nanobots”.

Al libro de MacAskill, Krznaric le afea que solo considere entre los riesgos ecológicos el cambio climático y no mencione la pérdida de biodiversidad o una potencial “sexta extinción”. “Tampoco me parece bien que insistan en el crecimiento económico para impulsar la innovación tecnológica. No se puede tener un infinito crecimiento en un planeta finito, es una premisa fundamental de los economistas ecológicos y no veo nada de eso entre los pensadores largoplacistas. No están interesados en cambiar a gran escala el sistema económico neoliberal, y quizás esto sea suficiente para explicar el apoyo de los tecnobillonarios”, remata en un largo correo electrónico.

Los amigos tecnobillonarios son Elon Musk, que ha tuiteado que el libro de MacAskill “es muy cercano a su filosofía” y ha donado 1,5 millones de dólares a Future of Life Institute, uno de los brazos de Future Humanity Institute de Oxford, y Sam Bankman-Fried, un estudiante brillante de Física del MIT que MacAskill trató de seducir en 2012 para la causa del Altruismo Efectivo.

Bankman-Fried hizo una fortuna millonaria con las criptomonedas. Según Forbes, ocupa el lugar 25º en la lista de los estadounidenses más ricos y es uno de los mayores donantes del Partido Demócrata. En 2021 creó la Fundación FTX Future y nombró CEO a Nick Beckstead, uno de los autores de aquellos primeros textos del Largoplacismo. A MacAskill lo contrató como consejero con un generoso salario de seis cifras, según publica The New Yorker, y que el filósofo dona casi en su totalidad.

FTX Future colabora con 69 proyectos por valor de 27 millones de dólares. Entre ellos, financiar a particulares para la compra de su propia mina de carbón. El objetivo no es explotarla, sino conservarla intacta para garantizar que, en caso de aniquilación, los supervivientes tengan combustible para empezar la revolución industrial desde cero. También apoya a Allfed, una empresa que desarrolla alimentos ricos en proteína que puedan crecer sin luz solar en caso de invierno nuclear. Gideon Lewis-Kraus, un periodista de The New Yorker que pasó una semana entre los largoplacistas de Oxford, asegura que durante ese tiempo apenas escuchó hablar de la guerra de Ucrania, que entonces estaba en su primer mes. “Pude entender cuán reconfortante puede ser, cuando el presente es aterrador, refugiarse en el elevado plano del milenarismo”, escribió.

En San Francisco, en el número 2 de Marina Boulevard hay un bar sin presente. Se llama The Interval y está regentado por la Fundación Long Now, fundada en 01996 —así cuentan el tiempo— con el propósito de alargar nuestra noción del ahora a un intervalo de 10.000 años. No son explícitamente largoplacistas, pero podrían serlo. En el piso superior han instalado una biblioteca con los libros necesarios para reconstruir la civilización en caso de colapso. Todo allí está pensado para sobrevivir hasta al más joven de sus clientes. Dentro de una montaña han instalado un reloj monumental que marcará la hora exacta durante los próximos 10.000 años. No les interesa nada que no pueda aguantar 10 milenios.

Apúntate aquí a la newsletter semanal de Ideas.

Suscríbete para seguir leyendo

Lee sin límites
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS