El Precipicio, de Toby Ord — Reseña y resumen

Toby Ord no podría haber elegido peor momento para publicar su libro.

Ord trabaja en el Future of Humanity Institute de la Universidad de Oxford. Uno puede imaginarle pensativo en su despacho, contemplando el Precipicio del que nos advierte y hacia el que la humanidad se dirige.

Y a día de hoy, en mitad de una crisis sanitaria global, parece poco prioritario preocuparse por lo que viene después. Pero es una tarea necesaria y fundamental para proteger a la humanidad de los desastres, si cabe aún peores, que podrían estar a la vuelta de la esquina.

Con este artículo no pretendo imitar su voz ni hacer justicia a su libro — esa es una tarea que me sobrepasa. Pero puedo intentar resumir lo justo y necesario para animarte a ti — sí, a ti— para comprar The Precipice, y aprender sus lecciones de primera mano.

El libro se centra en el concepto de los riesgos existenciales: catástrofes y cadenas de eventos que amenazan la continuidad de la sociedad humana o podrían limitar significativamente su potencial para crecer y prosperar.

Decir que el libro es brillante es un elogio que se queda corto. Su lenguaje es accesible, sin por ello abandonar el rigor. Su estructura es cristalina y memorable. Y más allá de todo esto es un libro conmovedor.

Toby Ord habla con candor y optimismo: en lugar de generar un alarmismo improductivo, invita al lector a participar en la reducción de los riesgos existenciales y lo hace manteniendo en todo momento una visión esperanzadora y positiva, que no refleja miedo ni tristeza, sino determinación y entusiasmo.

El libro se divide en tres partes, formando una introducción completa al estudio de los riesgos existenciales y una recolección de los conceptos y argumentos más importantes que será de utilidad incluso para expertos en la materia.

En la primera parte, el desafío, se presenta el concepto de riesgo existencial.

Toby Ord describe nuestra historia, contando como, gracias a la tecnología, hemos conseguido reducir muchos de los males que aterrorizaban a nuestros antepasados, incluyendo la enfermedad y la pobreza. Y reflexiona acerca de los logros aún mayores que nos esperan en el futuro.

Pero Ord nos advierte que nuestro futuro en su totalidad está en peligro. Como ejemplo nos relata un incidente ocurrido en 1962, en el que la humanidad podría haber sido devastada por la guerra nuclear de no ser por la intervención de Arkhipov. A continuación Ord explica que las tecnologías que hemos desarrollado en el último siglo y desarrollaremos en el siglo venidero nos colocan en una posición única de responsabilidad: debemos gestionar los riesgos sin precedentes causados por estas tecnologías.

Y la gestión de estos riesgos existenciales es un bien común intergeneracional al que no dedicamos ni por asomo los recursos necesarios. Como comparativa, Ord se percata de que invertimos más en helados que en disminuir el riesgo existencial.

La segunda parte, los riesgos, es un estudio detallado de los riesgos que hemos identificado hasta el momento.

Comienza hablando de riesgos de origen natural, incluyendo asteroides y cometas, erupciones volcánicas y explosiones estelares. Esta sección alivia nuestras posibles preocupaciones respecto a riesgos existenciales naturales: Ord arguye que los riesgos naturales deben ser necesariamente improbables, o si no las especies en la Tierra no hubieran sobrevivido tanto como implican los registros fósiles.

Sin embargo, este razonamiento no aplica a aquellos riesgos de procedencia humana o que hayan sido magnificados por la actividad humana.

Ord nos introduce al riesgo nuclear, los múltiples incidentes que casi acaban en una guerra nuclear accidental y cómo el riesgo sigue existiendo pese al final de la Guerra Fría.

A continuación discute un tema por suerte o por desgracia ya familiar a todos, el cambio climático, evaluado desde el punto de vista del estudio de los riesgos existenciales, remarcando la necesidad de reducir nuestras emisiones y estudiar los escenarios más drásticos.

Como contrapunto Ord desmiente los riesgos de la sobrepoblación y la pérdida de biodiversidad, apuntando que nuestros mejores estudios indican que estos riesgos son menores que lo que uno pueda pensar a priori. Admirablemente, consigue introducir estos argumentos sin ser condescendiente con sus proponentes, desde el respeto de un estudioso recogiendo los últimos avances del campo.

Desgraciadamente, Ord advierte de que los riesgos a los que nos enfrentamos ahora pueden resultar minúsculos en comparación con los riesgos a los que nos enfrentaremos en las próximas décadas.

De manera casi premonitoria, Ord razona cómo la globalización y un mundo cada vez más conectado nos expone a sufrir pandemias globales. Aunque catastróficas, Ord razona que una pandemia natural no supondrá un riesgo existencial por sí misma. Pero Ord ilustra la posibilidad de poder contar en un futuro con la tecnología necesaria para diseñar un patógeno artificial mortífero y contagioso que, por accidente o intención malévola, se disemine por toda la sociedad.

Luego Ord presenta el que a sus ojos es el mayor riesgo concreto al que nos enfrentamos: la posibilidad de una inteligencia artificial desalineada con los intereses humanos. Ord razona que nuestra inteligencia superior con respecto al resto de la vida en la Tierra es el atributo que nos ha colocado como dueños y responsables del futuro del planeta. E imagina que la hegemonía de la especie humana fuera sobrepasada por una forma de vida más capaz, pero que no comparta nuestros valores. Puede sonar a ciencia ficción, pero Ord no está sólo: líderes del campo cómo Stuart Russell, profesor de ciencias de la computación en la Universidad de California, hacen coro a estas ideas.

De manera más especulativa, Ord contempla la posibilidad de que nuevas tecnologías e instituciones permitan la edificación de un régimen totalitario o provoquen un problema de coordinación que transforme la sociedad en una distopía, persiguiendo valores antitéticos a la voluntad de la mayoría. En este tema Ord no se apresura en extraer una conclusión; simplemente advierte de que debemos estudiar más en profundidad estos escenarios.

Ord cierra su estudio de los riesgos hablando de la posibilidad de que en las próximas décadas descubramos una nueva hipotética tecnología emergente con increíble potencial destructivo, y aboga por la cautela y necesidad de que nuestros científicos e instituciones reflexionen acerca de las consecuencias de perseguir y difundir según qué clases de conocimiento científico, o arriesgarse a desencadenar una catástrofe.

La tercera y última parte, el camino hacia el futuro, es la descripción del grandioso plan que Ord propone para gestionar el riesgo existencial y llevar nuestra sociedad hacia la prosperidad.

Ord comienza esta parte resumiendo su estudio de los riesgos existenciales en una tabla que recoge y combina la probabilidad subjetiva que Ord asigna a que cada uno de los riesgos estudiados resulte en una catástrofe existencial, siendo en todo momento honesto acerca de las limitaciones a la hora de cuantificar estos riesgos.

Tabla 1: las creencias de Ord respecto a las distintos riesgos existenciales que estudia en el libro, cuantificadas según su criterio subjetivo.

Esta tabla le parecerá tranquilizadora a algunos y alarmante a otros. En todo caso, Ord nos convence de que no es un nivel de riesgo sostenible, y nos introduce a su estrategia global para la humanidad.

Primero, reduzcamos el riesgo existencial a un nivel prudente. A continuación, comencemos un proyecto global para decidir cuidadosamente cuál es el futuro que queremos (un periodo al que Ord se refiere bajo el nombre de La Reflexión Larga), y finalmente procedamos a perseguir ese futuro.

Este no es un plan que Ord aspire a acabar durante su vida — en su lugar piensa que cada fase nos llevará varias generaciones de esfuerzo — . Y la tarea de nuestra generación es salvaguardar el futuro de la humanidad frente a los riesgos existenciales.

¿Pero, cómo hacerlo?

A pesar de que la mayor parte del riesgo existencial es de procedencia tecnológica, Ord avisa de que una actitud tecnófoba sería inefectiva y contraproducente. No sólo es la tecnología el mayor motor del progreso y la prosperidad humana, sino que solamente retrasar un riesgo existencial no lo disminuye: además de retrasar el riesgo, es necesario adoptar medidas para, con el tiempo, reducirlo.

En su lugar, Ord apuesta por la idea de desarrollo tecnológico diferencial — por desarrollar primero las instituciones y tecnología que reduzcan de manera más eficiente los riesgos existenciales presentes y futuros — antes de desarrollar tecnologías potencialmente destructivas.

Más allá de estas ideas generales, Ord tiene recomendaciones concretas. Propone rediseñar los protocolos de disuasión nuclear de las potencias nucleares para reducir el riesgo de un ataque accidental sin reducir la capacidad de destrucción mutua asegurada debido a submarinos nucleares ya existentes. Propone regulación para que las empresas que ofrezcan servicios para producir proteínas bajo demanda estén obligadas a identificar posibles patógenos en sus pedidos. E introduce al lector al bien que puede hacer mediante su carrera y donaciones estratégicas.

Ord no quiere que nos vayamos con un mal sabor de boca, y termina su libro con un viaje por el enorme potencial de nuestro futuro, hablando de el futuro largo, próspero y lleno de vida y experiencias que le esperan a nuestra especie si logramos coordinarnos para sobrevivir a los riesgos existenciales.

Como decía al principio, Toby Ord no podría haber elegido peor momento para publicar su libro. Pero justo hoy es cuando más atención necesitamos prestar a su análisis, porque mañana puede ser ya demasiado tarde.

Puedes comprar hoy el libro de Toby Ord o leer el primer capítulo de manera gratuita a través de este enlace.

Este artículo ha sido escrito por Jaime Sevilla, investigador visitante del Centre for the Study of Existential Risks de la Universidad de Cambridge bajo una beca de la Effective Altruism Foundation. Jaime colabora con Altruismo Eficaz España para promover la filantropía basada en evidencia.

Gracias a Elena Molina, Pablo Melchor, Manu Herrán, Clarissa Rios y Lorenzo Fong Ponce por su ayuda editando el artículo.

Este obra está bajo una licencia de Creative Commons Reconocimiento 4.0 Internacional.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store