Recientemente terminé de leer el libro The Coming Wave escrito por Mustafa Sulelyman, investigador británico fundador de DeepMind, empresa dedicada al desarrollo de la Inteligencia Artificial, y que posteriormente fue adquirida por Google. Se trata de un ensayo muy interesante sobre el futuro de la IA y la ingeniería para la modificación genética y sus impactos sobre el futuro de la humanidad.
Su planteamiento es muy claro: estamos frente a una nueva revolución tecnológica de alcance global que va a cambiar la vida; el efecto de ese cambio puede ser luminoso o terriblemente oscuro y destructivo, y va a depender principalmente que los líderes en todos los ámbitos de nuestras sociedades tengan la capacidad (y la voluntad) de contener estas nuevas y poderosas fuerzas.
En mi libro Riesgos Líquidos, publicado en 2022, definí a la IA y a la modificación genética como potenciales riesgos de naturaleza líquida, surgidos de la complejidad y el aceleracionismo tecnológico, y me referí a que, debido a la incomprensión que la vastísima mayoría de los habitantes del planeta tienen sobre estos potenciadores del poder, las probabilidades de mitigar los peligros derivados de ellos son realmente bajas, y lo que nos corresponde como especie es construir una gran consciencia del riesgo de lo que pueden significar estas herramientas convertidas en armas en contra de nosotros mismos.
Al leer el libro de Suleyman, sin embargo, me surgió una cierta sensación de optimismo, pues si bien, nuestras capacidades para detener el desarrollo de estas tecnologías ya ni se cuestiona, existe la posibilidad de contener y conducir la expansión en la dirección adecuada. En este sentido me vino a la mente el desarrollo de la energía nuclear, y cómo desde 1945 hemos venido lidiando con dificultad su uso con fines pacíficos, pero hasta hoy hemos logrado sobrevivir a la opción de autodestruirnos. Vale resaltar, que tanto la IA, como el desarrollo de tecnología para la modificación del ADN son cada vez más accesibles y las probabilidades que se extiendan a fines no éticos son mucho mayores que las armas atómicas, lo que genera que estos riesgos puedan propagarse con facilidad, lo que va a requerir un abordaje responsable.
La pregunta que surge entonces es: ¿Cómo nos garantizamos esa capacidad de contención?
En mi libro, la respuesta tiene varios planos y va desde la consciencia del individuo en torno al riesgo, hasta la creación de organizaciones altamente confiables y preparadas para operar y tener éxito en medio de la complejidad y la adversidad. Pero como mi visión sobre los riesgos líquidos sigue siendo un proyecto en construcción, aun no tengo propuestas de acción inmediata, como tampoco las tiene Mustafá Suleyman, más allá de la conciencia y contención.
Recientemente he tenido la idea que los riesgos líquidos derivados de la IA conseguirán un contrapeso igualmente en la IA. Es decir, los desarrollos hechos con propósitos malignos deberían poderse manejar con herramientas de contención y conducción que, al ser incorporadas en el mainstream de la tecnología servirán como protección frente a actores con intenciones dañinas. Sin embargo, este esquema de colocar riendas a los riesgos no va funcionar igual que en el caso de la carrera armamentista nuclear. En su momento, la estrategia de contención atómica tenía como objetivo principal la disuasión para evitar la destrucción mutua, lo que generaba un equilibrio “pasivo” y medianamente estable que podía suponer un futuro predecible.
Con la IA el juego se plantea distinto; aquí se tratará de acelerar el desarrollo para estar al menos un paso por delante de la amenaza, o viceversa, la amenaza por delante de la contención. En esta oportunidad el equilibrio será mucho más activo e inestable, lo que para nada asegurará un futuro predecible, y por ende, la brecha de incertidumbre puede mantenerse abierta indefinidamente, manteniendo el riesgo siempre presente. En la ingeniería genética pudiera ocurrir algo similar, aunque de consecuencias distintas, debido al poder destructivo que se puede alcanzar a través del desarrollo de virus y otras enfermedades de rápida propagación y letalidad que serían de difícil contención. De hecho, y más allá de las consideraciones sobre si el COVID19 fue una creación de laboratorio o surgió espontáneamente, la herramienta de contención que fue la vacuna tardó meses en estar disponible, y aún hoy se cuestionan sus efectos adversos y su eficacia.
De acuerdo con Suleyman es muy posible que la IA alcance en relativamente corto plazo la autoconciencia. Aquí estamos hablando de una entidad inteligente distinta (y superior) al humano, con capacidad de autopercibirse como un ser independiente, lo que nos llevaría a reconocer su real existencia en la lógica cartesiana del “cogito ergo sum”. Una vez más estaríamos frente un riesgo construido muy líquido enteramente por nosotros, al igual que la bomba nuclear, pero en esta ocasión, sin posibilidad alguna de contención; ya que la IA dispondría de su propio “libre albedrío” para protegerse de cualquier intento de ser conducida por una inteligencia inferior. Quedaríamos entonces a merced de que los algoritmos autocodificados sean “buenos” en su propia naturaleza y no decidan en algún punto de “hiperracionalidad” llegar a la conclusión que la raza humana representa una amenaza a su propia existencia.
En fin, esta nueva ola que se nos viene (The coming Wave) trae consigo un desafío de seguridad para la humanidad con el que hasta ahora no nos habíamos confrontado, estamos creando una fuerza tecnológica de tal magnitud y potencia que puede transformarnos en una especie luminosa y de posibilidades infinitas de cara al futuro, o sumergirnos en la apocalíptica distopía del fin de los tiempos con un futuro que no nos pertenece. Justo allí estamos.