La primera vez que se revelaron los problemas que plantean los robots asesinos fue en abril de 2013. Desde entonces, las únicas discusiones internacionales importantes sobre el tema han sido las dos reuniones informales que han tenido lugar en la Convención de la ONU sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés).
Este 12 y 13 de noviembre tuvo lugar la CCW. Para el día 13 se pautó una reunión informal para hablar sobre el tema. Las conclusiones no arrojaron mayores luces, ya que una vez más no se llegó a dictaminar ninguna prohibición ni regulación para las armas autónomas. Lo único resaltante es que las naciones presentes acordaron reunirse nuevamente en un encuentro diplomático que tendrá lugar del 11 al 15 de abril de 2016. Por primera vez la discusión sobre armas autónomas tendrá una semana entera de trabajo exclusivo.
Camilo Serna, subdirector de la Campaña Colombiana contra Minas e ingeniero electrónico, explica que el hecho de que la gente no se alerte es porque desconoce el grosor de la situación. «Aunque los avances no han llegado al punto que algunas personas se imaginan, donde un robot tiene semejanzas con Terminator, cierto es que no es necesario tener forma humana para matar. Un dron o un sistema antimisil o los robots que cuidan la frontera pueden hacerlo. ¿Qué es lo que los científicos están tratando de desarrollar? La identificación de los blancos. Que el robot pueda escoger su blanco y decidir si dispararle o no, y es una cuestión de algoritmo. Ya existen sensores que detectan formas de cara, que diferencian un humano de un animal, sensores de temperatura. Existe ese desarrollo, es cuestión de ponerlo todo junto y poder decir “usted tiene que matar a la persona que tiene estas características”».
Mucha de la tecnología que necesita un robot para ser armado, ya existe en el mercado. Entonces hablamos de sistemas que solo requieren contar con una base de datos más sofisticada que le permita determinar distintas fisonomías y que reconozca si la persona tiene un arma o explosivos (empleando el mismo sistema que se usa para detectar las minas), por ejemplo.
La preocupación genuina que han generado las armas autónomas ha conllevado a Amnistía Internacional no solo a involucrarse en tales discusiones sino también a apoyar la prohibición de tales armas. En un artículo escrito por la abogada Rasha Abdul Rahim, asesora en Control de Armas, Comercio, Seguridad y Derechos Humanos de Amnistía Internacional, se describen las razones por las cuales se deben tomar en serio a los robots asesinos. Entre tales razones, la abogada destaca que estas armas serían utilizadas abiertamente para la represión por parte de los gobiernos que no rinden cuentas.
Algunos gobiernos aseguran que estas armas reducirían los riesgos de perder soldados en el campo de batalla o miembros de la policía en operaciones peligrosas, pero no consideran la necesidad de que la persona que porta un arma y está en un escenario en el que puede matar a alguien necesita tener emociones, ya que la persona frente a él o ella puede tener el deseo de rendirse, por dar tan solo un ejemplo.
En la reunión de expertos en inteligencia artificial que tuvo lugar en Buenos Aires, Argentina, en julio de este año, científicos como Stephen Hawking y Elon Musk alertaron de los riesgos que se corren con los robots asesinos. Para el encuentro, más de mil científicos firmaron una carta que alerta sobre estos peligros.
Hawking dijo a la BBC que la inteligencia artificial podría significar el fin de la raza humana. ¿Exagerado? Camilo Serna no considera que se deba perder el tiempo en cuanto a este asunto, y que las “exageraciones” no son irreales ni mucho menos descabelladas:
«Podemos programar una máquina para que pueda disparar a un blanco con X características. Indicándole al sistema los rasgos de la cara, si está armado, incluso si tiene algún problema cardíaco. Se le pueden incluir muchas características para ordenarle que mate a alguien. En ese escenario, habría más beneficios que perjuicios. El problema es que la inteligencia artificial de los robots está diseñada para aprender, entonces ¿yo qué le estoy diciendo? Aprenda porque esos son “los malos”. El robot va a aprender que los malos son los que tienen esas características pero nada me puede asegurar a mí que ese aprendizaje de ese robot no genere perjuicios. Nosotros no somos perfectos y por más que la tecnología pueda ser “perfecta”, si pasa que hay una persona que se parece a otra, que haya un niño que tenga un arma de juguete, el robot podría tomar sus propias decisiones y podría matar a alguien porque tiene cierto parecido a otra persona, o porque esté “armado”, aunque sea un niño. El objetivo de la IA es darle inteligencia a las máquinas para que puedan tomar decisiones. Ahí es cuando la idealización de esas armas empieza a tener sus complicaciones y se empieza a parecer a lo que vemos en las películas».
Es necesario que las personas y, más importante aún, los gobiernos empiecen a tomarse el asunto en serio, ya que las posibilidades son más que reales y mientras en las reuniones no se concluye nada, la tecnología avanza y el desarrollo no para. Las personas que están en contra de la prohibición de las armas autónomas aseguran que estas podrían jugar un rol importantísimo en la promoción de la paz y ofreciendo seguridad a los no-combatientes en guerras. Pero Rasha Abdul Rahim lo refuta bien cuando dice: «Distinción, proporcionalidad y precaución son los tres pilares del derecho internacional humanitario, las leyes de la guerra. Las fuerzas armadas deben distinguir entre combatientes y no combatientes; las víctimas civiles y los daños a edificios civiles no deben ser excesivos en relación con la ventaja militar esperada; y todas las partes deben tomar las precauciones necesarias para proteger a los civiles». Y para determinar tales cosas, se requiere de juicio humano.
Por más complejas que sean las guerras, tienen unas reglas que están enmarcadas en el derecho internacional humanitario; es decir, si yo pierdo la guerra, llevo al perdedor a un tribunal a ser juzgado por sus crímenes, o incluso si alguien de mi bando comete un crimen, puedo juzgarlo, porque en una guerra hay muchos escenarios, como el de la misericordia o la rendición de cuentas, pero ¿a quién juzgo por los crímenes cometidos por una máquina?
La reunión pautada para abril de 2016 abre las puertas a nuevas posibilidades, que esperamos concluyan en una prohibición. Los robots asesinos constituyen una amenaza global que debe ser tomada en serio, ya que mientras más tardemos en hacerlo, menos posibilidades tendremos de detenerles.
Alexandra Perdomo
Miembro del Equipo de Documentación de Amnistía Internacional Venezuela