Es uno de los escenarios más inquietantes, imaginado en la ciencia ficción y en las películas de Hollywood pero cada vez más cercano: la inteligencia artificial (IA) que se rebela contra el hombre e incluso lo elimina.
Por Semana
Algo así sucedió virtualmente en una historia que pronto se tornó eje de la prensa amarilla, se trata de un dron militar estadounidense guiado por IA que en una simulación, para cumplir su misión, “mató” al operador encargado de seguirlo desde la Tierra.
El coronel Tucker “Cinco” Hamilton, jefe de las pruebas de inteligencia artificial de la Fuerza Aérea de Estados Unidos, describió este caso límite completamente en la computadora durante la cumbre Future Combat Air and Space Capabilities, celebrada en Londres la semana pasada, con varios detalles sobre el alarmante “fuego amigo”, para luego retractarse hoy una vez que se había hablado en muchos medios de prensa y había llegado la desmentida del Pentágono.
En el ‘juego de guerra’ de las fuerzas armadas estadounidenses descripto por Hamilton, el dron debía neutralizar el sistema de defensa antiaéreo de un enemigo pero la inteligencia artificial, a pesar de haber identificado la amenaza, en algunos casos recibía órdenes del operador de no impactar contra el objetivo. Una forma de probar la respuesta a diferentes comandos a nivel de interacción hombre-máquina.
Para Hamilton, algo salió mal cuando el dron se rebeló disparando al operador, representado virtualmente por una torre de transmisión, “porque esa persona le impedía llegar a su objetivo”. Una situación de pesadilla, por tanto, que recuerda a películas como “Juegos de guerra” de 1984, en las que el ordenador, para cumplir la misión, según la programación deseada por el hombre, intenta desencadenar una guerra nuclear entre Estados Unidos y la URSS.
Lea más en Semana