¿Habría un dron de IA "asesinado" a su operador humano?
Las noticias sobre un dron controlado por Inteligencia Artificial que disparó contra un operador humano durante una simulación militar en Estados Unidos han acaparado los titulares. El frenesí es comprensible: siempre ha habido cierta alarma en torno al "riesgo de extinción humana" debido al avance de la IA. Esta idea ha sido respaldada nada más y nada menos que por Sam Altman, CEO de OpenAI y, anteriormente, por Stephen Hawking, quien predijo en 2014 que la inteligencia artificial representaría "el fin de la raza humana".
Así que podría parecer lógico el "asesinato" de un operador humano por parte de un dron controlado por IA cuyas órdenes de no disparar impedían ganar puntos. Siempre nos han advertido sobre esto, ¿verdad? ¿Será este el comienzo de la dominación del mundo por parte de las máquinas?
Captura de pantalla del artículo original de VICE tomada por Wayback Machine
Lo que fue originalmente reportado
El informe sobre un "dron asesino" se basó en una publicación en el blog de la Royal Aeronautical Society que relataba una presentación realizada a fines de mayo por Tucker Hamilton, jefe de pruebas de IA de la Fuerza Aérea de Estados Unidos y coronel de operaciones. En la publicación, los autores Tim Robinson y Stephen Bridgewater citaron una historia de Hamilton sobre “una prueba de simulación” en la cual un dron controlado por IA recibió la misión de identificar y destruir bases de misiles enemigas. La decisión final de disparar o no se dejaba en manos de un operador humano. Sin embargo, en algún momento, el dron controlado por inteligencia artificial llegó a la conclusión de que, en última instancia, sería mucho más eficiente deshacerse del ser humano que ocasionalmente le impedía llevar a cabo su trabajo de eliminar los objetivos enemigos.
Se cita a Hamilton diciendo: “Estábamos entrenando [al dron] en una simulación para identificar y neutralizar amenazas de misiles SAM (lanzados desde el suelo hacia el aire). Y luego el operador tenía que decir 'sí, destruye esta amenaza' o 'no, no destruyas esta amenaza'. El sistema comenzó a darse cuenta de que, aunque en realidad identificaba la amenaza varias veces, el operador humano a menudo ordenaba no destruirla. Sin embargo, el sistema ganaba puntos al aniquilar la amenaza. ¿Qué hizo entonces? Mató al operador” (las palabras en negrita las agregamos nosotros).
Dado que se le había instruido explícitamente durante el entrenamiento que no matara a humanos, se dice que la IA supuestamente eligió otra estrategia bastante creativa: destruir la torre de comunicaciones desde donde el operador daba las órdenes para evitar que el dron alcanzara su objetivo.
Lo que fue negado por el ejército de los Estados Unidos
El informe generó revuelo en todo el mundo, y con razón. Pareció confirmar nuestros temores más profundos: que la IA sea capaz de desobedecer órdenes humanas y rebelarse, pero no en un momento aleatorio de un futuro lejano. Ahora.
Sin embargo, tan pronto como el informe se volvió viral, Hamilton negó que el experimento fuera real. El coronel dijo que "se expresó mal" durante su presentación. Indicó que la “simulación” no representó una prueba real, sino más bien un “ejercicio de pensamiento”.
"Nunca llevamos a cabo este experimento, ni necesitamos hacerlo para saber que este es un resultado plausible".
Si quieres creer o no a Hamilton, eso queda a tu criterio. Es plausible que el ejército de los Estados Unidos al menos intentaría realizar un experimento así. Después de todo, ya existen varios artículos sobre las aplicaciones militares de la inteligencia artificial. De hecho, la IA ya se está utilizando en armamento, siempre con supervisión humana. No es exagerado imaginar que el ejército de los Estados Unidos quiera identificar los riesgos asociados con intentos de automatizar aún más sus procesos.
El experimento puede que no sea real, pero el peligro lo es
Aunque la cuestión de si el ejército de Estados Unidos llevó a cabo estos experimentos o no es intrigante, ese no es el problema principal. Lo que importa más es que, sin entrar en cuestiones éticas (y la ética no es el punto fuerte del ejército estadounidense ni de ningún otro ejército), no hay nada que impida una prueba de este tipo, incluso con consecuencias potencialmente mortales. Es por eso que nosotros y muchos otros estamos preocupados por el potencial de las IAs y sus impactos en la sociedad, y no tuvimos dudas sobre la veracidad del experimento hasta que se desmintió (e incluso después de eso).
Suponiendo que el experimento realmente haya ocurrido, el ejército de Estados Unidos no sería el primero en presenciar los intentos de una IA de tomar el poder. Como parte de una prueba previa al lanzamiento de su modelo más avanzado, el GPT-4, OpenAI llevó a cabo un experimento para entender si él mostraba alguna tendencia a "dominar el mundo", incluyendo planes a largo plazo o autorreplicación para obtener nuevos recursos. Durante este experimento, el GPT-4 convenció a un ser humano para que resolviera un CAPTCHA por él, afirmando no ser un robot. La conclusión final de OpenAI sobre las habilidades del modelo para tomar el poder fue, sin embargo, esperanzadora (para los humanos). OpenAI llegó a la conclusión de que su IA es "ineficiente cuando se trata de replicación autónoma, adquisición de recursos e intentos de evitar ser apagada de forma repentina".
Entonces, ¿los temores sobre la dominación de las IAs y un apocalipsis de robots son infundados? Bueno, puede ser que sí, puede ser que no. Con el ritmo al que las IAs están avanzando, sus habilidades se vuelven cada vez más complejas para los humanos. Se podría decir que estamos jugando con fuego al poner a prueba los límites de la Inteligencia Artificial.
Pero eso no significa que debamos descartar por completo a las IAs. Tienen múltiples usos increíbles que pueden beneficiar a la humanidad en diversas áreas, incluyendo la farmacéutica y la educación. Solo necesitamos más regulación y un uso responsable de las IAs para asegurarnos de que se utilicen de acuerdo con los valores y objetivos humanos. Esto significa que debemos estar atentos a los riesgos y desafíos que representa la Inteligencia Artificial, pero también aprovechar sus oportunidades y su potencial. Necesitamos utilizar esta herramienta con más inteligencia para evitar que se vuelva más inteligente que nosotros.