En un momento en el que Elon Musk insiste especialmente en que los Gobiernos deberían regular la inteligencia artificial (IA) antes de que sea demasiado tarde y destruya puestos de trabajo o nos lleve a una guerra sin cuartel, el artículo asegura que comenzar a plantearse este tipo de cuestiones es el camino correcto.
"Las academias de policía tienen que empezar a incluir la IA en sus programas académicos. Los expertos en ética y demás autoridades deberían iniciar un debate sobre los pros y los contras de las armas que hipotéticamente pueden acabar apareciendo (…) Sin embargo, no creo que la IA se pueda o se deba detener en seco", asegura el autor.
Esa inteligencia artificial será el corazón de las armas autónomas; unas armas que no necesitarán preguntar a nadie si deben disparar o no ni a qué, quién o cuándo:
"Estados Unidos tiene que tomar cartas en el asunto inmediatamente. La gente tiene motivos para temer a las armas autónomas", asevera.
Los autores están convencidos de que pronto este tipo de tecnología será una realidad y de que será el programador de su 'software' el encargado dictar las reglas del juego.
Lea más: ¿Qué hay detrás de los planes de EEUU de crear un arma capaz de pensar?
"[Ese software] pueden ser altamente conservador y restrictivo y abrir fuego a objetivos sin que un humano intervenga", alertan O'Hanlon y Robert Karlen, coautor del artículo, desde el rotativo.
Una tecnología (casi) nueva
Este tipo de armas 'semiautomáticas' como el sistema Phalanx estadounidense —un sistema de torretas de proximidad que pueden funcionar en modo automático e incluso recargarse por sí solas— están en el campo de batalla ya en la actualidad.
Matar a la IA antes de que nazca, un error
A pesar de los peligros que comporta este tipo de armas, prohibirlas de manera fulminante no es el camino correcto. No por ahora. Para ejemplo, las armas nucleares.
"Si bien el Tratado de No Proliferación de armas nucleares lo han firmado muchos países, eso no ha evitado que Corea del Norte se haya puesto las pilas con su arsenal nuclear. Pero al menos Estados Unidos tiene el suyo propio con el que podemos disuadir a este tipo de países. Una técnica que hasta ahora ha funcionado", recuerdan los autores.
Lea más: Drones submarinos, el siguiente paso de las tecnologías marítimas
En otras palabras, prohibir el desarrollo de la IA sería contraproducente a estas alturas, en las que Estados Unidos todavía no tiene un arsenal de armas automáticas.
"Terceros países y estados no aliados podrían aun así desarrollarlas y dejarían a Estados Unidos y a sus aliados en desventaja", reflexionan.
Los autores aseguran que es el momento de abrir un debate sobre el desarrollo de este tipo de armas y sobre el futuro que a estas les espera. "Y tenemos que hacerlo ahora".