Widgets Magazine
10:16 GMT +318 Septiembre 2019
En directo
    Dron estadounidense (imagen referencial)

    Las armas automáticas: ¿una amenaza que no se debe detener?

    CC BY-SA 2.0 / KAZ Vorpal / Predator KAZ
    Defensa
    URL corto
    114
    Síguenos en

    La inteligencia artificial en el ámbito militar está a la vuelta de la esquina y Estados Unidos debería tomar la delantera al resto de países. Regular el uso de esta tecnología es buena idea, pero solo hasta cierto punto, afirma Michael O'Hanlon, especialista en defensa y política exterior, en The National Interest.

    En un momento en el que Elon Musk insiste especialmente en que los Gobiernos deberían regular la inteligencia artificial (IA) antes de que sea demasiado tarde y destruya puestos de trabajo o nos lleve a una guerra sin cuartel, el artículo asegura que comenzar a plantearse este tipo de cuestiones es el camino correcto.

    "Las academias de policía tienen que empezar a incluir la IA en sus programas académicos. Los expertos en ética y demás autoridades deberían iniciar un debate sobre los pros y los contras de las armas que hipotéticamente pueden acabar apareciendo (…) Sin embargo, no creo que la IA se pueda o se deba detener en seco", asegura el autor.

    Tal es la importancia que adquirirá la inteligencia artificial en el futuro que, además, se hace urgente que Estados Unidos tome la delantera.

    Esa inteligencia artificial será el corazón de las armas autónomas; unas armas que no necesitarán preguntar a nadie si deben disparar o no ni a qué, quién o cuándo:

    "Estados Unidos tiene que tomar cartas en el asunto inmediatamente. La gente tiene motivos para temer a las armas autónomas", asevera.

    Los autores están convencidos de que pronto este tipo de tecnología será una realidad y de que será el programador de su 'software' el encargado dictar las reglas del juego.

    Lea más: ¿Qué hay detrás de los planes de EEUU de crear un arma capaz de pensar?

    "[Ese software] pueden ser altamente conservador y restrictivo y abrir fuego a objetivos sin que un humano intervenga", alertan O'Hanlon y Robert Karlen, coautor del artículo, desde el rotativo.

    Una tecnología (casi) nueva

    Pero quienes crean que una tecnología de estas características es algo totalmente nuevo, se equivocan. Al menos en parte. Los misiles crucero, recuerdan, "ya vuelan e impactan y detonan sus cabezas automáticamente".

    Este tipo de armas 'semiautomáticas' como el sistema Phalanx estadounidense —un sistema de torretas de proximidad que pueden funcionar en modo automático e incluso recargarse por sí solas— están en el campo de batalla ya en la actualidad.

    Matar a la IA antes de que nazca, un error

    A pesar de los peligros que comporta este tipo de armas, prohibirlas de manera fulminante no es el camino correcto. No por ahora. Para ejemplo, las armas nucleares.

    "Si bien el Tratado de No Proliferación de armas nucleares lo han firmado muchos países, eso no ha evitado que Corea del Norte se haya puesto las pilas con su arsenal nuclear. Pero al menos Estados Unidos tiene el suyo propio con el que podemos disuadir a este tipo de países. Una técnica que hasta ahora ha funcionado", recuerdan los autores.

    Lea más: Drones submarinos, el siguiente paso de las tecnologías marítimas

    En otras palabras, prohibir el desarrollo de la IA sería contraproducente a estas alturas, en las que Estados Unidos todavía no tiene un arsenal de armas automáticas.

    "Terceros países y estados no aliados podrían aun así desarrollarlas y dejarían a Estados Unidos y a sus aliados en desventaja", reflexionan.

    Los autores aseguran que es el momento de abrir un debate sobre el desarrollo de este tipo de armas y sobre el futuro que a estas les espera. "Y tenemos que hacerlo ahora".

    Etiquetas:
    armas autónomas, inteligencia artificial, armas nucleares, Tesla Motors, Elon Musk, EEUU
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik