Widgets Magazine
14:30 GMT +320 Octubre 2019
En directo
    Una explosión nuclear

    ¿Nos arrastrará la inteligencia artificial a una guerra nuclear?

    CC0 / Burnt Pineapple Productions / Atom Bomb Nuclear Explosion
    Defensa
    URL corto
    1160
    Síguenos en

    El exvicesecretario de Defensa estadounidense Robert Work alertó del peligro de integrar la inteligencia artificial en las armas nucleares otorgándole el control de cuándo usarlas. Lo hizo durante una conferencia sobre IA en el Laboratorio de Física Aplicada de la Universidad John Hopkins de EEUU.

    "Imaginen tener un sistema de predicción [basado] en inteligencia artificial en un sistema de mando y control nuclear que se dispararía con ciertos parámetros. Esa es una perspectiva mucho, mucho, muchísimo más alarmante que cualquier cosa que se pueda pensar parecida a un arma en concreto", alertó Work.

    El exvicesecretario de Defensa estadounidense defendió que es más peligroso otorgar ese control a la inteligencia artificial que crear un arma basada en ella. Según Work, la inteligencia artificial es necesaria, pero no se debe sobredimensionar su papel en los conflictos armados venideros.

    En una entrevista con Sputnik, el profesor adjunto y especialista en conflictos de guerra, paz y defensa de la Universidad de Carolina del Norte Mark Gubrud defendió que los humanos "son mejores juzgando las situaciones más complicadas y ambiguas", pero que cuando las cosas son simples y claras, las máquinas pueden reaccionar más rápido y con mayor precisión. Advirtió que en la guerra los errores son a menudo irreversibles y que no es buena idea que inteligencias artificiales se enfrenten entre sí.

    "Si los sistemas automatizados empiezan a pelear entre sí, puede que no seamos capaces de detenerlos antes de que sea demasiado tarde. Por lo tanto, no debemos permitir que se relaje el control humano", añadió Gubrud.

    El experto aboga por un tratado fuerte que convierta en algo obligatorio el control humano de todas las armas para que la inteligencia artificial detrás de ciertos sistemas de guerra no actúe sin supervisión. Lamenta que los países que lideran el desafrollo de armas autónomas movidas por IA —entre ellos Estados Unidos, China y Rusia—, se hayan resistido a fundar un tratado de este tipo.

    Una explosión nuclear, imagen ilustrativa
    Una explosión nuclear, imagen ilustrativa

    ¿Cómo es de realista un escenario en el que la IA esté conectada al arsenal nuclear de un país? Gubrud cree que es poco probable que EEUU o cualquier otra nación permita que una computadora dispare armas nucleares sin una decisión humana detrás. Recuerda que se dice que Rusia posee un sistema automatizado que puede reaccionar si un primer ataque destruye a la cúpula política del país y que algunos autores estadounidenses ahora están solicitando a EEUU que desarrolle un sistema similar. Espera, en el caso del sistema ruso, que haya un humano detrás.

    Cree que el mundo se acerca a un momento muy peligroso. Lo argumenta a la luz de "la destrucción de tratados y la llamada nueva carrera armamentística", en la que incluye nuevas armas nucleares y no nucleares que acortan los tiempos de ataque y de respuesta. Defiende que es necesario que tanto EEUU como Rusia renueven el tratado START y que, entre otras cosas, limiten las pruebas y el despliegue de misiles y que se prohíban las pruebas de misiles hipersónicos, las armas antisatélite y las espaciales.

    ¿Cómo sería de fiable una inteligencia artificial nuclear?

    El fundamental problema de la disuasión nuclear está en que solo se activa si puede fracasar, es decir, si la guerra nuclear sigue siendo una posibilidad y, por tanto, no se consigue disuadir a una tercera nación, analiza.

    Con los sistemas que alertan de un inminente ataque, prosigue, se intenta que nunca den una falsa alarma, "pero también que no se les pase advertir de un verdadero ataque nuclear", añade. Son, a su juicio, objetivos completamente imposibles de alcanzar simultáneamente: "Son objetivos contradictorios, ya que es imposible minimizar simultáneamente los 'falsos positivos' y los 'falsos negativos'".

    Los humanos también se pueden equivocar, reconoce. Pero cuando se trata de personas, subraya, "dedican a su trabajo toda su inteligencia y toda su comprensión" y saben lo que está en juego en caso de que aprieten el botón. "Siempre comprobarán una y otra vez que no se trata de un error" y que efectivamente se aproxima un ataque nuclear. En cualquier caso, el control humano es esencial, pero no suficiente, concluye: la única seguridad verdadera "es acabar con la carrera armamentista y con las armas nucleares".

    Etiquetas:
    guerra nuclear, inteligencia artificial
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik