En directo
    Una robot

    Aplicaciones militares de la 'inteligencia artificial': el Boletín de Científicos Atómicos

    CC0 / Pixabay
    Firmas
    URL corto
    Alfredo Jalife-Rahme
    Hermenéutica Geopolítica (16)
    2110

    El Boletín de Científicos Atómicos —que ostenta 16 Premios Nobel y se ha dado a conocer con su ominoso "reloj del juicio del día final" que, por cierto, se encuentra a dos minutos de media noche—, indaga con "un paquete de cinco autores" las aplicaciones militares de la inteligencia artificial (IA).

    El Boletín colaboró con la Fundación Stanley que tiene un enfoque multilateral sobre la política nuclear, el cambio climático y la "prevención del genocidio".

    Juzgan que la IA, la robótica y el aprendizaje profundo "permiten nuevas capacidades militares que tendrán un impacto disruptivo en las estrategias militares" cuyos "efectos serán sentidos en el espectro de los requerimientos militares": desde el espionaje/vigilancia hasta los equilibrios entre ofensiva y defensiva y "en los mismos sistemas de armas nucleares (sic)".

    Los cinco expertos sopesan sus "usos potenciales en armas autónomas y sistemas de sensores" que impactarán los desafíos morales y prácticos para manejar la explosión de la I&D (Investigación y Desarrollo) militar de la IA.

    Más aquí: Elon Musk advierte sobre la aparición de un dictador inmortal

    El objetivo del Boletín y la Fundación es "preservar los avances a paso acelerado en el aprendizaje de las máquinas" de "un estallido global en la carrera armamentista de la IA que coloca un nuevo riesgo existencial a la humanidad".

    Las cinco series:

    1. 'La promesa y el peligro de las aplicaciones militares de la IA', por Michael C. Horowitz, director de Perry World House, de la Universidad de Pensilvania: la IA promete "mejorar la velocidad y la precisión de todo, desde la logística y la planeación del campo de batalla hasta la toma de decisiones".

    La IA ocupa "un momento en la Seguridad Nacional del Espacio" que va mucho más allá de los populares robots humanoides, lo cual ha sido abordado por Elon Musk, fundador de Tesla, quien aduce que  puede desencadenar una Tercera Guerra Mundial, no se diga la clásica frase del zar 'Vlady' Putin quien comentó que el país que controle la IA dominará al mundo.

    Para los militares "la IA no es un arma", sino "un facilitador, como la electricidad o un motor de combustión", por lo que su "efecto en el poder militar y el conflicto internacional dependerá de sus aplicaciones particulares para los militares como para los hacedores de la política".

    Además: Inteligencia Artificial: un físico teórico advierte del peligro de crear "al próximo Adolf Hitler"

    Para EEUU "ofrece una nueva ruta para sostener su superioridad militar, mientras reduce el costo y riesgo a sus soldados". Para "Rusia y China ofrece algo más valioso: la capacidad de quebrantar la superioridad militar de EEUU".

    Comporta tres áreas de aplicación potencial que contempla la "critica interacción entre ciberseguridad e IA": A- facilita el procesamiento de una infinidad de macrodatos mediante algoritmos que interpreten las imágenes mas rápido derivadas de la vigilancia de los drones; B- desde lo hipersónico hasta los ciberataques y; C- el "copiloto leal" que cuenta con algoritmos que coordine cuando no pueda hacerlo el controlador humano para guiarlo.

    Tema relacionado: El futuro llegó: bienvenidos a la era en que las máquinas piensan por sí mismas

    Una de sus aplicaciones es la creación de "sistemas autónomos letales" de los robots.

    2. 'Temor a falsos negativos y a la postura nuclear de China', por Lora Saalman, vicepresidenta del programa Asia/Pacífico del Instituto Este/Occidente: el entendimiento de la inseguridad china y su capacidad para detectar ataques, como "rayos caídos del cielo", y la integración de la IA y su autonomía en plataformas convencionales y nucleares.

    Advierte que China no maneja los "términos provocativos", como "singularidad (sic) en el campo de batalla", y cuando usan el término "singularidad" tiene otro significado que en EEUU.

    China busca integrar la IA y su autonomía para "mejorar la funcionalidad de un largo abanico de plataformas militares existentes". Su preocupación se centra en los "falsos negativos": fallas de los sistemas de alerta temprana para detectar un verdadero ataque, así como las "suposiciones sobre las intenciones de EEUU".

    No te lo pierdas: Cómo la inteligencia artificial está ahora al servicio de la Policía china (fotos)

    Cita a Cui Maodong, del Centro de Investigación Estratégica de la Academia China de Ingeniería, quien "implica que EEUU intenta jalar a China y a Rusia a una nueva carrera armamentista".

    3. 'La defensa frente al entretenimiento', por William Regli, director del Instituto de Investigación de Sistemas de la Universidad de Maryland: peligros a los cerebros humanos y a su civilización de un entretenimiento activado por la IA. Se trata de "no matar al espectador".

    Analiza la intersección de los avances de IA con las armas nucleares cuando la "trayectoria de los avances en IA y el aprendizaje de las máquinas apuntan a una posible creación de sistemas de armas que sean más autónomas y carezcan del control de los humanos", aunque "existe plena evidencia de que la edad de la autonomía que amenaza la existencia no ha llegado aún".

    Aduce que se puede adoptar la postura de que el estudio de temas —como la adicción a internet, procesos cognitivos asociados con una conducta inmersiva a las computadoras y la fisiología de la formación de la identidad— constituyen "temas para psiquiatras, antropólogos y médicos, no para científicos de la computación".

    Te puede interesar: ¿Existe la moral en los robots?

    Arguye que se debe convencer a los ingenieros de software que productos de programación, como un juego o una técnica de publicidad 'online', deben ser tratados como peligros potenciales: "constituyen disyuntivas morales que golpean en el corazón de los códigos éticos de las sociedades profesionales" cuando "nos encontramos en el precipicio de la edad de los sistemas simbióticos humanos-máquina" ya que los experimentos de las ciencias sociales sin control, que liga en forma intricada la vida de los humanos a las computadoras de la IA, pueden resultar en cambios en la especie humana.

    Más información aquí: La humanidad está a un paso de la cuarta revolución industrial: la neurotecnológica

    Es "potencialmente imposible crear una IA consciente" por lo que se puede imaginar "un sistema que pueda crear un efecto duradero en la parte humana del sistema humano-máquina", que puede "alterar químicamente los cerebros, manufacturar opiniones, reforzar patrones de conducta y exacerbar comportamientos que no son del interés individual y colectivo".

    4. 'Manifiestos y cartas abiertas: ¿regreso al futuro?', por Kerstin Vignard, vicedirectora del Instituto para la Investigación del Desarme de la ONU (UNIDIR): "el manejo de las armas letales autónomas necesitan una mayor participación de las comunidades científicas y de investigación, así como de representantes del sector privado".

    Investigadores en IA y robótica escribieron en 2017 una carta abierta a la Convención sobre ciertas (sic) armas convencionales con el fin de "prevenir una carrera armamentista de estas armas, proteger a los civiles de su mal uso y evitar los efectos desestabilizadores de estas tecnologías" ya que "una vez que se abra esta caja de Pandora será muy difícil cerrarla", en especial, las "armas autónomas".

    Se trata de "configurar los beneficios potenciales de la IA mientras se limitan sus peligros".

    Asunto relacionado: ¿Quién se hará cargo de los delitos que cometan los robots?

    Juegan un gran papel la Campaña para Detener a los Robots Asesinos, así como el Comité Internacional para el Control de Armas Robóticas.

    5. '¿Por qué el mundo necesita regular muy pronto las armas autónomas?', por Peter Asaro, cofundador del Comité Internacional del Control de Armas Robóticas.

    Una de las principales preocupaciones radica en la carrera de armas de la IA y el creciente uso de tecnologías digitales para subvertir los procesos democráticos.

    Más: Dile adiós a tu empleo: ¿dónde trabajarán los robots en el año 2035?

    Advierte sobre el hackeo potencial de armas automatizadas en la época de la ciberguerra: "Hay que tener robots razonables".

     

    • Conclusión

     

    No me quiero imaginar las discusiones bizantinas que se derivarán del uso y abuso de los "robots asesinos" y/o de los extravíos de la IA para fines aviesos cuando ahora, en la fase del finiquito de las armas químicas, 'Occidente' engaña con su perversa siembra de pruebas: desde el escabroso asunto Skripal hasta las armas químicas con su montaje por los Cascos Blancos en las afueras de Damasco.

    Sigue siendo válido el axioma renacentista de la bioética: ciencia sin conciencia es nesciencia.


    LA OPINIÓN DEL AUTOR NO COINCIDE NECESARIAMENTE CON LA DE SPUTNIK

    Tema:
    Hermenéutica Geopolítica (16)

    Además:

    Un ingeniero despedido de Google crea nueva religión
    La 'inteligencia artificial' de Putin provoca histeria en Estados Unidos
    Bill Gates duda que la inteligencia artificial nos sustituya a todos
    Armas del siglo XXI: los robots más temibles de Rusia (fotos)
    La lucha de robots de combate, un excitante pasatiempo en Rusia
    Etiquetas:
    militarización, militarismo, guerra de drones, guerra cibernética, robótica, robots, inteligencia artificial, armas, armas nucleares
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik