03:28 GMT +314 Diciembre 2017
En directo
    Soldados ponen a punto un dron MQ-9

    Podemos estar tranquilos: "Un robot nunca podrá llegar a ser humano"

    CC BY 3.0 / US Air Force / Combat Hammer exercise
    Tecnología
    URL corto
    0 40

    A propósito de la conferencia sobre robots asesinos de los días 13 y 17 de noviembre en Ginebra (Suiza), Sputnik habló con el especialista en inteligencia artificial y profesor en la Universidad de Berlín, Raúl Rojas González, sobre las perspectivas del desarrollo de este tipo de 'armas letales'. Rojas lo tiene claro: un robot jamás será humano.

    El mexicano, nacionalizado alemán, indica que es precisamente esto lo que diferenciará siempre a la inteligencia humana de la artificial y también la razón por la que no parece una buena idea abandonar a los robots y a los drones militares a sus anchas sin la supervisión de un humano.

    Sin embargo, durante la conferencia —patrocinada por la ONU—, en la que los representantes de los gobiernos de varios países y diversos especialistas discutieron sobre la posible prohibición de este tipo de máquinas, no se logró llegar a ningún acuerdo.

    Guerras sin responsables

    Para que un sistema sea autónomo es necesario ante todo que sea capaz de tomar decisiones por su cuenta, explica a Sputnik Rojas. Los drones, por ejemplo, deberían ser capaces no solo de reconocer un tanque, sino también de perseguirlo si se desplaza. Pero en el caso de los robots asesinos, Rojas es de los que no albergan dudas.

    "La verdad es que la frontera entre [este tipo de armas] y sistemas como son los misiles, que mediante GPS localizan a su objetivo, no está clara", dice a Sputnik, y arguye que esta es la razón por la que en la conferencia de Ginebra no se ha llegado a ningún acuerdo sobre la prohibición de este tipo de armas. Una prohibición de estas características afectaría a demasiados tipos de armamento.

    Según el experto mexicano, el objetivo de las nuevas tecnologías militares es, en primer lugar, "mantener a las personas lejos de las zonas conflictivas en toda una serie de escenarios de guerra" pero a ese primer objetivo se le añade otro: el de que esa distancia entre las personas y el conflicto sea, además, psicológica. De manera que el tema de la responsabilidad por los actos cometidos queda relegada a un segundo plano.

    Decisiones erróneas

    Para Rojas, el principal peligro de los robots es que acaben tomando decisiones equivocadas, algo que puede suceder sobre todo en el caso de los drones. Una persona, explica, siempre puede confiar en su intuición y en su conocimiento de la situación.

    Lea más: Drones rusos e inteligencia artificial, una combinación destinada al éxito

    "Los robots, por el contrario, no tienen intuición", se limita a responder el investigador. "El robot está programado para poder responder a situaciones básicas. Es imposible programar todos los escenarios posibles".

    Rojas argumenta también que a las máquinas se las puede engañar muy fácilmente, y pone como ejemplo a los cohetes que, guiados por calor, persiguen aeronaves. Esas mismas aeronaves pueden desprender objetos a altas temperaturas que acaben por despistar al misil.

    A la pregunta de si con el tiempo todas estas limitaciones podrán ser solucionadas, el investigador mexicano vuelve a mostrarse escéptico. En su opinión, "es imposible" pedir a los drones y a los robots militares que aprendan a diferenciar entre 'enemigos' y ‘no enemigos'. Algo que resulta especialmente difícil, apunta, cuando quienes están implicados en el conflicto no llevan uniforme. "¿En base a qué señales se supone que van a diferenciarlos?", se pregunta el experto, que añade:

    "Sería necesario que este tipo de armas contasen con inteligencia humana. Y eso, en mi opinión, es imposible".

    Tampoco tendrán moral

    "Creo que no se puede implementar la ética en las máquinas", dice Rojas. ¿Cómo se iba a comportar un robot asesino frente a un grupo de terroristas entre población civil? Los actos en este tipo de escenarios requieren, para el académico, un análisis racional de la situación y empatía. Cualidades todas ellas lejos del alcance de los robots.

    Lea más: Elon Musk fusionará ordenadores con cerebros humanos a través de la "telepatía consensual"

    Rojas se muestra cauto y cree que las máquinas no deberían tomar decisiones cuyos resultados pueden ser letales sin el consentimiento o la aprobación previa de un humano. "Alguien debería hacerse responsable de la situación y no echarle la culpa a las máquinas".

    Además:

    Drones egipcios abaten a 15 radicales implicados en el atentado en el Sinaí
    Rusia empieza a realizar pruebas de drones de ataque
    Etiquetas:
    guerra de drones, MQ-9 Reaper, Ginebra
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik