- Sputnik Mundo
Ciencia
Los hallazgos más importantes y logros más emocionantes en el campo de la ciencia.

Podemos estar tranquilos: "Un robot nunca podrá llegar a ser humano"

Síguenos en
A propósito de la conferencia sobre robots asesinos de los días 13 y 17 de noviembre en Ginebra (Suiza), Sputnik habló con el especialista en inteligencia artificial y profesor en la Universidad de Berlín, Raúl Rojas González, sobre las perspectivas del desarrollo de este tipo de 'armas letales'. Rojas lo tiene claro: un robot jamás será humano.

El mexicano, nacionalizado alemán, indica que es precisamente esto lo que diferenciará siempre a la inteligencia humana de la artificial y también la razón por la que no parece una buena idea abandonar a los robots y a los drones militares a sus anchas sin la supervisión de un humano.

Sin embargo, durante la conferencia —patrocinada por la ONU—, en la que los representantes de los gobiernos de varios países y diversos especialistas discutieron sobre la posible prohibición de este tipo de máquinas, no se logró llegar a ningún acuerdo.

Guerras sin responsables

Vladímir Putin, presidente de Rusia, durante un discurso ante los participantes del Festival Internacional de la Juventud y los Estudiantes que se celebra en Sochi - Sputnik Mundo
Putin revela qué es más aterrador que la bomba atómica
Para que un sistema sea autónomo es necesario ante todo que sea capaz de tomar decisiones por su cuenta, explica a Sputnik Rojas. Los drones, por ejemplo, deberían ser capaces no solo de reconocer un tanque, sino también de perseguirlo si se desplaza. Pero en el caso de los robots asesinos, Rojas es de los que no albergan dudas.

"La verdad es que la frontera entre [este tipo de armas] y sistemas como son los misiles, que mediante GPS localizan a su objetivo, no está clara", dice a Sputnik, y arguye que esta es la razón por la que en la conferencia de Ginebra no se ha llegado a ningún acuerdo sobre la prohibición de este tipo de armas. Una prohibición de estas características afectaría a demasiados tipos de armamento.

Según el experto mexicano, el objetivo de las nuevas tecnologías militares es, en primer lugar, "mantener a las personas lejos de las zonas conflictivas en toda una serie de escenarios de guerra" pero a ese primer objetivo se le añade otro: el de que esa distancia entre las personas y el conflicto sea, además, psicológica. De manera que el tema de la responsabilidad por los actos cometidos queda relegada a un segundo plano.

Decisiones erróneas

Para Rojas, el principal peligro de los robots es que acaben tomando decisiones equivocadas, algo que puede suceder sobre todo en el caso de los drones. Una persona, explica, siempre puede confiar en su intuición y en su conocimiento de la situación.

Lea más: Drones rusos e inteligencia artificial, una combinación destinada al éxito

"Los robots, por el contrario, no tienen intuición", se limita a responder el investigador. "El robot está programado para poder responder a situaciones básicas. Es imposible programar todos los escenarios posibles".

Estudiantes chinos y robot Ares, diseñado por ellos - Sputnik Mundo
Inteligencia artificial: la disputa estratégica entre China y EEUU
Rojas argumenta también que a las máquinas se las puede engañar muy fácilmente, y pone como ejemplo a los cohetes que, guiados por calor, persiguen aeronaves. Esas mismas aeronaves pueden desprender objetos a altas temperaturas que acaben por despistar al misil.

A la pregunta de si con el tiempo todas estas limitaciones podrán ser solucionadas, el investigador mexicano vuelve a mostrarse escéptico. En su opinión, "es imposible" pedir a los drones y a los robots militares que aprendan a diferenciar entre 'enemigos' y ‘no enemigos'. Algo que resulta especialmente difícil, apunta, cuando quienes están implicados en el conflicto no llevan uniforme. "¿En base a qué señales se supone que van a diferenciarlos?", se pregunta el experto, que añade:

"Sería necesario que este tipo de armas contasen con inteligencia humana. Y eso, en mi opinión, es imposible".

Tampoco tendrán moral

"Creo que no se puede implementar la ética en las máquinas", dice Rojas. ¿Cómo se iba a comportar un robot asesino frente a un grupo de terroristas entre población civil? Los actos en este tipo de escenarios requieren, para el académico, un análisis racional de la situación y empatía. Cualidades todas ellas lejos del alcance de los robots.

Lea más: Elon Musk fusionará ordenadores con cerebros humanos a través de la "telepatía consensual"

Rojas se muestra cauto y cree que las máquinas no deberían tomar decisiones cuyos resultados pueden ser letales sin el consentimiento o la aprobación previa de un humano. "Alguien debería hacerse responsable de la situación y no echarle la culpa a las máquinas".

Lo último
0
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала