Se ha registrado correctamente
Por favor, haga clic en el enlace del correo electrónico enviado a
 - Sputnik Mundo
Ciencia
Los hallazgos más importantes y logros más emocionantes en el campo de la ciencia.

Mensajes apocalípticos y robots incontrolables: ¿cómo la 'inteligencia artificial' amenaza a la humanidad?

Síguenos en
A finales de julio, la red social Twitter empezó a bloquear de manera instantánea, con el uso de la inteligencia artificial (IA), todas las cuentas que utilizaban el nombre de Elon Musk como parte de la lucha contra el spam.

Twitter está introduciendo nuevas medidas que comprenden el uso de la IA contra estafas que se realizan a través de cuentas falsas con nombres de famosos, como el del presidente ejecutivo de Tesla y SpaceX, para atraer a una mayor cantidad de usuarios.

Unos jugadores de Dota 2 durante un torneo (archivo) - Sputnik Mundo
Tecnología
Una manada de 'drones' ya es capaz de vencer a un equipo humano (vídeo)
"Estamos desarrollando herramientas de 'machine learning' que identifiquen y actúen sobre redes de spam o cuentas automatizadas", explica el comunicado de Twitter.

El 'machine learning' o aprendizaje automático es una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.

Es decir, ahora la IA decide qué información debe llegar a los usuarios de las redes sociales y qué mensajes y cuentas deben ser bloqueadas.

Tema relacionado: La inteligencia artificial busca predecir cuándo moriremos

El propio Elon Musk advirtió en varias ocasiones del peligro que nos trae el desarrollo de la inteligencia artificial que podría salirse del control de los seres humanos.

El robot humanoide de Toyota - Sputnik Mundo
Ciencia
Inteligencia artificial: qué es lo que nos traen las máquinas que piensan
"Creo que el peligro de la IA es mucho mayor que el peligro de ojivas nucleares", subrayó Musk en marzo de este año.

El célebre físico Stephen Hawking también había advertido que la inteligencia artificial "podría desarrollar una voluntad propia que entre en conflicto con la de la humanidad" y la calificó como el "peor suceso en la historia de la civilización".

De hecho, la IA ya ha pasado a formar parte de la vida humana: desde las aplicaciones con funciones de asistente como Siri y Ok Google hasta los robots diseñados para sustituir al ser humano en ciertas profesiones.

Los casos de un comportamiento incontrolable de la IA son bastante frecuentes. El primero en agredir a una persona fue el robot Little Chubby, diseñado para educar a los niños, que se salió de control y atacó a un ser humano durante una feria internacional de tecnologías en China en 2016. El robot demolió un mostrador, rompió los cristales y cuando uno de los empleados trató de detenerlo, le causó varios cortes.

El mismo año, apareció un robot capaz de herir a una persona, es decir, violar la llamada primera ley de la robótica que establece que "un robot no puede hacer daño a un ser humano". Este robot es capaz de pinchar el dedo de una persona intencionalmente. La máquina decide de manera autónoma si herir o no al ser humano y ni siquiera su propio creador puede predecir sus acciones.

Asimismo, en julio del año pasado, el robot K5 diseñado para vigilar y prevenir crímenes se negó a cumplir su tarea y se 'suicidó' al tirarse a una fuente de agua.

Recientemente, el traductor de Google, otra plataforma que utiliza la IA, predijo el fin del mundo. La herramienta muestra sospechosas profecías religiosas si se escribe una serie concreta de palabras.

"Nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús", decía la plataforma al traducir la palabra 'dog' introducida 19 veces.

Más: Google comienza a predecir "el fin de los tiempos y el regreso de Jesús"

Periódicos - Sputnik Mundo
Tecnología
La inteligencia artificial podría amenazar nuestra forma de informarnos
A pesar de estos y otros episodios negativos en la interacción del ser humano con la IA, un gran número de especialistas apoya el desarrollo de las tecnologías de este tipo y no ve ninguna amenaza para la humanidad en su aplicación. Entre ellos, Steve Wozniak, cofundador de Apple, está seguro de que "las máquinas no se volverán en contra nuestra si nos ven como amigos".

Mientras tanto, otros expertos subrayan que es necesario establecer un estricto control sobre el desarrollo de la AI que evite que cualquiera pueda dedicarse al desarrollo de los robots inteligentes. También piden prestar mayor atención y tener un extremo cuidado a la hora de desarrollar robots militares con el uso de la inteligencia artificial.

Además: El Pentágono gastará 1.000 millones de dólares para desarrollar robots de combate

Lo último
0
Recientes primeroAntiguos primero
loader
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала