En directo
    Un robot (imagen referencial)

    Mensajes apocalípticos y robots incontrolables: ¿cómo la 'inteligencia artificial' amenaza a la humanidad?

    CC0 / Pixabay
    Tecnología
    URL corto
    María Ivánnikova
    240

    A finales de julio, la red social Twitter empezó a bloquear de manera instantánea, con el uso de la inteligencia artificial (IA), todas las cuentas que utilizaban el nombre de Elon Musk como parte de la lucha contra el spam.

    Twitter está introduciendo nuevas medidas que comprenden el uso de la IA contra estafas que se realizan a través de cuentas falsas con nombres de famosos, como el del presidente ejecutivo de Tesla y SpaceX, para atraer a una mayor cantidad de usuarios.

    "Estamos desarrollando herramientas de 'machine learning' que identifiquen y actúen sobre redes de spam o cuentas automatizadas", explica el comunicado de Twitter.

    El 'machine learning' o aprendizaje automático es una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.

    Es decir, ahora la IA decide qué información debe llegar a los usuarios de las redes sociales y qué mensajes y cuentas deben ser bloqueadas.

    Tema relacionado: La inteligencia artificial busca predecir cuándo moriremos

    El propio Elon Musk advirtió en varias ocasiones del peligro que nos trae el desarrollo de la inteligencia artificial que podría salirse del control de los seres humanos.

    "Creo que el peligro de la IA es mucho mayor que el peligro de ojivas nucleares", subrayó Musk en marzo de este año.

    El célebre físico Stephen Hawking también había advertido que la inteligencia artificial "podría desarrollar una voluntad propia que entre en conflicto con la de la humanidad" y la calificó como el "peor suceso en la historia de la civilización".

    De hecho, la IA ya ha pasado a formar parte de la vida humana: desde las aplicaciones con funciones de asistente como Siri y Ok Google hasta los robots diseñados para sustituir al ser humano en ciertas profesiones.

    Los casos de un comportamiento incontrolable de la IA son bastante frecuentes. El primero en agredir a una persona fue el robot Little Chubby, diseñado para educar a los niños, que se salió de control y atacó a un ser humano durante una feria internacional de tecnologías en China en 2016. El robot demolió un mostrador, rompió los cristales y cuando uno de los empleados trató de detenerlo, le causó varios cortes.

    El mismo año, apareció un robot capaz de herir a una persona, es decir, violar la llamada primera ley de la robótica que establece que "un robot no puede hacer daño a un ser humano". Este robot es capaz de pinchar el dedo de una persona intencionalmente. La máquina decide de manera autónoma si herir o no al ser humano y ni siquiera su propio creador puede predecir sus acciones.

    Asimismo, en julio del año pasado, el robot K5 diseñado para vigilar y prevenir crímenes se negó a cumplir su tarea y se 'suicidó' al tirarse a una fuente de agua.

    Recientemente, el traductor de Google, otra plataforma que utiliza la IA, predijo el fin del mundo. La herramienta muestra sospechosas profecías religiosas si se escribe una serie concreta de palabras.

    "Nos estamos acercando cada vez más al final de los tiempos y al regreso de Jesús", decía la plataforma al traducir la palabra 'dog' introducida 19 veces.

    Más: Google comienza a predecir "el fin de los tiempos y el regreso de Jesús"

    A pesar de estos y otros episodios negativos en la interacción del ser humano con la IA, un gran número de especialistas apoya el desarrollo de las tecnologías de este tipo y no ve ninguna amenaza para la humanidad en su aplicación. Entre ellos, Steve Wozniak, cofundador de Apple, está seguro de que "las máquinas no se volverán en contra nuestra si nos ven como amigos".

    Mientras tanto, otros expertos subrayan que es necesario establecer un estricto control sobre el desarrollo de la AI que evite que cualquiera pueda dedicarse al desarrollo de los robots inteligentes. También piden prestar mayor atención y tener un extremo cuidado a la hora de desarrollar robots militares con el uso de la inteligencia artificial.

    Además: El Pentágono gastará 1.000 millones de dólares para desarrollar robots de combate

    Además:

    Cada vez más cerca de los humanos: сrean un robot con músculos vivos (vídeo)
    Cómo la inteligencia artificial está ahora al servicio de la Policía china (fotos)
    La inteligencia artificial supera a los mejores abogados en su negocio
    Descríbamelo: la inteligencia artificial crea dibujos a partir de un texto
    Inteligencia Artificial: un físico teórico advierte del peligro de crear "al próximo Adolf Hitler"
    Etiquetas:
    humanidad, amenaza, inteligencia artificial, tecnología, Stephen Hawking, Elon Musk, Steve Wozniak
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik