Se ha registrado correctamente
Por favor, haga clic en el enlace del correo electrónico enviado a
 - Sputnik Mundo, 1920
Qué pasa
La incertidumbre se apodera del mundo cada vez más. En Sputnik tomamos distancia para poder explicarte lo que está sucediendo. Análisis y opiniones de voces autorizadas sobre los asuntos más relevantes a nivel global. 15 minutos, de lunes a sábados.

Deepfake: ¿esclavizarán pronto las máquinas a los seres humanos?

Deepfake: ¿esclavizarán pronto las máquinas a los seres humanos?
Síguenos en
Deepfake. El arma que podría acabar con la civilización tal como la conocemos. Esta inteligencia artificial avanza tan rápido, que según expertos dentro de dos años no se sabrá si un video es real o no. Ante este escenario, la duda que se plantea es si el ser humano tendrá algún tipo de defensa contra estas tecnologías.

¿Apocalipsis?

Puede que dentro de dos o tres años, alguien vea un vídeo en el que aparezca algún político o alguna otra figura pública, haciendo unas declaraciones que pueden provocar una guerra real. Pero, ¿a qué tipo de peligros se enfrenta el ser humano?
El analista militar Juan Aguilar es contundente: "Los peligros son infinitos. Hay peligros que son previsibles, porque ya viendo la técnica para lo que se utiliza, los imaginas. Y luego hay un peligro que es casi ontológico que afecta a la propia civilización humana".
De acuerdo al experto, la tecnología es un Dios bifronte, es como Jano, tiene dos caras. "Siempre los tecnólogos nos dicen que la tecnología no es buena ni mala, la tecnología es, dependiendo de quien la utilice. La tecnología nuclear se puede utilizar para fines pacíficos, o se pueden hacer armas nucleares. Eso lo decide el hombre. Hasta ahora", puntualiza Aguilar.
Y aunque originalmente, en el caso de las deepfake, esta tecnología se haya pensado para mejorar los resultados de una película de ciencia ficción donde se necesite una serie de efectos especiales, al final también se utiliza para todo aquello que de forma maléfica se pueda utilizar, advierte.
Aguilar menciona como ejemplo, casos como el famoso vídeo de Obama y otros muchos que circulan por las redes, donde una serie de algoritmos oponentes, utilizando imágenes y audios, se enfrentan en oposición para ir mejorando la calidad de esas imágenes. "Se calcula que vídeos de este tipo tienen una perfección en un 86%, pero no se duda que dentro de, entre dos y cinco años, se llegue a un 99% de perfección, lo que hará prácticamente imposible de distinguir un vídeo real, de una deepfake", observa.
Aquí se abre toda una serie de posibilidades de uso. "Por ejemplo, la deepfake puede ser un arma de guerra mediática: se puede utilizar para desprestigiar a oponentes políticos, a un país enemigo, o crear campañas mediáticas terribles. Se puede utilizar para el asesinato social contra un político, contra un empresario, contra una persona famosa, o contra 'el vecino de en frente'", detalla el también periodista.
La gravedad de las consecuencias del manejo de las deepfake puede ser tal, que se puede utilizar para crear una prueba falsa para un juicio, y el juez y la instrucción del juzgado necesitarían tener unos peritos muy especializados para poder determinar si un vídeo es real o falso. "Es decir, se abre todo un abanico de posibilidades donde esto puede tener unas implicaciones terribles, y sobre todo en el aspecto de la política internacional, es un arma de guerra. Y además, lo terrible es que hay poca defensa. Las posibles defensas son, o para personal muy especializado que puede determinar con cierto grado de rigor si un vídeo es falso o no, o aquellos que tienen una cultura y posicionamiento crítico con respecto a la realidad y un conocimiento que puede determinar si esto tiene sentido, o no", abunda Aguilar.

Los deepfake y los medios

"Yo soy muy pesimista en cuanto a los códigos deontológicos, legislaciones y cosas por el estilo. Eso no va a impedir el desarrollo tecnológico, es imposible, no lo ha impedido nunca en ninguna etapa de la humanidad. Si un código deontológico, una legislación, prohibiera las técnicas que permiten la deepfake, es decir, el hecho de trabajar con algoritmos enfrentados y perfeccionando el tema, si no lo permitiera, da igual: el que respetara la legislación se acabaría encontrando en inferioridad de condiciones frente a aquel que no la respeta. Y sabiendo como trabajan los servicios de inteligencia y los servicios secretos de todo el mundo, nadie va a tener la seguridad de que alguien no lo esté utilizando", advierte el experto.
Según el analista, en este salto tecnológico hay una cosa con respecto a los deepfake que es muy preocupante, y es la pérdida de la realidad: "si no podemos distinguir en un momento determinado qué es real, de lo que no es real, no hay posibilidad de objetividad. Si no hay posibilidad de objetividad, lo que está en peligro simplemente es el conocimiento de la verdad. Entonces, ¿dónde quedan términos como 'libertad', 'soberanía', incluso palabras como 'democracia', qué contenido acabarán teniendo, si no es posible conocer la verdad, si no es posible tener objetividad sobre la realidad que te rodea? Si la realidad se vuelve líquida, la verdad se evapora".
"La inmensa mayoría [de las personas] va a vivir pensando que vive en una realidad que no lo es, con lo cual su objetividad es nula, y su capacidad de aprehender la verdad, se le escapa. ¿Cómo va a decidir, en base a qué? ¿Qué sentido tiene la democracia en ese momento? Esto implica una fractura antropológica que es muy peligrosa y preocupante. Y este es el futuro con todas estas técnicas, que por otro lado, es imparable", sentencia Juan Aguilar.
Lo último
0
Recientes primeroAntiguos primero
loader
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала