- Sputnik Mundo
Tecnología
Lo más destacado sobre los últimos avances tecnológicos e innovaciones.

Un grupo de investigadores te propone que insultes a tu móvil para mejorar el mundo

CC0 / Pexels / Un teléfono enfadado (imagen referencial)
Un teléfono enfadado (imagen referencial) - Sputnik Mundo
Síguenos en
Investigadores de tecnología del lenguaje de Jaén y Alicante están desarrollando herramientas computacional para prevenir el lenguaje de odio en la red, 'fake news', síntomas de depresión o ciberacoso. Para ello, precisan de colaboración ciudadana y han creado una app para que el usuario la insulte.
La interacción digital afecta hoy a prácticamente todos los ámbitos sociales. La manera en la que nos expresamos por escrito en las redes sociales es cada vez más similar a cómo hablamos. Por eso, investigadores de la Universidad de Jaén y de Alicante están desarrollando Tecnologías del Lenguaje Humano (TLH) que pueden, lo creas o no, mejorar el mundo.
© Foto : Cortesía de Maite MartínLa investigadora Maite Martín Valdivia junto al equipo SINAI de la Universidad de Jaén
La investigadora Maite Martín Valdivia junto al equipo SINAI de la Universidad de Jaén - Sputnik Mundo
"La tecnología del lenguaje humano no está muy desarrollada en español, casi todas las aportaciones e innovaciones son del inglés, trabajamos para suplir esas carencias", explica a Sputnik Maite Martín, investigadora principal de la Universidad de Jaén y del proyecto de investigación LIVING-LANG.
Para avanzar, estos científicos necesitan aumentar el corpus de análisis, la materia con la que perfeccionar las herramientas de análisis y gestión informática. Para ello, han dado un paso singular, crear una app para que el usuario la insulte. La idea es sencilla, la descargas, le insultas al móvil, te desahogas o te ríes, pero a la vez, estás contribuyendo al desarrollo científico, esa es la magia de Fiero, un bot que se inserta en Telegram.
"Lo interesante no es Fiero, es todo lo que podemos conseguir con esta aplicación", detalla Maite Martín. La intención es que este desarrollo permita contar con un "centinela" que detecte la aparición de insultos en redes sociales o emisiones, los mismos insultos que Fiero está recibiendo y acumulando con tu colaboración.
"Lo más positivo es que con esta herramienta estamos permitiendo que el sistema aprenda de nosotros, aprenda cómo hablamos verdaderamente, es como si tratáramos de poner un micrófono para recoger cómo se habla verdaderamente en la calle", explica Martín.
Los investigadores contaban con la lista de insultos de diccionarios, pero los insultos de la RAE no se actualizan a la misma velocidad. Nadie insulta a un amigo diciéndole "zoquete" o "mequetrefe" a no ser que viaje en el tiempo o sea asiduo de la pedantería. "Necesitábamos mantener viva la información, al igual que es vivo el lenguaje". Los insultos son un síntoma del lenguaje, evolucionan rápidamente, "hemos detectado, por ejemplo, que uno de los insultos que preceden al lenguaje de odio es tu eres de Podemos o tú eres de VOX".
Por el momento, la investigación avanza gracias a la nada insultante colaboración de los usuarios en Fiero: en las dos primeras jornadas ya contaban con más de 7.000 interacciones. "Con este tipo de herramientas podemos detectar y prever problemas sociales graves".

Miénteme, dime que me informas

"Aunque siempre han existido, gracias a la tecnología las 'fake news' hoy tienen un alcance social y económico casi ilimitado", por ello, otra de las patas de la investigación es detectar contenidos fraudulentos y fake news en la red. Patricio Martínez, de la Universidad de Alicante, es el responsable de este apartado. Analizando tanto la forma de este tipo de noticias como los contenidos, han descubierto patrones comunes en el lenguaje.
"Trabajamos técnicas de verificación, con noticias realmente periodísticas como referencia, por ahora nuestra herramienta tiene un porcentaje de acierto del 80%", detalla Patricio.
© Foto : Cortesía de Patricio Martínez BarcoProfesor Patricio Martínez Barco, catedráticode la Universidad de Alicante
Profesor Patricio Martínez Barco, catedráticode la Universidad de Alicante - Sputnik Mundo
Lo relevante de este desarrollo es que la detección de contenidos fake se logra sin "un repositorio de verdad", es decir, sin tener que acudir a la fuente de información, solamente por la propia redacción del contenido.
Aviso para navegantes, el equipo ha detectado la utilización de alusiones a expertos que nunca son nombrados o que, si lo son, son falsas fuentes, porque lo que importa en ellas es que te impacten, "en el patrón sensacionalista lo relevante es solo que te alarmes, así que la fuente, la veracidad no es importante".
Otra de las alarmas que saltaron en la Universidad de Alicante es que hay fake news de barrio, "que son igualmente dañinas, pero que además, no cuentan con herramientas para contrarrestar su alcance".
Cerebro, imagen referencial - Sputnik Mundo
Psiquiatra robot: la inteligencia artificial podría ayudar a tratar los trastornos mentales
¿Cuántas veces han oído durante esta pandemia que el bar de la esquina ha sido un foco de contagio, o que en tal o cual pueblecito están cayendo como moscas? Las plataformas de verificación de las redes sociales o las principales entidades encargadas de la misma, como Newtral o Maldita en España, "no se encargan de los bulos locales. Por eso estamos perfeccionado esta herramienta, 'Fake free admin', que pondremos en mano de Ayuntamientos y Diputaciones".

Discurso de odio

Los insultos de Fiero son pistas que ayudan a los investigadores a detectar el lenguaje ofensivo-agresivo que, presumiblemente, forma parte del lenguaje de odio. "Bajamos el listón del discurso de odio a patrones lingüísticos. Ten en cuenta que, si para los humanos no hay consenso y lo que para unos es discurso de odio, para otros es libertad de expresión, para las máquinas es igualmente difícil", explica Maite Martín.
Si los insultos son los síntomas que nos pueden llevar al delito, a la mentira, el análisis del lenguaje computacional "también permite detectar otros problemas sociales graves". El equipo de Investigación SINAI, introduciendo textos y patrones de redes neuronales, detectó en la red un foro que acumulaba mensajes que propiciaban prácticas alimentarias, "el foro de la anorexia", ejemplifica Maite, para quien la salud mental es una prioridad.
"Con esta herramienta, la detección de comportamientos depresivos en la red es posible. Ahora la gente está más sola y refleja su soledad en las redes sociales", cuenta Maite, "muchas veces nadie les escucha, pero ahora una máquina podrá detectar ese problema".

Más dinero para ciencia

Que tus insultos a Fiero permitan que, en un futuro, un plug-in detecte mensajes depresivos o de ideación del suicidio y muestre, por ejemplo, un banner de asistencia sicológica, suena a ciencia ficción, pero es ya una realidad.
Un cuchillo (imagen referencial) - Sputnik Mundo
Ciencia
¿Agresividad ilimitada? Psicólogos rusos explican qué ocurre en la mente de los criminales
Los estudios de lenguaje computacional vienen desarrollándose, sobre todo en EEUU, ofreciendo resultados asombrosos. Por ejemplo, según su perfil ideológico las personas usarán determinadas expresiones, ¡demócratas y republicanos ya parecen hasta hablar un idioma diferente!
En español, los estudios del lenguaje vienen espoleados sobre todo desde México, donde también se usan los algoritmos lingüísticos para perseguir, por ejemplo, conductas y agresiones machistas. "Estamos a años luz de otros países. En España no llegamos ni siquiera a la media de inversión europea, en EEUU además el sector privado invierte millones en esto", lamenta Martín.
"Amazon o Google invierten cada vez más en estas tecnologías", advierten ambos investigadores, que reclaman más inversión pública. Teniendo en cuenta que se está desarrollando una tecnología que puede usarse para el mal y para controlar todo lo que dices y por lo tanto piensas. Así que desahógate y ponte a insultar al puto Fiero.
Lo último
0
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала