Widgets Magazine
05:35 GMT +317 Septiembre 2019
En directo
    Google, imagen referencial

    Los smartphones del futuro podrán leer el lenguaje de signos

    CC0 / Pixabay
    Tecnología
    URL corto
    0 61
    Síguenos en

    El departamento de Inteligencia Artificial de Google anunció que pronto será posible que un teléfono inteligente intérprete y lea en voz alta el lenguaje de signos, una noticia que ha sido celebrada por la comunidad con discapacidad auditiva.

    El gigante tecnológico publicó los algoritmos creados por Google AI para que los desarrolladores creen sus propias aplicaciones. Hasta el momento descifrar el lenguaje de signos sólo era posible desde una PC, pero según Google en el futuro los smartphones podrán hacerlo.

    Activistas de la comunidad con discapacidad auditiva han celebrado la buena nueva, aunque algunos pusieron en duda la "destreza" de la tecnología para captar algunas conversaciones. 

    Según observaron, la idea de que una aplicación reproduzca audio, solo con señas manuales, hace que se pierda cualquier expresión facial, y esto podría cambiar el significado de lo que se dice.

    ​Los ingenieros de Google respondieron a los usuarios que la intención de la tecnología publicada era servir como "base para la comprensión del lenguaje de señas". Además, informaron que los algoritmos fueron creados en asociación con la empresa de software de imagen MediaPipe.

    "Estamos entusiasmados de ver lo que se les ocurre a las personas. Por nuestra parte, continuaremos nuestra investigación para hacer que la tecnología sea más robusta y estabilizar el seguimiento, aumentando la cantidad de gestos que podemos detectar de manera confiable", dijo a BBC una portavoz de Google.

    Los desafíos para Google han sido muchos: los diferentes tamaños de cada mano, la velocidad de sus movimientos y el hecho de que, durante la conversación, unos dedos puedan obstruir la visión de otros.

    ​La propuesta de Google traza un gráfico de 21 puntos a través de los dedos, la palma y el dorso de la mano, lo que facilita la comprensión de la señal incluso en los movimientos más complejos. El algoritmo también permite calcular la profundidad de los elementos de la imagen. Para lograr todo esto, analizaron con inteligencia artificial unas 30.000 imágenes, cada una con diferentes poses y condiciones de iluminación.  

    ​En otras partes del mundo, los desarrolladores han intentado dar respuesta a esta necesidad con tecnologías de uso local. Google aspira que estos algoritmos contribuyan a crear aplicaciones más asequibles para todos.

    Etiquetas:
    inteligencia artificial, lenguaje de signos, Google
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik