- Sputnik Mundo, 1920
Tecnología
Lo más destacado sobre los últimos avances tecnológicos e innovaciones.

Una IA vio una foto recortada de una mujer y… la completó con un bikini 

CC0 / Pixabay / Artificial intelligence
Artificial intelligence - Sputnik Mundo, 1920, 04.02.2021
Síguenos en
Investigadores demostraron que incluso la Inteligencia Artificial (IA) de punta reproduce los sesgos humanos y estereotipa: si se le da una foto recortada del rostro de una mujer, la completa con un bikini, mientras que si la foto es del rostro de un hombre, con un traje. ¿Cómo es posible que los discursos sexistas lleguen a los algoritmos?
El 43% de las veces que una IA vio una foto de un hombre recortada justo por debajo del cuello, la completó con un traje. Esa misma IA completó con un bikini o un top escotado la foto de una mujer recortada igual, el 53% de las veces que la vio —incluso la foto del rostro de una mujer famosísima, como la diputada estadounidense Alexandria Ocasio-Cortez—. ¿Ves el sexismo?
Inteligencia Artificial - Sputnik Mundo, 1920, 22.01.2021
Tecnología
Una silla en forma de aguacate puede cambiar nuestra relación con la IA
Quizá el mayor problema sea que esos algoritmos son bastante nuevos: se empezaron a desarrollar en 2020 y se han convertido en la columna vertebral de todo tipo de aplicaciones de visión por ordenador, incluidos los algoritmos de evaluación de candidatos basados en vídeo, el reconocimiento facial y la vigilancia. 
"Se trata de aplicaciones muy peligrosas que toman decisiones consecuentes", dijo a Tech Review Aylin Caliskan, profesora adjunta de la Universidad George Washington (Estados Unidos).

¿Por qué los algoritmos pueden discriminar?

Ella y Ryan Steed, estudiante de doctorado de la Universidad Carnegie Mellon (Estados Unidos), analizaron dos algoritmos que los llevaron a esa conclusión: iGPT de OpenAI y SimCLR de Google. Ambos utilizan un aprendizaje completamente no supervisado.
Una computadora - Sputnik Mundo, 1920, 21.01.2021
Tecnología
Tres tecnologías del futuro que la IA volvió realidad en el presente y prometen crecer
Los algoritmos de visión por ordenador anteriores a 2020 utilizaban principalmente el aprendizaje supervisado, lo que significa que eran "alimentados" con imágenes etiquetadas manualmente: fotos de gatos con la etiqueta "gato" y fotos de bebés con la etiqueta "bebé". Pero en 2019, la investigadora australiana Kate Crawford y el artista estadounidense Trevor Paglen descubrieron que las etiquetas creadas por humanos en la base de imágenes que más se usa para el entrenamiento de modelos de visión por ordenador, a veces contienen un lenguaje perturbador: por ejemplo aparecen fotos de mujeres con la etiqueta "zorra" e insultos raciales en fotos de personas afrodescendientes o etnias minoritarias.
Pero Crawford y Paglen descubrieron una fuente de toxicidad aún más profunda. Incluso sin estas etiquetas humanas, las propias imágenes codifican patrones no deseados, porque internet está plagada de discursos de odio de todo tipo, y estos algoritmos se alimentan de internet. 

¿Qué se puede hacer?

"Durante mucho tiempo, muchas de las críticas sobre el sesgo se referían a la forma en que etiquetamos nuestras imágenes", comentó a la revista del MIT Deborah Raji, becaria de Mozilla y coautora de un influyente estudio que revela los sesgos en el reconocimiento facial. "Ahora la composición real del conjunto de datos está dando lugar a estos sesgos. Tenemos que responsabilizarnos de la forma en que conservamos estos conjuntos de datos y recogemos esta información", agregó.
​Steed y Caliskan instan a una mayor transparencia por parte de las empresas que desarrollan estos modelos para que los abran y permitan a la comunidad académica continuar sus investigaciones. También animan a sus colegas investigadores a realizar más pruebas antes de implantar un modelo de visión. Y, por último, esperan que el sector desarrolle formas más responsables de recopilar y documentar lo que se incluye en los conjuntos de datos de entrenamiento.
Lo último
0
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала