¿Cómo sería clasificado un Latino por un sistema de inteligencia artificial?
Una obra artística indaga cómo la inteligencia artificial nos categoriza de manera cuestionable.
Sabemos que tanto la inteligencia artificial (AI, en sus siglas en inglés) como el reconocimiento facial son herramientas perfectas para desbloquear tu iPhone. Los nuevos sistemas tecnológicos son novedosos, sin embargo, lo que no entiende el común de los mortales es cómo se rigen y crean las políticas para categorizar el reconocimiento facial a través de la AI y sus algoritmos.
Trevor Paglen y Kate Crawford, dos artistas que cuestionan los límites entre la ciencia y la ideología, crearon ImageNet Roulette, una base de datos donde el usuario podía cargar imágenes y ser etiquetado por un sistema de AI para así comprender cómo esta tecnología nos categoriza. Los resultados podían ser entretenidos o realmente prejuiciosos, sexistas o racistas.
ImageNet Roulette fue creada para entender cómo los seres humanos somos clasificados por los sistemas de aprendizaje automático. La recopilación de esta información se enviaba a una red neuronal que estaba capacitada para seleccionar entre diversas categorías que describiesen a una 'Persona' a través de un conjunto de datos disponibles en ImageNet.
ImageNet es la plataforma con la mayor base de datos de imágenes del mundo y fue creada en 2009 por las universidades de Princeton y Stanford para la investigación y capacitación de tecnologías para el aprendizaje automático.
Las clasificaciones reunidas en ImageNet Roulette creadas por Paglen y Crawford forman parte de la exposición Training Humans alojada en la Fundación Prada de Milán hasta 2020. Esta exposición pretende hacer reflexionar a los visitantes sobre el poder en la tecnología, exactamente, ¿quién tiene el poder de construir y beneficiarse con estos sistemas artificiales?
CONTENIDO RELACIONADO
A través del proyecto artístico, ImageNet Roulette deja claro que algunas clasificaciones son relativamente inofensivas, incluso divertidas; sin embargo, en las imágenes de personas con piel oscura, las etiquetas terminaron resultando en adjetivos como “mulato”, “huérfano” e incluso “sospechoso de violación”. Es ahí cuando toda la diversión de la AI desaparece rápidamente, si pensamos que una gran mayoría de latinos en el mundo posee una tez mezclada entre el blanco y el negro.
Estas categorías fueron agregadas por la base de datos original de ImageNet, desde 2009, no por los creadores de ImageNet Roulette.
El proyecto de Trevor Paglen y Kate Crawford demuestra cuán sesgados pueden ser estos algoritmos en la inteligencia artificial. Los datos para realizar Training Humans se recopilaron de varias fuentes: la base de datos de ImageNet, las opiniones de los trabajadores de Mechanical Turks en Amazon y los diccionarios de uso general.
Desafortunadamente, los algoritmos no son el problema, sino los sesgos de sus creadores: los seres humanos.
DEJE UN COMENTARIO:
¡Únete a la discusión! Deja un comentario.