LIVE STREAMING
Mejorar las estrategias de diseño puede arreglar el sesgo a mujeres y latinos en los algoritmos de la inteligencia artificial. Fuente: Pixabay.
Mejorar las estrategias de diseño puede arreglar el sesgo a mujeres y latinos en los algoritmos de la inteligencia artificial. Fuente: Pixabay.

Cómo arreglar el sesgo a mujeres y latinos en los algoritmos de la inteligencia artificial

Proponer nuevas directrices puede ayudar a desarrollar soluciones viables al sesgo de los algoritmos.

MÁS EN ESTA SECCIÓN

Dinosaurio con Huesos Verdes

Museo de Sal de EEUU

Origen Carnaval de Pasto

Cultura hispana en el cine

Carnaval 2025

La luna fue volcánica

Uso de los velos en cara

Principe Harry en NYC

COMPARTA ESTE CONTENIDO:

Los prejuicios en la inteligencia artificial y los programas de aprendizaje automático están bien establecidos y son muy parecidos a cómo vemos el mundo actualmente.

Investigadores de la Universidad Estatal de Carolina del Norte y la Universidad Estatal de Pensilvania proponen un cambio a los desarrolladores de inteligencia artificial (IA) a partir de la incorporación del concepto de "diseño con pensamiento feminista" según el artículo "Equidad algorítmica en la contratación de candidatos a puestos de trabajo en el sector de la tecnología de la información insuficientemente representados". Las investigaciones proponen que mientras construyen nuevos programas de IA, de esta forma se puede mejorar la equidad, en particular en el desarrollo de software utilizado procesos de contratación.

"Hay innumerables historias sobre las formas en que se manifiesta el sesgo en la inteligencia artificial, y hay muchas piezas de pensamiento sobre lo que contribuye a este sesgo", afirmó Fay Payton, profesora de sistemas de información/tecnología de la facultad de la Universidad de Carolina del Norte en un comunicado de prensa.

Para los investigadores de estas universidades el objetivo es proponer directrices que puedan ayudar al desarrollo de soluciones viables para eliminar el sesgo de los algoritmos contra las mujeres, afroamericanos y latinos que son parte de la fuerza de trabajo en empresas de información tecnológica.

"Demasiados algoritmos de contratación existentes incorporan de facto marcadores de identidad que excluyen a candidatos cualificados por su género, raza, etnia, edad, etc.", dice Payton, que es co-autora principal de la investigación. "Simplemente buscamos la equidad: que los candidatos puedan participar en el proceso de contratación desde la igualdad".

Payton y sus colaboradores sostienen que un enfoque de pensamiento con diseño feminista podría servir como un valioso marco para desarrollar un software que reduzca el sesgo algorítmico de manera significativa. En este contexto, la aplicación de este pensamiento significaría incorporar la idea de equidad en el diseño del propio algoritmo.

"A los efectos del sesgo algorítmico se suma la subrepresentación histórica de las mujeres y los ingenieros de software afroamericanos y latinos que aporten nuevas ideas sobre los enfoques de diseño equitativo basados en sus experiencias de vida", dice Lynette Yarger, profesora adjunta de ciencias y tecnologías de la información en Penn State.

"Para ser claros, no se trata sólo de hacer algo porque es moralmente correcto. Pero sabemos que las mujeres, los afroamericanos y los latinos están subrepresentados en los campos de la tecnología de la información. Y hay muchas pruebas que una fuerza de trabajo diversa e inclusiva mejora los resultados de una empresa. Si puedes hacer lo correcto y mejorar tu margen de beneficios, ¿por qué no lo harías?" concluye Payton.