Banner Edicion Impresa

Sabias Que Cultural


¿La IA es feminista? Esto dice la UNAM

¿La IA es feminista? Esto dice la UNAM


Publicación:19-06-2024
++--

Los desarrolladores de IA, predominantemente hombres, a menudo sin darse cuenta, incorporan sus propios prejuicios en los algoritmos.

CIUDAD DE MÉXICO.- La inteligencia artificial (IA ) ha sido promovida como una tecnología neutral, libre de género. Sin embargo, al profundizar en su funcionamiento y los datos que la alimentan, surge una inquietante realidad: la IA puede perpetuar y amplificar los sesgos machistas presentes en la sociedad. Esto no es un accidente, sino el resultado de cómo se programan estos sistemas y la naturaleza de los datos utilizados, esto de acuerdo con Saiph Savage, ingeniera en computación por la UNAM y con un doctorado en Ciencias de la Computación por la Universidad de California.
Los desarrolladores de IA, predominantemente hombres, a menudo sin darse cuenta, incorporan sus propios prejuicios en los algoritmos. Saiph Savage, señala que la IA se entrena con millones de datos que reflejan las actitudes y patrones de comportamiento humanos. "La inteligencia artificial aprende de la información disponible y, si estos datos tienen sesgos de género, la IA los replicará y amplificará", explica Savage.
María Ximena Gutiérrez, lingüista computacional del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), enfatiza que la IA no solo refleja nuestros sesgos, sino que la perpetua. "El enfoque predominante de la IA es aprender de una gran cantidad de ejemplos, y si esos ejemplos son sesgados, el sistema replicará esos prejuicios", comenta Gutiérrez. Esta falta de transparencia en los sistemas de IA puede tener un impacto social significativo.
Un claro ejemplo de estos sesgos ocurrió en una multinacional de comercio electrónico, donde un algoritmo de contratación discriminaba a las mujeres. El sistema, al valorar los currículums basándose en patrones históricos dominados por hombres, tendía a preferir candidatos varones. Este caso ilustra cómo los sesgos históricos en los datos pueden traducirse en discriminación directa a través de la IA.
¿La tecnología no es neutral?
Para abordar estos problemas, es crucial que los datos utilizados para entrenar sistemas de IA sean representativos e inclusivos. Ximena Gutiérrez destaca la necesidad de formar grupos interdisciplinarios que trabajen en la representatividad de los datos. "También podemos apoyarnos en la minería de datos para identificar y corregir sesgos", sugiere.
Aimée Vega, especialista en feminismo y comunicación del CEIICH, subraya que la tecnología es un dispositivo de poder que opera en un marco de desigualdad de género. "La IA puede contribuir a la feminización de la pobreza y la precarización de las mujeres en el mercado laboral", advierte Vega. Además, las mujeres son vulnerables a la violencia digital, como la generación de imágenes deep fake que las cosifican.
Hacia una IA responsable
La UNAM está trabajando en un curso de IA centrado en el ser humano, que aborda los sesgos desde el inicio del desarrollo de los sistemas. Savage resalta la importancia de involucrar a personas en el proceso de toma de decisiones de la IA para corregir errores y sesgos. "Diseños participativos pueden ayudar a crear una IA más inclusiva y justa", concluye.
La inclusión y la representación equitativa en el desarrollo de tecnologías de IA son pasos fundamentales para asegurar que estas herramientas beneficien a toda la sociedad por igual.


« El Universal »