17.8 C
Mexico City
miércoles, febrero 4, 2026

Tu chatbot sueña con Sydney Sweeney: Hablemos del sesgo de género en tiempos de IA

Te podría interesar

Lo primero que notaron dos investigadores (Gianluca Mauro y Hilke Schellmann)  The Guardian al utilizar herramientas de Inteligencia Artificial (IA) para analizar imágenes de cientos de personas, fue que la IA califica fotos de mujeres en situaciones completamente cotidianas como “sexualmente sugerentes”. A más de 2 años de este descubrimiento, las condiciones para las mujeres en la era digital continúan empeorando.

Un poco de contexto

Hasta hace poco, creíamos que teníamos control de nuestra huella digital y la información que decidimos hacer pública en internet. No obstante, el aceleramiento de las herramientas IA y su fácil acceso, han proporcionado nuevas formas para manipular información, sin importar lo escasa que sea.

En términos generales, la IA se basa en datos. Por lo que, se ha necesitado mucho entrenamiento de personas para que estos algoritmos puedan ser tan funcionales, rápidos y aptos como son considerados ahora. No es casualidad que repliquen algoritmos sesgados, discursos machistas o lenguaje discriminatorio, pues estos modelos aprenden a funcionar a partir de los datos con los que se entrenan.

La científica informática y ex co-directora del grupo de investigación de IA ética de Google, Margaret Mitchell, cree saber de dónde se origina esta problemática: muchas de las imágenes utilizadas para entrenar estos algoritmos probablemente fueron etiquetadas por hombres heterosexuales, y por si no fuera poco, es posible que estos podrían pertenecer a contextos culturales más conservadores.

Existe evidencia de que la IA sexualiza el cuerpo de las mujeres

En 2023, una investigación de The Guardian reveló que muchos de los algoritmos de IA presentan sesgos de género y podrían haber estado censurando y limitando el alcance de innumerables fotografías que muestran exclusivamente cuerpos de mujeres todo este tiempo.

Los dos periodistas de The Guardian realizaron un experimento para probar esto: a través de la plataforma LinkedIn, que es controlada por Microsoft, hicieron un par de publicaciones con el mismo copy, pero diferentes imágenes. Mientras que una publicación tuvo más de 800 visualizaciones en 1 hora, la otra solo recibió 29. ¿La diferencia? Una imagen mostraba a dos mujeres con un top de tubo, mientras que la otra mostraba a una mujer usando uniforme de basquetbol.

A partir de esos resultados, decidieron llevarlo más lejos. Ahora, los sujetos de las imágenes iban a ser tanto hombres como mujeres, pero cada uno mostrando más piel, tan solo usando traje de baño o ropa interior. Los resultados fueron los mismos, por lo que los llevó a preguntarse: ¿qué fue lo que cambió?

Todo apuntaba a que las publicaciones con menos vistas habían sido censuradas o habían sido sujeto de shadowban, lo cual se refiere a la decisión de una plataforma de limitar el alcance de una publicación o cuenta. Lo cual no es raro, pues Microsoft, Amazon y Google ofrecen algoritmos de moderación de contenido. Sin embargo, ellos probaron que sus algoritmos efectivamente estaban sesgados.

https://www.tiktok.com/@gianluca.mauro/video/7294668894877355297?is_from_webapp=1&sender_device=pc

Códigos patriarcales

Desafortunadamente, todos los sistemas de IA cuentan con algoritmos sesgados que pueden tener consecuencias en la vida real. La experta en IA, Zinnya del Villar, compartió a ONU Mujeres lo siguiente: “Los sistemas de IA, al aprender de datos plagados de estereotipos, a menudo reflejan y refuerzan los sesgos de género. Estos prejuicios pueden limitar las oportunidades, especialmente en ámbitos como la toma de decisiones, la contratación, la aprobación de préstamos y las sentencias judiciales”.

Por un lado, existen antecedentes que muestran cómo la IA prioriza a los hombres sobre las mujeres en procesos de contratación. Un claro ejemplo fue el caso de Amazon que implementó una herramienta de reclutamiento IA que priorizaba los CV masculinos. Eventualmente, tuvieron que eliminar la herramienta.

De igual manera, en áreas como atención médica, estas herramientas suelen concentrarse en síntomas masculinos, lo que puede llevar a diagnósticos erróneos o tratamientos inadecuados para las mujeres.

¿Cómo podemos reducir el sesgo de género en los sistemas de IA?

Idealmente, las empresas tecnológicas tienen la responsabilidad de proveer análisis exhaustivos sobre sus medidas, pero también de prestar más atención en la forma en que los modelos están entrenados para procesar la data.

Mikhail Yurochkin, investigador del instituto IBM-Watson, ha trabajado para hacer que la IA sea más inclusiva, accesible y relevante para la vida cotidiana con el proyecto InFairness, una biblioteca de Python de código abierto para entrenar y auditar modelos de aprendizaje automático, así como una herramienta de posprocesamiento que corrige los resultados sesgados de la IA.

De acuerdo a Zinnya del Villar, la clave está en la selección activa de datos que reflejen orígenes sociales, culturales y todos los géneros, razas y comunidades. Por eso mismo, sugiere que los sistemas de IA deberían ser creados por equipos de desarrollo diversos, integrados por personas de diferentes géneros, razas y orígenes culturales.

Asimismo, hace las siguientes recomendaciones: mejorar la transparencia de los algoritmos, asegurar que los equipos de desarrollo e investigación de IA sean diversos e inclusivos, adoptar marcos éticos sólidos por los sistemas y la integración de políticas con perspectiva de género.

De igual forma, todo viene desde la educación pública. Del Villar recomienda que es esencial capacitar a las personas sobre el funcionamiento de la IA y el potencial de sesgo que puede traer su uso. La sensibilización, el reconocimiento y la supervisión humana son puntos de partida que pueden ayudar a mantener un control ante estos sistemas sesgados.

Porque, la IA también debería utilizarse para hacer que el espacio digital sea más seguro para todos, todas y todxs.

Vía Tercera Vía

RELACIONADOS

Pilotes del Tren Maya se deshacen al tacto en ríos de la Riviera Maya; ven riesgo de colapso

Pilotes del Tren Maya en el Tramo 5 Sur, entre Playa del Carmen y Tulum, se desintegran y contaminan los ríos subterráneos del...

Presidentes municipales de Morena rechazan reinstalación del fuero en Campeche

La acción de los legisladores de recuperar la protección constitucional para evitar ser procesados penalmente ocurrió tras el supuesto intento de la gobernadora,...

Hay tres vinculados a proceso por ataque en Salamanca que dejó 11 muertos

El fiscal de Guanajuato rechazó proporcionar información sobre las investigaciones, pero el secretario de Gobierno de Guanajuato confirmó la situación de los tres...

Elon Musk promovió el contenido explícito con la IA de Grok para ganar usuarios en X

Una investigación de The Washington Post reveló que, varias semanas antes de salir del gobierno de Donald Trump el pasado mes de mayo,...

Casa Blanca arremete contra Bad Bunny por sus críticas a las políticas migratorias en los Grammy

“Es irónico y sencillamente triste ver a personas que tienen seguridad privada, que gastan millones de dólares en protección, intentando demonizar de nuevo...

Supuestas acusaciones me tienen sin cuidado: Adán Augusto

López Hernández detalló que su salida de la coordinación no la habló con la presidenta Claudia Sheinbaum, sino con Ignacio Mier, Laura Itzel...
- Advertisement -spot_img
- Advertisement -spot_img

Recientes en LJA.MX

Pilotes del Tren Maya se deshacen al tacto en ríos de la Riviera Maya; ven riesgo de colapso

Pilotes del Tren Maya en el Tramo 5 Sur, entre Playa del Carmen y Tulum, se desintegran y...
- Advertisement -spot_img

MÁS INFORMACIÓN EN LJA.MX

- Advertisement -spot_img