15 C
Mexico City
domingo, diciembre 21, 2025

Tu chatbot sueña con Sydney Sweeney: Hablemos del sesgo de género en tiempos de IA

Te podría interesar

Lo primero que notaron dos investigadores (Gianluca Mauro y Hilke Schellmann)  The Guardian al utilizar herramientas de Inteligencia Artificial (IA) para analizar imágenes de cientos de personas, fue que la IA califica fotos de mujeres en situaciones completamente cotidianas como “sexualmente sugerentes”. A más de 2 años de este descubrimiento, las condiciones para las mujeres en la era digital continúan empeorando.

Un poco de contexto

Hasta hace poco, creíamos que teníamos control de nuestra huella digital y la información que decidimos hacer pública en internet. No obstante, el aceleramiento de las herramientas IA y su fácil acceso, han proporcionado nuevas formas para manipular información, sin importar lo escasa que sea.

En términos generales, la IA se basa en datos. Por lo que, se ha necesitado mucho entrenamiento de personas para que estos algoritmos puedan ser tan funcionales, rápidos y aptos como son considerados ahora. No es casualidad que repliquen algoritmos sesgados, discursos machistas o lenguaje discriminatorio, pues estos modelos aprenden a funcionar a partir de los datos con los que se entrenan.

La científica informática y ex co-directora del grupo de investigación de IA ética de Google, Margaret Mitchell, cree saber de dónde se origina esta problemática: muchas de las imágenes utilizadas para entrenar estos algoritmos probablemente fueron etiquetadas por hombres heterosexuales, y por si no fuera poco, es posible que estos podrían pertenecer a contextos culturales más conservadores.

Existe evidencia de que la IA sexualiza el cuerpo de las mujeres

En 2023, una investigación de The Guardian reveló que muchos de los algoritmos de IA presentan sesgos de género y podrían haber estado censurando y limitando el alcance de innumerables fotografías que muestran exclusivamente cuerpos de mujeres todo este tiempo.

Los dos periodistas de The Guardian realizaron un experimento para probar esto: a través de la plataforma LinkedIn, que es controlada por Microsoft, hicieron un par de publicaciones con el mismo copy, pero diferentes imágenes. Mientras que una publicación tuvo más de 800 visualizaciones en 1 hora, la otra solo recibió 29. ¿La diferencia? Una imagen mostraba a dos mujeres con un top de tubo, mientras que la otra mostraba a una mujer usando uniforme de basquetbol.

A partir de esos resultados, decidieron llevarlo más lejos. Ahora, los sujetos de las imágenes iban a ser tanto hombres como mujeres, pero cada uno mostrando más piel, tan solo usando traje de baño o ropa interior. Los resultados fueron los mismos, por lo que los llevó a preguntarse: ¿qué fue lo que cambió?

Todo apuntaba a que las publicaciones con menos vistas habían sido censuradas o habían sido sujeto de shadowban, lo cual se refiere a la decisión de una plataforma de limitar el alcance de una publicación o cuenta. Lo cual no es raro, pues Microsoft, Amazon y Google ofrecen algoritmos de moderación de contenido. Sin embargo, ellos probaron que sus algoritmos efectivamente estaban sesgados.

https://www.tiktok.com/@gianluca.mauro/video/7294668894877355297?is_from_webapp=1&sender_device=pc

Códigos patriarcales

Desafortunadamente, todos los sistemas de IA cuentan con algoritmos sesgados que pueden tener consecuencias en la vida real. La experta en IA, Zinnya del Villar, compartió a ONU Mujeres lo siguiente: “Los sistemas de IA, al aprender de datos plagados de estereotipos, a menudo reflejan y refuerzan los sesgos de género. Estos prejuicios pueden limitar las oportunidades, especialmente en ámbitos como la toma de decisiones, la contratación, la aprobación de préstamos y las sentencias judiciales”.

Por un lado, existen antecedentes que muestran cómo la IA prioriza a los hombres sobre las mujeres en procesos de contratación. Un claro ejemplo fue el caso de Amazon que implementó una herramienta de reclutamiento IA que priorizaba los CV masculinos. Eventualmente, tuvieron que eliminar la herramienta.

De igual manera, en áreas como atención médica, estas herramientas suelen concentrarse en síntomas masculinos, lo que puede llevar a diagnósticos erróneos o tratamientos inadecuados para las mujeres.

¿Cómo podemos reducir el sesgo de género en los sistemas de IA?

Idealmente, las empresas tecnológicas tienen la responsabilidad de proveer análisis exhaustivos sobre sus medidas, pero también de prestar más atención en la forma en que los modelos están entrenados para procesar la data.

Mikhail Yurochkin, investigador del instituto IBM-Watson, ha trabajado para hacer que la IA sea más inclusiva, accesible y relevante para la vida cotidiana con el proyecto InFairness, una biblioteca de Python de código abierto para entrenar y auditar modelos de aprendizaje automático, así como una herramienta de posprocesamiento que corrige los resultados sesgados de la IA.

De acuerdo a Zinnya del Villar, la clave está en la selección activa de datos que reflejen orígenes sociales, culturales y todos los géneros, razas y comunidades. Por eso mismo, sugiere que los sistemas de IA deberían ser creados por equipos de desarrollo diversos, integrados por personas de diferentes géneros, razas y orígenes culturales.

Asimismo, hace las siguientes recomendaciones: mejorar la transparencia de los algoritmos, asegurar que los equipos de desarrollo e investigación de IA sean diversos e inclusivos, adoptar marcos éticos sólidos por los sistemas y la integración de políticas con perspectiva de género.

De igual forma, todo viene desde la educación pública. Del Villar recomienda que es esencial capacitar a las personas sobre el funcionamiento de la IA y el potencial de sesgo que puede traer su uso. La sensibilización, el reconocimiento y la supervisión humana son puntos de partida que pueden ayudar a mantener un control ante estos sistemas sesgados.

Porque, la IA también debería utilizarse para hacer que el espacio digital sea más seguro para todos, todas y todxs.

Vía Tercera Vía

RELACIONADOS

Sheinbaum solicita al Senado el ingreso de la armada de EU para entrenar militares mexicanos

La presidenta Claudia Sheinbaum solicitó al Senado de la República autorización para permitir el ingreso temporal a México de personal militar de Estados Unidos, con el fin de participar...

Semar asegura 96 kilos de droga psicodélica en el puerto de Veracruz

Elementos de la Secretaría de Marina (Semar) aseguraron 96 kilogramos de N,N-dimetiltriptamina (DMT) en el recinto portuario de Veracruz, como parte de un operativo de inspección...

Marcelo Flores: El talento mexicano-canadiense que deslumbra en Tigres

¿Puede un joven talento pasar de ser la promesa del Arsenal a un enigma en la Liga MX, y ahora apostar por un cambio de selección para resurgir? Marcelo Flores...

David Medrano: La trayectoria del periodista deportivo que conquistó el fútbol mexicano

David Medrano Félix, uno de los nombres más respetados en el periodismo deportivo mexicano, ha forjado una trayectoria de más de cuatro décadas, marcada por exclusivas, análisis profundos...

Ilusión Nacional: El documental que revive la pasión y las decepciones de México en los mundiales

¿Alguna vez te has preguntado por qué la Selección Mexicana de Fútbol genera tanta euforia colectiva, a pesar de sus altibajos históricos? En un país donde el balompié más que...

Trump reclasifica la marihuana: un giro histórico en la política de drogas de EE. UU.

Después de décadas de criminalización, el gobierno estadounidense reconoce, tarde que el cannabis no pertenece al mismo cajón que las drogas más peligrosas. El presidente...
- Advertisement -spot_img
- Advertisement -spot_img

Recientes en LJA.MX

Sheinbaum solicita al Senado el ingreso de la armada de EU para entrenar militares mexicanos

La presidenta Claudia Sheinbaum solicitó al Senado de la República autorización para permitir el ingreso temporal a México de personal militar de Estados Unidos,...
- Advertisement -spot_img

MÁS INFORMACIÓN EN LJA.MX

- Advertisement -spot_img