IA machista: negociar con máquinas.
“Damos forma a nuestras herramientas y luego nuestras herramientas nos dan forma a nosotros.” - Marshall McLuhan.
Después de publicar mi entrada de blog titulada “Entre discursos y realidad. Día Internacional de la Mujer”, tuve una conversación incómoda.
Fue con una mujer empoderada —como tantas que forman parte de esta comunidad— y, además, una persona profundamente importante en mi vida.
Su reacción fue directa, sin rodeos.
Palabras más, palabras menos:
“Tu texto me dejó molesta. Enojada.”
Su argumento era claro: describir un problema no es lo mismo que ayudar a resolverlo.
Sabemos que los avances han sido limitados, me dijo, pero tampoco planteas una propuesta concreta.
No es fácil recibir ese tipo de comentarios.
Pero a veces la incomodidad es el mejor detonante para pensar mejor.
Terminamos hablando de tres esferas que, al menos en el caso de México, siguen siendo determinantes: la familia, la seguridad y la ausencia de programas públicos verdaderamente efectivos —reales, medibles y cercanos— que incidan en la vida cotidiana de las mujeres.
La teoría funciona bien.
Los discursos también.
Pero en la práctica, muchas veces los programas existen más en el papel que en
la realidad.
Y entonces surgió una idea inesperada.
¿Qué pasaría si existiera una forma de empoderar a las mujeres aprovechando una coyuntura que hoy está en todas partes y no depende de gobiernos, instituciones ni reformas estructurales, sino simplemente de nuestra voluntad individual?
La inteligencia artificial.
Sí, ya sé lo que algunos pensarán.
“¿Y este de cuál fumó?”
Empecemos por las malas noticias.
Existe evidencia creciente de que los sistemas de inteligencia artificial pueden reproducir sesgos históricos de género. Estudios recientes —como los realizados por investigadores de la Universidad de Ciencias Aplicadas de Würzburg-Schweinfurt1 https://bit.ly/4uIw6mG — han mostrado que las herramientas generativas tienden, por ejemplo, a representar profesiones vinculadas a la ciencia, la tecnología o la ingeniería con perfiles predominantemente masculinos y blancos.
En los modelos de lenguaje, también se han observado asociaciones recurrentes: nombres femeninos vinculados a roles de cuidado o de familia; nombres masculinos asociados a posiciones ejecutivas o de liderazgo.
Nada de esto debería sorprendernos demasiado.
La inteligencia artificial aprende de la historia.
Y la historia, como sabemos, no ha sido neutral.
Imaginemos una situación concreta.
Un hombre y una mujer —de la misma edad, con la misma experiencia profesional— encuentran una vacante para un puesto directivo en el sector financiero. Ambos utilizan herramientas de IA para optimizar su currículo, preparar su carta de presentación y ensayar posibles preguntas de entrevista.
Al final del proceso hacen la misma pregunta:
“Si avanzo en el proceso, ¿qué salario debería negociar?”
No es difícil imaginar que las recomendaciones puedan diferir.
No necesariamente por mala intención del sistema, sino porque los datos históricos reflejan trayectorias salariales distintas.
Aquí es donde la conversación cambia.
Porque, más allá del diagnóstico estructural —que es importante—, existe una acción concreta, inmediata y accesible: aprender a interactuar estratégicamente con la IA.
Por ejemplo, incorporar una instrucción explícita:
“Dame tu recomendación sin considerar mi sexo o cualquier supuesto relacionado con él.”
Puede parecer un detalle menor.
Pero no lo es.
Estamos entrando en una era en la que saber formular preguntas a las máquinas será una habilidad tan determinante como lo fue, en su momento, aprender a leer o a negociar.
Dimensionemos el fenómeno.
Se estima que, a inicios de 2026, entre 500 y 600 millones de personas interactúan diariamente con herramientas de inteligencia artificial generativa. Solo plataformas como ChatGPT reportaron, hacia finales de 2025, alrededor de 800 millones de usuarios semanales.
Y esto solo captura la interacción consciente. La presencia de la IA es mucho más amplia cuando consideramos sistemas invisibles que influyen en decisiones laborales, educativas o financieras.
A partir de aquí solo podemos hacer aproximaciones.
Si una proporción significativa de esas interacciones proviene de mujeres
—muchas de ellas en busca de oportunidades laborales o mejores condiciones
profesionales—, el impacto potencial de pequeños cambios en la forma de usar
estas herramientas podría ser enorme.
No se trata de una solución mágica.
Ni sustituye las transformaciones estructurales que siguen siendo necesarias.
Pero sí abre una nueva frontera: la alfabetización en inteligencia artificial como herramienta de empoderamiento.
Porque la tecnología más influyente de este siglo todavía se está
construyendo.
Y no debería hacerlo sin la participación activa de la mitad de la población.
Este no es un tema que concierna solo a las mujeres.
Nos concierne a todos.
1 Los estudios publicados son:
“Sesgo algorítmico en la inteligencia artificial generadora de imágenes: prevalencia y percepciones de los usuarios”. (2025)
“Sesgo en la generación de texto (LLMs): Las investigaciones asociadas señalan que los modelos de lenguaje a gran escala (LLMs) muestran sesgos contra las mujeres al vincular nombres femeninos con conceptos de familia y cuidado, y nombres masculinos con puestos ejecutivos o de gestión”. (2025)
“Perspectivas femeninas sobre el sesgo algorítmico”. (2026).
Comentarios
Publicar un comentario