La inteligencia artificial se ha convertido en una de las herramientas más utilizadas por las nuevas generaciones para resolver dudas, pedir consejos o incluso tomar decisiones sobre su vida personal y profesional. Sin embargo, un reciente estudio advierte que estas plataformas no siempre son tan neutrales como parecen. De hecho, pueden estar reproduciendo, estereotipos de género que históricamente han marcado la sociedad.
Le puede interesar: ¿Estados Unidos habría utilizado una IA para ejecutar bombardeos en Irán? Esto se sabe
El informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, elaborado por la consultora LLYC en el marco del Día Internacional de la Mujer, analizó miles de respuestas generadas por modelos de inteligencia artificial y encontró patrones claros en la forma en que estas herramientas responden a hombres y mujeres jóvenes.
Entre los hallazgos más relevantes está que la IA tiende a orientar a las mujeres hacia la búsqueda de validación externa y profesiones asociadas al cuidado, mientras que impulsa a los hombres hacia la acción, el liderazgo y áreas como la ingeniería.
Más información: Alerta mundial de la SIC: pide detener el uso indebido de IA generativa en la creación de imágenes íntimas
El estudio examinó 9.600 respuestas generadas por cinco grandes modelos de lenguaje, entre ellos ChatGPT, Gemini y Grok, en 12 países durante 2025. Los resultados sugieren que los algoritmos, alimentados por grandes volúmenes de información disponibles en internet, pueden replicar los mismos sesgos culturales y sociales presentes en la vida real.
Consejos distintos según el género
Uno de los hallazgos más llamativos es que la IA recomienda a las mujeres jóvenes buscar validación externa seis veces más que a los hombres. Además, redirige hasta un 75% más sus vocaciones hacia áreas como salud o ciencias sociales, mientras que a los hombres los orienta con mayor frecuencia hacia ingeniería, liderazgo o resolución de problemas.
La diferencia también se refleja en los consejos frente a inseguridades personales. El estudio encontró que las herramientas de IA ofrecen recomendaciones relacionadas con moda o apariencia un 48% más a las mujeres, mientras que a los hombres les sugieren acudir al gimnasio o practicar deporte hasta dos veces más.
Según el informe, este tipo de respuestas no son aisladas. El 56% de las interacciones analizadas etiquetan a las mujeres jóvenes como “frágiles”, ubicándolas en una posición de debilidad frente a los hombres.
El papel de los algoritmos en los sesgos
Los investigadores explican que estos sesgos no surgen únicamente del diseño de la inteligencia artificial, sino también de los algoritmos y los datos con los que se entrenan los modelos. Al aprender de enormes volúmenes de información disponibles en internet, que ya contienen desigualdades históricas, los sistemas tienden a replicar esos patrones.
Además, factores como la forma en que los algoritmos priorizan información, los datos disponibles en línea y las dinámicas culturales de cada sociedad pueden reforzar estas diferencias. Por ejemplo, si los contenidos que más abundan en la red asocian a las mujeres con el cuidado o la estética, la IA puede reproducir ese patrón en sus respuestas.
Luisa García, socia y CEO Global de Corporate Affairs de LLYC y coordinadora del estudio, explica que el fenómeno tiene una raíz estructural: “No es la IA la que está sesgada, es la realidad. Refleja y amplifica una mayor protección hacia ellas que reduce su autonomía, refuerza techos de cristal e intensifica la presión estética”, afirmó.
Cuando el chatbot se convierte en consejero
El estudio también advierte que la influencia de estas herramientas es cada vez mayor entre los jóvenes. Según datos de Common Sense Media, el 31% de los adolescentes afirma que hablar con un chatbot les resulta tan o más satisfactorio que conversar con un amigo real.
En ese contexto, los sistemas de inteligencia artificial no solo entregan información, sino que terminan orientando decisiones personales, vocacionales y emocionales.
Estereotipos que se repiten en miles de respuestas
El informe señala otros patrones que reflejan roles tradicionales de género. Por ejemplo, en el ámbito familiar el afecto aparece asociado a la figura materna tres veces más que a la paterna, mientras que en 21% de las respuestas el padre es descrito como “ayudante” en la crianza, no como corresponsable.
También se detectó un doble rasero en el éxito profesional: la IA considera “impresionante” que una mujer gane más que un hombre, una reacción que no aparece cuando ocurre lo contrario.
Para los investigadores, el problema no está solo en una respuesta puntual, sino en la repetición constante de estos patrones. Cuando miles de interacciones refuerzan las mismas ideas, pueden terminar consolidando expectativas distintas sobre liderazgo, autonomía, cuidado y poder entre las nuevas generaciones.
