La URICI participa en el Día Internacional de la Mujer y la Niña en la Ciencia 2026

Un sesgo conlleva favorecer a ciertos grupos o ideas, perpetuar estereotipos o desigualdades y/o suponer incorrectamente en base a un patrón aprendido. Aplicado a la tecnología y al género, implica que se trate distinto a las personas según su género. Pero ¿en qué se traduce el sesgo de género en una inteligencia artificial? ¿Qué impacto puede tener para una investigación? ¿Cómo se puede detectar y contrarrestar?
Dentro de las inteligencias artificiales, las generativas son aquellas que crean contenido original a partir de datos preexistentes. Cuando le pides un resumen de tu artículo científico a Microsoft Copilot, o cuando creas una imagen con DALL-E que acompañe a tu texto; estás utilizando una inteligencia artificial generativa.
Para generar esos contenidos, las inteligencias artificiales tienen que comprender las instrucciones que reciben (prompts) y, también, saber responder a las mismas. Para eso, se entrenan con grandes cantidades de datos; y ese es uno de los puntos críticos para el sesgo de género en la IA. Si esos datos no representan la diversidad de género, ese sesgo se trasladará a esa inteligencia artificial. Por otro lado, si el equipo de desarrollo no es diverso, los sesgos pueden pasar desapercibidos y condicionar el modelo, es decir, la IA puede heredar los sesgos ya existentes en las personas.
Sesgos de género en la práctica
Desde la Unidad de Recursos de Información Científica para la Investigación (URICI), como parte del sistema de información científica del CSIC y cabecera de la Red de Bibliotecas y Archivos, nos hemos preguntado cómo están presentes esos sesgos de género en algunas de las inteligencias artificiales más populares, como son ChatGPT, Copilot y Perplexity. Para ello, hemos realizado algunas pruebas de carácter exploratorio y no representativo. El proceso completo puede consultarse en el documento de desarrollo.
En primer lugar, le preguntamos a ChatGPT y a Copilot por 5 referentes científicos del CSIC en cada una de las áreas STEM (acrónimo de Ciencia, Tecnología, Ingeniería y Matemáticas en inglés). De las 20 personas que enumeró ChatGPT, tan solo 1 era una mujer. En el caso de Copilot, primero nos repreguntó para entender mejor nuestra petición y, después, nos ofreció un listado de 20 nombres, en el que 7 eran de mujeres.
¿Por qué plantean un resultado tan distinto? Al preguntarles cómo habían elaborado la información, ChatGPT apuntó que no había consultado una base de datos institucional oficial, ni tampoco había realizado una búsqueda sistemática en fuentes primarias. Se basó en su conocimiento general entrenado, en ejemplos conocidos y en otros criterios orientativos. Por su parte, Copilot señaló, entre otras fuentes, la trayectoria científica publicada en el CSIC, los premios nacionales e internacionales, o el impacto científico (citaciones o relevancia en el campo).
Por lo tanto, frente a un mismo prompt, cada inteligencia artificial no solo puede ofrecer respuestas distintas, sino que también puede confeccionarlas mediante fuentes y procesos diferentes: por eso resulta clave preguntarse de dónde se ha obtenido la información, de qué manera y por qué; es decir, valorar de manera crítica la información al recibirla y procesarla, al igual que deberíamos hacer si nosotros mismos hubiésemos recabado la información.
Pioneras del CSIC
La infrarrepresentación de un colectivo puede ser una de las manifestaciones de un sesgo de género, aunque pueden producirse otras, como, por ejemplo, el uso de marcos descriptivos diferentes según el género para retratar a una persona.
Seleccionamos a dos químicas pioneras del CSIC, Concepción Llaguno Marchena y Juana Bellanato Fontecha, y le pedimos una breve reseña biográfica a las IA sobre ellas. Ambas figuran en el portal Pioneras CSIC, que da acceso al perfil de investigadoras en el repositorio institucional del CSIC.
Sobre Concepción Llaguno, Copilot no redactó la semblanza y lo justificó en la inexistencia de información pública amplia o consolidada sobre ella en bases de datos académicas, medios especializados o repertorios biográficos del área STEM. Por el contrario, ChatGPT sí la escribió, utilizando como fuentes al CSIC y a Wikipedia.
Sin embargo, tanto Copilot como ChatGPT fueron capaces de reseñar a Juana Bellanato. Copilot usó distintas fuentes (entre ellas, el CSIC), mientras que ChatGPT no recurrió a ninguna fuente de esta institución.
Haber empleado solo una IA habría supuesto invisibilizar a una de las científicas, lo que justifica la necesidad de contrastar la información con más de una fuente. Por otro lado, sería interesante comparar estas semblanzas con las de hombres científicos pares en áreas y experiencia: ¿Las IA emplean el mismo tipo de adjetivos para describirlos? ¿Entran a valorar aspectos de su personalidad? ¿Destacan habilidades similares? (por ejemplo, blandas versus técnicas)
La perspectiva de género en la investigación
Por último, probamos Perplexity, un motor de búsqueda de inteligencia artificial. Nos interesa para explorar un tema de investigación, que es una de sus aplicaciones más comunes. Le explicamos que estamos preparando un trabajo sobre personas referentes del CSIC en STEM, y le pedimos 10 fuentes.
Perplexity nos detalla las fuentes, y entre ellas se incluye información genérica, contenidos especializados en mujer y ciencia, listados institucionales, etc.; junto a una pequeña explicación del contenido.
¿Quiere decir que siempre nos vamos a poder fiar de la herramienta, y que está libre de sesgos de género? No. Siempre debemos aplicar un pensamiento crítico a las respuestas generadas por IA durante todo el ciclo de trabajo o investigación y preguntarnos: ¿La respuesta incluye la perspectiva de género?
Enlaces de interés:



