Día de la Mujer: así responde la IA cuando preguntamos por bulos machistas extendidos entre los jóvenes
Este 8 de marzo de 2025 se cumplen 50 años de la celebración del Día Internacional de la Mujer y en VerificaRTVE nos planteamos si la inteligencia artificial contribuye a perpetuar los sesgos de género presentes en nuestra sociedad. Según tres estudios sobre la percepción de la igualdad de género que tienen los jóvenes en España (1, 2 y 3), en este grupo poblacional aún hay hombres que consideran que no existe la violencia de género, la brecha salarial o la desigualdad de género. Para conocer el papel que juega la IA en la difusión de bulos y estereotipos de género, hemos preguntado sobre estos temas a cuatro chatbots y hemos analizado sus respuestas con tres expertas.
Según el V Macroestudio de violencia de género 'Tolerancia Cero', un 16% de los jóvenes entre 16 y 18 años considera que ‘no es violencia de género empujar o golpear a la pareja tras una discusión’. Además, este informe bienal de Fad Juventud revela que un 18% de jóvenes cree que ‘la violencia de género no existe y que es un invento ideológico’ (pág. 17), un 29,9% afirma que ‘las brechas salariales no existen’ (pág. 49) y un 6% ‘niega que existan desigualdades entre hombres y mujeres’ (pág. 44). También hemos consultado el estudio del CIS dedicado a las ‘Percepciones sobre la igualdad entre hombres y mujeres y estereotipos de género’. Cuando esta encuesta pregunta a hombres jóvenes de 16 a 24 años por la afirmación de que ‘se ha llegado tan lejos en la promoción de la igualdad de las mujeres que ahora se está discriminando a los hombres’, el 27,5% de ellos está muy de acuerdo y el 24,3% bastante de acuerdo.
Ponemos a prueba la IA con bulos machistas
En VerificaRTVE hemos preguntado a cuatro aplicaciones de inteligencia artificial (ChatGPT, Gemini, DeepSeek y Grok) por estas falsas afirmaciones ampliamente extendidas sobre violencia y desigualdad de género entre los jóvenes. Hemos planteado en español e inglés varios prompts [consulta por escrito] en los que hemos pedido a estos robots de conversación (chatbots) que nos expliquen si estas afirmaciones son ciertas o no ofreciendo un razonamiento al respecto. Para ello, planteamos tres instrucciones diferentes: en la primera, a partir de un listado de las cinco afirmaciones, le hemos pedido que nos dijera si en la actualidad eran ciertas o no y que nos diera un razonamiento. En la segunda petición, hemos planteado esas afirmaciones como si fueran preguntas. En el tercer prompt hemos pedido a cada programa que asuma un role play y nos responda como si la persona que le plantea las preguntas fuera una mujer feminista de 30 años residente en España y como si se tratara de Donald Trump, actual presidente de los EE.UU. Las expertas consultadas sostienen que así dotaríamos de personalidad a la respuesta que nos da esta tecnología. Cuando preguntamos a la IA por estas afirmaciones machistas, ChatGPT, DeepSeek y Gemini no reproducen estos mitos y los desmienten con diferentes argumentos, mientras que Grok sí contribuye a perpetuar algunos sesgos. Puedes comprobarlo a continuación.
La mayoría de chatbots tienen filtros para mitigar los sesgos de género
Hemos consultado a Nuria Oliver, Zinnya del Villar y Lorena Fernández, tres expertas en inteligencia artificial, por los resultados de ChatGPT, Gemini y DeepSeek sobre estas siete afirmaciones falsas que extienden el discurso machista. La directora de Tecnología, Datos e Innovación de la organización Data-Pop Alliance, Zinnya del Villar, explica a VerificaRTVE que "las empresas de IA han trabajado mucho en minimizar estos sesgos" y añade que esto se produce "gracias al entrenamiento basado en evidencias y datos confiables". Sobre este punto, asegura que, en la mayoría de los casos, se están realizando "auditorías de sesgos y se priorizan respuestas que promuevan el pensamiento crítico y basado en datos". Además, Del Villar señala que "el hecho de que volvamos a realizar una pregunta de nuevo a estos chatbots genera que el mismo vaya mejorando" porque "se están monitoreando y retroalimentando de manera constante".
En la misma línea se manifiesta Nuria Oliver, doctora en IA por el Instituto Tecnológico de Massachusetts: "Los últimos modelos de lenguaje ya han incluido este componente de intentar verificar lo que están contestando". Subraya que los desarrolladores de estos sistemas "han hecho cierto esfuerzo para intentar mitigar este reto de que ‘se inventan las cosas’". En este sentido, la directora de la Fundación ELLIS Alicante pone como ejemplo a ChatGPT y Gemini: "Han ido introduciendo mecanismos que permiten a estos chatbots hacer referencia a las fuentes de donde han sacado la información para hacer una determinada afirmación". Para la directora de Comunicación Digital en la Universidad de Deusto, Lorena Fernández, las respuestas obtenidas por estos chatbots se deben a "las presiones del activismo" gracias a las cuales "ha habido correcciones por parte de las tecnológicas".
Análisis crítico y verificación de fuentes: las claves para usar de manera eficaz la IA
En VerificaRTVE también hemos consultado a las expertas sobre qué acciones podemos tomar de manera individual para no perpetuar los sesgos de género presentes en los chatbots. Las tres investigadoras inciden en la importancia de realizar un consumo crítico de estos sistemas y promover la educación digital. Un estudio publicado en enero de 2025 por la Asociación Americana de Marketing indica que aquellas personas con menor alfabetización en IA son más tendentes a utilizarla y a fiarse de todas las decisiones que ofrece esta tecnología.
Nuria Oliver recomienda "siempre cuestionar todo lo que nos contestan" e insiste en que los bots conversacionales como ChatGPT o Gemini "no son un buscador de Internet y no hay ningún tipo de garantía de que lo que nos dicen es veraz". Por esta razón, Oliver señala la importancia de "verificar las fuentes, puesto que a veces se inventan las referencias". Zinnya del Villar aconseja "diversificar las fuentes de información y crear un uso ético de la inteligencia artificial e impulsar la alfabetización digital". Del Villar considera fundamental "ser proactivos en la denuncia de sesgos si vemos algún sesgo en un chatbot o en la creación de imágenes alertemos a la empresa de que existe". En esta idea coincide Lorena Fernández, quién expone que "en nuestra mano como ciudadanía está seguir haciendo incidencia y presión". En este sentido, señala que "el tema de la diversidad y equidad es como una goma en la que si no mantienes la presión vuelve otra vez a su estadio inicial".
Amplía la noticia en el enlace a la noticia original.