Llamada a artículos: Investigaciones Feministas 2025. Vol. 16(1). Inteligencia Artificial y Estereotipos de Género: Desafíos y Oportunidades

2024-12-05

Llamada a artículos: Investigaciones Feministas 2025. Vol. 16(1). Inteligencia Artificial y Estereotipos de Género: Desafíos y Oportunidades

En los últimos años, se han popularizado varias aplicaciones que emplean Inteligencia Artificial (IA) para generar textos, imágenes o audiovisuales. Miles de usuarios han empezado a usar aplicaciones como ChatGPT, Midjourney, Dreams o DALL-E, como herramientas de trabajo o para el entretenimiento. Este tipo de nueva tecnología ha permitido agilizar procesos creativos a en diferentes artes, así como mejorar procesos educativos, sin embargo, también ha servido para crear imágenes falsas relacionadas con fake news como la detención de Donald Trump o imágenes del Papa Francisco, con una bandera LGTBI.

La IA ha revolucionado la creación de contenido digital, pero su desarrollo e implementación presentan importantes desafíos desde una perspectiva de género. La representación equitativa de géneros en el diseño y aplicación de la IA es esencial para evitar sesgos que perpetúen estereotipos y discriminación. Actualmente, el campo de la IA sigue siendo predominantemente masculino, lo que puede influir en la creación de sistemas que no reflejan adecuadamente las experiencias y necesidades de todas las personas.

Este desequilibrio tiene un impacto significativo en el ámbito laboral. Los sistemas de IA pueden reforzar desigualdades en el cuidado y el empleo doméstico, ya que el diseño de estas tecnologías a menudo está condicionado por un entorno cultural que asocia a las mujeres con roles de cuidadoras. Además, la utilización de IA en procesos de selección puede estar marcada por sesgos de género. Esto se debe a que los algoritmos son codificados por personas cuyos valores y creencias pueden influir en los datos utilizados para entrenar estos sistemas. La baja representación de mujeres en el sector STEM agrava esta situación, ya que sus preocupaciones e intereses quedan a menudo sin representación.

Otro de los aspectos polémicos de las herramientas de IA son los estereotipos de género en la representación de mujeres. Varias investigaciones han analizado imágenes y contenidos generados por estas aplicaciones que representan a las mujeres desde aspectos o con contenidos tradicionales y estereotipados. Este problema refleja y amplifica los sesgos existentes en nuestra sociedad, ya que los sistemas de IA aprenden de los datos con los que son entrenados, que a menudo contienen prejuicios históricos y culturales. Por ejemplo, cuando se le pide a una IA que genere imágenes de profesiones como "médico" o "ingeniero", tiende a producir más representaciones masculinas, mientras que para profesiones como "enfermera" o "secretaria" suele generar más imágenes femeninas.

Estos sesgos no se limitan sólo a las profesiones. Las representaciones de mujeres generadas por IA a menudo refuerzan estándares de belleza poco realistas, mostrando cuerpos idealizados y poco diversos. Además, en contextos domésticos o familiares, las mujeres suelen ser representadas en roles tradicionales de cuidadoras o amas de casa, perpetuando estereotipos de género anticuados. Las investigaciones también han revelado que el lenguaje utilizado para describir a las mujeres en los textos generados por IA tiende a ser más emocional y menos orientado a la acción o al liderazgo en comparación con las descripciones de hombres. Esto puede tener implicaciones significativas en cómo se percibe y se valora el papel de las mujeres en diversos contextos sociales y profesionales.

Por todo lo anterior, es crucial desarrollar un mundo digital desde una perspectiva de género, considerando el contexto social actual y las relaciones de poder existentes. La participación activa de las mujeres en el diseño y desarrollo de tecnologías es fundamental para eliminar desigualdades en el entorno tecnológico y garantizar que la IA sea justa y efectiva para todos. Sólo así podremos aprovechar al máximo el potencial transformador de estas herramientas sin dejar a nadie atrás.

Las contribuciones girarán en torno a las siguientes líneas temáticas, pero se pueden proponer otras similares:

  • Conflictos éticos de la representación de las mujeres a través de IA
  • Representación de mujeres en imágenes y contenidos creados con IA.
  • Fake news, deepfakes y representación femenina e Inteligencia Artificial.
  • Sexualización de la imagen de la mujer de imágenes creadas con IA.
  • Herramientas tecnológicas aplicadas a la representación femenina.
  • Aplicaciones de IA para la educación social de estereotipos de género.
  • Sesgos de género en los algoritmos de IA y su impacto en la representación femenina.
  • Implicaciones éticas de los asistentes de voz con género femenino por defecto.
  • Perpetuación de roles de género tradicionales en contenidos generados por IA.
  • Impacto de la falta de diversidad en los equipos de desarrollo de IA en la representación de las mujeres.
  • Ética en el desarrollo de aplicaciones de IA para la salud femenina.
  • Representación interseccional de mujeres en sistemas de IA: raza, edad, discapacidad y orientación sexual.
  • Papel de la IA en la reproducción o mitigación de la brecha salarial de género.
  • Análisis comparativo de marcos éticos y regulatorios de IA desde una perspectiva de género.
  • Desafíos éticos en el uso de datos biométricos de mujeres en sistemas de reconocimiento facial.
  • Implicaciones éticas del uso de IA en sistemas judiciales y su impacto en casos relacionados con mujeres.
  • Desafíos en la rendición de cuentas y transparencia de los sistemas de IA que afectan la representación femenina.

Número coordinado por: Dr. Víctor Cerdán (Universidad Complutense de Madrid, España), Dr. Daniel Villa Gracia (Universidad Complutense de Madrid, España), Dra. Sonia Carcelén (Universidad Complutense de Madrid, España) y Dra. Fernanda Nascimento (Pontifícia Universidade Católica do Rio Grande do Sul).

Llamada a artículos

Todos los textos deben ser originales y han de ser enviados por la plataforma (no se admiten entregas por correo electrónico), siguiendo escrupulosamente las normas de la revista: https://revistas.ucm.es/index.php/INFE/about/submissions

Los trabajos pueden presentarse en inglés o en español. No pueden haber sido publicados previamente, ni pueden estar en proceso de evaluación en otras revistas.

Es preferible que sean fruto de investigaciones competitivas subvencionadas, con un equipo de clara visión y trabajo internacional. Esta revista no admite ensayos, crónicas, esbozos o similares.

Todos los artículos estarán sujetos a una doble revisión ciega.

Se recuerda que aparte de los textos del Monográfico, la sección de Miscelánea siempre está abierta, todo el año, con artículos en todos los números de la revista.

Fechas y plazos

Presentación de artículos originales: Hasta el 31 de enero de 2025.

Revisión de artículos originales: Febrero de 2025.

Publicación: Marzo de 2025.