En un reciente estudio de la UNESCO se revelaron preocupantes tendencias en los Modelos de Lenguaje Grandes (LLM), como GPT-3.5 y GPT-2 de OpenAI, respecto a la generación de estereotipos de género, homofobia y estereotipos raciales. Este análisis ha expuesto la necesidad urgente de abordar estos sesgos en las herramientas de inteligencia artificial (IA).
Modelos de lenguaje grandes y sesgos de género
El informe destaca que las mujeres son representadas hasta cuatro veces más que los varones en roles asociados con el hogar y la familia, mientras que estos últimos son vinculados con términos como negocios y carrera. Esta disparidad refleja un sesgo arraigado en los LLM, perpetuando estereotipos que refuerzan desigualdades de género.
Impacto en las narrativas generadas
Los LLM de código abierto, aunque accesibles, exhiben el sesgo de género más significativo, asignando roles más diversos y prestigiosos a los varones mientras relegan a las mujeres a roles tradicionalmente menos valorados. Esta disparidad refleja la necesidad de abordar estos sesgos en la creación de contenido generado por IA.
Actitudes homófobas y estereotipos raciales
Además de los sesgos de género, los estudios también revelaron actitudes homófobas y estereotipos raciales en los LLM. El contenido generado refleja una percepción negativa hacia personas homosexuales y ciertos grupos étnicos, evidenciando la importancia de abordar estos prejuicios en las herramientas de IA.
Acciones urgentes
Para mitigar estos sesgos, es crucial aplicar la Recomendación de la UNESCO sobre ética de la IA, desarrollando marcos regulatorios claros y promoviendo la diversidad en el diseño y desarrollo de herramientas de IA. Esto incluye asignar fondos para programas de paridad de género, incentivar el espíritu empresarial de las mujeres y aumentar la participación de niñas y mujeres en disciplinas STEM y TIC.
Preguntas y respuestas
El estudio revela tendencias preocupantes en la generación de estereotipos de género, homofobia y estereotipos raciales en herramientas de IA como GPT-3.5 y GPT-2.
Los sesgos perpetúan desigualdades de género al asignar roles más prestigiosos a los varones y roles tradicionalmente menos valorados a las mujeres.
Se sugiere aplicar la Recomendación de la UNESCO sobre ética de la IA, promoviendo la diversidad en el diseño de herramientas de IA y programas de paridad de género.