
No todos los modelos generativos de IA son iguales, especialmente cuando se trata de cómo tratan temas polarizadores.
En un estudio reciente presentado en la conferencia ACM Fairness, Accountability and Transparency (FAccT) de 2024, investigadores de Carnegie Mellon, la Universidad de Amsterdam y la startup de IA Hugging Face probaron varios modelos abiertos de análisis de texto, incluido Llama 3 de Meta, para ver cómo responderían a preguntas relacionadas con los derechos LGBTQ+, el bienestar social, la gestación subrogada y más.
En su estudio, los investigadores probaron cinco modelos: Mistral's Mistral 7B, Command-R de Cohere, Qwen de Alibaba, Gemma de Google y Llama 3 de Meta, utilizando un conjunto de datos que contenía preguntas y afirmaciones sobre áreas temáticas como inmigración, derechos LGBTQ+ y derechos de discapacidad. Para investigar los prejuicios lingüísticos, alimentaron las afirmaciones y preguntas a los modelos en una variedad de idiomas, incluido inglés, francés, turco y alemán.
Las respuestas de los modelos a ciertas preguntas también podrían señalar diferencias fundamentales en la visión del mundo, incluyendo por parte de las personas reclutadas para anotar los datos de entrenamiento de los modelos.
Instrumentales para los datos de entrenamiento de un modelo de IA son las anotaciones, o etiquetas que permiten al modelo asociar conceptos específicos con datos específicos (por ejemplo, que la retórica anti-LGBTQ+ es mala). Estas anotaciones provienen de anotadores, generalmente contratistas. Y los anotadores, al igual que todos nosotros, tienen prejuicios, que pueden manifestarse en sus anotaciones y, por lo tanto, en los modelos entrenados con ellos.
En abril de 2023, el verificador de información NewsGuard publicó un informe que mostraba que la plataforma de chatbot ChatGPT de OpenAI repite más información inexacta en dialectos chinos que cuando se le pide que lo haga en inglés. Otros estudios han examinado los prejuicios políticos, raciales, étnicos, de género y capacitistas profundamente arraigados en los modelos generativos de IA, muchos de los cuales atraviesan idiomas, países y dialectos.
Pistilli reconoció que no hay una solución milagrosa, dada la naturaleza multifacética del problema de los sesgos del modelo. Pero dijo que esperaba que el estudio sirviera como recordatorio de la importancia de probar rigurosamente dichos modelos antes de liberarlos en la naturaleza.