Enfoque
Introducción
El presente trabajo ofrece una visión preliminar del proyecto “LOVELACE – Desarrollo de Métodos para Evaluar el Sesgo de Género en Chatbots de Inteligencia Artificial”. Este proyecto es una colaboración entre la Universidad Miguel Hernández de Elche y el Instituto de la Mujer del Ministerio de Igualdad de España, y tiene como enfoque principal la influencia que los chatbots basados en inteligencia artificial pueden tener en los resultados educativos.
Objetivo
El propósito principal del proyecto LOVELACE radica en establecer y aplicar una metodología rigurosa que permita medir y valorar la presencia y el impacto del sesgo de género en los textos generados por chatbots de inteligencia artificial de uso público.
Metodología
Se pone énfasis en el procesamiento del lenguaje natural (PLN), el cual es un pilar fundamental en la construcción matemática de los chatbots de IA. Nuestro análisis se enfoca en detectar posibles sesgos de género incrustados en los datos de entrenamiento, recursos, modelos y algoritmos utilizados para el desarrollo de estos chatbots. Al entender estas variables, podremos identificar cómo y en qué medida los prejuicios pueden influir o amplificar los resultados generados por los chatbots.
Conclusiones
El estudio subraya la importancia de reconocer y rectificar los sesgos de género en la IA para evitar la perpetuación de prejuicios en el ámbito educativo. Aunque los resultados aquí presentados son preliminares, destacan la necesidad urgente de estrategias efectivas para mitigar el sesgo y asegurar que las herramientas educativas basadas en IA promuevan la igualdad de género y la inclusividad.
Astrith Eugenia Rincón Sánchez
Comentó el 15/05/2024 a las 05:59:12
Estimados/as compañeros/as, en primer lugar quiero felicitaros por el proyecto tan interesante en el que trabajan. Es importante abordar el uso de la tecnología como herramienta que permita realmente evitar los sesgos de género.
Atte,
Astrith Rincón
María del Carmen Sánchez-Miranda
Comentó el 10/05/2024 a las 22:11:37
Un trabajo sumamente interesante y, también, de gran interés las respuestas a las preguntas que se están planteando. ¿Tenéis alguna publicación previa en esta línea de investigación que poder consultar? Un saludo y enhorabuena.
Maria Asuncion Vicente Ripoll
Comentó el 13/05/2024 a las 11:59:57
Buenos días,
Aun no hemos publicado ningún resultado. De hecho esta ponencia en el congreso CIID es la primera, por lo que el artículo escrito que enviaremos en breve será la primera publicación de este proyecto.
Gracias por su interés
Maria Asuncion Vicente Ripoll
Comentó el 10/05/2024 a las 12:51:21
Gracias por abordar este tema tan importante. La implementacion de chatbots de IA sin sesgos de género puede transformar la educación haciéndola más inclusiva y justa. Estos chatbots ofrecerían apoyo constante y neutral a todos los estudiantes, presentando contenidos variados que enriquezcan el aprendizaje con diferentes perspectivas, y fomenten un lenguaje inclusivo. Y como hemos indicado en nuestra ponencia y en algunos otros comentarios, es factible corregir la generación de sesgos de género en la etapa de filtrado de la IA.
Rubén Fernando Guamán Armijos
Comentó el 09/05/2024 a las 19:11:32
Muchas gracias por lo compartido. Ante la exploración realizada, ¿qué estrategia podrían mencionar, que sea verdaderamente efectiva, para mitigar el sesgo referido? Cordial saludo.
Maria Asuncion Vicente Ripoll
Comentó el 10/05/2024 a las 12:30:30
Gracias por su pregunta.
En nuestra evaluación de diversos modelos de IA generativa, como GPT-4, GPT-3.5 y Mistral, hemos encontrado que es factible reducir el sesgo de género en los contenidos generados. Esto se logra mediante la implementación de políticas específicas de sesgo durante la configuración del funcionamiento de la IA. La mayoría de las plataformas de IA generativa disponibles al público ya incorporan filtros predeterminados para el sesgo de género. Sin embargo, debido a la naturaleza del entrenamiento de estas herramientas, que se basa en datos producidos por humanos, pueden surgir contenidos con cierto grado de sesgo. Afortunadamente, es posible personalizar estos filtros de sesgo de manera más rigurosa, adaptándolos a las necesidades específicas de cada usuario o destinatario.
María del Carmen Segura Cuenca
Comentó el 09/05/2024 a las 10:50:52
Estimados/as compañeros/as, en primer lugar quiero felicitaros por el proyecto tan interesante y necesario en que estáis trabajando. Y quería preguntaros, cómo creéis que se puede influir para modificar estos sesgos de género en la IA, y si os habéis planteado divulgar vuestros resultados a través de policy briefs para conseguir trasladar la evidencia científica a los tomadores de decisiones y poder influir de algún modo en las políticas públicas que regulan la IA. Muchas gracias y saludos
Maria Asuncion Vicente Ripoll
Comentó el 10/05/2024 a las 14:07:46
Buenas tardes.
Gracias por la sugerencia para divulgar nuestros resultados en alguna plataforma de policy briefs. No se nos habia ocurrido la verdad. ¿Puedes sugerirnos alguna en concreto?
Alberto Biesok Forés
Comentó el 09/05/2024 a las 10:13:32
Buenos días, una investigación muy interesante y necesaria. ¡Enhorabuena! ¿Este sesgo de género se da también en otros chatbots como Gémini, etc?
Saludos
Maria Asuncion Vicente Ripoll
Comentó el 10/05/2024 a las 12:46:54
Buenos días
Gracias por tu consulta.
En las IAs generativas (todas, incluido Gemini) puede aparecer algun sesgo de género en el contenido generado dada la naturaleza de su algoritmo de entrenamiento que usa datos humanos de todo tipo y por ello, con sesgo de género incluido. Sin embargo, la etapa de ajuste fino o filtrado de la IA permite corregir la generación de este sesgo de género. Gemini, creo que es una de la IAs que más filtrado tiene, incluso se la critica por su exceso en filtrado, pues incluso ya denominas la IA woke. Te paso un articulo sobre ello: https://elenclave.es/gemini-la-ia-woke-que-hace-perder-millones-a-google/
Ruben Gregorio Pérez García
Comentó el 09/05/2024 a las 09:21:02
Buenos días,
Dado que su proyecto destaca la importancia de reconocer y rectificar los sesgos de género en la inteligencia artificial para evitar la perpetuación de prejuicios en el ámbito educativo, ¿cómo podría la implementación de chatbots basados en IA, libres de sesgos de género, promover una educación más inclusiva y equitativa, especialmente en entornos donde los estudiantes utilizan herramientas como ChatGPT para la realización de trabajos y actividades académicas?
Un saludo
Maria Asuncion Vicente Ripoll
Comentó el 10/05/2024 a las 12:51:52
Gracias por abordar este tema tan importante. La implementacion de chatbots de IA sin sesgos de género puede transformar la educación haciéndola más inclusiva y justa. Estos chatbots ofrecerían apoyo constante y neutral a todos los estudiantes, presentando contenidos variados que enriquezcan el aprendizaje con diferentes perspectivas, y fomenten un lenguaje inclusivo. Y como hemos indicado en nuestra ponencia y en algunos otros comentarios, es factible corregir la generación de sesgos de género en la etapa de filtrado de la IA.
Deja tu comentario
Lo siento, debes estar conectado para publicar un comentario.
Organizan
Colaboran
Configuración de Cookies
Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies