S13-09 12

Investigación y estrategias contra el sesgo de género en chatbots de IA: Proyecto LOVELACE

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Maria Asuncion Vicente RipollUniversidad Miguel Hernández
profile avatar
César Fernández PerisUniversidad Miguel Hernández de Elche
profile avatar
Irene Carrillo MurciaUniversidad Miguel Hernández
profile avatar
Mercedes Guilabert MoraUniversidad Miguel Hernández

Enfoque

Introducción

El presente trabajo ofrece una visión preliminar del proyecto “LOVELACE – Desarrollo de Métodos para Evaluar el Sesgo de Género en Chatbots de Inteligencia Artificial”. Este proyecto es una colaboración entre la Universidad Miguel Hernández de Elche y el Instituto de la Mujer del Ministerio de Igualdad de España, y tiene como enfoque principal la influencia que los chatbots basados en inteligencia artificial pueden tener en los resultados educativos.

Objetivo

El propósito principal del proyecto LOVELACE radica en establecer y aplicar una metodología rigurosa que permita medir y valorar la presencia y el impacto del sesgo de género en los textos generados por chatbots de inteligencia artificial de uso público.

Metodología

Se pone énfasis en el procesamiento del lenguaje natural (PLN), el cual es un pilar fundamental en la construcción matemática de los chatbots de IA. Nuestro análisis se enfoca en detectar posibles sesgos de género incrustados en los datos de entrenamiento, recursos, modelos y algoritmos utilizados para el desarrollo de estos chatbots. Al entender estas variables, podremos identificar cómo y en qué medida los prejuicios pueden influir o amplificar los resultados generados por los chatbots.

Conclusiones

El estudio subraya la importancia de reconocer y rectificar los sesgos de género en la IA para evitar la perpetuación de prejuicios en el ámbito educativo. Aunque los resultados aquí presentados son preliminares, destacan la necesidad urgente de estrategias efectivas para mitigar el sesgo y asegurar que las herramientas educativas basadas en IA promuevan la igualdad de género y la inclusividad.

Preguntas y comentarios al autor/es

    • profile avatar

      Astrith Eugenia Rincón Sánchez

      Comentó el 15/05/2024 a las 05:59:12

      Estimados/as compañeros/as, en primer lugar quiero felicitaros por el proyecto tan interesante en el que trabajan. Es importante abordar el uso de la tecnología como herramienta que permita realmente evitar los sesgos de género.
      Atte,
      Astrith Rincón

    • profile avatar

      María del Carmen Sánchez-Miranda

      Comentó el 10/05/2024 a las 22:11:37

      Un trabajo sumamente interesante y, también, de gran interés las respuestas a las preguntas que se están planteando. ¿Tenéis alguna publicación previa en esta línea de investigación que poder consultar? Un saludo y enhorabuena.

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 13/05/2024 a las 11:59:57

        Buenos días,
        Aun no hemos publicado ningún resultado. De hecho esta ponencia en el congreso CIID es la primera, por lo que el artículo escrito que enviaremos en breve será la primera publicación de este proyecto.
        Gracias por su interés

    • profile avatar

      Maria Asuncion Vicente Ripoll

      Comentó el 10/05/2024 a las 12:51:21

      Gracias por abordar este tema tan importante. La implementacion de chatbots de IA sin sesgos de género puede transformar la educación haciéndola más inclusiva y justa. Estos chatbots ofrecerían apoyo constante y neutral a todos los estudiantes, presentando contenidos variados que enriquezcan el aprendizaje con diferentes perspectivas, y fomenten un lenguaje inclusivo. Y como hemos indicado en nuestra ponencia y en algunos otros comentarios, es factible corregir la generación de sesgos de género en la etapa de filtrado de la IA.

    • profile avatar

      Rubén Fernando Guamán Armijos

      Comentó el 09/05/2024 a las 19:11:32

      Muchas gracias por lo compartido. Ante la exploración realizada, ¿qué estrategia podrían mencionar, que sea verdaderamente efectiva, para mitigar el sesgo referido? Cordial saludo.

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 10/05/2024 a las 12:30:30

        Gracias por su pregunta.
        En nuestra evaluación de diversos modelos de IA generativa, como GPT-4, GPT-3.5 y Mistral, hemos encontrado que es factible reducir el sesgo de género en los contenidos generados. Esto se logra mediante la implementación de políticas específicas de sesgo durante la configuración del funcionamiento de la IA. La mayoría de las plataformas de IA generativa disponibles al público ya incorporan filtros predeterminados para el sesgo de género. Sin embargo, debido a la naturaleza del entrenamiento de estas herramientas, que se basa en datos producidos por humanos, pueden surgir contenidos con cierto grado de sesgo. Afortunadamente, es posible personalizar estos filtros de sesgo de manera más rigurosa, adaptándolos a las necesidades específicas de cada usuario o destinatario.

    • profile avatar

      María del Carmen Segura Cuenca

      Comentó el 09/05/2024 a las 10:50:52

      Estimados/as compañeros/as, en primer lugar quiero felicitaros por el proyecto tan interesante y necesario en que estáis trabajando. Y quería preguntaros, cómo creéis que se puede influir para modificar estos sesgos de género en la IA, y si os habéis planteado divulgar vuestros resultados a través de policy briefs para conseguir trasladar la evidencia científica a los tomadores de decisiones y poder influir de algún modo en las políticas públicas que regulan la IA. Muchas gracias y saludos

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 10/05/2024 a las 14:07:46

        Buenas tardes.
        Gracias por la sugerencia para divulgar nuestros resultados en alguna plataforma de policy briefs. No se nos habia ocurrido la verdad. ¿Puedes sugerirnos alguna en concreto?

    • profile avatar

      Alberto Biesok Forés

      Comentó el 09/05/2024 a las 10:13:32

      Buenos días, una investigación muy interesante y necesaria. ¡Enhorabuena! ¿Este sesgo de género se da también en otros chatbots como Gémini, etc?

      Saludos

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 10/05/2024 a las 12:46:54

        Buenos días
        Gracias por tu consulta.
        En las IAs generativas (todas, incluido Gemini) puede aparecer algun sesgo de género en el contenido generado dada la naturaleza de su algoritmo de entrenamiento que usa datos humanos de todo tipo y por ello, con sesgo de género incluido. Sin embargo, la etapa de ajuste fino o filtrado de la IA permite corregir la generación de este sesgo de género. Gemini, creo que es una de la IAs que más filtrado tiene, incluso se la critica por su exceso en filtrado, pues incluso ya denominas la IA woke. Te paso un articulo sobre ello: https://elenclave.es/gemini-la-ia-woke-que-hace-perder-millones-a-google/

    • profile avatar

      Ruben Gregorio Pérez García

      Comentó el 09/05/2024 a las 09:21:02

      Buenos días,

      Dado que su proyecto destaca la importancia de reconocer y rectificar los sesgos de género en la inteligencia artificial para evitar la perpetuación de prejuicios en el ámbito educativo, ¿cómo podría la implementación de chatbots basados en IA, libres de sesgos de género, promover una educación más inclusiva y equitativa, especialmente en entornos donde los estudiantes utilizan herramientas como ChatGPT para la realización de trabajos y actividades académicas?

      Un saludo

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 10/05/2024 a las 12:51:52

        Gracias por abordar este tema tan importante. La implementacion de chatbots de IA sin sesgos de género puede transformar la educación haciéndola más inclusiva y justa. Estos chatbots ofrecerían apoyo constante y neutral a todos los estudiantes, presentando contenidos variados que enriquezcan el aprendizaje con diferentes perspectivas, y fomenten un lenguaje inclusivo. Y como hemos indicado en nuestra ponencia y en algunos otros comentarios, es factible corregir la generación de sesgos de género en la etapa de filtrado de la IA.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Colaboran

Configuración de Cookies

Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies

Revisar