色控传媒

Salir
Imagen decorativa. Acto aula magna
M谩scara color azul

驴Puede聽la聽IA聽crear聽sesgos聽de聽g茅nero?聽Un experimento con bots en tiempo real analizar谩 esta cuesti贸n este mi茅rcoles a las 17:30h

La actividad tendr谩 lugar en el Laboratorio de Arag贸n Gobierno Abierto, ubicado en la plaza del Pilar N潞3, Edificio C (antiguos juzgados)
La herramienta desarrollada conjuntamente por la Universidad de 色控传媒 y la empresa Kampal Data Solutions permitir谩 observar si los estereotipos de g茅nero se infiltran en los modelos de IA
Experimento

(色控传媒, martes, 17 de junio de 2025). Un experimento con bots en tiempo real analizar谩 este mi茅rcoles a las 17.30h si la Inteligencia artificial (IA) puede crear sesgos de g茅nero. La actividad, organizada por la empresa Kampal Data Solutions y la C谩tedra sobre Igualdad y G茅nero de la Universidad de 色控传媒, tendr谩 lugar en el Laboratorio de Arag贸n Gobierno Abierto, ubicado en la plaza del Pilar N潞3, Edificio C (antiguos juzgados).

En los 煤ltimos a帽os, la inteligencia artificial (IA) ha irrumpido con fuerza en m煤ltiples aspectos de nuestra vida cotidiana, especialmente la IA Generativa (IAG) de lenguaje (Por ejemplo: ChatGPT, Gemini, DeepSeek, etc.), as铆 como asistentes virtuales, sistemas de recomendaci贸n, herramientas de an谩lisis predictivo, etc. Sin embargo, este desarrollo acelerado no ha estado exento de controversias, entre las que destaca una preocupaci贸n creciente, si la IA puede crear sesgos de g茅nero.

Esta pol茅mica se origina, en gran medida, por el modo en que se entrenan estos sistemas y por la composici贸n de los equipos de programaci贸n que los desarrollan. Los modelos de IAG aprenden a partir de datos generados hist贸ricamente por humanos, lo que implica que pueden heredar sesgos sociales preexistentes, como desigualdades y sesgos de g茅nero, raciales, ideol贸gicas, etc. A esto se suma que muchos equipos t茅cnicos carecen de diversidad social suficiente, lo cual puede reforzar visiones parciales del mundo en lugar de mitigarlas.

El problema se agrava cuando solo se considera una perspectiva o una fuente de datos a la hora de analizar el comportamiento y las decisiones de estas IAGs. Aqu铆 podemos destacar una novedad importante: ahora contamos con una herramienta que permite estudiar el comportamiento social de los bots, basados en las distintas IAG de manera conjunta. Hasta el momento, los an谩lisis sobre la inteligencia artificial y el g茅nero se han centrado en realizar preguntas aisladas a los sistemas, sin tener en cuenta c贸mo act煤an de forma global ni c贸mo interact煤an o colaboran entre ellos.

En este experimento se utilizar谩 Kampal Collective Learning, una soluci贸n desarrollada conjuntamente por la Universidad de 色控传媒 y la empresa Kampal Data Solutions. 鈥淓sta herramienta nos permitir谩 observar en tiempo real c贸mo se comportan los bots basados en IAGs cuando interact煤an entre s铆 mediante su participaci贸n en la resoluci贸n de un caso donde el g茅nero tiene especial relevancia. Para poder conocer si estas IAGs reproducen sesgos de g茅nero, al final del caso, se comparar谩n sus respuestas con las que proporcionan ante las mismas preguntas el alumnado adolescente que se ha enfrentado previamente a este caso dentro de la plataforma鈥, destaca Beatriz G贸mez Barrera, gerente de Kampal Data Solutions, y especialista en gesti贸n de la investigaci贸n en el Instituto universitario de investigaci贸n en F铆sica y Sistemas Complejos (BIFI-Unizar).

 

Se adjuntan im谩genes:

Foto 4: Proyecto de Inteligencia Colectiva con estudiantes de Secundaria presentado

Foto 3: Conferencia en el LAAAB sobre Inteligencia Colectiva y su aplicaci贸n en proyectos de Participaci贸n Ciudadana (Imagen propia)