Sociedad Argentina de Gestión de Actores Intérpretes

#Noticias

OlivIA, la herramienta que detecta sesgos de género en la IA

16 May. 2025

Uno de los objetivos de esta herramienta es la identificación y corrección de estereotipos de género, lenguaje sexista y desigualdades simbólicas o estructurales en la inteligencia artificial y diversos tipos de textos e imágenes, como también así proponer mejoras. 

La herramienta está pensada para ser usada para tareas de comunicación, justicia, educación, organización de eventos, recursos humanos, diseño de políticas públicas, investigación o simple curiosidad.

OlivIA fue creada por Ana Correa, abogada y comunicadora feminista, coordinadora del posgrado sobre violencia de género en entornos digitales de la Facultad de Derecho de la UBA. La herramienta fue entrenada para que sus respuestas se basen en datos contrastables, bibliografía reconocida y marcos normativos y de jurisprudencia. Además, incorpora el método legal de la jurista feminista Katharine T. Bartlett, que consiste en hacer "la pregunta por las mujeres" en cada situación: ¿Dónde están las mujeres en esta situación? ¿Cómo afecta esto a las mujeres? ¿Qué mujeres están siendo visibilizadas y cuáles no?

Las herramientas de inteligencia artificial, como ChatGPT, pueden reproducir sesgos de género presentes en los datos con los que fueron entrenadas. Por ejemplo, al consultar sobre regalos para niños y niñas, ChatGPT solía sugerir juguetes estereotipados según el género. Con el entrenamiento de OlivIA, las respuestas se han vuelto más neutrales y enfocadas en los intereses individuales, evitando perpetuar estereotipos.