Según el Centro Nacional de Inteligencia Artificial (CENIA), una de cada cinco personas que trabaja en la inteligencia artificial (IA) es mujer. Sin embargo, un problema más profundo se presenta al momento de desarrollar esta nueva tecnología, en donde la inclusión de ellas y las disidencias es aún más escasa. Según Gabriela Arriagada, investigadora de esta institución, enfrentar esta desigualdad es clave para una IA más ética, diversa y efectiva. Aquí, sugiere cinco formas de hacerlo.
Por Aline Bergen y Camila Concha
Cuando la filósofa y experta en ética en IA Gabriela Arriagada comenzó a investigar, identificó un problema que se repetía: la tecnología avanzaba a gran velocidad, pero lo hacía arrastrando sesgos estructurales, sin detenerse a considerar las desigualdades que podía amplificar. Estudios realizados por centros como MIT Media Lab y el Instituto de Internet de Oxford ya alertaban sobre el impacto de estos sesgos en poblaciones históricamente marginadas, desde mujeres hasta comunidades neurodivergentes y disidencias sexuales.
En su rol de investigadora del Centro Nacional de Inteligencia Artificial (CENIA), Arriagada ha promovido una agenda que incorpora la equidad. Para ella, hablar de IA no es posible sin reconocer sus limitaciones sociales, técnicas y cognitivas. Por eso, su trabajo apunta a dar a entender qué sesgos existen, desde qué lugar operan, cómo nos afectan en la vida cotidiana y cómo podemos cambiarlos, a través de la incorporación de una perspectiva de género.
En 2020, Catherine D’ Ignazio y Lauren Klein publicaron un libro titulado Feminismo de Datos en el que señalan que incorporar una perspectiva de género en IA no solo visibiliza desigualdades: también cuestiona qué problemas se priorizan, cómo se formulan y con qué criterios éticos se diseñan las soluciones.
Además, la exdirectora ejecutiva de ONU Mujeres, Phumzile Mlambo-Ngcuka, lo advirtió con claridad en su discurso ante el Grupo de Trabajo Abierto sobre los Objetivos de Desarrollo Sostenible de las Naciones Unidas (Open Working Group on SDGs) el año 2014: “la ausencia de datos de calidad sobre mujeres y niñas es un indicador de su invisibilidad en la sociedad”. Esto se traduce en cifras. Datos entregados por CENIA indican que solo el 22% de quienes investigan IA a nivel mundial son mujeres, una proporción inferior incluso a su presencia en las áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), que es del 30%. Esta baja representación no solo refleja una disparidad numérica, sino que también evidencia los desafíos más amplios que persisten en el ámbito científico. ¿Pero cómo, en concreto, puede revertirse esta carencia en la IA? Gabriela Arriagada explica cinco formas de hacerlo:
1) Incorporar diversas disciplinas en el desarrollo de la IA
Para ella, no puede existir una IA con perspectiva de género sin una mirada que integre diversas realidades y conocimientos de distintas disciplinas en su diseño y desarrollo. “Necesitamos un trabajo interdisciplinario, con múltiples métodos (…). Usualmente pensamos en análisis cuantitativos (…) pero también muy probablemente vamos a necesitar datos cualitativos que nos digan un poco más sobre qué cosas necesita esa parte de la población”.
Esta necesidad fue respaldada por un estudio liderado por Xavier Ferrer-Aran, investigador del departamento de informática de King’s College London titulado “Sesgo y discriminación en la IA” que fue publicado en 2020. Este subraya que para abordar sesgos es necesaria la colaboración técnica, legal, social y ética simultánea. La investigación ‘Repensando la equidad’ de la revista de Investigación en Inteligencia Artificial, publicada por Lindsay Weinberg en 2022, plantea que una comprensión profunda de la justicia algorítmica solo es posible desde una combinación de saberes.
Además, un estudio liderado por el investigador David Moats, llamado ‘Generando problemas: colaboración interdisciplinaria y ética de la IA’ publicado en la revista Open Science Framework en 2023, evidencia que, aunque existe una creciente voluntad de incluir perspectivas de las humanidades y ciencias sociales en el desarrollo de IA, persisten barreras estructurales dentro de los equipos técnicos que dificultan una colaboración real. Sin esa apertura, advierte el estudio, el riesgo es que estas disciplinas sean tratadas como una mera «capa ética» añadida al final del proceso.
Para Arriagada se requieren equipos que integren antropólogos, sociólogos, psicólogos y educadores, junto a expertos en tecnología, para generar conocimientos que permitan entender cómo los prejuicios sociales se traducen en algoritmos, y así desarrollar soluciones más justas e inclusivas para todas las personas.
2) Fomentar la inclusión de diferentes perspectivas en los equipos de desarrollo
La disposición a cuestionar los supuestos tradicionales es clave para detectar y corregir sesgos. Gabriela Arriagada señala que si en un equipo de desarrolladores “todos tienen una misma perspectiva, estudiaron en un mismo tipo de universidad, estudiaron un mismo tipo de carrera y, por lo tanto, tienen la misma perspectiva respecto a un problema, eso se conoce como un sesgo profesional o de formación profesional. Y ahí hay muchos sesgos de género (…)”.
La apertura de mente implica ir más allá de simplemente reducir un sesgo técnico; se trata de entender cómo la inteligencia artificial puede realmente ayudar a las personas, establecer nuevos parámetros de medición y abrir espacios para incluir criterios que permitan comprender realidades distintas y que han sido históricamente invisibilizadas. Esta postura cobra aún más relevancia si se considera el artículo de Michael Li, publicado por Harvard Business Review, ‘Para construir una IA menos sesgada, contrata un equipo más diverso’ (2020), que advierte que la falta de diversidad y apertura en los equipos de desarrollo lleva a priorizar soluciones técnicas sin cuestionar los supuestos sociales que sustentan el problema.
Esta publicación también advierte sobre el llamado “sesgo profesional” que ocurre incluso cuando hay disciplinas distintas en el equipo, si todos comparten el mismo marco formativo o no se cuestionan entre sí. En esta línea, la investigadora canadiense, Joy Buolamwini, en su estudio ‘Matices de Género: Desigualdades de Precisión Interseccional en la Clasificación Comercial de Género’, publicado en Proceedings of Machine Learning Research en 2018, demostró que incluso con bases de datos más diversas, los sesgos persisten si el equipo no se pregunta críticamente “¿a quién puede dañar esto?”.
Además, una investigación llamada ‘Enmarcando los Conceptos y Métodos de la Inteligencia Artificial Centrada en el Ser Humano’ publicada por la revista JMIR Hum Factors en 2025, sostiene que para reducir sesgos estructurales, se necesita escuchar activamente a usuarios reales e incorporar formas no técnicas de saber, lo que requiere salirse del marco mental tradicional de los desarrolladores.
3) Ampliar y diversificar las bases de datos para una IA más inclusiva
Uno de los mayores desafíos para combatir el sesgo de género en la IA es la falta de datos que reflejen la diversidad real. Arriagada señala que este problema ‘‘también opera en la toma de decisiones’’. Por ello, ampliar y diversificar las bases de datos es fundamental para que la IA pueda tomar decisiones justas y representativas. “Usualmente uno dice: ‘bueno, la sociedad está sesgada, los datos están sesgados’. Por lo tanto, esto entra al sistema”, explica.
Esta advertencia no es menor: actualmente, datos entregados en la charla realizada por Tahmina Mahmud, ingeniera de aprendizaje profundo en la OTAM, llamada ‘Superar el sesgo de género en la IA’ en la Global Conference de Womantech en 2021, indican que menos del 10% de la investigación en IA utiliza conjuntos de datos diversos, lo que contribuiría a la generación de modelos sesgados. Además, solo el 7% de los conjuntos de datos públicos empleados en investigación están equilibrados en cuanto a género, raza y etnia, según WifiTalents, una plataforma que proporciona datos de mercado, estadísticas e informes con fines informativos. En áreas como la salud, la situación es aún más crítica: en un estudio publicado en Nature Communications y liderado por Christina M. Chen llamado ‘Distribución geográfica de los conjuntos de datos utilizados en el aprendizaje automático para imágenes médicas: una revisión sistemática’, publicado en 2021, se revisaron 91 conjuntos de datos clínicos y en estos se reveló que el 73 % de los datos provienen de Norteamérica o Europa —regiones que representan solo el 22 % de la población mundial—, lo que limita la aplicabilidad global de estos modelos.
El World Economic Forum en el año 2021 ha señalado que asegurar la equidad de características como género, raza o ubicación geográfica es fundamental para detectar y corregir sesgos en modelos de IA. Sin esa representatividad, los datos —y por ende los algoritmos— seguirán profundizando brechas sociales en lugar de cerrarlas, según Gabriela Arriagada.
4) Promover la participación activa de mujeres y disidencias en el desarrollo tecnológico
Es crucial para visibilizar problemas, cuestionar supuestos y proponer soluciones inclusivas. ‘‘El gran insumo y el gran avance de nuevas perspectivas ha sido a través de mujeres que han visto una necesidad y han respondido a ella (…) (Lo que ha provocado que) empiecen a recibir un apoyo institucional más sistemático’’, comenta Arriagada.
La investigadora advierte que muchas veces estas voces están ausentes o no son escuchadas dentro de los equipos de desarrollo, lo que impide detectar y corregir sesgos de género. Por eso, añade, promover espacios donde puedan expresar sus preocupaciones sin temor a ser ignoradas o desacreditadas es esencial.
5) Garantizar el respaldo institucional para la inclusión de la perspectiva de género en la IA
Para que la incorporación de la perspectiva de género en la IA sea efectiva y sostenible, se necesita un respaldo decidido de las instituciones, tanto públicas como privadas. Arriagada afirma que “los esfuerzos ya pasaron de ser algo anecdótico y son parte también del ethos de diferentes instituciones”. Sin este compromiso estructural, advierte, las buenas intenciones tienden a diluirse. Por lo mismo cree que el apoyo institucional debe traducirse en políticas claras, recursos para investigación inclusiva y en la promoción activa de la diversidad en las áreas tecnológicas.
En Chile, ya existen unidades dedicadas a la equidad de género que impulsan comités especializados y ofrecen formación de género y desarrollo humano aplicado a la IA. A nivel internacional, la Comisión Europea ha establecido que las instituciones deben contar con Planes de Igualdad de Género (GEPs) como requisito para acceder a fondos de investigación. Estos planes han demostrado ser motores de cambio institucional, promoviendo la igualdad de género en la investigación y la innovación científica.
De forma similar, la Agencia Internacional de Energía Atómica (IAEA) destaca que el respaldo institucional es clave para que la igualdad de género deje de ser una excepción y se convierta en la norma, especialmente en campos científicos históricamente masculinizados. Subraya que implementar políticas inclusivas y crear entornos laborales que apoyen a las mujeres es esencial para su permanencia y éxito profesional.
Aline Bergen es estudiante de 4to año de Periodismo en la FCOM UC (@fcomuc). El semestre pasado se desempeñó como editora en Taller de Periodismo Radial y ha sido editora creativa y productora general de Radio UC (@radio.uc). Además, desde 2023 ha participado como encargada de redes sociales, producción y edición de Estación Asia (@estacionasiauc) de Radio UC. Por otra parte, también es editora de la Revista KM Cero. Es primera vez que publica en este medio.
Camila Concha es licenciada en Ciencias Sociales de College UC (@college_uc) y estudiante de 5to año de Periodismo en la FCOM UC. Se ha desempeñado como reportera y conductora de Estación Asia de Radio UC desde 2023. Además, es ayudante de Historia de la Comunicación Social y editora de la Revista KM Cero. Es segunda vez que publica en este medio.


0 comentarios