News

¿IA para todos? Una hoja de ruta hacia la igualdad sustantiva en los ecosistemas de IA*

Por Benjamin Prud’Homme y Paola Ricaurte Quijano.

El 26 de noviembre se lanzó oficialmente el informe y la guía de políticas del GPAI, “Towards Substantive Diversity and Gender Equality in AI”, que contó con la valiosa contribución de varias participantes de la red FAIR LAC, además de la coordinación de Paola Ricaurte, en colaboración con Benjamin Prud’Homme

diverse hands clasped the word equality

En el torbellino del desarrollo y despliegue de la inteligencia artificial, un hecho ha quedado claro: los sistemas de IA tienden a reflejar el mundo en el que vivimos, magnificando las desigualdades sociales existentes y profundizando la marginación histórica de ciertos grupos. 

Posiblemente ya escuchaste el aforismo de que la IA es tan buena como los datos con los que se entrena y, por supuesto, estos datos generalmente se extraen de la vida real, del mundo defectuoso pero en constante progreso que habitamos. Lo mismo ocurre con el diseño, el desarrollo y la gobernanza de la IA, donde persisten brechas y daños de proporciones históricas. Si no se aborda con un enfoque deliberado en la igualdad, cada fase del ciclo de vida de los sistemas de IA podría exacerbar las disparidades existentes dentro y entre países. 

Aunque se reconoce ampliamente que el desarrollo de la IA debería beneficiar a todas las personas, las iniciativas orientadas a fomentar la igualdad en los ecosistemas de IA son de las menos priorizadas en la gobernanza de esta tecnología. Es crucial establecer un marco global robusto que habilite a las y los responsables de políticas públicas a promover la igualdad de género y la diversidad en el ámbito de la IA.

Ideas y recomendaciones para una política transformadora de IA

Foto del evento de presentación del reporte enseñando dos personas sobre el escenario en dónde se ve al fondo una proyección de pantalla de zoom con otros tres particpantes.
Benjamin Prud’Homme y Paola Ricaurte presentaron el informe en un evento híbrido en la sede de Mila en Canadá. En la foto también se ven Mpho Moyo, de ICT Africa, Juan Carlos Lara, de Derechos Digitales y Wanda Muñoz, participante de la red FAIR; en pantalla. Foto: Jean Lemieux.

Para abordar las causas profundas de las desigualdades en materia de IA, tenemos que invertir la exclusión histórica de individuos y comunidades. Con este fin, el Grupo de Trabajo sobre IA Responsable de la Alianza Global sobre IA (GPAI), con el apoyo de Mila – Instituto de Inteligencia Artificial de Quebec y CEIMÍA, ha elaborado un informe, Hacia una igualdad sustantiva en inteligencia artificial: política transformadora de IA para la igualdad de género y la diversidad, y una guía política complementaria para ayudar a las personas responsables políticas a aplicar sus recomendaciones.

Basado en amplias consultas con más de 200 participantes de más de 50 países y una amplia gama de comunidades, identidades y campos de especialización, el informe y la guía de políticas exigen una igualdad real en la IA. En conjunto, brindan información sobre políticas, ejemplos de prácticas prometedoras y recomendaciones prácticas, así como una hoja de ruta paso a paso sobre cómo implementar estas recomendaciones. Todos ellos se basan en un marco basado en los derechos humanos que se centra en la igualdad de género y la diversidad. 

Veamos algunas de las recomendaciones clave del informe y de la guía de políticas. 

Nivelar el campo de juego: diseño inclusivo e innovación democrática

Cuando pensamos en el desarrollo inclusivo de la IA, necesitamos un cambio de paradigma para ir más allá de simplemente “añadir” grupos marginados a los debates sobre la IA. En cambio, deberíamos descentrar la propia IA y centrar a las comunidades a través de un diseño inclusivo y de prácticas de innovación democrática para abordar directamente las desventajas sistémicas que enfrentan las mujeres y otros grupos marginados para participar en el desarrollo de las tecnologías que necesitan. 

Los formuladores de políticas pueden contribuir a una inclusión significativa de maneras tangibles, como invirtiendo en el desarrollo de capacidades para las instituciones, permitiendo el procesamiento de categorías de datos especiales o financiando investigación y diseño de tecnologías transformadoras.

Un ejemplo del diseño inclusivo en acción es la Red Feminista de Investigación de IA (f<A+i>r), una iniciativa de casi 100 académicas, activistas y profesionales feministas de la IA de diferentes campos que defienden el intercambio de conocimientos multidisciplinarios y la innovación feminista en todo el mundo. Es a la vez un enfoque impulsado por la comunidad y tecnológicamente avanzado e innovador. La red proporciona nuevos datos, algoritmos, modelos, políticas y sistemas que pueden utilizarse para corregir los daños y las barreras de la vida real a los derechos, la representación y la igualdad de las mujeres y otros grupos marginados. 

Desde una perspectiva política, es crucial financiar y apoyar tales iniciativas y, por extensión, el desarrollo y la implementación de sistemas y procesos de IA inclusivos. Debemos crear las condiciones para que las personas y comunidades tradicionalmente excluidas participen significativamente como actores centrales de la IA. La participación activa e intencional de las comunidades marginadas en cada fase del desarrollo, implementación y gobernanza de la IA es esencial para garantizar que la IA beneficie a todos.

¿Quién tiene voz? Participación significativa en la gobernanza de la IA

El simple hecho de tener acceso a la IA no significa necesariamente que las mujeres y otros grupos marginados puedan participar en la configuración de su desarrollo y gobernanza. Un enfoque de la IA centrado en los derechos humanos exige que las personas tengan voz y voto real en el desarrollo y en la implementación de tecnologías que pueden tener un profundo impacto en sus vidas. Las decisiones sobre la IA impactan a todos, por lo que esas decisiones deben reflejar los valores y prioridades de todas las comunidades, particularmente de aquellas históricamente excluidas. Esto requiere una participación pública activa, desarrollo de capacidades para grupos marginados y protecciones legales para los derechos de participación pública y para los derechos colectivos de datos.

Históricamente, las barreras sistémicas han limitado el crecimiento profesional, el desarrollo de habilidades y la conciencia comunitaria sobre la IA y otras tecnologías emergentes de las comunidades marginadas. Estas barreras son el resultado de desigualdades económicas, acceso limitado a oportunidades de capacitación, infraestructura digital inadecuada y barreras culturales. Afortunadamente, muchas iniciativas están trabajando para eliminar estas barreras a la innovación democrática y a la participación significativa en la gobernanza de la IA.

Una de esas iniciativas, el programa Pioneros Indígenas en IA, dirigido por Mila – Instituto Québec de IA en colaboración con Inspirar, es una iniciativa de orientación profesional que crea las condiciones para que el talento indígena dé forma al futuro de la IA. Centrado en las visiones del mundo y los valores indígenas en el desarrollo de la IA, el programa permite a las comunidades indígenas impulsar el desarrollo de la IA de maneras que las beneficien. 

Las lecciones aprendidas de esta iniciativa son importantes para comprender cómo las comunidades y culturas indígenas de todo el mundo pueden contribuir de manera única al desarrollo de tecnologías de inteligencia artificial que reflejen sus visiones del mundo. Los formuladores de políticas pueden trabajar hacia una gobernanza de la IA más inclusiva mediante la celebración de sesiones de concientización y consulta con grupos marginados para comprender sus prioridades y necesidades únicas y desarrollar políticas para abordarlas. Equipados con estas perspectivas, pueden financiar y apoyar iniciativas educativas, profesionales y financieras que permitan a las comunidades marginadas participar y liderar significativamente dentro de los ecosistemas de IA y desarrollar sus propias tecnologías de IA.

Generar confianza: transparencia, rendición de cuentas y acceso a la justicia

En el panorama actual de la IA, resulta imprescindible fomentar la transparencia, la rendición de cuentas y el acceso a la justicia en los procesos y decisiones relacionados con esta tecnología. Es prioritario establecer marcos sólidos que prevengan los daños y la discriminación asociados al uso de la IA. No obstante, para generar confianza en la tecnología y maximizar sus beneficios, es igualmente esencial contar con mecanismos efectivos para abordar las fallas de dichos marcos. Cuando las comunidades son excluidas, perjudicadas o discriminadas por los sistemas de IA, ya sea de manera incidental o intencional, deben disponer de recursos legales y de herramientas que les permitan reparar el daño y exigir justicia. 

La transparencia y la rendición de cuentas contribuyen a la igualdad sustantiva al permitirnos auditar los sistemas vigentes. Si podemos examinar públicamente los sistemas y los procesos de IA, detectar sesgos y responsabilizar a los proveedores públicos y privados por los impactos dañinos, podremos tener una visibilidad mucho mejor de los problemas en cuestión. Eso, a su vez, nos permitirá abogar por la igualdad y corregir la exclusión estructural de una manera informada y cohesiva. El informe y la guía de políticas describen varias recomendaciones para mejorar la transparencia y la rendición de cuentas. Estos incluyen garantizar el derecho a la información, mejorar la transparencia algorítmica, realizar evaluaciones de impacto en los derechos humanos y establecer directrices de contratación pública a lo largo del ciclo de vida de la IA. 

Un ejemplo práctico del que podemos aprender es el Índice global sobre IA responsable. Esta iniciativa analiza las políticas de IA de los países y los compromisos nacionales para promover la inclusión, la responsabilidad y la ética en la IA. La herramienta integral y colaborativa y sus puntos de referencia brindan datos representativos a personas formuladoras de políticas, investigadoras y periodistas, lo que les permite rastrear y medir el progreso de los países en la defensa de los derechos humanos en la IA. A su vez, los formuladores de políticas de todo el mundo pueden utilizar estos puntos de referencia para diseñar regulaciones que exijan transparencia en las operaciones de IA y describan mecanismos de rendición de cuentas para garantizar un uso responsable e inclusivo de la IA. Una vez que los datos se convierten en conocimientos, es hora de pasar a la acción.

Una hoja de ruta hacia la igualdad sustantiva en los ecosistemas de IA

Para garantizar que la IA beneficie a todos, los sistemas de IA deben diseñarse de manera inclusiva, gobernarse democráticamente y equiparse con métodos de rendición de cuentas y justicia para reparar los daños potenciales. Con una impresionante variedad de iniciativas que defienden estas causas, está claro que los gobiernos son responsables de desarrollar políticas transformadoras de IA para garantizar que el ecosistema de IA no reproduzca desigualdades dentro y entre los países. Así que ahora es el momento de pasar a lo que puede ser la parte más difícil de todas: tomar medidas. 

Muchos actores pueden sentirse, con razón, inseguros de cómo proceder con esta tecnología incipiente y en rápida evolución. Aquí es donde una hoja de ruta paso a paso puede resultar útil, como la que se proporciona en el Guía de políticas para implementar recomendaciones de políticas transformadoras de IA

Figura 1: Hoja de ruta paso a paso para la implementación de una política transformadora de IA

Poner en práctica estas ideas políticas e integrarlas en las regulaciones y leyes globales requerirá mucha coordinación. Las instituciones de todo el mundo tendrán que invertir en estas áreas para permitir una IA justa. Esto podría adoptar diversas formas: invertir en su propia capacidad y en el desarrollo de capacidades para otros; invertir en personas, en formación, en crear instituciones; o delinear los derechos y las responsabilidades que tienen las instituciones para permitir el acceso a la justicia. Los “sandboxes” regulatorios públicos también son herramientas útiles para permitir la innovación segura, ya que nos permiten realizar pruebas iterativas para equilibrar las pruebas tecnológicas con la necesidad de unos límites reguladores claros.

Por supuesto, no existe una solución única para lograr ecosistemas de IA más responsables, equitativos e inclusivos. Las recomendaciones del informe y de la guía de políticas de GPAI también deben adaptarse y aplicarse en contextos geográficos, sociales, culturales, históricos, económicos, legales y políticos. Las acciones que las partes interesadas pueden tomar de manera realista variarán enormemente dependiendo de los marcos legales y regulatorios, de las capacidades técnicas, de la disponibilidad de recursos y de la cooperación de las partes interesadas, además de otros obstáculos para la implementación específicos de la comunidad.

Debemos apoyar las iniciativas locales y al mismo tiempo promover la colaboración internacional para hacer realidad esta visión. Es necesario intercambiar con diversas partes interesadas globales para desarrollar políticas inclusivas que puedan adaptarse al rápido ritmo de los avances de la IA. Por lo tanto, los actores globales deben buscar y amplificar las voces de la mayoría global y asegurarse de que formen parte integral de la gobernanza de la IA. Al priorizar la equidad y la inclusión, podemos aprovechar el poder de la IA para crear un futuro más justo y equitativo para todos.

Consulta el reporte: https://gpai.ai/projects/responsible-ai/towardsrealdiversityandgenderequalityinai/

* Publicado originalmente en inglés en OCDE.AI en 27 de noviembre de 2024.