EMOLTV

"Definir las reglas del futuro": Lanzan alianza internacional para generar "algoritmos inclusivos" en sistemas inteligentes

La Fundación Ciudadanía inteligente se propone "corregir de manera automatizada" los sesgos que tiene el "sistema offline", principalmente racistas y machistas. La tarea cobra relevancia ad portas de que se cree una Política Nacional de Inteligencia Artificial.

14 de Octubre de 2019 | 09:44 | Por Consuelo Ferrer, Emol
imagen
Fundación Ciudadanía Inteligente
SANTIAGO.- A comienzos de 2019, un estudio advertía de una "crisis de diversidad" en la Inteligencia Artificial: los números mostraban una discriminación hacia grupos no hegemónicos, que eran adquiridas en estos sistemas automatizados debido al "entrenamiento" que reciben, en el 80% de los casos realizado por hombres blancos y sólo en menos del 15% por mujeres.

Según AI Now Institute, a cargo de la investigación, la situación no solo representa un potencial sesgo en la "educación" de los sistemas, sino que puede traer consecuencias para grupos como las etnias originarias, la población afrodescendiente, las diversidades sexuales y para aquellas personas afectadas por la discriminación de género.

En Chile, la arquitecta Liliana de Simone advirtió sobre lo mismo. "Hay muchos temas de discriminación relacionados al big data y las smart cities, y al hecho de que queramos aplicar datos al diseño y al control de las ciudades", dijo a Emol en mayo. "Tenemos un problema muy grave, porque la manera en cómo se construyen los datos tiene patrones tradicionales de género".

Poniendo la vista en ese vacío, la Fundación Ciudadanía Inteligente lanzó la "Alianza A+" junto a la organización europea Women@theTable. Se trata de la primera iniciativa global que ofrece un listado de acción e incidencia para gobiernos, empresas y la sociedad civil que apunta a combatir los sesgos que reproducen los algoritmos.

El objetivo es diseñar sistemas que proactivamente corrijan las desigualdades estructurales de estos métodos, y posicionar la equidad de género como un principio de diseño. Es necesario, aseguran, rediseñar para "maximizar los beneficios" de la tecnología y corregir las "desigualdades estructurales que afectan a toda la sociedad".

En entrevista con Emol, la directora ejecutiva de Fundación Ciudadanía Inteligente, Renata Ávila, entrega detalles de la iniciativa lanzada el 8 de octubre, el mismo día en que se conmemora a Ada Lovelace, la primera mujer programadora. "Se eligió el día en honor a ella y a todas las mujeres cuyo trabajo en el avance científico se ha visto invisibilizado, porque queremos hacerlo visible", dice.

El género en los datos


Ávila propone un escenario hipotético: una municipalidad que decide dar becas dirigidas a ciencia a 50 estudiantes, y que para ese proceso de selección solamente tiene disponible a una persona. "Procesar todas las postulaciones les podría llevar dos años, por eso deciden implementar un sistema automatizado: que procese las solicitudes, las escanee, llene todos los espacios y dé como resultado los 50 finalistas", elabora.

"Si lo hacemos así, como una cuestión mecánica basada en los datos que tenemos hoy, ¿qué va a pasar? Es muy probable que los criterios que se utilicen para determinar esas becas terminen beneficiando a quienes siempre se benefician. Probablemente van a tener un sesgo que está reflejado en nuestra sociedad: beneficiar a hombres y a gente que tiene más capacidad económica", plantea.

—¿Y eso cómo se soluciona?
—Lo que sugerimos es un algoritmo correctivo, que vea detalles más allá para elevar al grupo que está en una situación de inequidad. En el fondo, la pregunta es cómo podemos, de una manera automatizada, corregir sesgos que el sistema offline también tiene.

"No se trata solo de cómo codificamos, sino también de quién está desarrollando estos sistemas. Estamos abogando no solo a que los sistemas sean codificados para corregir desigualdades, sino que queremos que las mujeres participen activamente en esos procesos"

Renata Ávila
—¿En qué otras circunstancias han identificado esos sesgos?
—Por ejemplo cuando las mujeres postulan a un trabajo. Es un secreto a voces, pero en realidad pasa que si vas a una entrevista y eres una mujer en edad reproductiva, ese solo hecho te pone en una posición de desventaja sobre un hombre de tu misma edad, con idénticas capacidades. Hay muchos prejuicios y precriterios que no son dichos, que son ilegales, pero que en la práctica se dan. También la diferencia salarial, que es un hecho: si saben que eres mujer antes de ofrecerte el salario, probablemente te van a ofrecer menos. Lo que buscamos acá es lo contrario: corregir esos sesgos que tenemos en la sociedad hoy y no traspasarlos al plano digital.

—También han hablado de la feminización de los asistentes virtuales y la exclusión de los modelos femeninos en los sistemas de reconocimiento facial...
—Y falta también mejorar los sets de los datos que alimentan estos sistemas de Inteligencia Artificial. El sesgo que se hace al crear un set de datos usualmente es que se pone en una categoría aparte a mujeres entre 18 y 40 años, el bloque promedio de edad reproductiva, para evaluarlas de otra manera. Cómo categorizar a alguien es un acto político. Se le quiere poner como científico, pero es un acto político.

—En ese sentido, ¿los algoritmos inclusivos son una solución suficiente?
—No. No se trata solamente de cómo codificamos, sino también quién está desarrollando estos sistemas. Aquí estamos abogando no solo a que los sistemas sean codificados de una manera en que ayude a corregir desigualdades, sino que queremos que las mujeres participen activamente en esos procesos. La mayoría de compañías que ganan estos contratos públicos son lideradas por hombres y son formadas completamente por hombres. ¿Qué pasaría si creamos los incentivos adecuados en la sociedad para que proactivamente el aparato público empiece a considerar dar contratos específicos a compañías que desarrollen sistemas de Inteligencia Artificial lideradas por mujeres?

—Algunos podrían argumentar que "no hay".
—Es que necesitamos crear las condiciones para que existan. Ahí va la otra pata de esta iniciativa: queremos abogar por que el sistema educativo precisamente produzca que las niñas de hoy sean las mujeres diseñando sistemas mañana, teniendo la equidad de género al centro de la premisa. Así como se promueve mucho privacidad por diseño, lo que promueve esta iniciativa es la equidad de género por diseño. No se puede excluir la dimensión de género de la tecnología de hoy.

La oportunidad de Chile


—La iniciativa es global, ¿qué es lo que aporta un país como Chile a este modelo?
—La participación de los países del sur va a ser fundamental en esta alianza, porque hasta ahora todas las políticas públicas y estrategias nacionales han sido en países altamente desarrollados y sociedades altamente tecnificadas, con una capacidad grande de producir Inteligencia Artificial. Siempre se ha echado de menos en las discusiones saber qué pasa con los países que están a la mitad: que no son ni potencias tecnológicas, ni tampoco están a años luz de poder implementar esto.

—La alianza también incluye países como Brasil, México, Colombia, Argentina y Uruguay...
—Y son muy interesantes para esta experimentación en políticas públicas. Estamos haciendo una coalición global con especial énfasis en los países que están en esa situación. Por mencionar algunos: el caso de Kenia en África, el de India en Asia. Son países que están a la mitad, que están en un proceso bastante duro de transformación digital y que pueden traer contribuciones a la mesa, porque la configuración del futuro en esta sociedad digital no se puede dejar solamente en las manos de los intereses tecnológicos que dominan el mercado, que son EE.UU. y China, sino que tenemos que retomar el control y guiar a nuestros gobiernos hacia una sociedad más inclusiva.

—¿Son países con una oportunidad mayor? Porque en ellos todavía falta desarrollar sistemas que en los otros países ya fueron construidos con estos sesgos...
—Precisamente. Esto no se trata de una "talla única" para todos. Nosotros creemos, y es parte del llamado a la acción que estamos haciendo, que los países deben adaptarse a las necesidades. Queremos definir una política pública que no reproduzca ni las estructuras de poder ni las de exclusión y discriminación que existen en el mundo hoy. La posibilidad de intervenir ahora, donde estos sistemas apenas se empiezan a configurar, es perfecta, porque nos permite definir las reglas del futuro: una política pública que sea centrada en un grupo más diverso que solo los hombres blancos que definen la tecnología desde la práctica.

"La posibilidad de intervenir ahora, donde estos sistemas apenas se empiezan a configurar, es perfecta, porque nos permite definir las reglas del futuro y crear una política pública que sea centrada en un grupo más diverso que solo los hombres blancos que definen la tecnología"

Renata Ávila
—Es un tema que cobra relevancia en el país, considerando que en septiembre el ministro Andrés Couve le presentó al Presidente Piñera una estrategia de Inteligencia Artificial para desarrollar una política nacional.
—Esperamos que se nos dé cabida en el diseño de esa política y que considere la equidad de género al centro. Sabemos que ahí pesa mucho la voz de las empresas, pero queremos que pese tanto o más la voz de la mitad de la población, que ha sido excluida del diseño de las estructuras de poder los últimos 500 años. Esta vez no queremos que se repita el ciclo: queremos que se democratice este proceso, y no se va a democratizar sólo votando, sino que abriendo el proceso para que seamos parte activa en el diseño de los sistemas.

—¿Y cómo han planificado incidir en ese proceso?
—Haciendo llegar tanto al Senado como al organismo Ejecutivo una serie de recomendaciones que deben tomar en cuenta y capturar, que tienen que ser recogidas por esta política, cuyo plan de acción se lanza el próximo año. Ya queda poco tiempo y tenemos que tener claridad de parte del Gobierno con respecto a cómo vamos a participar, cómo se van a sopesar las contribuciones y cómo nos vamos a asegurar de no replicar ni reproducir los errores de las políticas pasadas.

—¿Hay un diálogo entre estos conceptos y la noción actual de democracia?
—¡Imagínate! Nosotros pasamos los últimos 10 años tratando de abrir gobiernos haciéndolos más participativos, con la ley de acceso a la información pública y con interacción ciudadanía-Estado, pero ¿qué pasa si te toca dialogar con un robot o con un sistema? Ese es el nuevo reto: cómo vamos a dialogar con los sistemas que van a decidir y que van a tomar decisiones públicas mañana. Eso es lo que queremos hacer antes de que nos toque dialogar con un robot, que es un diálogo prácticamente imposible, porque una cuestión automatizada no te rinde cuentas: no se transparenta, es opaca, es compleja, y queremos ser partícipes activos en el paso anterior.

—¿Qué es lo que está en juego en ese escenario?
—Si no tenemos participantes activos involucrados e involucradas y con conocimiento en el diseño de estos sistemas, vamos a estar a merced de los mismos y vamos a perder la autonomía, la capacidad de diálogo y la capacidad de decisión colectiva en las decisiones que teníamos antes. En la Fundación amamos la tecnología, pero queremos que sea una que se centre en las personas y que preserve derechos, no que los erosione. Es una lucha de hoy y no es solo de mujeres: nos debe incluir a todos y todas, no dejar a nadie fuera.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?