1/04/2020

Descolonizando la IA: un enfoque transfeminista

     
madres-jovenes.jpeg

Supongamos que tiene acceso a una base de datos con información sobre 12.000 niñas y mujeres jóvenes de entre 10 y 19 años de edad, que viven en alguna provincia pobre de Sudamérica.  Los datos incluyen edad, vecindario, etnia, país de origen, nivel educativo de la cabeza de familia, discapacidades físicas y mentales, número de personas en su hogar y acceso a agua caliente corriente.  ¿Qué conclusiones sacaría de esa base de datos?  O, tal vez la pregunta debería ser: ¿Es deseable llegar a alguna conclusión?  La mayoría de las veces, la simple posibilidad de extraer grandes cantidades de datos es una excusa suficiente para "hacerlos hablar" y, peor aún, tomar decisiones basadas en ello.

La base de datos descrita anteriormente es real.  Y es utilizada por las autoridades públicas para prevenir la deserción escolar y el embarazo adolescente.  "Los algoritmos inteligentes permiten identificar características en las personas que podrían derivar en alguno de estos problemas y advierten al gobierno para que puedan trabajar en la prevención de los mismos"[1], dijo un representante de Microsoft Azure.  La empresa es responsable del sistema de aprendizaje automático (machine-learning) utilizado en la Plataforma Tecnológica de Intervención Social, creada por el Ministerio de la Primera Infancia de la Provincia de Salta, Argentina.

“Con la tecnología vos podés prever cinco o seis años antes, con nombre, apellido y domicilio, cuál es la niña, futura adolescente, que está en un 86% predestinada a tener un embarazo adolescente” declaró Juan Manuel Urtubey, político conservador y gobernador de Salta.[2]  El Ministerio de la Primera Infancia de la provincia trabajó durante años con la ONG anti-aborto Fundación CONIN para preparar este sistema.  La declaración de Urtubey se hizo en medio de una campaña a favor de la legalización del aborto en Argentina en 2018, impulsada por un movimiento social a favor de los derechos sexuales que estaba a la vanguardia de la discusión pública local y que recibió mucha atención internacional.  La idea de que los algoritmos puedan predecir el embarazo adolescente es la excusa perfecta para que los activistas anti-mujeres y anti derechos sexuales y reproductivos declaren innecesarias las leyes de aborto.  Según sus relatos, si se tiene suficiente información sobre las familias pobres, se pueden aplicar políticas públicas conservadoras para predecir y evitar los abortos de las mujeres pobres.  Además, existe la creencia de que, "Si es recomendado por un algoritmo, es matemática, así que debe ser verdadero e irrefutable".

Es importante señalar que la base de datos sólo contiene datos sobre mujeres.  Este enfoque específico en un sexo en particular refuerza los roles patriarcales de género y, en última instancia, culpa a las adolescentes de los embarazos no deseados, como si un niño pudiera ser concebido sin un espermatozoide.

Por estas y otras razones, la Plataforma Tecnológica de Intervención Social ha recibido muchas críticas.  Algunos la han llamado una "mentira", una "alucinación" y una "inteligencia que no piensa", y han dicho que los datos sensibles de mujeres y niñas pobres están en riesgo.[3]  El Laboratorio de Inteligencia Artificial Aplicada (LIAA) de la Universidad de Buenos Aires publicó un análisis técnico muy completo de las fallas del sistema.[4]  De acuerdo con LIAA, que analizó la metodología publicada en GitHub por un ingeniero de Microsoft, los resultados fueron sobrestimados debido a errores estadísticos en la metodología.  También se encontró que la base de datos estaba sesgada debido a la inevitable sensibilidad de informar sobre embarazos no deseados y a que las variables eran inadecuados para hacer predicciones confiables.

A pesar de ello, la plataforma siguió siendo utilizada.  Y lo que es peor, las malas ideas disfrazadas de innovación se propagaron rápidamente: el sistema se está desplegando ahora en otras provincias argentinas, como La Rioja, Tierra del Fuego y Chaco, y se ha exportado a Colombia e implementado en el municipio de La Guajira.

La Plataforma Tecnológica de Intervención Social es sólo un ejemplo muy claro de cómo las soluciones de inteligencia artificial (IA), que según sus ejecutores son neutrales y objetivas, se han desplegado cada vez más en algunos países de América Latina para apoyar políticas públicas potencialmente discriminatorias que socavan los derechos humanos de las personas menos privilegiadas.

Creemos que una de las principales causas de estos usos dañinos del aprendizaje automático y otras tecnologías de IA es la creencia ciega en la propaganda de que el Big Data resolverá varios problemas candentes a los que se enfrenta la humanidad.  En cambio, proponemos construir una crítica y un marco transfeminista[5] que ofrezca no sólo el potencial para analizar los efectos perjudiciales de la IA, sino también una comprensión proactiva de cómo imaginar, diseñar y desarrollar una IA emancipatoria que socave las normas sociales consumistas, misóginas, racistas, de género binario y heteropatriarcales.

El Big Data: ¿solucionador de problemas o discriminación disfrazada de matemática?

La IA puede definirse en términos generales como la tecnología que realiza predicciones en base a la detección automática de patrones de datos.  Al igual que en el caso del gobierno de Salta, muchos Estados del mundo utilizan cada vez más herramientas de toma de decisiones algorítmicas para determinar la distribución de bienes y servicios, incluyendo la educación, los servicios de salud pública, la policía y la vivienda, entre otros.  Por otra parte, los programas de lucha contra la pobreza están siendo dataficados por los gobiernos, y se utilizan algoritmos para determinar los beneficios sociales para los pobres y los desempleados, convirtiendo "la experiencia vivida de la pobreza y la vulnerabilidad en datos legibles por máquinas, con efectos tangibles sobre la vida y los medios de subsistencia de los ciudadanos implicados".[6]

Cathy O'Neil, al analizar los usos de la IA en los Estados Unidos, afirma que muchos sistemas de IA "tienden a castigar a los pobres". Ella lo explica:

Esto se debe, en parte, a que están diseñados para evaluar a un gran número de personas.  Se especializan en volumen, y son baratos.  Eso es parte de su atractivo. Los ricos, por el contrario, a menudo se benefician de aportaciones personales.  Los privilegiados, como veremos una y otra vez, son procesados más por humanos, las masas por las máquinas.[7]

Los sistemas de IA se basan en modelos que son representaciones abstractas, universalizaciones y simplificaciones de realidades complejas en las que se omite mucha información a juicio de sus creadores.  En este contexto, la IA reflejará los valores de sus creadores, por lo que muchos críticos se han concentrado en la necesidad de diversidad e inclusión.

Pero la diversidad y la inclusión no son suficientes para crear una IA emancipadora.  Si seguimos las ideas de Marcuse de que "el modo tecnológico de producción es una forma específica o un conjunto de condiciones que nuestra sociedad ha tomado entre otras condiciones posibles, y es este modo de producción el que juega un papel definitivo en moldear las técnicas, así como en la dirección de su despliegue y proliferación"[8], es fundamental sumergirse profundamente en los intereses dominantes de este proyecto histórico-social.  En este sentido, teorías sobre la justicia de datos han reflexionado sobre la necesidad de conectar explícitamente una agenda de justicia social con la revolución de los datos apoyada por algunos Estados, empresas y organismos internacionales, a fin de lograr la equidad en la forma en que las personas son vistas y tratadas por el Estado y por el sector privado, o en conjunto.

Por ejemplo, como plantea Payal Arora, los discursos en torno al Big Data tienen una connotación abrumadoramente positiva gracias a la idea neoliberal de que la explotación con fines de lucro de los datos de los pobres por parte de empresas privadas sólo beneficiará a la población.[9]  Esto señala, en muchos sentidos, que dos viejos conocidos, el capitalismo y el colonialismo, están presentes y sanos cada vez que un sistema de IA despoja a las personas de su autonomía y las trata "como meros datos en bruto a ser procesados".[10]  En la misma línea, Couldry y Mejias[11] consideran que la apropiación y explotación de los datos para la creación de valor tiene profundas raíces en el capitalismo y el colonialismo.

Recientemente, conectando esta crítica a la de la racialización de ciudadanos y comunidades a través de decisiones algorítmicas, Safiya Umoja Noble ha acuñado el término "línea roja tecnológica", que se refiere al proceso de discriminación de datos que refuerza la desigualdad y la opresión. El término se basa en la práctica de "línea roja" en los EE.UU. en la que comunidades son sistemáticamente excluidas de varios servicios, ya sea directamente o a través de un aumento selectivo de precios en función de su raza:

Creo que la gente de color lo experimentará cada vez más como una dimensión fundamental para generar, mantener o profundizar la discriminación racial, étnica y de género.  Este proceso está centralmente ligado a la distribución de bienes y servicios en la sociedad, como la educación, la vivienda y otros derechos humanos y civiles, que ahora están a menudo determinados por un software, o por herramientas algorítmicas de toma de decisiones, que podrían describirse popularmente como "inteligencia artificial".[12]

La pregunta es hasta qué punto son conscientes de ello los ciudadanos y las autoridades públicas que compran, desarrollan y utilizan estos sistemas.  El caso de Salta, y muchos otros, nos muestran explícitamente que la lógica de promover el Big Data como solución a un conjunto inimaginable de problemas sociales se está exportando a América Latina, amplificando los desafíos descolonizadores.  Esta lógica no sólo desplaza los intentos de criticar el statu quo en todos los ámbitos de las relaciones de poder, desde la geopolítica hasta las normas de género y el capitalismo, sino que también dificulta el mantenimiento y la promoción de formas de vida alternativas.

IA, pobreza y estigma

"El futuro es hoy".  Ese parece ser el mantra cuando las autoridades públicas adoptan con entusiasmo las tecnologías digitales sin tener en cuenta las voces críticas que demuestran sus efectos potencialmente discriminatorios.  En los últimos años, por ejemplo, el uso de Big Data para la vigilancia policial predictiva parece ser una tendencia popular en América Latina.  El modelo más común es la construcción de mapas predictivos de delincuencia, pero también se han realizado esfuerzos para desarrollar modelos predictivos de probables autores de delitos.

La misma lógica detrás de la vigilancia predictiva se encuentra en los sistemas de IA contra la pobreza que recopilan datos para predecir los riesgos sociales y desplegar programas gubernamentales.  Como hemos visto, este es el caso de la Plataforma Tecnológica de Intervención Social; pero también está presente en sistemas como Alerta Infancia en Chile.  Una vez más, en este sistema, las predicciones de datos se aplican a los menores en las comunidades pobres.  El sistema asigna puntajes de riesgo a las comunidades, generando alertas de protección automatizadas, que permiten intervenciones "preventivas".  Según información oficial, esta plataforma define el índice de riesgo por factores como el embarazo adolescente, el consumo problemático de alcohol y/o drogas, la delincuencia, las enfermedades psiquiátricas crónicas, el trabajo infantil y la explotación sexual comercial, el maltrato o abuso y la deserción escolar.  Entre muchas críticas al sistema, los grupos de la sociedad civil que trabajan por los derechos de la infancia declararon que, más allá de la vigilancia, el sistema "constituye la imposición de una determinada forma de normatividad sociocultural", asimismo "validando socialmente formas de estigmatización, discriminación e incluso criminalización de la diversidad cultural existente en Chile".  Esto afecta especialmente a pueblos originarios, migrantes y personas de bajos ingresos, ignorando que la creciente diversidad cultural “demanda una mayor sensibilidad, visibilidad y respeto, así como la inclusión de enfoques con pertinencia cultural a las políticas públicas.[13]

Existen al menos tres características comunes en estos sistemas utilizados en América Latina que son especialmente preocupantes por su potencial para aumentar la injusticia social en la región: una es la identidad forzada sobre los individuos y las poblaciones pobres. Esta cuantificación del yo, de los cuerpos (entendidos como construidos socialmente) y de las comunidades no deja cabida para la renegociación. En otras palabras, la dataficación sustituye la "identidad social" por la "identidad del sistema".[14]

En relación con este punto, hay una segunda característica que refuerza la injusticia social: la falta de transparencia y de rendición de cuentas de estos sistemas.  Ninguno ha sido desarrollado a través de procesos participativos de ningún tipo, ya sea incluyendo a especialistas o, lo que es más importante, a las comunidades afectadas.  En cambio, los sistemas de IA parecen reforzar las políticas públicas verticales de los gobiernos que convierten a las personas en ‘beneficiarios’ o ‘consumidores’: "Así como Hacking se refería a 'constituir personas' por medio de la clasificación, la dataficación 'hace' a los beneficiarios a través de categorías censales que se cristalizan en los datos, volviéndolos susceptibles al control vertical”.[15]

¿Por qué un marco transfeminista?

Como hemos visto en los ejemplos de uso de este tipo de tecnologías, algunos programas gubernamentales contra la pobreza en América Latina reflejan un marco de pensamiento positivista, según el cual se podría comprender mejor y cambiar la realidad para siempre si se pudiese cuantificar cada aspecto de nuestra vida.  Esta lógica también promueve la visión de que el ser humano debe buscar el "progreso", entendido como sinónimo de aumento de la producción y el consumo, y que finalmente significa explotación de los cuerpos y territorios.

Todas estas cifras y métricas sobre la vida de las personas menos privilegiadas se recogen, compilan y analizan bajo la lógica de la "productividad" para, en última instancia, sostener el capitalismo, el heteropatriarcado, la supremacía blanca y el colonialismo.

Es necesario tomar conciencia de cómo creamos enfoques metodológicos para el procesamiento de datos de manera que desafíen estos marcos positivistas de análisis y el dominio de métodos cuantitativos que parecen estar adquiriendo un enfoque fundamental en el actual desarrollo e implementación de algoritmos y procesos de toma de decisiones automatizadas.

Más allá incluso de un marco de derechos humanos, los enfoques decoloniales y transfeministas de las tecnologías son grandes herramientas para visualizar futuros alternativos y derribar la lógica prevaleciente en la que se están desplegando los sistemas de IA.  Los valores transfeministas deben ser incorporados en estos sistemas, para que los avances en el desarrollo de la tecnología nos ayuden a entender y desmantelar lo que la feminista negra Patricia Hill Collins llama la "matriz de dominación "[16] (reconocer las diferentes capas de opresión causadas por la raza, la clase, el género, la religión y otros aspectos de interseccionalidad).  Esto nos conducirá hacia un futuro que promueva y proteja no sólo los derechos humanos, sino también la justicia social y ambiental, porque ambos están en el centro de las teorías feministas decoloniales.

Reimaginando el futuro

Para llevar a la práctica este enfoque feminista, en Coding Rights, en asociación con Co-Design Studio del MIT,[17] hemos estado experimentando con un juego que llamamos el “Oráculo para futuros transfeministas”.[18]  A través de talleres, hemos estado reflexionando colectivamente sobre qué tipo de valores transfeministas nos inspirarán y nos ayudarán a visualizar futuros especulativos.

En los talleres surgieron propuestas tangibles de cambio para el presente una vez que nos permitimos imaginar el futuro.  Con el tiempo, surgieron valores como agencia, rendición de cuentas, autonomía, justicia social, identidades no binarias, cooperación, descentralización, consentimiento, diversidad, decolonialidad, empatía, seguridad, entre otros.

Analizar sólo uno o dos de estos valores combinados nos da una herramienta para evaluar cómo se clasifica un proyecto de IA o su despliegue en un marco feminista decolonial de valores.  A partir de ahí podemos proponer tecnologías o prácticas alternativas que sean más coherentes con el presente y el futuro que queremos ver.

(Traducción ALAI)

Paz Peña es consultora independiente sobre tecnología, género y derechos humanos. www.pazpena.com

Joana Varon es la directora ejecutiva de Coding Rights y está vinculada al Berkman Klein Center for Internet and Society de la Universidad de Harvard. www.codingrights.org

 

[1] Microsoft. (2018, 2 April). Avanza el uso de la Inteligencia Artificial en la Argentina con experiencias en el sector público, privado y ONGs. News Center Microsoft Latinoamérica. https://bit.ly/33ogCXz
[2] Sternik, I. (2018, 20 April). La inteligencia que no piensa. Página 12. https://bit.ly/2NLroAO
[3]  Sternik, I. (2018, 20 A(Traducción ALAI)pril). Op. cit.
[4] Laboratorio de Inteligencia Artificial Aplicada. (2018). Sobre la predicción automática de embarazos adolescentes. https://bit.ly/2rfRLah
[5] Nos referimos al transfeminismo como una herramienta epistemológica que, como reconoce Sayak Valencia, tiene como objetivo principal repolitizar y desesencializar los movimientos feministas globales que han sido utilizados para legitimar políticas de exclusión por motivos de género, migración, mestizaje, raza y clase. Ver Valencia, S. (2018). El transfeminismo no es un generismo. Pléyade (Santiago), 22, 27-43.
[6] Masiero, S., & Das, S. (2019). Datafying anti-poverty programmes: implications for data justice. Information, Communication & Society, 22(7), 916-933.
[7] O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown.
[8] Kidd, M. (2016). Technology and nature: a defence and critique of Marcuse. POLIS, 4(14). https://bit.ly/2rcWVDZ
[9] Arora, P. (2016). The Bottom of the Data Pyramid: Big Data and the Global South. International Journal of Communication, 10, 1681-1699.
[10] Birhane, A. (2019, 18 July). The Algorithmic Colonization of Africa. Real Life Magazine. https://bit.ly/36DUOJH
[11] Couldry, N., & Mejias, U. (2019). Data colonialism: rethinking big data’s relation to the contemporary subject. Television and New Media, 20(4), 336-349.
[12] Bulut, E. (2018). Interview with Safiya U. Noble: Algorithms of Oppression, Gender and Race. Moment Journal, 5(2), 294-301. https://bit.ly/33szyEM
[13] Sociedad Civil de Chile Defensora de los Derechos Humanos del Niño et al. (2019, 28 enero). Día Internacional de la protección de datos. Carta abierta de la Sociedad Civil de Chile Defensora de los Derechos Humanos del Niño. ONG Emprender con Alas. https://bit.ly/2pRs8MP
[14] Arora, P. (2016). Op. cit.
[15] Masiero, S., & Das, S. (2019). Op. cit.
[16] Collins, P. H. (2000). Black Feminist Thought: Knowledge, Consciousness, and the Politics of Empowerment. New York: Routledge.

No hay comentarios.:

Publicar un comentario