Las propuestas de solucionar profundos problemas sociales a través de las tecnologías poco y nada hablan de la deshumanización que conlleva dejar en manos de máquinas temas clave de nuestras vidas. De eso se trata el libro ‘La automatización de la desigualdad, herramientas de tecnología avanzadas para supervisar y castigar a los pobres’ (Capitán Swing), de la profesora de ciencia política estadounidense Virginia Eubanks. Aquí lo reseñamos con lentes periférikas.
No estoy a favor de hablar con seres humanos por nimiedades (quien escribe comparte el 80 por ciento de su día interactuando con su computador y una gata), pero relacionarnos con el sistema de salud cuando recibimos una noticia de enfermedad, resolver cuestiones del techo bajo el que vivimos y obtener una explicación de por qué se nos niega un crédito, así como recibir una respuesta de si fuimos elegidas para un empleo (y el porqué no) siguen necesitando de una mirada a los ojos, un tono de voz decodificable, una presencia humana.
Virginia Eubanks cuenta en su libro La automatización de la desigualdad, herramientas de tecnología avanzadas para supervisar y castigar a los pobres (Capitán Swing) que lleva más de 20 años reflexionando y escribiendo acerca del enclave entre tecnología y pobreza. Su investigación da cuenta de que, especialmente en Estados Unidos (corazón del Silicon Valley, matriz de donde surgen las plataformas de nuestro horizonte tecnopolítico), hay un borramiento de lo humano en esas instancias clave que dan forma a nuestras vidas.
Podemos cuestionar si las personas del otro lado del mostrador actúan a veces como robots bobos sin corazón, pero no podemos negar que el criterio humano sigue imperando en el presente. “Hemos cedido gran parte de ese poder de toma de decisiones a máquinas sofisticadas, sistemas de elegibilidad automatizados, algoritmos de clasificación y modelos de predicción de riesgo”, sostiene Eubanks
En su libro se dedica a historizar la manera en que en Estados Unidos las ayudas a la pobreza pasaron a ser punitivas y se estigmatizaron, particularmente, en épocas de crisis económica. A cambio, sin prisa pero sin pausa, comenzó a montarse un “asilo digital”, concepto que utiliza la autora para señalar todo proceso y mecanismo orientado a racionalizar los subsidios estatales con objetivos no declarados: crear perfiles de pobres, controlarlos y castigarlos.
Las políticas tecnófilas dejan en manos de empresas que fabrican software para computadoras preguntas centrales como: ¿quién recibe comida y quién se muere de hambre?, ¿quién tiene vivienda y quién permanece sin hogar?, y ¿qué familias destruye el Estado? El asilo digital, entonces, se inscribe en una larga tradición estadounidense que no se caracteriza por empatizar con el sufrimiento humano, ni con las desigualdades estructurales, menos con los análisis interseccionales de la pobreza.
Tu cara pixelada en una base de datos
Otra de las tesis de Eubanks es que las grandes masas de población no somos observadas de manera individual. Desde esta sección discutimos este punto pues activistas y defensoras de derechos humanos en Latinoamérica y el Caribe cada día más sentimos las diferentes formas de vigilancia cerniéndose sobre nuestras acciones cotidianas “Gran Hermano no nos observa como individuo, sino como colectivo” afirma la autora por su parte.
La mayor parte de la población está en la mira del control digital en cuanto que integrantes de grupos sociales, no así a título individual: “Las personas de color, los migrantes, los grupos religiosos impopulares, las minorías sexuales, los pobres y otras poblaciones oprimidas y explotadas soportan una carga de control y rastreo muy superior a la de los grupos privilegiados”.
En esta sección de Pikara Magazine nos dedicamos con ahínco a señalar cómo las políticas migratorias que intentan contener el avance de las caravanas que se mueven a ritmo de la desesperación y la falta de trabajo desde Centroamérica hacia México con destino Estados Unidos también están siendo sometidas a forzosas requisas digitales. La tecnología al servicio de bases de datos utilizadas para la segregación social, la criminalización de los reclamos y la estigmatización ad infinitum de movimientos masivos de personas son parte del paisaje actual.
Las tecnologías de gestión de la pobreza no son neutrales, están moldeadas por algo que tiene un gran predicamento en Estados Unidos y que es el temor a la inseguridad económica y la aporofobia, lo que a su vez da forma a las políticas y a las experiencias de la pobreza. “Quiénes aplauden el nuevo régimen de los datos rara vez reconocen el impacto que la toma de decisiones digitales tienen sobre los pobres y la clase trabajadora”, escribe la investigadora.
En este sentido la historización que realiza Eubanks tiene el valor único de mostrar el continuum de una gestión de los datos que en los Estados Unidos trabaja desde la premisa de la caridad científica: considerar la pobreza de las personas afroamericanas, así como de las migrantes latinas, entre otras, como un tema aparte de la pobreza blanca: “Al distinguir entre seguridad social y asistencia social, los demócratas del New Deal plantaron las semillas de la desigualdad económica actual, se dieron ante la supremacía blanca, sembraron el conflicto entre los pobres y la clase obrera y devaluaron el trabajo femenino”.
Algoritmos y modelos predictivos etiquetan la salud de las personas con discapacidad o enfermedades crónicas como “inversiones de riesgo” o causas vinculadas a “padres problemáticos”. La deshumanización deja de lado la escucha empática y en su lugar edifica enormes complejos de servicios sociales, con disponibilidad de fuerzas del orden y vigilancia de vecindarios para hacer visible hasta el último de los movimientos de sus ocupantes indeseables, como muestra la película Prejuicio cifrado
Algunos datos para entender la revolución tecno-fallida
Puntualiza la autora que durante el siglo XIX a las personas pobres y de clases bajas se las colocaba en cuarentena en los asilos para menesterosos de los condados. Durante el siglo XX, los asistentes sociales les investigaban y así el sesgo de tratarles como delincuentes en los juzgados se van instalando poco a poco en enormes bases de datos manuales que se digitalizarán con las mal llamadas revoluciones tecnológicas en el ámbito público. Así se va creando, a principios de la década de 1970, un escenario en el que los ordenadores ganan terreno como herramientas para reducir el gasto público, aumentando el control y la supervisión de las receptoras de prestaciones sociales.
El problema que vemos hoy con las promesas-soluciones de digitalización de nuestros datos sanitarios durante la pandemia es el que trata de dar a todos los problemas sociales similares soluciones tecnológicas. El resultado esperable de estas gestiones tecnificadas es el de conectar entre sí las bases de datos para llevar un seguimiento del comportamiento y el gasto de quiénes somos objeto de distintos programas sociales.
El libro cuenta que, en 1973, casi la mitad de las personas que vivían por debajo del umbral de la pobreza en Estados Unidos recibía alguna ayuda dirigida a familias con niñes con necesidades de atención médica o psico-social. “Una década después, tras la introducción de las nuevas tecnologías para la administración de las prestaciones, la proporción había descendido a un 30 por ciento. En la actualidad no llega al 10 por ciento”, contabiliza Eubanks; y esto no significa que el problema esté solucionado.
Si la toma automatizada de decisiones hace añicos la red de seguridad social, criminaliza a los y las pobres, intensifica la discriminación y compromete los valores más profundos de la población estadounidense, como demuestra Eubanks, tenemos que buscar nuevas maneras de imaginar, diseñar e implementar las tecnologías.
Renata Ávila, abogada y activista guatemalteca que trabaja en la intersección de los derechos humanos con la tecnología, propone que las soluciones tecnológicas, especialmente las de inteligencia artificial, contemplen perspectivas sociales complejas: “La inteligencia artificial inclusiva es la que se construye con datos de calidad inclusivos que tienen en cuenta el género, la educación, la etnia y todas las demás diferencias económicas y sociales que a veces son determinantes para la desigualdad. Se trata de datos que pueden no ser útiles para ganar dinero, pero que son extremadamente útiles para hacer una buena política”. Así, Ávila propone que el punto de partida de una inteligencia artificial inclusiva es tener un “new deal” sobre los datos, no solo para que sean respetuosos con la privacidad, sino para que sean inclusivos cuando se utilicen con fines sociales.
El libro de Virgine Eubanks llama la atención sobre la creación de asilos digitales destinados a cuidar a las personas, pero, en la experiencia de su país, este tipo de solución en los hechos “disuade a los pobres de acceder a los recursos públicos, supervisa su trabajo, su gasto, su sexualidad y la crianza de sus hijos. Intenta predecir su comportamiento futuro y castiga y criminaliza a quienes no acatan su dictado”.
Estamos a tiempo de cambiar una visión de las tecnologías como soluciones meramente corporativas a pensarlas como construcciones colectivas y complejas. Más que excluir a grandes poblaciones nos tienen que ayudar a enfrentar las crisis desde la superación del actual problema sanitario, así como los gigantes retos de la crisis climática y proveernos un conocimiento profundo y sensible de las demandas de nuestras sociedades.