12/17/2022

La tecnopobreza según Virginia Eubanks

 pikaramagazine.com

Florencia Goldsman

Las propuestas de solucionar profundos problemas sociales a través de las tecnologías poco y nada hablan de la deshumanización que conlleva dejar en manos de máquinas temas clave de nuestras vidas. De eso se trata el libro ‘La automatización de la desigualdad, herramientas de tecnología avanzadas para supervisar y castigar a los pobres’ (Capitán Swing), de la profesora de ciencia política estadounidense Virginia Eubanks. Aquí lo reseñamos con lentes periférikas.

Portada del libro Virginia Eubanks.

No estoy a favor de hablar con seres humanos por nimiedades (quien escribe comparte el 80 por ciento de su día interactuando con su computador y una gata), pero relacionarnos con el sistema de salud cuando recibimos una noticia de enfermedad, resolver cuestiones del techo bajo el que vivimos y obtener una explicación de por qué se nos niega un crédito, así como recibir una respuesta de si fuimos elegidas para un empleo (y el porqué no) siguen necesitando de una mirada a los ojos, un tono de voz decodificable, una presencia humana.

Virginia Eubanks cuenta en su libro La automatización de la desigualdad, herramientas de tecnología avanzadas para supervisar y castigar a los pobres (Capitán Swing) que lleva más de 20 años reflexionando y escribiendo acerca del enclave entre tecnología y pobreza. Su investigación da cuenta de que, especialmente en Estados Unidos (corazón del Silicon Valley, matriz de donde surgen las plataformas de nuestro horizonte tecnopolítico), hay un borramiento de lo humano en esas instancias clave que dan forma a nuestras vidas.

Podemos cuestionar si las personas del otro lado del mostrador actúan a veces como robots bobos sin corazón, pero no podemos negar que el criterio humano sigue imperando en el presente. “Hemos cedido gran parte de ese poder de toma de decisiones a máquinas sofisticadas, sistemas de elegibilidad automatizados, algoritmos de clasificación y modelos de predicción de riesgo”, sostiene Eubanks

En su libro se dedica a historizar la manera en que en Estados Unidos las ayudas a la pobreza pasaron a ser punitivas y se estigmatizaron, particularmente, en épocas de crisis económica. A cambio, sin prisa pero sin pausa, comenzó a montarse un “asilo digital”, concepto que utiliza la autora para señalar todo proceso y mecanismo orientado a racionalizar los subsidios estatales con objetivos no declarados: crear perfiles de pobres, controlarlos y castigarlos.

Las políticas tecnófilas dejan en manos de empresas que fabrican software para computadoras preguntas centrales como: ¿quién recibe comida y quién se muere de hambre?, ¿quién tiene vivienda y quién permanece sin hogar?, y ¿qué familias destruye el Estado? El asilo digital, entonces, se inscribe en una larga tradición estadounidense que no se caracteriza por empatizar con el sufrimiento humano, ni con las desigualdades estructurales, menos con los análisis interseccionales de la pobreza.

Tu cara pixelada en una base de datos

Otra de las tesis de Eubanks es que las grandes masas de población no somos observadas de manera individual. Desde esta sección discutimos este punto pues activistas y defensoras de derechos humanos en Latinoamérica y el Caribe cada día más sentimos las diferentes formas de vigilancia cerniéndose sobre nuestras acciones cotidianas “Gran Hermano no nos observa como individuo, sino como colectivo” afirma la autora por su parte.

La mayor parte de la población está en la mira del control digital en cuanto que integrantes de grupos sociales, no así a título individual: “Las personas de color, los migrantes, los grupos religiosos impopulares, las minorías sexuales, los pobres y otras poblaciones oprimidas y explotadas soportan una carga de control y rastreo muy superior a la de los grupos privilegiados”.

En esta sección de Pikara Magazine nos dedicamos con ahínco a señalar cómo las políticas migratorias que intentan contener el avance de las caravanas que se mueven a ritmo de la desesperación y la falta de trabajo desde Centroamérica hacia México con destino Estados Unidos también están siendo sometidas a forzosas requisas digitales. La tecnología al servicio de bases de datos utilizadas para la segregación social, la criminalización de los reclamos y la estigmatización ad infinitum de movimientos masivos de personas son parte del paisaje actual.

Las tecnologías de gestión de la pobreza no son neutrales, están moldeadas por algo que tiene un gran predicamento en Estados Unidos y que es el temor a la inseguridad económica y la aporofobia, lo que a su vez da forma a las políticas y a las experiencias de la pobreza. “Quiénes aplauden el nuevo régimen de los datos rara vez reconocen el impacto que la toma de decisiones digitales tienen sobre los pobres y la clase trabajadora”, escribe la investigadora.

En este sentido la historización que realiza Eubanks tiene el valor único de mostrar el continuum de una gestión de los datos que en los Estados Unidos trabaja desde la premisa de la caridad científica: considerar la pobreza de las personas afroamericanas, así como de las migrantes latinas, entre otras, como un tema aparte de la pobreza blanca: “Al distinguir entre seguridad social y asistencia social, los demócratas del New Deal plantaron las semillas de la desigualdad económica actual, se dieron ante la supremacía blanca, sembraron el conflicto entre los pobres y la clase obrera y devaluaron el trabajo femenino”.

Algoritmos y modelos predictivos etiquetan la salud de las personas con discapacidad o enfermedades crónicas como “inversiones de riesgo” o causas vinculadas a “padres problemáticos”. La deshumanización deja de lado la escucha empática y en su lugar edifica enormes complejos de servicios sociales, con disponibilidad de fuerzas del orden y vigilancia de vecindarios para hacer visible hasta el último de los movimientos de sus ocupantes indeseables, como muestra la película Prejuicio cifrado

Algunos datos para entender la revolución tecno-fallida

Puntualiza la autora que durante el siglo XIX a las personas pobres y de clases bajas se las colocaba en cuarentena en los asilos para menesterosos de los condados. Durante el siglo XX, los asistentes sociales les investigaban y así el sesgo de tratarles como delincuentes en los juzgados se van instalando poco a poco en enormes bases de datos manuales que se digitalizarán con las mal llamadas revoluciones tecnológicas en el ámbito público. Así se va creando, a principios de la década de 1970, un escenario en el que los ordenadores ganan terreno como herramientas para reducir el gasto público, aumentando el control y la supervisión de las receptoras de prestaciones sociales.

El problema que vemos hoy con las promesas-soluciones de digitalización de nuestros datos sanitarios durante la pandemia es el que trata de dar a todos los problemas sociales similares soluciones tecnológicas. El resultado esperable de estas gestiones tecnificadas es el de conectar entre sí las bases de datos para llevar un seguimiento del comportamiento y el gasto de quiénes somos objeto de distintos programas sociales.

El libro cuenta que, en 1973, casi la mitad de las personas que vivían por debajo del umbral de la pobreza en Estados Unidos recibía alguna ayuda dirigida a familias con niñes con necesidades de atención médica o psico-social. “Una década después, tras la introducción de las nuevas tecnologías para la administración de las prestaciones, la proporción había descendido a un 30 por ciento. En la actualidad no llega al 10 por ciento”, contabiliza Eubanks; y esto no significa que el problema esté solucionado.

Si la toma automatizada de decisiones hace añicos la red de seguridad social, criminaliza a los y las pobres, intensifica la discriminación y compromete los valores más profundos de la población estadounidense, como demuestra Eubanks, tenemos que buscar nuevas maneras de imaginar, diseñar e implementar las tecnologías.

Renata Ávila, abogada y activista guatemalteca que trabaja en la intersección de los derechos humanos con la tecnología, propone que las soluciones tecnológicas, especialmente las de inteligencia artificial, contemplen perspectivas sociales complejas: “La inteligencia artificial inclusiva es la que se construye con datos de calidad inclusivos que tienen en cuenta el género, la educación, la etnia y todas las demás diferencias económicas y sociales que a veces son determinantes para la desigualdad. Se trata de datos que pueden no ser útiles para ganar dinero, pero que son extremadamente útiles para hacer una buena política”. Así, Ávila propone que el punto de partida de una inteligencia artificial inclusiva es tener un “new deal” sobre los datos, no solo para que sean respetuosos con la privacidad, sino para que sean inclusivos cuando se utilicen con fines sociales.

El libro de Virgine Eubanks llama la atención sobre la creación de asilos digitales destinados a cuidar a las personas, pero, en la experiencia de su país, este tipo de solución en los hechos “disuade a los pobres de acceder a los recursos públicos, supervisa su trabajo, su gasto, su sexualidad y la crianza de sus hijos. Intenta predecir su comportamiento futuro y castiga y criminaliza a quienes no acatan su dictado”.

Estamos a tiempo de cambiar una visión de las tecnologías como soluciones meramente corporativas a pensarlas como construcciones colectivas y complejas. Más que excluir a grandes poblaciones nos tienen que ayudar a enfrentar las crisis desde la superación del actual problema sanitario, así como los gigantes retos de la crisis climática y proveernos un conocimiento profundo y sensible de las demandas de nuestras sociedades.

La violencia digital afecta más a mujeres y niñas: ONU

 Cuatro de cada 10 mujeres han sufrido violencia digital

Lanza ONU campaña bodyright para frenar el abuso en línea

Abarca varias formas de abuso, como el acoso sexual, que incluye el doxing o divulgación de imágenes íntimas con el propósito de denigrar; el ciberacoso, el chantaje, la explotación y el material que muestra abusos de niños de diversa índole, entre otras formas.

La violencia digital se extiende rápidamente y no deja de evolucionar con la aparición de nuevas tecnologías, advierte el Fondo de Población de Naciones Unidas (UNFPA), que lanzó una campaña mundial denominada bodyright, con el fin de frenar el abuso en línea, el cual, afirma, es una violación de los derechos humanos y de la autonomía corporal.

Actualmente, millones de personas no son dueñas de sus cuerpos en el espacio virtual, lo que afecta principalmente a niñas y mujeres. En México, datos del Módulo sobre ciberacoso 2021, elaborado por el Instituto Nacional de Estadística y Geografía, revelan que 9.7 millones de mujeres fueron víctimas de ciberacoso el último año, fenómeno que afecta a 21.7 por ciento de la población de 12 años y más con acceso a la Red, es decir, 17.7 millones de personas.

Frente al crecimiento de la violencia digital, el UNFPA urgió a los gobiernos a tomar medidas para resguardar los derechos que tiene todo ser humano sobre su cuerpo e imagen en el mundo real y virtual.

La feminista Renata Villareal, de Marea Verde México, señaló a La Jornada que, si bien existen las leyes Olimpia (contra el uso de imágenes de contenido sexual en la Red) e Ingrid (que castiga a quien difunda imágenes de agresión de género), tenemos que ir un paso más adelante y dejar de excusarnos en que si tú lo subiste a la redes, ya no te pertenece, porque no es así.

Alertó del incremento de casos de abuso en línea de adultos hacia menores de edad. Vemos con preocupación que cada vez es más frecuente, sin que exista ningún tipo de límite. Añadió que la crítica despiadada hacia ciertas imágenes con cuerpos no normativos empuja a muchos jóvenes a la bulimia, la anorexia y a someterse a cirugías plásticas, incluso a edades tan tempranas como los 13 o 14 años.

Al respecto, el UNFPA destaca que el objetivo de la campaña bodyright es poner de manifiesto el impacto nocivo de los abusos en línea y exigir que los seres humanos, especialmente las mujeres, las niñas y las personas marginadas, reciban el mismo respeto, el mismo valor y la protección en línea de los derechos de autor y la propiedad intelectual.

Eli Bartra Muriá, profesora distinguida de la Universidad Autónoma Metropolitana, unidad Xochimilco, en los posgrados de Estudios de la Mujer y Feminismos, indicó que se trata de un forma de violencia que se gesta desde el anonimato y, por lo tanto, implica mayor impunidad. Es mucho más cómodo agredir desde la pantalla, porque se tiene la percepción de que Internet es un lugar neutral, libre, que no le pertenece a nadie, cuando es todo lo contrario. Si la impunidad anda suelta en la vida real, imagínense en lo virtual.

Advierte que la violencia digital puede escalar al mundo real. Así lo confirman los datos del UNFPA, al destacar que acarrea graves consecuencias sicológicas y puede generar casos de acoso callejero, agresiones físicas y sexuales, además de feminicidios.

Subraya que puede provocar la pérdida del empleo, de la reputación profesional y de funciones de liderazgo. “Algunos perpetradores de violencia digital buscan evitar que determinadas personas –en su mayoría mujeres– participen en la vida pública y política, y muchas veces lo consiguen”.

Con el propósito de frenar este fenómeno, el UNFPA sugiere colocar el símbolo de bodyright a todas las imágenes que se suban a la red, colocando un sello digital con una b dentro de un círculo, como una advertencia de que no se debe usar para humillar y degradar los cuerpos contra la voluntad de alguien en el ciberespacio, lo que incluye el uso de imágenes para elaborar memes.

Laura Poy y Carolina Gómez

Periódico La Jornada
Domingo 11 de diciembre de 2022, p. 10

Lolita Chávez: "Mamé rebeldía, resistencia y resignificación"

 pikaramagazine.com

J. Marcos

Acuerpada, “maya y feminista”, Lolita Chávez, defensora de los derechos de los pueblos originarios en Guatemala, mantiene una oposición radical contra las transnacionales energéticas que recolonizan territorios en Mesoamérica.

una mujer, con ropa indígena, habla delante de un micrófono

Lolita Chávez, durante un acto público en Bilbao. / Foto: J. Marcos

A veces pasa eso. Esperas conocer a una heroína impertérrita aflorada de cualquier epopeya moderna, pero se encuentra con una mujer corriente de carne y hueso. Un día antes del encuentro, Aura Lolita Chávez Ixcaquic, Lolita Chávez, se pierde nerviosa entre las anotaciones de una vieja libreta escrita a mano; sus palabras testimonian cómo diferentes empresas energéticas vulneran los derechos humanos en Guatemala. Un día después de la infusión caliente compartida durante una lluviosa tarde bilbaína, los ojos humedecidos y la boca seca le obligan a interrumpir varias veces su alocución acerca de la represión que sufren las activistas en el país centroamericano.

Lolita a veces titubea.
Lolita a veces llora.
Lolita es maya y feminista.

Aunque esto último no hace tanto que lo sabe. “La escuela me anuló. No me interesaba por mi historia”. Su abuela siempre le hablaba de las ancestras, su mamá fue militante del Ejército Guerrillero de los Pobres, una de las cuatro organizaciones de combate que negociaron y firmaron con el Gobierno los Acuerdos de Paz en Guatemala, allá por diciembre de 1996. Porque resulta que el país vivió en sangrienta guerra abierta desde 1960, más de tres décadas que se saldaron con al menos 200.000 muertes además de miles de desapariciones, la gran mayoría en comunidades indígenas, tal y como concluyó la Comisión para el Esclarecimiento Histórico (CEH) de Naciones Unidas años más tarde.

Aquella fue la época en la que nació y creció Lolita Chávez, también cuando comenzó a luchar por la defensa de los territorios indígenas de Quiché, con ‘q’ para nombrar su departamento de origen, en el altiplano occidental. Pero fue en el proceso de formación tras el conflicto bélico donde comenzó a saber de sus derechos. “Al principio no los conocía y por eso no podía hacer nada por ellos. Hasta 2002 no me nombraba ni maya ni feminista”.

Maya como la resignificación de su ser junto con su historia, como ese vínculo entre su pasado y el cosmocimiento maya. Feminista como la resignificación de la liberación del patriarcado, como el empoderamiento comunitario contra una opresión transversal, “pero sin recetas venidas de Occidente y que no entiendo”. Un proceso grupal que etiqueta como ‘feminismo comunitario’ y que adorna con conceptos que reflejan toda su belleza cuando explicita el sentido con los que los pronuncia: la sanación como la liberación de nuestros cuerpos, el acuerpamiento como la defensa del territorio tanto vital como geográfico.

Son innumerables las batallas que Lolita Chávez tiene en sus espaldas: denuncias vía legislación (menciona el Convenio 169 de la Organización Internacional del Trabajo sobre Pueblos Indígenas y Tribales, además de la Declaración de Naciones Unidas sobre los Derechos de los Pueblos Indígenas), consultas comunitarias de buena fe (no vinculantes para el Estado pero sí para las comunidades), movilizaciones para hacer frente al quehacer de las transnacionales, litigios estratégicos (demandas y defensas) vinculados con la liberación de las criminalizaciones, procesos asamblearios, reclamaciones al sistema judicial por su impunidad, formación en los territorios, organización y vínculos interterritoriales… tantas que puede generar la sensación de que ha ganado su pulso al miedo. Pero a veces sucede eso. Esperas las certezas de una sabia mesoamericana blindada por su experiencia, pero se encuentra con una mujer corriente de carne y hueso.

«¿Justicia? Conocer el clítoris es profundamente político y estratégico», Lolita Chávez Clic para tuitear

Recuerda emocionada las intimidaciones sufridas y también cuando golpearon a varias compañeras por vincularse con ella. “El opresor entró fuertemente en mí; tanto era el odio hacia mí que desee no vivir. Amenazas de asesinato, de violaciones… dejé de comer y empecé a caminar por un abismo muy profundo en el que no encontraba sentido a la vida”. Cayó presa de la anemia. Un episodio que le estremece tanto como las dos veces, dos, que su comunidad, su gente, se ha manifestado en su contra: “Hay gente que me odia en mi propio pueblo. Se ve en sus ojos. Es lo que han provocado las transnacionales. Me da mucha angustia. Dan dinero para que se manifiesten contra mí. Dicen que estoy contra el desarrollo y que soy antiturismo”. Nunca ha podido entenderlo. Su vida tuvo un tercer punto de inflexión con el asesinato de la hondureña Berta Cáceres: “Somos de países diferentes y puede que no se entienda, pero el vínculo que tenemos las defensoras en Mesoamérica es muy profundo”; asegura entonces que la gran parte de los territorios está siendo defendida por rostros de mujeres muy concretas, personas en primera línea de acción, lo que hace “muy difícil ser defensora. Somos estadísticas. Esto provoca temor e impunidad: el silencio es un arma fuerte y los asesinatos no son algo aislado, están planificados, son selectivos”.

una mujer en una mesa con un cuaderno, habla. va con ropa indígena

Lolita Chávez, durante la entrevista. / Foto. J. Marcos

Lolita a veces tiene miedo.
Lolita a veces no comprende nada.
Lolita es defensora.

Tiene la sensación de que todo lo que considera vida se convierte en mercancía. Y eso que ella ama la vida: “Me dicen que busco la muerte, pero en realidad celebro la vida. El cuidado y el autocuidado es muy fuerte”. Lolita Chávez es una mujer corriente comprometida con la vida; no piensa ideas, piensa la existencia digna. Para ella detenerse, asumir, guardar silencio, complacer o resignarse es morir. No tiene ninguna intención de renunciar.

Integrante del Consejo de Pueblos k’iche’s (CPK), ahora con ‘k’ como reivindicación identitaria indígena, está centrada en la salvaguarda de la vida, la Madre Naturaleza, la tierra y el territorio. Articulados en el Consejo del Pueblo Maya (CPO), tienen por delante “un camino sin tiempos” que no tienen la intención de desandar: el Estado plurinacional. “Sabemos las vías del maldesarrollo y no las vamos a recorrer. Podemos tomar decisiones desde los territorios, amparadas tanto por Naciones Unidas como por algunas leyes guatemaltecas, y hemos decidido liberarlos de las transnacionales y multinacionales del modelo macroeconómico”.

Empresas españolas

Da un sorbo a la infusión ya atemperada por el sucederse de los recuerdos y retoma el discurso. Habla de lo que ha supuesto su llegada a España en junio, un tiempo de sanación, protección (“de sentir la fuerza de la red”), “liberación de espías”, relectura del contexto, generación de saberes (habla de ‘epistemologías’) y tejeduría de feminismos (“de otras luchas plurales”). Seis meses por Bilbao en los que ha visto cómo algunos gozan de un mediodía sempiterno: está molesta por esa Europa que da la espalda a los pueblos originarios, que ignora al Otro, por esa Europa racista, por esa Europa que desconoce los muchos vínculos existentes entre sus empresas y la violación de derechos humanos.

Suscríbete a Pikara Magazine

Su discurso es la incitación perfecta al abandono de cualquier desidia. Deja atrás la retahíla de memorias y regresa directamente a su agenda, a las notas tomadas a mano , parece que casi con rabia. Ahí aparecen nombres como los de Florentino Pérez y el grupo ACS (“están asesinándonos, pero a la gente le da la risa o dice que solo le interesa el fútbol cuando le hablas de ese señor”), de Luis Castro e Hidralia Energía. Un proyecto hidroeléctrico capitaneado por este último, conocido como el ‘rey del kilovatio gallego’, provocó tal oposición con su intención de construir una central sobre el río Cambalán que el municipio de Barillas se les echó encima, hasta que la familia Castro Valdivia dio marcha atrás, excusándose en la inviabilidad de los estándares de sostenibilidad y las exigencias tanto técnicas como económicas. En el camino, represión, abusos, intimidaciones, robos e incluso desapariciones, tal y como figura en el informe elaborado por Intermón Oxfam ‘El desarrollo que no queremos’ (2012). También la organización civil Alianza por la Solidaridad publicó (2015) su propio estudio al respecto: ‘Una hidroeléctrica española contra los pueblos indígenas’. Más recientemente lo ha hecho Mugarik Gabe en ‘Transnacionales, oligarquía y criminalización de la protesta social. El caso de Guatemala’.

Todos esos nombres los rescata Lolita Chávez de su agenda, en la que aparece varias veces subrayado, en círculo y letras mayúsculas, el proyecto Renace. Considerado el mayor complejo hidroeléctrico de Guatemala, se inició en los estertores del pasado siglo como una pequeña presa con embalse. Aquellos barros fueron multiplicándose kilómetro a kilómetro sobre el río Cahabón, en el departamento de Alta Verapaz, precisamente uno de los más empobrecidos del país. Cerca de 30.000 indígenas quekchí sobreviven de sus aguas, las mismas que seca, denuncia en otra investigación (2016) Alianza por la Solidaridad, el complejo hidroeléctrico a cargo de la guatemalteca Corporación Multi-Inversiones (CMI), que a su vez contrata a otras compañías para la realización de las obras. Y ahí es donde entra el nombre del presidente de ACS (Actividades de Construcción y Servicios) y del Real Madrid, Florentino Pérez, a través de la subsidiaria Grupo Cobra. Para 2018 se calcula que Renace aportará el 15 por ciento de la demanda eléctrica de Guatemala.

“¿Energía para qué y para quién?”, se pregunta Lolita Chávez, que levanta la vista de su cuaderno para hablar de “cómo el Estado se convirtió en una empresa” con cerca de una treintena de centrales instaladas más otras 20 en estudio. “Es una recolonización. Un volver a lo que ya vivimos, ofreciéndonos maldesarrollo. Para nosotros la energía es un bien o un servicio, no un producto”. Como si de un mal guiño del destino se tratara, al pueblo k’iche’, del término k’i (muchos) y che (árboles), le están dejando hasta sin nombre: “Primero nos quitaron la tierra y ahora todo el territorio”.

Preguntas abiertas

Lolita Chávez lanza un suspiro por el que se cuelan una desbandada de pensamientos que explotan intempestivos en la otra orilla del mundo. Quedan los posos ya fríos de lo que fue una infusión a la vereda del Nervión. Pero las consecuencias de dos horas largas de aquella educadora maya k’iche’ van más allá de aquella tarde. Porque a veces sucede eso. Esperas hallar respuestas en una lideresa aflorada de cualquier epopeya moderna, pero se despide con los interrogantes que añade una mujer corriente de carne y hueso.

dos mujeres con ropa indígena preparan en en suelo materiales para un rito

Lolita Chávez (izda) junto a su compañera Lorena Cabnal, en un acto en Bilbao. / Foto: J. Marcos

“¿Éxito? No sé si éxito o no, pero lo más liberador que he hecho y hago es plasmar las causas feministas en los consejos de los pueblos, en las comunidades”, responde quien acaba de ser finalista del Premio Sájarov para la Libertad de Conciencia, que finalmente el Parlamento Europeo se lo concedió a la oposición venezolana [el encuentro con Pikara Magazine se produjo antes de la resolución]. “¿Los hombres? Ahí hay un camino más largo por recorrer. Están en la primera línea en muchas luchas, pero es muy difícil que se pongan al frente en la violencia contra las mujeres por el patriarcado inserto en su ser, tanto en las formas violentas como en los privilegios, públicos y privaos, de los que no se pueden desconectar fácilmente”. Y entonces regresa al acuerpamiento, al proceso de liberación conjunto de cuerpos y territorios. “¿Justicia? Conocer el clítoris es profundamente político y estratégico”, cuentan los testigos que afirmó durante su visita el pasado octubre al Parlamento Europeo, frente a un auditorio tan lleno como mudo ante sus reflexiones acerca de la transición energética desde una perspectiva de género, en el marco de una conferencia impulsada por el eurodiputado de EQUO-Primavera Europea Florent Marcellesi junto con Los Verdes Europeos.

Así es Lolita Chávez, una defensora, una mujer corriente de carne y hueso consciente de sus orígenes: “Mamé rebeldía, resistencia y resignificación. Mi pueblo k’iche’ es rebelde de por sí y yo lo mamé con mi mamá. Nuestra rebelión nace de una identidad propia rural, histórica, económica, cósmica, política, espiritual. Y en Guatemala pasamos por el asimilacionismo, prohibiéndonos hablar nuestra propia lengua, pero hemos ido recuperando significados”. La tarde se hace noche y llega el momento de recogerse hasta el día siguiente, cuando, junto con la activista guatemalteca Lorena Cabnal, compartirá espacio, conocimientos y emociones sobre las resistencias y las represiones comunitarias.

Lolita a veces duele.
Lolita a veces contagia alegría y a veces tristeza.

Lolita es mujer.

Hoy se cumple plazo y Fiscalía General incumple creación de Banco Nacional de Datos Forenses

 

Fue el pasado mes de octubre cuando el juez Primero de Distrito del Centro Auxiliar de la Novena Región con sede en Zacatecas ordenó a las autoridades de la Fiscalía la creación del BNDF, incluyendo la obtención de recursos económicos, la creación formal de las herramientas tecnológicas y la coordinación en grupos de trabajo de personas expertas en diferentes disciplinas para su funcionamiento.

Para lo anterior se puso como plazo 40 días hábiles. Pero terminado este tiempo, la Fiscalía General de la República no hizo lo propio para poner en operación esta herramienta necesaria para unificar registros que permitan identificar a personas desaparecidas.

“Persiste la omisión de la FGR. Se cumplió el plazo que otorgó un Juez federal para que ponga en operación el BNDF. En lugar de cumplir, la Fiscalía emitió un recurso de revisión al amparo ganado por Olimpia Montoya, quien busca a su hermano”, expresó el Centro de Derechos Humanos Miguel Agustín Pro Juárez (CentroProdh).

Cabe recordar que desde 2017 la Ley General en Materia de Desaparición Forzada (LGD), impulsada y promovida por las familias de personas desaparecidas, estipula que operar el Banco es una obligación a cargo de la Fiscalía. Pero, ante la inacción de las autoridades, Olimpia Montoya, hermana de  Marco Antonio Montoya Juárez, –desaparecido en Guanajuato- acompañada por el Centro Prodh, presentó la demanda de amparo el 30 de agosto de 2021.

En el fallo, el juzgado se pronunció a favor de Olimpia, e indicó que “no es ajeno al profundo dolor que provoca la desaparición” y reconoció la forma en la que las familias se ven obligadas a realizar una búsqueda por sí mismas y la existencia de obstáculos institucionales durante estos procesos.

CIMACFoto: César Martínez López

Lejos de hacer lo propio, la FGR impugnó el fallo alegando que “la información genética de casos federales está completa e integrada”. En tanto, México continuará atravesando una crisis forense debido a que existen alrededor de 39,000 cuerpos no identificados en los servicios médicos forenses o inhumados de forma anónima en cementerios públicos de los 32 estados, de acuerdo con información de la Organización de las Naciones Unidas (ONU).  

Además, para el año 2019 se habían localizado 3,631 fosas clandestinas, de las cuales entre 2018 y 2019 se habían exhumado 1,124 cuerpos. Lo anterior en un contexto de más de 100,000 personas desaparecidas en México, de las cuales más de 27 mil son mujeres, según cifras del Registro Nacional de Personas Desaparecidas y No Localizadas (RNPDNO).

Desde 2007, México ha practicado 252 mil abortos seguros; aun así, los mitos subsisten

CIMACFoto: María Esparza Quintana

Itami Sordo forma parte de la campaña Salvemos Miles de Vidas junto con la ginecobstetra Paola Santillán Loza. En entrevista con Cimacnoticias, ambas hablaron sobre los mitos más recurrentes alrededor del aborto. También expusieron que, además de dicho imaginario errado, otro factor que impide la regulación de la interrupción del embarazo es la objeción del personal médico. 

Desde el punto de vista de estas profesionales, ambas cuestiones se transformarían con la difusión de información sobre el aborto. Y este es, precisamente, el objetivo de la campaña en la que participan.

Quienes abortan no son mujeres irresponsables

Para la doctora Paola Santillán, uno de los principales mitos alrededor del aborto es que quienes se someten a este procedimiento son mujeres “irresponsables”, adolescentes que, tras salir de fiesta, presentan embarazos no planeados. Además, la sociedad suele pensar que estas mujeres van a recurrir al aborto como método anticonceptivo.

Sin embargo, la realidad es que —de acuerdo con la especialista— un gran porcentaje de las mujeres que abortan suelen ser amas de casa con parejas estables. En muchas ocasiones, deciden interrumpir su embarazo porque su método anticonceptivo falló, porque tienen enfermedades graves que les impiden seguir con el proceso de gestación o por dificultades económicas para hacerlo.

Quitemos el tabú de que las pacientes son irresponsables, porque realmente muchas de ellas son responsables y terminan llevando un control subsecuente con algún método de planificación adecuado.

Paola Santillán Loza

Otros de los mitos alrededor de la interrupción del embarazo tienen que ver con las consecuencias de este procedimiento. Hay quienes dicen, por ejemplo, que las mujeres que abortan desarrollan depresión o se vuelven infértiles. No obstante, la ginecobstetra Santillán Loza afirma que ambas afirmaciones son completamente falsas. Pero no todas las mujeres lo saben.

Desde la perspectiva de María Eréndira Itami Sordo —quien también es catedrática de la UNAM—, aquí hay un problema de desinformación que toca de manera especial a las mujeres con bajos recursos. A lo largo de su experiencia en los ámbitos público y privado de la salud, ella ha podido observar que estas mujeres no cuentan con información para contrarrestar estos mitos alrededor del aborto.

CIMACFoto: María Esparza Quintana

Entre otras consecuencias, esto provoca que las pacientes tengan miedo de acudir a un hospital o clínica a solicitar un aborto seguro. Muchas de ellas temen sufrir esas supuestas consecuencias o incluso perder la vida (esto, aún cuando un aborto seguro es 15 veces más seguro que uno realizando en la clandestinidad).

Pero, desafortunadamente, estos mitos morales y religiosos no son el único factor que vulnera a quienes desean interrumpir su embarazo.

La objeción y la desinformación, un problema entre el personal médico

Las y los médicos tienen información real sobre las consecuencias y los beneficios de practicar abortos en condiciones seguras. Aun así, muchos de ellos se oponen a practicarlos por objeción de conciencia (es decir, por motivos éticos o religiosos personales).

Itami Sordo y Santillán Loza se han encontrado con varios colegas que están en esta situación. “Este es un tema triste. Ellos lo toman como una bandera para decir que no quieren hacerlo”, afirma la doctora Eréndira Itami. Sin embargo, asevera que el personal médico debería ser capaz de considerar cuándo es necesario intervenir ante una emergencia, tal como es el caso de un aborto con causal de violación.

A la objeción de conciencia se suma, además, el temor a enfrentar procesos legales por interrumpir un embarazo. En otras palabras, el personal médico en México tampoco está bien informado sobre la legislación en torno al aborto y cómo se puede practicar sin que haya consecuencias jurídicas y legales para las y los doctores.

Es más el miedo porque no sabemos y porque no nos informamos sobre qué puede pasar con nosotros si no atendemos una urgencia médica. Muchas veces pensamos que por no atender a la paciente nos vamos a librar del caso y no es así al contrario: transgredimos las leyes y tenemos mayor factor de riesgo de no ofrecer la atención adecuada a la paciente.

Paola Santillán Loza

¿Qué hacer para mejorar esta situación?

En México, 11 estados ya han despenalizado el aborto y reciben recursos del gobierno federal para que éste se lleva a cabo en condiciones seguras. Este gobierno también cuenta con programas para difundir información sobre la interrupción legal del embarazo (ILE). No obstante, esto no es suficiente.

Para la doctora Paola Santillán, en nuestro país hace falta más capacitación para el personal médico, así como la difusión de información correcta sobre la normatividad alrededor de la ILE. También es necesario que haya más programas de difusión dirigidos a la población en general.

Por su parte, la doctora María Eréndira Itami Sordo hace énfasis en el desabasto de medicamentos e insumos en el sector público, entre otras carencias. A mitad de este año, precisamente, varias organizaciones de la sociedad civil reportaron un recorte de recursos en el ámbito de la salud sexual y reproductiva. Dicho recorte desembocó en la falta de personal en áreas de atención a quienes desean someterse a una ILE.

Las consecuencias de estos factores (la desinformación entre las mujeres y el personal médico, así como la falta de recursos económicos y materiales) se traducen en condiciones inseguras y clandestinas para practicarse un aborto. Esto puede provocar que miles de mujeres presenten hemorragias uterinas, infecciones, infertilidad e, incluso, pierdan la vida por someterse a abortos mal practicados. 

De acuerdo con la doctora Itami Sordo, esto ha provocado que la muerte por aborto inseguro ocupe el tercer lugar en las causas de muerte materna en México. Ante esta circunstancia, es necesario que las autoridades trabajen en mejores programas de difusión. También, que destinen una cantidad suficiente de recursos para salvar la vida de miles de mujeres que solo buscan ejercer sus derechos reproductivos de manera plena y segura, sin que esto les cueste la vida y las ponga en el ojo de la estigmatización.

“Las prácticas clásicas en ciencia de datos fomentan el sexismo. El feminismo de datos lo combate”

 pikaramagazine.com

SINC

Los algoritmos de inteligencia artificial y big data fomentan el machismo, el racismo y el clasismo, asegura Catherine D’Ignazio, profesora de Ciencia y Planificación Urbana en el MIT y una hacker con el apodo de kanarinka. En su libro ‘Data Feminism’ ofrece pautas para desvelar y contrarrestar estos sesgos discriminatorios.

Entrevista de Ana Hernando para la agencia SINC.

una mujer posa sonriente de medio cuerpo con un fondo liso

Catherine D’Ignazio. / Foto: Diana Levine (MIT)

Catherine D’Ignazio (Chapel Hill, Carolina del Norte) es profesora de Ciencia y Planificación Urbana en el Instituto Tecnológico de Massachusetts (MIT). También dirige el Data + Feminism Lab, que utiliza datos y métodos computacionales para trabajar por la igualdad de género. Se define como académica, artista visual y desarrolladora de software y es conocida con el apodo de kanarinka en los hakathons feministas que organiza.

D’Ignazio, que vivió durante un tiempo en Barcelona cuando era estudiante de secundaria, ha escrito, junto a Lauren Klein, directora de Digital Humanities Lab en la Universidad de Emory, el libro Data Feminism, publicado este año. Las autoras consideran fundamental reconocer los sesgos de género —y también los de racismo, clasismo y discriminación de minorías— de los algoritmos usados masivamente en las aplicaciones de inteligencia artificial y en big data. Además, subrayan la necesidad de entender estos sesgos técnicamente para así introducir medidas que los contrarresten.

¿Qué es el feminismo de datos y para qué sirve?
Es una forma de reflexionar sobre los datos, tanto en lo que se refiere a sus usos como a sus limitaciones. Está fundamentado en la experiencia directa, el compromiso para la acción y el pensamiento feminista interseccional. El punto de partida es algo que generalmente no se reconoce en la ciencia de datos: que el poder no está distribuido equitativamente en el mundo, ya que quienes lo ejercen son, desproporcionadamente, hombres blancos con acceso a la educación, heterosexuales y del norte. El trabajo del feminismo de datos consiste, en primer lugar, en examinar cómo las prácticas estándar en ciencia de datos sirven para reforzar estas desigualdades existentes, que se traducen en sexismo, pero también en racismo, clasismo y discriminación de minorías. Y, en segundo lugar, utilizar esta misma ciencia para desafiar y cambiar esta distribución de poder y luchar contra la discriminación en sus distintas variantes.

«Hay sistemas de detección de rostros que no reconocen a las mujeres negras, algoritmos que degradan a las mujeres», @kanarinka Clic para tuitear

¿Cuáles son los principales sesgos discriminatorios que habéis encontrado?
Vemos el feminismo de datos como parte de un creciente cuerpo de trabajo que responsabiliza a los actores corporativos y gubernamentales por sus productos de datos racistas, sexistas y clasistas. Por ejemplo, hemos encontrado sistemas de detección de rostros que no reconocen a las mujeres negras, algoritmos que degradan a las mujeres, algoritmos de búsqueda que hacen circular estereotipos negativos sobre las niñas negras, algoritmos de detección de abuso infantil que castigan a los padres de bajos recursos, visualizaciones de datos que refuerzan el binarismo de género. Todo esto y mucho más.

Claramente hay ganadores y perdedores en el ámbito de los datos.
Sí, claro, como decía, quienes pierden son desproporcionadamente mujeres, personas negras, indígenas y otros grupos marginados, como personas trans, no binarias y las personas pobres. Algo que igualmente puede considerarse como una pérdida es lo que llamamos missing data, es decir, todos aquellos datos que pueden ser importantes y no se están recogiendo. En el libro describimos el ejemplo de los datos sobre los feminicidios y denunciamos que los gobiernos no recolectan datos exhaustivos para entender el problema e implementar soluciones políticas para acabar con esta lacra. Otros ejemplos de missing data son los datos de mortalidad materna, que solo se han comenzado a recoger recientemente, y los de acoso sexual. Además, no olvidemos que gran parte de nuestro conocimiento médico y de salud procede datos de investigaciones que se basan casi únicamente en el cuerpo masculino.

Portada del libro ‘Data Feminism’.

En vuestro libro utilizáis el término Big Dick Data [‘dick’ es ‘pene’ en argot popular y la expresión se podría traducir como ‘datos de quién la tiene más grande’]. ¿Nos puedes explicar su significado?
Es una crítica del machismo oculto en la mayoría de las narrativas en torno al big data. Las descripciones de proyectos en este ámbito se caracterizan por fantasías masculinas y totalizadoras de dominación mundial que se llevan a cabo mediante la captura y el análisis de datos. Así, los proyectos de Big Dick Data ignoran el contexto de los datos, fetichizan el tamaño de la base de datos e inflan sus capacidades técnicas y científicas, normalmente con ánimo de lucro, poder o ambos.

«Los datos de criminalidad en Estados Unidos están corrompidos por el racismo», @kanarinka Clic para tuitear

Los algoritmos de machine learning se alimentan de datos históricos que perpetúan prejuicios, no solo en cuestiones de género. Por ejemplo, muchos estudios de criminalidad en Estados Unidos apuntan a que las personas afroamericanas tienen más probabilidades de cometer delitos.
Como te decía, en el feminismo de datos dejamos espacio para una posición de rechazo de los datos y su uso en ciertas situaciones. Respecto a los datos de criminalidad en Estados Unidos, por ejemplo, opino que tendríamos que desechar su uso enteramente porque están corrompidos por el racismo. Después de siglos de encarcelar desproporcionadamente a afrodescendientes e indígenas, no podemos usar esos registros para predecir quién debería ser puesto en libertad bajo fianza e imaginar de alguna manera que los algoritmos van a ser neutrales. Repito: estos datos han sido corrompidos por siglos de supremacía blanca y deben ser rechazados, esa es mi opinión.

¿Cómo se cambia esa narrativa?
El cambio narrativo que necesitamos tiene que ver con dejar espacio para esta posición de rechazo en el diálogo público y en las políticas. Hay algunas tecnologías que no deberían construirse. Hay algunos datos que no deben usarse.

¿Podría lograrse la neutralidad de los datos?
No, los datos no serán neutrales jamás porque nunca son datos ‘crudos’. Están producidos por seres humanos que vienen de lugares determinados, tienen sus propias identidades, sus historias particulares y que trabajan en instituciones concretas. Pero eso no significa que los datos no puedan ser útiles. Solo que tenemos que usarlos con los ojos abiertos. Y hacernos las preguntas adecuadas: ¿quién se beneficia?, ¿a quién se perjudica?, ¿quién hace el trabajo?, ¿quién recibe el crédito?

«Los datos no serán neutrales jamás, pero eso no significa que no puedan ser útiles», @kanarinka Clic para tuitear

En el momento que vivimos, ¿qué valoración haces del manejo de datos en la pandemia?
Aquí, en Estados Unidos, está siendo terrible. Te pongo un ejemplo. Al comienzo de la pandemia ,[el presidente, Donald] Trump expresó su deseo de no permitir que atracara un crucero con pasajeros afectados por la Covid-19. Sus palabras fueron: “Me gusta que los números estén donde están. No necesito que se dupliquen por un barco que no es nuestra responsabilidad”. Otras agencias gubernamentales están también implicadas en esta subestimación deliberada. Durante once semanas, de marzo a mayo, los CDC [Centros para el Control y la Prevención de Enfermedades] no publicaron datos sobre cuántas personas estaban siendo testadas para detectar el virus. En cierto momento, se publicó silenciosamente un nuevo sitio web de los CDC que realizaba un seguimiento de las pruebas nacionales. Sin embargo, según una verificación independiente de The Atlantic, las cifras no coincidían con las que reportaban los propios estados. Ahora, la responsabilidad de monitorear los datos de la Covid-19 se ha trasladado al departamento de Salud y Servicios Humanos [HHS] por razones políticas.

Suena todo bastante desastroso.
Pues sí. Y además los detalles demográficos sobre las muertes por coronavirus tampoco se reportan. Sabemos que los hombres mueren en proporciones más altas que las mujeres. También, que las comunidades negras, indígenas y latinas son las más afectadas. Pero los estados no están rastreando de manera fiable cuestiones como el género o la raza en los casos de Covid-19. Y, si se hace, se categoriza a las poblaciones nativas como ‘otros’, lo que hace imposible desagregar los efectos racializados de la enfermedad en las personas indígenas. Es todo un gran desastre.


Algoritmos entrenados para ser racistas

 pikaramagazine.com

Paula Guerra Cáceres

Este tipo de tecnología se ha convertido en una herramienta de construcción de otredad que refuerza el lugar de privilegio de lo blanco.

Ilustración: Sra. Milton

Cuando nos hablan de inteligencia artificial la mayoría de nosotras quizás piense en coches automatizados, aplicaciones móviles, mapas en línea o en Siri y en Alexa. Lo cierto es que pocas personas la relacionan con cuestiones vinculadas al acceso a determinados derechos o con la reproducción de desigualdades sociales.

Esto se debe al relato oficial que sitúa la inteligencia artificial como un sistema matemático neutral, aséptico, sin ideología ni punto de vista. Sin embargo, este argumento se cae cuando pensamos en una obviedad: los algoritmos no se crean por generación espontánea. Existe una persona que lo desarrolla y “entrena”, alguien que decide qué datos selecciona y cuáles descarta.

Imaginemos, por ejemplo, un algoritmo para predecir perfiles de potenciales delincuentes. Si la persona que lo desarrolla toma en cuenta únicamente delitos menores como robos, hurtos o tráfico de estupefacientes, obtendrá un perfil muy concreto. ¿Pero qué pasaría si se incluyeran también aquellos delitos denominados de cuello blanco, como malversación de fondos públicos, blanqueo de capitales o evasión de impuestos? En este segundo caso, es muy probable que el perfil elaborado por el algoritmo incluya a hombres blancos de clase media o alta, con estudios superiores y residentes en barrios acomodados.

El problema es que los desarrolladores de algoritmos suelen ser precisamente hombres blancos de clase media o alta, formados en las mismas universidades, residentes de los mismos barrios, etc., y por tanto es muy poco factible que contemos algún día con un algoritmo de este tipo.

Por lo mismo, lo que suele ocurrir es que se desarrollen herramientas como PredPol, más conocida como “policía predictiva”, un software que “predice” dónde y cuándo se cometerá un delito y que en las ciudades de Estados Unidos donde se implementa ha provocado una sobre presencia policial en barrios de personas latinas y negras.

El sesgo algorítmico

¿Por qué PredPol termina provocando discriminación racial? Porque sus diseñadores decidieron tomar en cuenta algunas variables y dejar de lado otras. Por ejemplo, optaron por entrenar el algoritmo con bases de datos de delitos históricos sin considerar que los delitos menores se denuncian de forma desproporcionada con relación a los delitos de cuello blanco. También decidieron incluir la variable de la ubicación, algo que está directamente relacionado con el factor étnico-racial puesto que las poblaciones racializadas se suelen concentrar en zonas geográficas específicas.

El sesgo de PredPol es lo que se conoce como “sesgo algorítmico”, que ocurre cuando un sistema informático refleja los valores, prejuicios y puntos de vista de quienes participan en el proceso de diseño de un algoritmo.

En el Estado español desde 2018 la Policía Nacional dispone en todas sus comisarías de la herramienta VeriPol, un algoritmo diseñado para detectar denuncias falsas de robos y hurtos, cuyo objetivo es ahorrar tiempo de investigación y evitar fraudes contra seguros.

Dicho así, suena bien. Sin embargo, VeriPol tiene por lo menos dos aspectos cuestionables. Primero, se entrenó con una base de datos de 1.122 denuncias de robos y hurtos interpuestas en 2015, que un policía se encargó de clasificar como verdaderas o falsas basándose en sus años de trabajo y experiencia en interrogatorios. De esta forma, las denuncias que se analizan con el algoritmo de VeriPol en realidad son analizadas bajo el prisma del policía que clasificó ese conjunto de denuncias en el que se basa este algoritmo. Por tanto, VeriPol no predice una denuncia falsa, sino el sesgo del policía que determinó qué es una denuncia falsa.

En segundo lugar, este algoritmo incluye la variable del lenguaje empleado por las personas denunciantes, cuestión que también resulta conflictiva no solo porque los agentes redactan las denuncias con sus propias palabras (no de forma literal) -lo que ya implica un filtro sesgado de la denuncia-, sino porque el algoritmo podría clasificar una denuncia como falsa solo por el hecho de utilizar determinadas palabras, sin tomar en cuenta los aspectos socioculturales del lenguaje. ¿Qué pasa con las personas extranjeras cuyo idioma principal no es el castellano?, ¿o con las personas provenientes de América Latina que hablan un castellano diferente al de España?

El problema del sesgo algorítmico es de larga data. Ya en la década de los años 80 la Comisión de Igualdad Racial de Reino Unido acusó a la Escuela de Medicina de St. George de discriminar por sexo y raza en sus pruebas de admisión tras conocerse que utilizaban un programa informático que analizaba el nombre y lugar de nacimiento de las personas postulantes, lo que dejó fuera a mujeres y hombres de origen no europeo durante años.

Otra herramienta de inteligencia artificial que lleva mucho tiempo poniéndose en tela de juicio son los algoritmos de reconocimiento facial. Diversos estudios demuestran que la mayoría de estos arrojan un porcentaje muy alto de error en rostros de personas no caucásicas, produciendo falsos positivos (identifica las imágenes de dos personas diferentes como si fueran una) y falsos negativos (identifica dos imágenes de la misma persona como si tratara de personas diferentes).

Sin embargo, y a pesar de las evidencias, el reconocimiento facial es una tecnología ampliamente utilizada. De hecho, formará parte de las herramientas que se incluirán en la llamada “frontera inteligente” que se pondrá en marcha este año por el Gobierno de Pedro Sánchez en los pasos fronterizos de Ceuta y Melilla. El objetivo es, según el Ejecutivo, agilizar las respuestas a las peticiones de asilo y “luchar contra el terrorismo”. No hace falta explicar que esto supondrá una nueva vulneración de derechos de las personas migrantes, que serán criminalizadas, marcadas como sospechosas y a quienes se violará el derecho a la protección de sus datos personales que sí se respeta en el resto de la población.

La inteligencia artificial racializa

Pero el problema con la inteligencia artificial va mucho más allá del sesgo algorítmico. La cuestión de fondo es que toda esta tecnología se piensa, desarrolla e implementa en un marco de racismo estructural que es parte constituyente del sistema-mundo y que, por tanto, perpetúa patrones históricos de poder.

En este sentido, la relación entre inteligencia artificial y racismo es mucho más estrecha de lo que se cree. Si tomamos en cuenta que la racialización es el proceso mediante el cual se nos asignan características y cualidades favorables o desfavorables con base en la categoría étnico-racial con la que se nos identifica (persona negra, gitana, blanca, latina, indígena, asiática, árabe), y que, por otro lado, la inteligencia artificial hace desaparecer a la persona real reemplazándola por un conjunto de atribuciones positivas o negativas según datos que son producto de una marginación y criminalización históricas, podemos afirmar que la inteligencia artificial actúa en la sociedad como un mecanismo más de racialización.

Este tipo de tecnologías reproducen y amplifican las desigualdades sociales desde el momento en que se convierten en una herramienta de construcción de otredad que refuerza el lugar de privilegio de lo blanco. Y ya sabemos cómo la construcción de una jerarquía étnico-racial de superioridad versus inferioridad sirve de excusa para justificar una posición subordinada en términos políticos, sociales, culturales y epistémicos de las poblaciones no blancas, así como distintas formas de violencia y explotación.

A esto se suma el hecho de que el uso excesivo de la tecnología en las administraciones públicas impone barreras administrativas y técnicas que afectan a segmentos demográficos que ya están en situación de vulnerabilidad -como solicitantes de asilo o personas que no manejan el idioma- quienes se deben enfrentar a formularios y aplicaciones tecnológicas imposibles cuando intentan acceder a un derecho o realizar cualquier tipo de solicitud.

Marco regulatorio europeo y rol de la AESIA

En este marco de digitalización imparable de la sociedad, aunque también de críticas hacia las consecuencias sociales negativas de este tecnofetichismo, la Unión Europea (UE) presentó el año pasado una propuesta de ley de inteligencia artificial con la que pretende impulsar el campo del desarrollo en este ámbito a escala europea, además de sentar las bases regulatorias para su desarrollo y uso.

En el texto de la propuesta se clasifican los algoritmos en función de su riesgo para el respeto de derechos fundamentales como la privacidad y la no discriminación. Así, el documento señala que la tecnología de reconocimiento facial representa un “riesgo inadmisible” que se debería prohibir, sin embargo, hace una excepción en aquellos casos de seguridad nacional como la lucha contra el terrorismo. Por otro lado, la propuesta tampoco hace ninguna referencia al uso de tecnologías de vigilancia en fronteras ni a los sistemas predictivos en el contexto migratorio. De este modo, la UE ignora una vez más la violación de derechos fundamentales cuando las personas afectadas son migrantes, racializadas y solicitantes de asilo

Las enmiendas a la propuesta legislativa y su aprobación final están previstas para comienzos de 2023. Mientras tanto, debemos estar pendientes del papel que jugará en el contexto español la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Anunciada en 2021, y cuyo proceso de creación sigue en marcha, esta agencia debería velar para que el uso de la inteligencia artificial no afecte particularmente a colectivos en situación de vulnerabilidad, tal como han demandado diversas organizaciones y entidades que trabajan por los derechos digitales.

Además, tomando en cuenta que España se ha ofrecido como país piloto para testear la regulación de la ley de inteligencia artificial que se debate en estos momentos en la UE, el rol de la AESIA será clave para corregir aquellos errores que conduzcan a la reproducción de desigualdades sociales.

El uso creciente de elementos estadísticos en todos los ámbitos de la sociedad ha creado un imaginario de confianza ciega en las herramientas tecnológicas. Si no atajamos a tiempo esta situación podemos ver mermados derechos básicos en nombre de la supuesta eficiencia y neutralidad de esta.

Tenemos derecho a saber si la toma de decisiones automatizada a través del uso de los algoritmos está condicionando nuestras posibilidades de futuro (por ejemplo, obtener una beca o acceder a una entrevista de trabajo). Tenemos derecho a que los algoritmos se auditen, corrijan e incluso anulen en el caso de reproducir injusticias estructurales. Y tenemos derecho también a que se incorpore una visión de justicia restaurativa de cara a las personas y comunidades afectadas por decisiones basadas en inteligencia artificial.


Otros artículos que seguro también te van a interesar:

“Las prácticas clásicas en ciencia de datos fomentan el sexismo. El feminismo de datos lo combate”

La tecnopobreza según Virginia Eubanks

‘Prejuicio cifrado’ (y por qué tenemos que verla)

Aprueban dictamen para reconocer violencia vicaria a nivel federal

 

CIMACFoto: Diana Hernández Gómez

La diputada Julieta Kristal Vences Valencia, de Morena (quien es presidenta de dicha Comisión), dio a conocer la aprobación del dictamen en una conferencia de prensa este 8 de diciembre. En esta conferencia también estuvieron presentes integrantes del Frente Nacional de Mujeres, FEMXFEM Mujeres en Diálogo A.C., FEM Mujeres y el Frente Nacional Contra Violencia Vicaria, quienes están impulsando esta propuesta desde julio de 2021.

De acuerdo con la diputada Vences Valencia, el dictamen aprobado agrupa tres iniciativas de ley presentadas por diputadas y diputados de todos los grupos parlamentarios de la Cámara. Con ellas se pretende modificar la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia para incluir una definición de violencia vicaria en sus párrafos, lo cual permitiría reformar el Código Penal Federal para castigar este tipo de violencia.

Víctimas de violencia vicaria recibirían medidas de protección

Según el dictamen aprobado, la violencia vicaria quedaría definida como “la acción u omisión cometida en contra de una mujer por la persona con la que tenga o haya tenido una relación de matrimonio, concubinato o relación de hecho con la intención de causarle cualquier tipo de daño o sufrimiento al separarla de sus hijas e hijos y causar desapego en el vínculo materno filial utilizando la violencia”.

Además, se agregaría otro párrafo para definir en qué casos se está cometiendo violencia vicaria. De acuerdo con este otro párrafo, incurre en violencia vicaria quien sustraiga, retenga, oculte, maltrate, amenace, ponga en peligro la integridad y salud, violente física, económica, psicológica o sexualmente a las hijas e hijos de las mujeres.

También, quien interponga procedimientos judiciales falsos o conductas procesales dilatorias para impedir la convivencia o guarda y custodia con el propósito de dominar, someter, manipular, controlar o agredir de manera física, verbal, psicológica, patrimonial, económica o sexual a las mujeres e incluso provocar el sucididio, feminicidio u homicidio de las madres y de sus hijos e hijas.

Junto con las definiciones citadas arriba, el dictamen aprobado por la Comisión de Igualdad de Género incluye párrafos que obligarían a ministerios públicos, juezas y jueces a brindar medidas de protección para salvaguardar la integridad física y psicológica de las mujeres y de sus hijas e hijos.

Una de las consecuencias de la violencia vicaria es la separación de familias por la sustracción de los hijos e hijas del hogar materno. CIMACFoto: Tercero Díaz

8 de cada 10 víctimas de violencia vicaria son mujeres

Durante la conferencia de prensa, la diputada Melissa Vargas Camacho del PRI explicó que no se niega el hecho de que los hombres también pueden sufrir violencia a través de la sustracción de sus hijas o hijos. No obstante, recordó que 8 de cada 10 víctimas de violencia vicaria son mujeres; además, la mayoría de ellas sufren otras violencias previas por parte de sus exparejas (algo que no suele ser tan común en el caso de los hombres).

La legisladora también hizo énfasis en que hay muchos agresores que hacen uso de sus posiciones de poder político para obstaculizar las investigaciones en su contra e, incluso, modificar documentación usada durante los procesos legales. 

Lo anterior se evidencia en los análisis realizados por el Frente Nacional Contra Violencia Vicaria (FNCVV), según los cuales, 9 de cada 10 agresores levantan denuncias falsas en contra de sus víctimas. Esto tiene repercusión en las mujeres pero también en sus hijas e hijos, quienes creen que sus madres cometieron robos o hasta delitos de violencia sexual por culpa de los agresores.

Por otro lado, el FNCVV también ha tenido información sobre casos en los que la violencia vicaria ha desencadenado en suicidios inducidos de mujeres. En este sentido, la diputada Vences Valencia remarcó que la violencia vicaria es una de las antesalas del feminicidio.

Otro factor determinante en este ciclo de agresiones es la violencia institucional, ya que muchas de las omisiones en los casos de violencia vicaria se dan gracias a la complicidad de abogados, jueces y ministerios públicos. De ahí la importancia de que el gobierno tipifique esta violencia y genere políticas públicas para prevenirla y atenderla.

La iniciativa podría ser votada en febrero

El dictamen anunciado por la diputada Vences Valencia fue aprobado por unanimidad y podría discutirse en el Pleno en febrero de 2023. Mientras tanto, la legisladora Melissa Vargas Camacho anunció que se estarán atendiendo diversos casos de violencia vicaria en audiencia pública.

De igual forma, Vargas Camacho informó que se trabajará de la mano con la Comisión de Derechos de la Niñez y Adolescencia para abordar temas como los procesos de readaptación de las niñas y niños separados de sus madres.

El FNCVV y las colectivas presentes recordaron a las mujeres víctimas de violencia vicaria que pueden acercarse a ellas para recibir orientación, apoyo, y saber que no están solas: juntas pueden avanzar en el camino a la justicia y la recuperación de sus hijas e hijos.