Silvia Ribeiro *
A diario oímos el canto de los
supuestos beneficios y promesas de lo que pueden hacer los sistemas de
inteligencia artificial, pero con nula o poca visión crítica sobre sus
impactos sociales, económicos y políticos. No obstante, existe mucha
preocupación por el uso comercial y político de datos personales, el
aumento de la discriminación y el racismo, la sustitución de empleos, y
el desarrollo de armas y robots asesinos, entre otros aspectos de la
aplicación de la inteligencia artificial. Ahora se suma que además estos
sistemas tienen un enorme impacto ambiental y climático por su altísima
demanda de energía y las emisiones de gases con efecto invernadero que
ésta conlleva.
Un estudio de Emma Strubell, A. Ganesh y A. McCallum, de la
Universidad de Massachusetts Amherst (junio 2019), estimó los impactos a
partir del uso de energía y emisiones de carbono de algunos de esos
sistemas. Encontraron que en sistemas que emulan redes neuronales, el
entrenamiento de un solo sistema de inteligencia artificial genera hasta
cinco veces más emisiones de carbono que un auto promedio de Estados
Unidos en toda su vida útil, incluyendo fabricación y uso de
combustible. (https://arxiv.org/abs/1906.02243)
Se enfocaron en cuatro modelos de inteligencia artificial con
aprendizaje profundo para procesamiento de lenguaje natural (PLN), que
están entre los más usados: Transformer, ELMo, BERT y GPT-2. Todos han
escalado notablemente sus capacidades en los últimos dos años. El GPT-2,
de OpenAI, financiado por el empresario Elon Musk, generó polémica por
su capacidad para inventar y completar frases, generando masivamente
noticias falsas creíbles. Musk anunció que el sistema no tendrá fuente
abierta, supuestamente para impedir su uso indiscriminado –y de paso
mantener su monopolio.
El cálculo de impacto que usaron para el estudio se basa en el gasto
energético de los equipos para procesamiento, electricidad y
herramientas asociadas para entrenamiento de sistemas de inteligencia
artificial. Strubel explicó a la revista New Scientist que para
asimilar algo tan complejo como el lenguaje se necesita procesar una
inmensa cantidad de datos. Un enfoque común es que lea miles de millones
de textos para ver el significado de las palabras y cómo se construyen
las frases. Esto requiere enorme capacidad de procesamiento,
almacenamiento y energía. No quiere decir que entienda lo que lee, pero
finalmente podrá imitar el uso que hacemos del lenguaje.
El estudio hace una comparación con otras fuentes de emisiones de
carbono. En el caso de un automóvil, éste emite en promedio unas 57
toneladas de CO2 durante su vida útil. El entrenamiento de una unidad de
inteligencia artificial que pueda descifrar y manejar lenguaje podría
emitir hasta 284 toneladas de carbono, cinco veces más. Significa unas
315 veces las emisiones de un vuelo de costa a costa de Estados Unidos y
56 veces el consumo promedio de energía de un ser humano en toda su
vida.
Las grandes empresas de plataformas digitales, como Amazon, Microsoft
y Google, buscan que parte de la energía que usan provenga de fuentes
renovables, pero esto no es ni lejanamente suficiente ante el
crecimiento exponencial de la demanda que provocan.
Siendo grave, este es sólo uno de los ejemplos de la monstruosa
demanda de energía para el desarrollo de la era digital, que se suma a
otros impactos de ésta a las que generalmente no se asocian: el despojo y
acumulación de materiales y recursos que son escasos, la contaminación
ambiental que provoca la producción y desechos, el empeoramiento del
cambio climático, además del impacto en salud, tanto el directo por
radiaciones electromagnéticas de las redes de telefonía e Internet como
los derivados de las otras formas de contaminación de esta industria.
El uso de inteligencia artificial es, además, tremendamente
problemático en otros planos, porque al basarse en algoritmos
determinados por las metas comerciales de los desarrolladores y su
contexto económico y cultural repiten esquemas discriminadores y
racistas. Por ejemplo, se están usando sistemas de inteligencia
artificial en instituciones bancarias –para evaluación de créditos,
préstamos, inversiones– e instituciones judiciales para gestionar
sentencias, lugares de reclusión, etcétera. En ambos casos se ha
demostrado que el sistema es discriminatorio y racista: por ejemplo, si
la persona
evaluadaes negra o latina en Estados Unidos, el sistema lo evalúa automáticamente como menos confiable y más peligroso, supuestamente basado en el porcentaje histórico de personas detenidas y/o condenadas. Como esto ya es una base racista y discriminatoria, la inteligencia artificial lo afirma y aumenta.
Al igual que con las grandes plataformas digitales, la regulación y
la supervisión independiente es inexistente o está fuertemente sesgada a
favor de las poderosas empresas que deberían ser controladas. Hace
falta mucho más debate y acción social sobre las implicaciones de estas
tecnologías que nos afectan a todos. En ese sentido, saludamos la
creación reciente de dos publicaciones que son colaboración de varias
organizaciones sociales y activistas: la revista digital latinoamericana
Internet Ciudadana y el portal Bot Populi sobre justicia digital, que por ahora está mayormente en inglés (https://botpopuli.net/).
* Investigadora del Grupo ETC
No hay comentarios.:
Publicar un comentario