Silvia Ribeiro*
Una intención principal de la declaración es enlentecer el avance del competidor OpenAi con su programa ChatGPT4, un buscador que ha tenido un nivel de venta de suscripciones mucho más rápido que cualquier otro de sistemas similares anteriores. Musk fue inversor de OpenAI, pero se retiró. Ahora anuncia que desarrolla su propia versión de un programa similar, que al ser desarrollado por él ya no sería un problema existencial.
Otra intención es desviar la atención de los graves impactos reales actuales de estos sistemas, señalando que podrían tener efectos en el futuro.
Emily Bender, coautora citada en la primera nota de esa declaración
de Musk y otros, se deslindó rápidamente. En una entrevista con el
analista crítico Paris Marx, explica que no existen sistemas de
inteligencia artificial competitivos con la inteligencia humana, aunque
sí tienen impactos. Se trata de sistemas de texto sintético que aunque
sean rápidos y parezcan complejos, en realidad no comprenden los
mensajes que entregan. Son lo que ella y colaboradoras han llamado loros estocásticos
:
repetidores y mezcladores de texto que aunque pueda parecer que tienen
sentido (porque se basan en lo que han dicho y escrito personas) no son
capaces de comprender el significado de los resultados que arrojan. Que
un loro pueda repetir un tango, no significa que lo entienda. (https://tinyurl.com/ye237we9)
No existen, agrega Bender, sistemas que compitan
con los
sistemas de lenguaje humanos, porque las máquinas no pueden comprender
imaginarios sociales, ni valores, emociones, culturas diversas, ni los
universos de significados colectivos en los muchos idiomas que existen.
Se ha desarrollado lo que se llama grandes modelos de lenguaje, como los
que utiliza ChatGPT, que basados en volúmenes inmensos y cada vez más
grandes de datos, pueden predecir una serie textos y palabras que
usualmente se asocian entre sí en un determinado lenguaje. Pueden
también mezclarlos en forma aleatoria (estocástica) para que parezcan
diversos y originales
, pero siempre son a partir de patrones establecidos y basados en algoritmos creados por personas.
Bender y coautoras explican en un artículo emblemático titulado Sobre el peligro de los loros estocásticos ¿puede haber modelos de lenguaje demasiado grandes?
,
que esto conlleva una multiplicación de problemas y sesgos que ya
existen, por lo que estos programas son intrínsecamente discriminatorios
de minorías, son racistas, sexistas, se basan en la naturalidad
de la desigualdad. Además, en su vasta mayoría parten del inglés, con lo
que vuelven a repetir la injusticia y sistemas de dominación basados en
ese idioma ( https://tinyurl.com/28jbv4tf).
Dos de las otras coautoras de ese artículo, Timnit Gebru y Margaret Mitchell fueron despedidas de Google por que no quisieron retirar su nombre. Mitchell decidió agregar SH a su nombre en el artículo (Shmargaret ShMitchell) para señalar que habían intentado silenciarla.
Uno ejemplo que dan es que ChatGPT se basa en la recolección de datos de Wikipedia y Reddit, entre otros. En Wikipedia, solo 9 a 15 por ciento de contribuyentes son mujeres y más de 70 por ciento son blancos. En Reddit, dos terceras partes son menores de 30 años, lo cual en ambos casos significa que multiplican esas parcialidades en desmedro de otras perspectivas, rangos de edad, otras culturas, etcétera. Está comprobada la discriminación racial implícita en los sistemas de inteligencia artificial, no solo de lenguaje, también de imágenes y reconocimiento facial.
En el mismo artículo señalan que estos sistemas tienen también un enorme impacto climático y ambiental, porque requieren enormes cantidades de energía para entrenar cada sistema en un solo tema. Mientras que una persona emite 5 toneladas anuales de dióxido de carbono, el entrenamiento de un sistema de inteligencia artificial emite al menos 284 toneladas de carbono. Y en seis años se multiplicó por 300 mil la cantidad de cómputos usados para entrenar sistemas, mucho más rápido que la llamada Ley de Moore sobre tecnología.
Aún así, deben contratar trabajadores manuales en África y Asia, a quienes pagan sueldos miserables para eliminar textos, frases e imágenes de violencia sexual y otras conductas que los programas no filtran ni entienden.
Esto son sólo algunos de los impactos y problemas reales y actuales –no en lejanos e improbables futuros– de estos sistemas, que más que inteligentes son programas de cotorreo matemáticamente programado.
*Investigadora del Grupo ETC
No hay comentarios.:
Publicar un comentario