4/19/2026

Miradas que matan

Miradas que matan

Fabrizio Mejía Madrid

"La gente que padece esta dismorfia corporal, por supuesto, vive en una eterna frustración consigo misma y en el 80 por ciento tienen ideas suicidas".

Miradas que matan. Por Fabrizio Mejía

El pasado 25 de marzo un jurado en Los Ángeles encontró culpables a Meta, es decir, Facebook, Instagram y WhatsApp, y a Google, es decir, YouTube, de negligencia. Habían sido demandados por una joven de 20 años que se identifica como K.G.M. por hacerla adicta al scrolling hasta llevarla a separarse de su propia familia, por provocarle una terrible ansiedad compulsiva por su propio cuerpo, y por orillarla al suicidio. Lo que se juzgó no fue el contenido de estas plataformas sino su diseño que está hecho para que permanezcas el mayor tiempo posible conectado y, por lo tanto, te satura de lo que el algoritmo cree que son tus deseos. Esta es la primera vez que se juzga a las plataformas como un producto y no como un supuesto terreno neutral en donde son los usuarios los responsables de lo que suben y comparten. Se juzgó la reproducción automática de contenido que no pides. Se juzgó que no exista una advertencia para el scroll infinito. Se juzgó la tendencia a crearle a las personas una sobrevigilancia sobre supuestas imperfecciones de tu rostro y cuerpo. En otros momentos, plataformas como Tik-Tok o Snap han desembolsado indeminizaciones millonarias para mantener el silencio de las víctimas. Ahora no. Lo que esta decisión implica es de lo que trata esta columna.

Desde la introducción masiva de los teléfonos inteligentes con cámaras frontales, Facebook, Tuiter, Google y Youtube se han escudado en que no son medios sino plataformas. La implicación legal de esto es que no se hacen responsables de los contenidos. Así, una red como X dice que es libre porque deja pasar cualquier comentario misógino, racista, y hasta nazi. No es X. Es libertad de expresión y esa es responsabilidad de sus usuarios. Si las plataformas fueran un medio, como la televisión o un libro, tendrían que cumplir con ciertos criterios de responsabilidad, pero fueron cobijadas por las leyes, como la Ley de Decencia en las Comunicaciones de 1996 en Estados Unidos que protege a las empresas de internet de la responsabilidad por el contenido generado por los usuarios. En lugar de considerar a Instagram o YouTube principalmente como plataformas para la expresión de otras personas, la demanda de la joven K.G.M considera algunas de sus funciones principales como decisiones de diseño con daños previsibles, especialmente cuando las utilizan menores de edad. De hecho, un día antes del veredicto en Los Ángeles, otro jurado en Nuevo México había encontrado responsable a Facebook, Instagram y Whatsapp de negligencia para proteger a los niños y niñas de explotación sexual. Son un medio de comunicación. No un simple foro para que los demás hagan lo que les dé en gana. Es como cuando los servicios de taxis por aplicación no se querían hacer responsables de sus choferes porque ellos sólo ponían en relación al usuario con el viaje. Es lo mismo que cuando las empresas de cigarros o vapeadores dicen que es decisión del fumador el hacerse adicto y que le dé cáncer. En todos estos casos, el diseño y el producto no están separados, sino que son parte de un mismo modelo de negocio, es decir, de la forma en que ganan dinero. Mucho dinero.

En el caso de estas plataformas, el diseño para ganar dinero es que todo mundo permanezca conectado a toda hora, que no pueda parar, y que vaya normalizando como deseos suyos lo que la reproducción automática le vaya diciendo que desea. Esto ha llevado a una enorme cantidad de personas a tener problemas de ansiedad, soledad, desconexión con la realidad, creación de fantasmas interiores, automutilación y suicidios. Entrevistado por el veredicto del jurado para Scientific American, el profesor Gregory Dickinson de la Universidad de Nebraska hace esta comparación que creo que es muy útil para entender la decisión. Dice el profesor Dickinson: “Imaginen una máquina tragamonedas que conociera todos tus juegos favoritos, hiciera vibrar las monedas en tu bolsilo cuando tus amigos empezaran a jugar y girara automáticamente la siguiente ronda a menos que decidieras no hacerlo. El problema no es el juego, ni el jugador, ni las monedas. El problema es la máquina en sí”.

Las redes sociales no nacieron como son ahora habitantes del teléfono que traemos a toda hora en la mano. Hubo una decisión corporativa de privilegiar el negocio por encima de las consecuencias para la salud mental, los intercambios provechosos, y el conocimiento a favor de la ansiedad, la disputa para extinguir al oponente, y la conspiranoia que generan las mentiras, las verdades como si fueran personales, y la falsificación del pasado, reciente o lejano. Las características que hoy llegan a los tribunales son los sistemas de clasificación optimizados para mantenerte retenido, los feeds interminables, las configuraciones predeterminadas que favorecen el consumo pasivo y las notificaciones no pedidas fueron decisiones de producto diseñadas para secuestrar nuestra atención. Sicentific American cita a Arturo Béjar, quien trabajó en Facebook de 2009 a 2015 y fue consultor de Instagram de 2019 a 2021, y que fue llamado a testificar en el caso de la joven K.G.M. Él confesó que algunos ingenieros preocupados por la seguridad y salud de los usuarios habían incluido una ventana que avisaba que habías estado demasiado tiempo en la plataforma o que te decías: “Ya estás al día”, para que pudieras desconectarte sin la ansiedad del famoso FOMO, es decir, del miedo a quedarse fuera o perderse de algo. Se diseñó incluso un botón que te permitía tomarte un descanso de estar conectado. Pero que estos diseños más amables fueron borrados porque iban en contra de hacer dinero. Lo dijo Béjar con una comparación de sus años en Meta “Mientras había 30 mil ingenieros dedicados a optimizar la captura de la atención, la oficina de salud mental y suicidio tenía menos de 20 empleados”. No es que estas corporaciones de redes sociales no sepan que sus diseños de “likes”, sus algoritmos, y sus reproducciones automáticas generan dopamina en el cerebro, de igual forma como un adicto al juego. Lo que sucede es que no les importa. La cosa es que, en personas menores de edad, sus cerebros no cuentan siquiera con la forma de negarse voluntariamente a desconectarse, por lo que son presa fácil de esta industria.

Dice el reportaje de Scientific American: los investigadores del Instituto de Interacción Humano-Computadora de la Universidad Carnegie Mellon, entre ellos Hank Lee y su director de tesis doctoral, Sauvik Das, han intentado medir qué sucede cuando se eliminan algunas de esas decisiones de diseño. Su equipo creó Purpose Mode, es decir, “Modo Propósito”, una extensión para navegadores que elimina los elementos que captan la atención —desplazamiento infinito, reproducción automática, recomendaciones algorítmicas— de las plataformas de redes sociales. Lee afirma que los participantes en un estudio sobre el Modo Propósito se sintieron menos distraídos, pasaron menos tiempo en los sitios web (una media de 21 minutos menos al día) y, en algunos casos, les gustaron más las plataformas cuando se redujeron estas funciones”. Le pusieron ese nombre, “Modo Propósito” porque muchas veces los usuarios de redes sociales no tenemos un objetivo, una finalidad, para conectarnos, salvo estar conectados y, de esa manera, estamos expuestos al diseño de la máquina, su fantasma interior, que está pensado para secuestrarnos.

La joven K.G.M empezó a usar Instagram cuando tenía seis años y Youtube cuando tenía nueve. En muy pocos meses, no podía dejar de estar vigilante a los contenidos y pasaba más de 16 horas diarias en esas redes. Empezó a ver transmisiones en vivo de autolesiones y de suicidios. En concreto, se alega que las empresas no aplicaron restricciones de edad, no advirtieron a padres y usuarios sobre los riesgos de adicción y no frenaron la amplificación algorítmica de contenido dañino, como la promoción de la autolesión, el ciberacoso, el contenido que promueve una imagen corporal irreal y el material de extorsión sexual.

La segunda semana del juicio produjo su momento más significativo cuando el director ejecutivo de Meta, Mark Zuckerberg, testificó el 18 de febrero, en su primera comparecencia ante un jurado sobre cuestiones de seguridad infantil. El abogado de los demandantes, Mark Lanier, confrontó a Zuckerberg con un documento interno de Meta de 2020 que revelaba que los niños de 11 años tenían cuatro veces más probabilidades de seguir utilizando las plataformas que los usuarios mayores, lo que planteaba la inferencia de que la empresa estaba fomentando deliberadamente la participación de menores de edad. Por supuesto que el dueño de Meta sabía de ese estudio interno pero decidió no prestarle atención, tal y como hicieron las tabacaleras cuando supieron desde 1953 que existía una relación entre su producto y el cáncer. No obstante, fueron tan cínicos que un año después, en 1954, hicieron una declaración formal en la que sostuvieron que el cigarro era anodino para la salud. Su intención no era que les creyeran sino sembrar la duda. Internamente, en un memorádum, las tabacaleras dijeron que “la duda era su negocio” en 1969. En el caso de las redes sociales usadas desde el teléfono con cámara frontal, los datos son sabidos: entre 2010 y 2018, la incidencia de ansiedad aumentó un 134% y la de depresión un 106% en Estados Unidos, Canadá y Reino Unido.

En México, el INEGI le ha llamado a la tasa de autolesiones y suicidios juveniles, “el salto estadístico” cuando, coincidiendo con el uso del teléfono inteligente y la aparición de Instagram, entre 2020 y 2023, el suicidio se convirtió en la segunda cusa de muerte entre los jóvenes de 15 a 29 años. En esa década, pasamos de 4 suicidios por cada 100 mil habitantes a 6. No fue, como se ha dicho, una reacción sólo de la pandemia de Covid, sino que tiene que ver con el ciberacoso que afecta al 30% de las mujeres jóvenes conectadas a redes sociales. Además, México es un país que mira esos contenidos por mucho tiempo: 4.5 horas diarias, frente a otros países como Japón que no llega a la hora al día, Europa a la hora y media, y hasta Estados Unidos en 2 horas y cuarto. Pero el 15% de los jóvenes mexicanos entre 15 y 29 años lo usa más de cinco horas diarias y desbloquea su teléfono 150 veces veces al día, lo que expresa una ansiedad tremenda y una falta de concentración crónica.

Este uso adictivo que tienen las redes sociales por diseño de sus dueños ha traído muchas consecuencias negativas para la salud mental. Una de las más preocupantes y que Ana Lilia Pérez aborda en su nuevo libro sobre las cirugías estéticas en México, El cuerpo perfecto, es la epidemia de, sobre todo, mujeres jóvenes que se miran defectos de apariencia compulsivamente. Esto ha dado lugar a la llamada “cara de flitro”, que es que las personas buscan parecerse a su propia fotografía generada por flitros del teléfono y buscan hacerla permanente en la realidad. La gente que padece esta dismorfia corporal, por supuesto, vive en una eterna frustración consigo misma y en el 80% tienen ideas suicidas. Este índice es de nuestras jóvenes entre 12 y 15 años de edad. Esta frustración se llama clínicamente “ciclo adictivo de autodesprecio”, que es responsabilidad de un grupo de ingenieros y de su patrón que elaboraron un algoritmo que detecta la vulnerabilidad del usuario para bombardearlo con contenidos de belleza que exacerban la frustración. La otra adicción en juego es la de la validación digital, es decir, de los “likes” y el número de comentarios aprueban la apariencia.

Todo esto ha llevado a que se extiendan las cirugías para tener cara de gato. Ese es el término que se usa para los flitros que Instagram, Tik-Tok, y Snap popularizaron hace unos años como signo de belleza homogénea: los ojos alargados, cejas levantadas, pómulos marcados, nariz de respingo, y boca pulposa. Las personas quieren cara de gatos, no porque les pareciera que es era atractivo, sino porque el algortimo de las redes, sus filtros integrados en la aplicación de teléfono, así lo diseñaron y queda en la conciencia de los ingenieros y dueños de esas plataformas. El problema es que pasó de las fotos a la realidad y, como dice Ana Lilia, se trata ahora de que las cirugías plásticas sean las que lleven a cabo ese supuesto ideal de lo bello. Aquí seguimos un problema que, como cultura, no hemos abordado siquiera: el de la disparidad en la apariencia. Como cultura seguimos juzgando a los demás, primero, por su apariencia, por sus rasgos físicos, su color de piel, su tipo de ropa. Y eso ha sido exacerbado por las redes, los likes, el número de los seguididores. No importa que haya llegado a la Preidencia de la república una mujer, seguimos juzgando a las mujeres, en primera instancia, por su aspecto. Somos uno de los pocos países donde aún no se legisla sobre el uso de flitros en las fotografías de uno mismo. En Francia, la ley obliga a las plataformas a decir si una fotografía ha sido manipulada con herramientas virtuales.

Pero ese es ya tema de otra columna: las estratificaciones sociales debido a la apariencia física. Por lo pronto aquí los dejo.

No hay comentarios.:

Publicar un comentario