Nuevos documentos judiciales desvelados el viernes revelan prácticas alarmantes de Meta en el manejo de contenido peligroso y la protección de menores en sus plataformas. Las alegaciones pintan un panorama devastador de una empresa que priorizó el crecimiento sobre la seguridad infantil.
Una política de «17 strikes» para tráfico sexual
Uno de los hallazgos más impactantes proviene del testimonio de Vaishnavi Jayakumar, ex directora de seguridad y bienestar de Instagram. Al unirse a Meta en 2020, quedó «conmocionada» al descubrir que la empresa tenía una política de «17x» para cuentas reportadas por «tráfico de humanos para sexo».
«Podrías incurrir en 16 violaciones por prostitución y solicitud sexual, y en la violación número 17, tu cuenta sería suspendida», testificó Jayakumar, añadiendo que «por cualquier medida en toda la industria, era un umbral de strikes muy, muy alto».
Paradójicamente, mientras Instagram mantenía una supuesta política de «tolerancia cero» para material de abuso sexual infantil, no ofrecía a los usuarios una forma sencilla de reportar este tipo de contenido. Sin embargo, sí permitía reportar fácilmente violaciones menores como spam o promoción de armas de fuego.
El engaño al Congreso sobre daños mentales
Los documentos revelan que desde 2019, Meta diseñó un «estudio de desactivación» que encontró que usuarios que dejaron de usar Facebook e Instagram durante una semana mostraron menores niveles de ansiedad, depresión y soledad. La empresa detuvo el estudio y no divulgó públicamente los resultados.
Un empleado interno expresó su preocupación: «Si los resultados son malos y no los publicamos y se filtran, ¿va a parecer que somos como las compañías tabacaleras que hacían investigación sabiendo que los cigarrillos eran malos y guardaban esa información para ellos mismos?»
En diciembre de 2020, cuando el Comité Judicial del Senado preguntó a la empresa si podía «determinar si el mayor uso de su plataforma entre adolescentes mujeres tiene alguna correlación con mayores signos de depresión» y «mayores signos de ansiedad», Meta respondió con una sola palabra: «No».
Los demandantes alegan que «Meta mintió al Congreso sobre lo que sabía».
Millones de interacciones inapropiadas entre adultos y menores
Desde 2019, investigadores de la empresa recomendaron hacer privadas por defecto todas las cuentas de adolescentes para prevenir que extraños adultos se conectaran con niños. En lugar de implementar esta recomendación, Meta consultó a su equipo de crecimiento, que determinó que el cambio resultaría en una pérdida de 1.5 millones de usuarios adolescentes mensuales activos por año en Instagram.
Un empleado sin nombre declaró: «eliminar interacciones no deseadas… probablemente llevaría a un problema potencialmente insostenible con el engagement y el crecimiento».
Las interacciones inapropiadas entre adultos y niños en Instagram se dispararon a 38 veces más que en Facebook Messenger. Una auditoría interna de 2022 encontró que la función «Cuentas que podrías seguir» de Instagram recomendó 1.4 millones de adultos potencialmente inapropiados a usuarios adolescentes en un solo día.
La adicción como estrategia de negocio
Los documentos internos muestran que Meta era plenamente consciente de la naturaleza adictiva de sus productos. Un investigador de experiencia de usuario escribió: «¡Dios mío, Instagram es una droga! Básicamente somos dealers».
Mark Zuckerberg sugirió que «el tiempo que pasan los adolescentes sea nuestro objetivo principal de 2017». Documentos internos de 2024 confirmaban que «adquirir nuevos usuarios adolescentes es crítico para el éxito de Instagram».
La empresa utilizó datos de ubicación para enviar notificaciones a estudiantes en «school blasts», presumiblemente para aumentar el engagement juvenil durante el día escolar. Un empleado escribió: «Una de las cosas para las que necesitamos optimizar es echar un vistazo furtivo a tu teléfono bajo tu escritorio en medio de Química :)».
Contenido dañino sin eliminación automática
A pesar de desarrollar herramientas de IA para monitorear contenido dañino, Meta no eliminaba automáticamente ese contenido incluso cuando determinaba con «100% de confianza» que violaba las políticas contra material de abuso sexual infantil o contenido de trastornos alimentarios.
Los clasificadores de IA de Meta no eliminaban automáticamente publicaciones que glorificaban la autolesión a menos que estuvieran 94% seguros de que violaban la política de la plataforma. Como resultado, la mayor parte de ese contenido permanecía en la plataforma.
La respuesta de Meta
Un portavoz de Meta declaró: «Estamos en fuerte desacuerdo con estas alegaciones, que se basan en citas seleccionadas y opiniones mal informadas en un intento de presentar una imagen deliberadamente engañosa».
La empresa ha implementado nuevas características de seguridad, incluyendo Instagram Teen Accounts en 2024, que establece por defecto cualquier usuario entre 13 y 18 años en una cuenta automáticamente privada, limita contenido sensible y no permite mensajes de adultos no conectados.
Sin embargo, los documentos sugieren que Meta resistió cambios de seguridad como estos durante años, priorizando consistentemente el crecimiento y los ingresos por publicidad sobre la protección de menores.
Un caso sin precedentes
Estas alegaciones forman parte de un litigio multidistrital sin precedentes donde más de 1,800 demandantes—incluyendo niños, padres, distritos escolares y fiscales generales estatales—se han unido en una demanda contra las empresas matrices de Instagram, TikTok, Snapchat y YouTube.
Los demandantes alegan que estas compañías «persiguieron implacablemente una estrategia de crecimiento a toda costa, ignorando imprudentemente el impacto de sus productos en la salud mental y física de los niños».
Previn Warren, abogado co-líder de los demandantes, comparó la situación con la industria tabacalera: «Como el tabaco, esta es una situación donde hay productos peligrosos que fueron comercializados para niños. Lo hicieron de todos modos, porque más uso significaba más ganancias para la empresa».
Los documentos completos permanecen bajo sello judicial, pero las alegaciones revelan un patrón sistemático de priorizar las ganancias sobre la seguridad infantil que podría redefinir cómo regulamos las redes sociales.











