Durante años, cuando Meta lanzaba nuevas funciones para Instagram, WhatsApp y Facebook, equipos de revisores evaluaban posibles riesgos: ¿Podría violar la privacidad de los usuarios? ¿Podría causar daño a menores? ¿Podría empeorar la propagación de contenido engañoso o tóxico?
Hasta hace poco, lo que se conoce dentro de Meta como revisiones de privacidad e integridad era realizado casi completamente por evaluadores humanos.
La automatización llega al 90% de las evaluaciones de riesgo
Pero ahora, según documentos internos de la compañía obtenidos por NPR, hasta el 90% de todas las evaluaciones de riesgo pronto serán automatizadas.
En la práctica, esto significa que elementos como actualizaciones críticas de los algoritmos de Meta, nuevas funciones de seguridad y cambios en cómo se permite compartir contenido en las plataformas de la compañía serán aprobados mayormente por un sistema impulsado por inteligencia artificial — ya no sujetos al escrutinio de empleados encargados de debatir cómo un cambio de plataforma podría tener repercusiones imprevistas o ser mal utilizado.
Dentro de Meta, el cambio está siendo visto como una victoria para los desarrolladores de productos, quienes ahora podrán lanzar actualizaciones de aplicaciones y funciones más rápidamente. Pero empleados actuales y anteriores de Meta temen que el nuevo impulso de automatización venga a costa de permitir que la IA tome determinaciones complicadas sobre cómo las aplicaciones de Meta podrían llevar a daños en el mundo real.
Preocupaciones de expertos internos
«En tanto este proceso funciona para que más cosas se lancen más rápido, con menos escrutinio riguroso y oposición, significa que estás creando riesgos más altos», dijo un exejecutivo de Meta que pidió anonimato por temor a represalias de la compañía. «Las externalidades negativas de los cambios de productos tienen menos probabilidades de ser prevenidas antes de que empiecen a causar problemas en el mundo».
Meta declaró que ha invertido miles de millones de dólares para apoyar la privacidad de los usuarios. Desde 2012, Meta ha estado bajo la supervisión de la Comisión Federal de Comercio después de que la agencia llegara a un acuerdo con la compañía sobre cómo maneja la información personal de los usuarios.
El nuevo sistema: decisiones instantáneas por IA
Una diapositiva que describe el nuevo proceso dice que los equipos de productos ahora en la mayoría de casos recibirán una «decisión instantánea» después de completar un cuestionario sobre el proyecto. Esa decisión impulsada por IA identificará áreas de riesgo y requerimientos para abordarlas.
Los documentos internos revisados por NPR muestran que Meta está considerando automatizar revisiones para áreas sensibles incluyendo seguridad de IA, riesgo juvenil y una categoría conocida como integridad que abarca cosas como contenido violento y la propagación de falsedades.
Bajo el sistema anterior, las actualizaciones de productos y funciones no podían ser enviadas a miles de millones de usuarios hasta que recibieran la aprobación de evaluadores de riesgo. Ahora, los ingenieros que construyen productos de Meta están facultados para hacer sus propios juicios sobre riesgos.
«Los ingenieros no son expertos en privacidad»
«La mayoría de gerentes de producto e ingenieros no son expertos en privacidad y ese no es el enfoque de su trabajo. No es en lo que son evaluados principalmente y no es lo que están incentivados a priorizar», dijo Zvika Krieger, quien fue director de innovación responsable en Meta hasta 2022.
Krieger señaló que aunque hay espacio para mejorar la agilización de revisiones en Meta a través de automatización, «si empujas eso demasiado lejos, inevitablemente la calidad de la revisión y los resultados van a sufrir».
Cambios en el contexto de políticas más permisivas
Los cambios al proceso de revisión de productos fueron notificados a los empleados poco después de que la compañía terminara su programa de verificación de hechos y relajara sus políticas de discurso de odio.
En conjunto, los cambios reflejan un nuevo énfasis en Meta a favor de un discurso más sin restricciones y actualizaciones más rápidas de sus aplicaciones — un desmantelamiento de varias salvaguardas que la compañía ha promulgado a lo largo de los años para frenar el mal uso de sus plataformas.
Los grandes cambios en la compañía también siguen esfuerzos del CEO Mark Zuckerberg para ganar favor con el presidente Trump, cuya victoria electoral Zuckerberg ha llamado un «punto de inflexión cultural».
¿Es contraproducente moverse más rápido?
Otro exempleado de Meta cuestionó si moverse más rápido en evaluaciones de riesgo es una buena estrategia para Meta:
«Esto casi parece contraproducente. Cada vez que lanzan un nuevo producto, hay tanto escrutinio sobre él — y ese escrutinio regularmente encuentra problemas que la compañía debería haber tomado más en serio».
Michel Protti, director de privacidad de producto de Meta, dijo que automatizar revisiones de riesgo y dar a los equipos de producto más voz sobre los riesgos potenciales planteados por actualizaciones de producto en el 90% de casos está destinado a «simplificar la toma de decisiones».
Pero algunos internos dicen que ese resumen optimista de remover humanos del proceso de evaluación de riesgo minimiza enormemente los problemas que los cambios podrían causar.
«Creo que es bastante irresponsable dado la intención de por qué existimos», dijo el empleado de Meta cercano al proceso de revisión de riesgo. «Proporcionamos la perspectiva humana de cómo las cosas pueden salir mal».
Los documentos sugieren que los usuarios de Meta en la Unión Europea podrían estar algo aislados de estos cambios, ya que la toma de decisiones y supervisión para productos y datos de usuarios en la UE permanecerá con la sede europea de Meta en Irlanda, debido a regulaciones como la Ley de Servicios Digitales.