Meta está ampliando sus medidas de seguridad para adolescentes en Instagram al prohibir la capacidad de retransmitir en vivo, en un esfuerzo por extender sus salvaguardias para menores de 18 años a las plataformas de Facebook y Messenger.
A partir de ahora, los menores de 16 años no podrán usar la función de Live de Instagram a menos que cuenten con el permiso de sus padres. También necesitarán la autorización parental para desactivar una función que difumina las imágenes que contienen sospechas de desnudez en sus mensajes directos.
Estas modificaciones se anunciaron junto con la extensión del sistema de cuentas de adolescentes de Instagram a Facebook y Messenger. Estas cuentas fueron introducidas el año pasado y, por defecto, ubicaron a los menores de 18 años en una configuración que permite a los padres establecer límites diarios para el uso de la aplicación, bloquear a los adolescentes de utilizar Instagram en ciertos momentos y ver las cuentas con las que su hijo está intercambiando mensajes.
Las cuentas de adolescentes de Facebook y Messenger se implementarán inicialmente en Estados Unidos, Reino Unido, Australia y Canadá. Al igual que con las cuentas de Instagram, los usuarios menores de 16 años necesitarán el permiso de sus padres para cambiar la configuración, mientras que los de 16 y 17 años que sean asignados a las nuevas funciones podrán modificarlas de manera independiente.
Meta informó que las cuentas de adolescentes en Instagram son utilizadas por 54 millones de menores de 18 años en todo el mundo, con más del 90% de los adolescentes de 13 a 15 años manteniendo sus restricciones por defecto.
La NSPCC, una destacada organización benéfica de protección infantil en el Reino Unido, dio la bienvenida a la extensión de estas medidas a Facebook y Messenger, pero subrayó que Meta debe hacer más para prevenir la aparición de material dañino en sus plataformas. Matthew Sowemimo, asociado del departamento de políticas de seguridad infantil en línea de NSPCC, afirmó que «para que estos cambios sean verdaderamente efectivos, deben ir acompañados de medidas proactivas para que contenido peligroso no se prolifere en Instagram, Facebook y Messenger desde el principio».
El anuncio se produce en un momento en que el Reino Unido implementa la Ley de Seguridad en Línea. Desde marzo, todos los sitios y aplicaciones dentro del alcance de la legislación, que abarca más de 100,000 servicios desde Facebook, Google y X hasta Reddit y OnlyFans, deben tomar medidas para evitar la aparición de contenido ilegal como abuso sexual infantil, fraude y material sobre terrorismo, o eliminarlo si ya está en línea.
La ley también contiene disposiciones para proteger a los niños de daños y exige a las plataformas tecnológicas que protejan a los menores de 18 años de contenido perjudicial, como material relacionado con el suicidio y el autolesionismo. Informes recientes sobre la posibilidad de que la ley sea debilitada como parte de un acuerdo comercial entre el Reino Unido y Estados Unidos provocaron protestas de grupos de protección infantil, que afirmaron que cualquier compromiso sería una «venta escandalosa» que sería rechazada por los votantes.