YouTube ha puesto en marcha una nueva herramienta de detección de «deepfakes» que permitirá a los creadores identificar y reportar contenido generado por inteligencia artificial (IA) que utilice su imagen sin autorización. Esta característica forma parte del programa de socios de YouTube y se podrá acceder a ella a través de YouTube Studio.

La tecnología busca ayudar a famosos y creadores a gestionar contenido de IA que utilice su rostro, algo cada vez más común gracias al avance de la generación de imágenes y videos sintéticos. Los creadores podrán revisar los videos detectados y solicitar su eliminación si se consideran no autorizados.

La herramienta funciona de manera similar a Content ID, la tecnología de YouTube que detecta contenido protegido por derechos de autor. Actualmente, la primera fase del lanzamiento ya ha sido notificada a algunos creadores, y se extenderá a más usuarios en los próximos meses.

YouTube comenzó a probar esta tecnología a finales de 2023, en colaboración con la agencia de talentos Creative Artists Agency (CAA), con el objetivo de ayudar a figuras influyentes a gestionar el uso no autorizado de su imagen en videos generados por IA.

Además, YouTube ha estado trabajando en políticas más estrictas para el uso de contenido de IA en su plataforma. En marzo de 2024, la empresa anunció que los creadores deben etiquetar explícitamente cuando su contenido incluye material generado o alterado por IA. También ha establecido un enfoque especial en la música generada por IA que imita la voz de artistas, marcando un camino para la regulación de este tipo de contenido en el futuro.

Con esta herramienta, YouTube busca abordar el creciente desafío de los «deepfakes» y proteger la identidad de sus creadores en un entorno cada vez más digital y conectado. La lucha contra el uso no autorizado de la tecnología de IA es un reto que enfrentan varias plataformas, y YouTube se suma a las iniciativas que buscan regular y controlar el contenido generado sintéticamente.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí