En las últimas semanas, ha habido un aumento notable de vídeos que supuestamente muestran drones u otros fenómenos aéreos no identificados sobre los cielos de Estados Unidos, especialmente en Nueva Jersey. Estos vídeos han generado especulación y alarma, en parte debido al uso de tecnologías de inteligencia artificial para crear contenido engañoso. Desde finales de noviembre, residentes de Nueva Jersey y otros estados han informado sobre avistamientos de objetos brillantes en el cielo, lo que ha llevado a teorías sobre tecnología experimental o incluso vida extraterrestre.

La proliferación de estos vídeos en plataformas como TikTok y X (anteriormente Twitter) ha sido notable, y muchos de ellos presentan características típicas de manipulación generada por IA. A pesar de la naturaleza engañosa de estos contenidos, pocas plataformas han etiquetado oficialmente los vídeos como editados digitalmente. Al buscar términos como «drones» y «drones de Nueva Jersey», se han encontrado numerosos vídeos con distorsiones que indican manipulación digital. Un ejemplo popular muestra luces brillantes sobre un horizonte urbano, acompañado de música inquietante y texto que sugiere una invasión de drones.

A pesar de que algunos usuarios han señalado la posibilidad de que estos vídeos sean generados por IA, la mayoría de los comentarios parecen aceptar los vídeos como pruebas de fenómenos inexplicables. La facilidad para crear imágenes falsas ha aumentado con herramientas de edición digital y, más recientemente, con la disponibilidad de herramientas de IA generativa. Estas herramientas permiten a los usuarios crear vídeos convincentes con solo introducir unas pocas frases, lo que ha facilitado la difusión de contenido engañoso en redes sociales.

Las plataformas como TikTok y X han implementado políticas para etiquetar contenido generado por IA, pero la aplicación de estas medidas es inconsistente. TikTok anima a los usuarios a etiquetar contenido significativamente editado, mientras que X prohíbe material «fraudulento» que pueda engañar a las personas. Sin embargo, la supervisión y eliminación de contenido falso parece ser limitada, especialmente en X, que ha reducido su equipo de moderación de contenido desde la adquisición por parte de Elon Musk.

El fenómeno de los vídeos falsos de drones no es un caso aislado de confusión causada por material generado por IA. Anteriormente, imágenes falsas de explosiones y desastres han causado pánico y desinformación. La facilidad con la que se puede crear y compartir contenido engañoso en línea ha complicado la capacidad de las plataformas para responder rápidamente a la desinformación. En un entorno donde la confianza en los medios tradicionales está en declive, las teorías conspirativas encuentran terreno fértil, y los usuarios que buscan monetizar el contenido viral tienen un incentivo para perpetuar estas narrativas.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí