La propagación de información falsa en las redes sociales se ha convertido en una amenaza creciente que afecta tanto a la sociedad como a la salud pública, según revela un estudio reciente que expone cómo la tecnología moderna está facilitando la creación y distribución de contenido engañoso a escala global.
El alcance global de la desinformación
Un estudio publicado en marzo de 2025 en la revista científica Health Promotion International ha confirmado lo que muchos expertos llevaban tiempo advirtiendo: la desinformación se está extendiendo a un ritmo sin precedentes. Los investigadores identificaron múltiples factores interrelacionados que están alimentando este problema.
Según el estudio, las causas principales incluyen la capacidad de personas sin conocimientos especializados para publicar información rápidamente, la influencia de bots y algoritmos de redes sociales, así como el alcance global de estas plataformas. Los autores también señalaron que el limitado compromiso de las grandes empresas tecnológicas para tomar medidas efectivas, junto con los rápidos avances tecnológicos, están obstaculizando el progreso hacia una mejor calidad y precisión de la información.
«Hay muchas causas interrelacionadas del problema de la desinformación, incluyendo la capacidad de no expertos para publicar información rápidamente, la influencia de bots y algoritmos de redes sociales», indica el resumen del estudio.
El poder de la palabra escrita en la era digital
James Bailey, profesor de negocios en The George Washington School of Business, explica que aunque el problema de la desinformación online ya es conocido, las personas continúan creyendo lo que leen en redes sociales. «No es lo que leen lo que creen, sino lo que leen y quieren creer», señala Bailey.
El experto atribuye esto al poder de la palabra escrita, que considera tan influyente que incluso cuando se sabe que las palabras pueden ser falsas, la incredulidad y la afirmación se difuminan. La ironía, según Bailey, es que mientras aceptamos que los tabloides sensacionalistas del supermercado son a menudo inventados o muy exagerados, la palabra escrita en formato digital puede hacer que historias igualmente absurdas parezcan de repente creíbles.
Un factor agravante es que las «noticias» son compartidas por amigos y colegas, lo que las hace parecer más plausibles. Otro problema es que no existe una forma práctica de combatir este tipo de desinformación.
«Las fuerzas del orden, los responsables políticos, la educación superior y la sociedad no han diseñado ningún medio para verificar las palabras escritas que propagan la desinformación», añade Bailey.
La inteligencia artificial: un tigre suelto
Si antes la manipulación fotográfica requería cierta habilidad para ser convincente, ahora la inteligencia artificial puede crear fotos de eventos casi instantáneamente. Esto añade otro nivel mediante el cual se puede comunicar la desinformación.
«No es un gato fuera de la bolsa, sino un tigre», advierte Bailey.
Las fotos y videos manipulados digitalmente harán aún más difícil saber qué es real. Si a esto le sumamos los bots compartiendo estas historias, la desinformación se propagará a la velocidad de la luz.
Dr. Siyan Li, profesora asistente en el Departamento de Medios Masivos de Southeast Missouri State University, explica que «el contenido multimodal generado por IA, como imágenes, texto, audio, video y publicaciones editadas, representa una amenaza creciente para la desinformación en redes sociales. Este contenido es más convincente y más difícil de detectar».
Evolución de la calidad en contenido generado por IA
Hace apenas unos años, las imágenes generadas por IA eran más fáciles de detectar, como aquellas que mostraban humanos con un número incorrecto de dedos. Sin embargo, ya no estamos en el «valle inquietante», y la IA puede producir cada vez más videos altamente realistas que son difíciles de distinguir del material auténtico.
«El surgimiento de herramientas de IA fáciles de usar ha reducido el costo y las barreras para crear desinformación», añade Li. «Estas herramientas son tan simples que cualquier persona, independientemente de su formación técnica, puede generar contenido engañoso rápidamente y con un esfuerzo mínimo».
¿Los beneficios superan a los aspectos negativos?
Esta tecnología no fue desarrollada con intenciones maliciosas. Se creó para expandir el reino de la expresión creativa. Es cómo se está usando lo que debería preocuparnos.
«Por supuesto, estas tecnologías ofrecen posibilidades creativas infinitas», reconoce Bailey. «Cortometrajes con una historia conmovedora que nunca podrían haberse hecho de otra manera. Sátira y comedia inteligente, obviamente presentadas. Historias personales compartidas entre amigos».
Wayne Hickman, profesor asistente de liderazgo educativo en Augusta University’s College of Education and Human Development, sostiene que «no creo que la IA en sí misma sea el problema, sino cómo elegimos usarla».
Hickman reconoce que los videos generados por IA, las imágenes manipuladas y las publicaciones editadas en redes sociales están amplificando significativamente la propagación e impacto de la desinformación, especialmente en áreas como política y salud pública.
El problema de la polarización
«Las herramientas de IA están difuminando la línea entre contenido auténtico e inauténtico, haciendo cada vez más difícil para los usuarios distinguir entre hecho y ficción, especialmente cuando el contenido se alinea con creencias preexistentes o sesgo de confirmación», explica Hickman.
Cuando se consideran temas políticos, los medios mejorados por IA a menudo sirven para polarizar e inflamar mientras erosionan simultáneamente la confianza pública. De manera similar, las falsedades mejoradas por IA a menudo ponen en peligro a las personas al alimentar la confusión sobre temas de salud pública.
La cámara de eco de las redes sociales
Aunque las tecnologías de IA pueden usarse positivamente, su mal uso, especialmente en redes sociales donde pueden encontrar rápidamente una audiencia, representa una amenaza creciente para el discurso informado.
«Los datos de entrenamiento sesgados o inexactos pueden hacer que los modelos de IA produzcan contenido engañoso o incorrecto, incluso cuando los usuarios no tienen intención de generar y propagar desinformación», dice Li.
La profesora considera urgente explorar estrategias para mitigar la desinformación generada por IA en redes sociales a nivel de usuario, plataforma y gobierno, ya que debido a las diferentes motivaciones detrás de la creación y propagación de desinformación multimodal generada por IA, analizar y abordar cada nivel por separado puede ser más efectivo.
Sin soluciones fáciles a la vista
El problema no se limita solo al contenido manipulado. El contexto a menudo falta en las redes sociales, mientras que la naturaleza humana entra en juego. Un video sin editar puede verse bajo una luz muy diferente, y sin todos los hechos, la desinformación puede propagarse fácilmente.
«La solución va a requerir mejor detección y regulación de plataformas, así como educación pública, asegurando que los individuos puedan evaluar críticamente lo que ven y comparten en línea», sugiere Hickman.
Bailey se pregunta sobre las posibles soluciones: «¿Puede la misma tecnología que está creando el problema ayudar a resolverlo? Es posible, pero también puede crear una carrera armamentística tecnológica entre creadores de desinformación y detectores».
La urgencia de actuar
Los expertos coinciden en que el tiempo para actuar se está agotando. La combinación de inteligencia artificial avanzada, algoritmos de redes sociales diseñados para maximizar el engagement y la polarización social está creando un cóctel perfecto para la propagación masiva de desinformación.
«No podemos esperar a que las plataformas se autorregulen», advierte Li. «Necesitamos marcos regulatorios claros, herramientas de verificación más sofisticadas y, sobre todo, ciudadanos mejor educados digitalmente».
El camino hacia adelante
A pesar del panorama desalentador, algunos investigadores mantienen cierto optimismo. Proponen un enfoque multifacético que incluye:
Alfabetización digital mejorada: Enseñar a las personas a identificar contenido sospechoso y verificar fuentes antes de compartir información.
Desarrollo de herramientas de detección: Crear sistemas automatizados que puedan identificar contenido generado por IA con mayor precisión.
Colaboración entre plataformas: Establecer estándares comunes para el etiquetado y moderación de contenido sintético.
Marco regulatorio adaptativo: Desarrollar leyes que puedan evolucionar al mismo ritmo que la tecnología.
Transparencia algorítmica: Exigir que las plataformas revelen cómo sus algoritmos priorizan y distribuyen contenido.
Una responsabilidad compartida
El combate contra la desinformación no puede recaer únicamente en las empresas tecnológicas o los gobiernos. Cada usuario de redes sociales tiene un papel que desempeñar en la verificación y el cuestionamiento crítico de la información que consume y comparte.
«La batalla contra la desinformación es, en última instancia, una batalla por la verdad y la democracia», concluye Hickman. «Todos tenemos un papel que desempeñar para asegurar que prevalezca la información veraz».
Mientras la tecnología continúa avanzando a un ritmo vertiginoso, la sociedad debe adaptarse igualmente rápido para protegerse contra las amenazas que esta misma tecnología puede representar cuando se usa de manera maliciosa. El futuro de la información confiable depende de las decisiones que tomemos hoy.