Una nueva investigación revela que un pequeño grupo de cuentas divisivas podría ser responsable de la toxicidad online
Cuando navego por las redes sociales, a menudo me quedo desmoralizado, con la sensación de que el mundo entero está en llamas y la gente está inflamada de odio entre sí. Sin embargo, cuando salgo a las calles de Nueva York para tomar un café o almorzar con un amigo, se siente absolutamente tranquilo. El contraste entre el mundo online y mi realidad diaria se ha vuelto cada vez más inquietante.
El espejo deformante de las redes sociales
En una investigación que publiqué recientemente con Claire Robertson y Kareena del Rosario, encontramos evidencia extensa de que las redes sociales son menos como un reflejo neutral de la sociedad y más como un espejo de casa de diversiones. Amplifica las voces más ruidosas y extremas mientras silencia las moderadas, las matizadas y las aburridas pero razonables.
Tomemos como ejemplo la plataforma X de Elon Musk. A pesar de albergar a cientos de millones de usuarios, una fracción diminuta de ellos genera la gran mayoría del contenido político. Solo el 10% de los usuarios producen aproximadamente el 97% de los tweets políticos.
Los hiperactivistas digitales
Por ejemplo, Musk publicó 1,494 veces en sus primeros 15 días de implementar recortes gubernamentales para el llamado departamento de eficiencia gubernamental (Doge) a principios de año. Esencialmente, estaba escribiendo sin parar. Y muchos de sus posts difundían desinformación a sus 221 millones de seguidores.
El 2 de febrero escribió: «¿Sabías que USAID, usando TUS dólares de impuestos, financió investigación de armas biológicas, incluyendo Covid-19, que mató a millones de personas?» Su comportamiento se ajusta al patrón de muchos súper-difusores de desinformación. Apenas el 0.1% de los usuarios comparten el 80% de las noticias falsas.
La «docena de desinformación»
Doce cuentas, conocidas como la «docena de desinformación», crearon la mayor parte de la desinformación sobre vacunas en Facebook durante la pandemia. Estos pocos usuarios hiperactivos produjeron suficiente contenido para crear las falsas percepciones de que muchas personas eran reacias a las vacunas.
Patrones similares pueden observarse en toda internet. Solo un pequeño porcentaje de usuarios se involucra en comportamiento verdaderamente tóxico, pero son responsables de una parte desproporcionada del contenido hostil o engañoso en casi todas las plataformas, desde Facebook hasta Reddit.
El problema de la percepción distorsionada
Esto significa que los problemas resultantes no se limitan a esta pequeña cohorte, sino que distorsionan cómo el resto de nosotros entendemos el mundo. Los humanos crean modelos mentales sobre lo que otras personas piensan o hacen. Es cómo descubrimos las normas sociales y navegamos por los grupos.
De esta manera, muchos de nosotros llegamos a creer que la sociedad está mucho más polarizada, enojada y engañada de lo que realmente está. Pensamos que todos en el otro lado de la brecha generacional, espectro político o comunidad de fanáticos son radicales, maliciosos o simplemente tontos.
La ignorancia pluralística
Esta distorsión alimenta la ignorancia pluralística – cuando percibimos mal lo que otros creen o hacen – y puede cambiar nuestro propio comportamiento en consecuencia. Piensa en los votantes que solo ven las opiniones más enojadas sobre inmigración o cambio climático y asumen que no hay terreno común que encontrar.
El problema no son solo los extremistas individuales, por supuesto, sino el diseño de plataformas y los algoritmos que amplifican su contenido. Estos algoritmos están construidos para maximizar el engagement, lo que significa que privilegian el contenido que es sorprendente o divisivo.
La espiral del ruido
Imagina que estás sentado en un restaurante ocupado, teniendo que hablar un poco más fuerte solo para ser escuchado. Antes de darte cuenta, todos están gritando. Estas mismas dinámicas ocurren online. Las personas exageran sus creencias o repiten narrativas escandalosas para obtener atención y aprobación.
Con más de 5 mil millones de personas ahora en redes sociales, esta tecnología no va a desaparecer. Pero la dinámica tóxica que he descrito no tiene que dominar.
El camino hacia una solución
En una serie reciente de experimentos, pagamos a las personas unos pocos dólares para que dejaran de seguir las cuentas políticas más divisivas en X. Después de un mes, reportaron sentir 23% menos animosidad hacia otros grupos políticos. De hecho, su experiencia fue tan positiva que casi la mitad de las personas se negaron a volver a seguir esas cuentas hostiles después del estudio.
Las plataformas podrían fácilmente rediseñar sus algoritmos para dejar de promover las voces más escandalosas y priorizar contenido más representativo o matizado. De hecho, esto es lo que la mayoría de la gente quiere.
La necesidad de recuperar el control
Internet es una herramienta poderosa y a menudo valiosa. Pero si seguimos dejando que refleje solo el mundo de espejo deformante creado por los usuarios más extremos, todos sufriremos las consecuencias.
El primer paso es ver a través de la ilusión y entender que una mayoría silenciosa a menudo se esconde detrás de cada hilo incendiario. Y nosotros, como usuarios, podemos recuperar algo de control: curando nuestros feeds, resistiendo el cebo de la indignación y negándonos a amplificar el sinsentido.