Imagen de cabecera retocada con Editasteic Editasteic

Los moderadores y usuarios se ven abrumados por publicaciones falsas creadas con inteligencia artificial en los subreddits más populares de la plataforma

Reddit es considerado uno de los espacios más humanos que quedan en internet, pero tanto moderadores como usuarios están siendo abrumados por contenido basura en los subreddits más populares. Una publicación sobre una novia que exige que un invitado a su boda use un tono específico y poco favorecedor seguramente provocará indignación, al igual que historias sobre damas de honor o madres del novio que quieren vestir de blanco. Un escenario donde un padre pide a alguien en un avión que cambie de asiento para poder sentarse junto a su hijo pequeño probablemente invoque la misma oleada de enojo. Pero estas publicaciones pueden provocar la molestia de un moderador de Reddit por una razón completamente diferente: son temas recurrentes dentro de un género creciente de publicaciones falsas generadas por inteligencia artificial.

La invasión silenciosa del contenido artificial

Estos son ejemplos que vienen a la mente de Cassie, una de las docenas de moderadores de r/AmItheAsshole. Con más de 24 millones de miembros, es uno de los subreddits más grandes de la plataforma, y prohíbe explícitamente el contenido generado por IA y otras historias inventadas. Desde finales de 2022, cuando ChatGPT se lanzó por primera vez al público, Cassie y otras personas que donan voluntariamente su tiempo para moderar publicaciones de Reddit han estado luchando con una afluencia masiva de contenido artificial. Parte del material es completamente generado por IA, mientras que otros usuarios han comenzado a editar sus publicaciones y comentarios con programas como Grammarly.

«Probablemente es más prevalente de lo que alguien realmente quiere admitir, porque es muy fácil meter tu publicación en ChatGPT y decir ‘Oye, haz esto más emocionante'», explica Cassie, quien estima que hasta la mitad de todo el contenido que se publica en Reddit puede haber sido creado o retrabajado con IA de alguna manera.

Un formato vulnerable a la automatización

r/AmItheAsshole es un pilar de la cultura de Reddit, un formato que ha inspirado docenas, si no cientos de derivados como r/AmIOverreacting, r/AmITheDevil y r/AmItheKameena, un subreddit con más de 100,000 miembros descrito como «Am I the asshole, pero la versión india». Las publicaciones tienden a presentar historias sobre conflictos interpersonales, donde los usuarios pueden opinar sobre quién está equivocado («YTA» significa «You’re the asshole», mientras que «ESH» significa «Everyone sucks here»), quién tiene razón y cuál es el mejor curso de acción a seguir.

Los usuarios y moderadores en estas variantes de r/AmItheAsshole han reportado ver más contenido que sospechan es generado por IA, y otros afirman que es un problema de toda la plataforma que ocurre en todo tipo de subreddits.

Una amenaza existencial para la plataforma

«Si tienes un subreddit general de bodas o AITA, relaciones, o algo así, serás golpeado fuertemente», advierte un moderador de r/AITAH, una variante de r/AmItheAsshole que tiene casi 7 millones de miembros. Este moderador, un jubilado que habló bajo condición de anonimato, ha estado activo en Reddit durante 18 años —prácticamente toda su existencia— y también tuvo décadas de experiencia en el negocio web antes de eso. Ve la IA como una amenaza existencial potencial para la plataforma.

«Reddit en sí mismo va a tener que hacer algo, o la serpiente se va a tragar su propia cola», sentencia. «Está llegando al punto donde la IA está alimentando a la IA

En respuesta a una solicitud de comentarios, un portavoz de Reddit declaró: «Reddit es el lugar más humano en internet, y queremos que siga siendo así. Prohibimos el contenido manipulado y el comportamiento no auténtico, incluyendo cuentas bot de IA engañosas que se hacen pasar por personas y campañas de influencia extranjera. El contenido generado por IA claramente etiquetado generalmente está permitido siempre que esté dentro de las reglas de una comunidad y nuestras reglas de todo el sitio». El portavoz agregó que hubo más de 40 millones de «eliminaciones de spam y contenido manipulado» en la primera mitad de 2025.

El cambio de ambiente hacia lo peor

Ally, una joven de 26 años que da clases particulares en un colegio comunitario en Florida, ha notado que Reddit está «realmente yendo cuesta abajo» en el último año debido a la IA. Sus sentimientos son compartidos por otros usuarios en subreddits como r/EntitledPeople, r/simpleliving y r/self, donde las publicaciones del último año han lamentado el aumento de presunta IA. La mera posibilidad de que algo pudiera ser generado por IA ya ha erosionado la confianza entre usuarios.

«La IA está convirtiendo Reddit en un montón de basura», escribió una cuenta en r/AmITheJerk. «Incluso si una publicación sospechosa de ser IA no lo es, solo la existencia de la IA es como tener un espía en la habitación. La sospecha en sí misma es un enemigo».

Ally solía disfrutar leyendo subreddits como r/AmIOverreacting. Pero ahora no sabe si sus interacciones son reales, y está pasando menos tiempo en la plataforma que en años anteriores.

«La IA quema a todo el mundo», dice el moderador de r/AITAH. «Veo personas poner una cantidad inmensa de esfuerzo en encontrar recursos para ayudar a otros, solo para recibir como respuesta ‘Ja, caíste en la trampa, todo esto es una mentira'».

Los desafíos de la detección

Hay pocas maneras infalibles de probar que algo es IA o no, y la mayoría de las personas comunes dependen de su propia intuición. El texto puede ser incluso más difícil de evaluar que las fotos y videos, que a menudo tienen señales bastante definitivas. Cinco usuarios de Reddit que hablaron con WIRED tenían diferentes estrategias para identificar texto generado por IA.

Cassie nota cuando las publicaciones reafirman su título textualmente en el cuerpo o usan guiones largos, así como cuando un autor tiene ortografía y puntuación terribles en su historial de comentarios pero publica algo con gramática perfecta. Ally se alarma por cuentas de Reddit recién creadas y publicaciones con emojis en el título. El moderador de r/AITAH obtiene una sensación de «valle inquietante» de ciertas publicaciones. Pero estas «señales» también podrían estar presentes en una publicación que no está usando IA en absoluto.

«En este punto, es un poco como ‘lo sabes cuando lo ves'», explica Travis Lloyd, un estudiante de doctorado en Cornell Tech que ha publicado investigación sobre los nuevos desafíos impulsados por IA que enfrentan los moderadores de Reddit. «En este momento, no hay herramientas confiables para detectarlo 100% del tiempo. Entonces las personas tienen sus estrategias, pero no son necesariamente infalibles».

El ciclo de retroalimentación de la IA

Además, a medida que aparece más texto de IA en el mundo real, las personas comienzan a imitar las características comunes del lenguaje generado por IA, usen o no esta tecnología. En Reddit, el ciclo de retroalimentación de IA puede ser incluso más incestuoso, ya que la plataforma ha demandado a compañías de IA como Anthropic y Perplexity por supuestamente extraer contenido de Reddit sin consentimiento para entrenar chatbots. Los resúmenes de IA de Google han extraído infamemente comentarios de Reddit que en realidad son chistes sarcásticos, como un usuario que sugirió usar pegamento para hacer que el queso se adhiera mejor a la masa de pizza.

«La IA está entrenada con personas, y las personas copian lo que ven hacer a otras personas», reflexiona Cassie. «Las personas se vuelven más como la IA, y la IA se vuelve más como las personas».

Contenido de odio dirigido a minorías

Ambos moderadores de AITA dicen que han observado una tendencia de publicaciones incendiarias que podrían estar escritas con IA y parecen existir solo para difamar a personas trans y otras poblaciones vulnerables. El moderador de r/AITAH dice que el subreddit recibió un diluvio de contenido anti-trans durante el Mes del Orgullo, mientras que Cassie afirma que aparece en la cola de moderación intermitentemente.

«Cosas como ‘Mis padres no usaron mi nombre elegido y soy trans y exploté contra ellos porque cómo se atreven’ o ‘Alguien asumió mi género y soy cis pero cómo se atreven a asumir mi género'», describe Cassie. «Están diseñadas solo para hacerte enojar con las personas trans, con las personas gay, con las personas negras, con las mujeres».

En subreddits que giran en torno a noticias y política, la IA ha habilitado nuevas formas de difundir desinformación. Es algo que Tom, un usuario de Reddit que ayudó a moderar r/Ukraine durante tres años, encontró junto con técnicas de manipulación social como el astroturfing que precedieron a programas como ChatGPT. Pero ahora, la IA puede automatizar esas tácticas, haciendo aún más difícil para los moderadores humanos mantenerse al día.

«Era como un tipo parado en un campo contra una ola de marea», recuerda Tom sobre su experiencia. «Puedes crear tanto ruido con tan poco esfuerzo».

En r/Ukraine, que tiene cerca de un millón de miembros, Tom recuerda haber recibido entrenamiento de otros moderadores para intentar mitigar la difusión de propaganda rusa e incluso recibir apoyo especializado de los administradores de Reddit, quienes están un escalón por encima de los voluntarios y realmente trabajan para la plataforma.

Monetizando el karma

Además de motivaciones ideológicas, también existen formas poco conocidas de monetizar el contenido de Reddit. Algunas son más obvias, como el Programa de Contribuidores de Reddit, que permite a los usuarios ganar dinero obteniendo votos positivos (conocidos como «karma») y premios que otros usuarios pueden comprarles. Los aprovechados de Reddit teóricamente pueden usar contenido generado por IA para acumular karma, obtener ganancias e incluso vender sus cuentas.

«Mi cuenta de Reddit vale mucho dinero, y lo sé porque la gente sigue intentando comprarla», cuenta Tom. «También podría usarse para propósitos nefastos, pero sospecho que mucho de esto son personas que están aburridas y tienen tiempo, y piensan ‘Bueno, podría ganar cien dólares en un mes haciendo casi nada'».

Otras cuentas necesitan el karma para obtener acceso para publicar en subreddits NSFW que tienen requisitos de karma para hacerlo, donde luego pueden promocionar cosas como enlaces de OnlyFans. Tanto Cassie como el moderador de r/AITAH han notado cuentas que publican en sus subreddits más grandes para acumular karma antes de pasar a publicar contenido para adultos. Algunos son estafadores. Otros simplemente pueden estar tratando de ganarse la vida.

«A veces es real, a veces es un conflicto real que realmente han tenido, a veces es falso, a veces de cualquier manera está generado por IA», explica Cassie. «Casi quiero llamarlo gamificación, donde simplemente están tratando de usar el sistema de la manera en que ha sido configurado».

El precio de la moderación en la era de la IA

El tiempo extra que les toma a los moderadores de Reddit examinar el potencial material de IA es un reflejo de cómo el contenido artificial en general ha creado nuevos obstáculos, lo cual se extiende mucho más allá del ámbito de la moderación en redes sociales.

«Lo que los moderadores de Reddit están enfrentando es lo que personas en todas partes están lidiando ahora mismo, que es adaptarse a un mundo donde toma increíblemente poco esfuerzo crear contenido generado por IA que parece plausible, y toma mucho más esfuerzo evaluarlo», concluye Lloyd. «Esa es una carga real para ellos, como lo es para los maestros y cualquier otra persona».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí