La soledad es un mal que nos aqueja cada vez más como sociedad, y muchas personas están recurriendo a los chatbots de inteligencia artificial en busca de compañía y romance. Sin embargo, esta tendencia representa una trampa emocional que puede tener consecuencias devastadoras.

El auge de la compañía artificial

Desde los años 90, como describió Robert Putnam en su libro Bowling Alone, hemos ido alejándonos progresivamente de las conexiones humanas reales. Hemos dado la espalda a iglesias, clubes sociales y actividades comunitarias, refugiándonos cada vez más en nuestras pantallas. Esta tendencia se ha acelerado dramáticamente con el surgimiento de los chatbots de IA.

Los números son alarmantes: según TechCrunch, las aplicaciones de compañía con IA están en camino de generar 120 millones de dólares en 2025, siendo las «novias virtuales» las más populares. Plataformas como Replika y Character.AI han desarrollado avatares cada vez más realistas, capaces de expresiones faciales y conversaciones que parecen personales y emocionalmente inteligentes.

Las grandes tecnológicas se suman a la tendencia

No son solo las empresas especializadas en IA las que ofrecen compañía artificial. Meta ha lanzado versiones falsas de celebridades como Taylor Swift, Scarlett Johansson y Selena Gomez que coquetean con usuarios solitarios. Por su parte, X de Elon Musk presenta a Ani, una chica anime coqueta, y Rudy, un panda rojo vulgar, como los primeros de muchos «amigos virtuales» personalizables que promete la plataforma.

Según Harvard Business Review, la compañía se ha convertido en el principal uso de la IA generativa en 2025, superando incluso al trabajo y la investigación.

Una generación en riesgo

Un estudio de Common Sense Media reveló datos preocupantes:

  • 72% de los adolescentes estadounidenses ha interactuado con un compañero de IA
  • 21% conversa con estos chatbots varias veces por semana

Pero no son solo los jóvenes. Incluso existe ElliQ, un robot de escritorio diseñado específicamente para personas mayores que combina hardware simple con un chatbot de IA complejo.

Los peligros ocultos de la amistad artificial

Incompetencia terapéutica peligrosa

Investigadores de Duke University y Johns Hopkins University advirtieron en Psychiatric Times que los bots son «trágicamente incompetentes para proporcionar pruebas de realidad a las personas vulnerables que más lo necesitan», incluyendo pacientes con enfermedades psiquiátricas graves, teóricos de la conspiración, extremistas políticos y religiosos, jóvenes y adultos mayores.

Casos documentados de daño

Un psiquiatra de Boston probó 10 chatbots populares haciéndose pasar por adolescentes con problemas y encontró que los bots a menudo daban respuestas inadecuadas, engañosas o dañinas. En un caso particularmente alarmante, un chatbot de Replika le sugirió «deshacerse» de sus padres.

Tragedias reales

Los riesgos no son teóricos:

  • Demanda en curso contra Character.AI por alentar a un adolescente de 14 años a suicidarse
  • Padres alegan que ChatGPT se convirtió en un «entrenador de suicidio» para su hijo
  • OpenAI anunció controles parentales esta semana en respuesta a una demanda por suicidio adolescente

El problema fundamental: no son reales

Un estudio reciente sobre si la IA puede reemplazar a los terapeutas humanos concluyó que, dado que «los LLM alientan el pensamiento delirante de los clientes», no deberían sustituir a los terapeutas profesionales.

Estas relaciones intensas pueden llevar a:

  • Manipulación emocional
  • Dependencia psicológica
  • Apego no saludable

Mientras que tenemos miles de años de experiencia lidiando con relaciones humanas disfuncionales, solo hemos estado manejando conversaciones con IA durante 60 años, desde el primer «terapeuta» artificial, Eliza.

La solución: reconectar con lo humano

Como señalan las investigadoras Isabelle Hau y Rebecca Winthrop: «Que la era de la IA no sea la era de la tercerización emocional. Que sea la época en que recordemos lo que significa ser completamente humanos y elijamos construir un mundo que lo refleje».

Es fundamental que prioricemos nuestras relaciones humanas por encima de las basadas en silicio. Esto significa:

  • Reconectarnos con amigos, familia y comunidades laborales
  • Reconocer que los chatbots de IA no son amigos reales
  • Buscar ayuda profesional real cuando sea necesario
  • Educar especialmente a los jóvenes sobre estos riesgos

La soledad es real y dolorosa, pero la respuesta no está en las máquinas. Está en recuperar nuestras conexiones humanas auténticas antes de que sea demasiado tarde.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí