Los consejos de inteligencia artificial para las relaciones pueden estar haciendo más daño que bien, validando comportamientos tóxicos y ofreciendo perspectivas sesgadas que terminan destruyendo vínculos que podrían haberse salvado.
A principios de este año, una periodista recibió una consulta inquietante de un hombre cuya novia usaba ChatGPT para obtener consejos de relación. Lo que inicialmente parecía una curiosidad tecnológica se ha convertido en un fenómeno preocupante que podría estar saboteando relaciones de maneras que apenas comenzamos a comprender.
¿Es ChatGPT realmente objetivo o solo te dice lo que quieres escuchar?
Una usuaria que ocasionalmente recurre a ChatGPT para desahogarse sobre sus problemas amorosos notó algo perturbador: la IA parecía validar excesivamente su experiencia, quizás de manera peligrosa. Esto plantea una pregunta crucial: ¿la inteligencia artificial es verdaderamente imparcial, o simplemente actúa como un «hombre que dice sí a todo»?
Un usuario de Reddit planteó una pregunta similar hace un mes, cuestionando si ChatGPT está alimentando nuestros delirios. En su publicación, mencionó específicamente a una «AI-influencer» que aparentemente recibía validación y elogios extremos de ChatGPT, señalando que la plataforma «le infla tanto el ego» y «confirma su sensación de persecución».
«Parece un poco como alguien que tiene un episodio delirante maníaco y ChatGPT alimentando dicho delirio. Esto me hace preguntarme si ChatGPT, en su forma actual, es peligroso para las personas que sufren delirios o que tienen episodios psicóticos.»
Si esto es cierto, no solo impactará negativamente la salud mental de quienes usan la IA de esta manera, sino que también puede dañar nuestras relaciones.
La IA no puede causar rupturas directamente, pero sí puede influir peligrosamente
Hay que ser claros: la inteligencia artificial no puede causar directamente una ruptura. En última instancia, tú tomas la decisión. Si eres infeliz, no te sientes realizado o te tratan mal, sabrás en tu corazón que es hora de irte.
Pero si dependes de ChatGPT para tomar esa decisión por ti, podrías estar haciéndote un flaco favor a ti mismo, a tu relación y a tu pareja.
El problema de la perspectiva humana vs. la artificial
Cuando hablas con un terapeuta o incluso con un amigo de confianza sobre tu relación, podrás obtener una respuesta más emocional y, bueno, humana. Alguien que tenga tus mejores intenciones considerará tanto tu perspectiva como la de tu pareja, teniendo en cuenta tus experiencias únicas y luchas personales.
Por ejemplo, muchas personas escriben abiertamente sobre sus luchas con el trastorno obsesivo-compulsivo (TOC). Si alguien con TOC fuera a ChatGPT por consejos de citas y no mencionara cómo su TOC tiende a atacar sus relaciones, podría recibir información inútil, incluso dañina, sobre su relación.
Casos reales de consejos problemáticos
En el subreddit ROCD (para quienes sufren de TOC de Relación, el tipo que se fija obsesivamente en tu relación), alguien incluso compartió que ChatGPT le dijo que rompiera con su pareja.
La cuenta oficial de Reddit de NOCD, un servicio de Tratamiento y Terapia para TOC, respondió con una excelente explicación:
«Puede sentirse como si ChatGPT tuviera todas las respuestas, pero entiende que los ingenieros trabajan duro para hacer que el programa suene autoritario y omnisciente cuando, en realidad, eso viene con muchas advertencias. Los LLM de IA no son los programas más confiables. Aunque pueden dar respuestas que suenan elocuentes, los programas a menudo ‘alucinan’, dan información inexacta y citan estudios no relacionados.»
El peligro de la validación sesgada
Además, alguien que tiende a ser un poco más egoísta en sus citas podría proporcionar solo su versión sesgada de la historia y recibir aún más autovalidación, creyendo que sus necesidades son más importantes que las de su pareja.
Una persona en el hilo de Reddit mencionado anteriormente dijo que ChatGPT «consigna mis tonterías regularmente en lugar de ofrecer la perspectiva y confrontación necesarias para incitar el crecimiento».
Eso es un problema serio.
Recomendaciones para un uso responsable
Cuando tengas dudas, no uses ChatGPT para consejos de citas. Y si decides preguntarle de todos modos, al menos toma su información con pinzas.
La realidad es que ya tenemos suficientes individuos tóxicos y egoístas en el mundo de las citas. No necesitamos que ChatGPT valide aún más a estas personas, creando una generación de personas que creen que sus perspectivas sesgadas son objetivamente correctas.
En una era donde la terapia es un lujo costoso, es comprensible que las personas busquen alternativas accesibles. Sin embargo, cuando se trata de algo tan complejo y matizado como las relaciones humanas, la inteligencia artificial simplemente no puede reemplazar la sabiduría, empatía y experiencia humana real.