AI bots pronto estarán disponibles en aplicaciones de citas para coquetear con las personas, redactar mensajes en nombre de los usuarios y escribir sus perfiles. Sin embargo, depender de la inteligencia artificial para fomentar relaciones podría erosionar la autenticidad humana que queda en las plataformas de citas, advierten los expertos.
Match Group, la empresa de tecnología con el portfolio más grande del mundo de plataformas de citas, incluyendo Tinder y Hinge, ha anunciado que aumentará la inversión en AI, con nuevos productos que saldrán este mes. Los bots de AI ayudarán a los usuarios a elegir qué fotos serán más populares, escribir mensajes a otros y proporcionar «entrenamiento efectivo para usuarios con dificultades».
Sin embargo, esos «usuarios con dificultades», que pueden carecer de habilidades sociales, y que comienzan a depender de asistentes de AI para redactar conversaciones, podrían tener problemas una vez que lleguen a citas en la vida real, sin su teléfono para ayudarles a conversar. Esto podría provocar ansiedad y un mayor retiro hacia la comodidad del espacio digital, según un grupo de académicos. También podría erosionar la confianza que los usuarios tienen en la autenticidad de otros en la aplicación. ¿Quién está usando AI y quién es un genuino ser humano tecleando tras la pantalla?
Dr. Luke Brunning, un lecturador en ética aplicada en la Universidad de Leeds, ha coordinado una carta abierta pidiendo protecciones regulatorias contra el uso de AI en aplicaciones de citas. Él cree que intentar resolver problemas sociales provocados por la tecnología utilizando más tecnología no regulada empeorará las cosas, y que mejorar automáticamente los perfiles también refuerza una cultura de aplicación de citas donde las personas sienten que deben superar constantemente a los demás para destacar.
“Muchas de estas compañías han identificado correctamente estos problemas sociales”, dijo. “Pero están recurriendo a la tecnología como una manera de resolverlos, en lugar de intentar hacer cosas que realmente desescalen la competitividad, como facilitar que las personas sean vulnerables, aceptar que no somos perfectos y permitir que todos se acepten como personas ordinarias que no son todas mayores de 1.80 m con carreras fantásticas, biografías bien escritas y un sentido constante de la broma ingeniosa. La mayoría de nosotros simplemente no somos así todo el tiempo”.
Él es uno de los muchos académicos de todo el Reino Unido, así como de EE. UU., Canadá y Europa, quienes han advertido que la rápida adopción de AI generativa «puede degradar aún más un entorno en línea ya precario». La AI en plataformas de citas corre el riesgo de múltiples daños, dicen, incluyendo empeorar la soledad y la crisis de salud mental juvenil, exacerbar prejuicios e inequidades, y erosionar aún más las habilidades sociales en la vida real. Creen que la explosión de características de AI en aplicaciones de citas debe ser regulada rápidamente.
En el Reino Unido, 4.9 millones de personas usan aplicaciones de citas, mientras que hay al menos 60.5 millones de usuarios en EE. UU. Aproximadamente tres cuartos de los usuarios de aplicaciones de citas tienen entre 18 y 34 años.
Muchos solteros dicen que nunca ha sido más difícil encontrar una relación amorosa. Sin embargo, la carta advierte que la AI en aplicaciones de citas corre el riesgo de degradar aún más el paisaje: haciendo la manipulación y el engaño más fácil, reforzando prejuicios algorítmicos relacionados con la raza y la discapacidad, y homogeneizando aún más los perfiles y las conversaciones de lo que ya son.
Los defensores de la AI en aplicaciones de citas dicen que asistentes y «wingmen de citas» podrían ayudar a reducir la fatiga, el agotamiento y la carga de intentar organizar citas. El año pasado, el gerente de producto Aleksandr Zhadan programó a ChatGPT para deslizarse y charlar con más de 5.000 mujeres en su nombre en Tinder. Eventualmente, conoció a la mujer que ahora es su prometida.
Brunning dice que no está en contra de las aplicaciones, pero cree que actualmente están funcionando para las corporaciones, en lugar de para las personas que las utilizan. Está frustrado por el escaso escrutinio que recibe el sector de citas digitales en comparación con otras áreas de la vida en línea, como las redes sociales.
“Los reguladores están despertando a la necesidad de pensar sobre las redes sociales, y están preocupados por el impacto social de las redes sociales, su efecto en la salud mental. Me sorprende que las aplicaciones de citas no hayan sido incluidas en esa conversación”, dijo.
«En muchos aspectos, las aplicaciones de citas son muy similares a las redes sociales. En muchos otros aspectos, están apuntando explícitamente a nuestras emociones más íntimas, nuestros deseos románticos más fuertes. Deberían atraer la atención de los reguladores”.
Un portavoz de Match Group dijo: “En Match Group estamos comprometidos a utilizar AI de manera ética y responsable, colocando la seguridad y el bienestar del usuario en el corazón de nuestra estrategia… Nuestros equipos se dedican a diseñar experiencias de AI que respeten la confianza del usuario y se alineen con la misión de Match Group de fomentar conexiones significativas de manera ética, inclusiva y eficiente.” Un portavoz de Bumble dijo: “Vemos oportunidades para que la AI ayude a mejorar la seguridad, optimizar las experiencias del usuario y empoderar a las personas para que representen mejor sus yo más auténticos en línea, mientras seguimos enfocados en su uso ético y responsable. Nuestro objetivo con la AI no es reemplazar el amor o las citas con tecnología, sino mejorar la conexión humana, que sea más compatible y segura”.
Ofcom destacó que la Ley de Seguridad en Línea se aplica a chatbots generativos AI perjudiciales. Un portavoz de Ofcom dijo: “Cuando esté en vigor, la Ley de Seguridad en Línea del Reino Unido impondrá nuevos deberes a las plataformas para proteger a sus usuarios de contenido y actividad ilegal. Hemos sido claros sobre cómo se aplica la Ley a la AI generativa y hemos establecido qué pueden hacer las plataformas para salvaguardar a sus usuarios del daño que plantea, probando los modelos de AI en busca de vulnerabilidades.”