Menos de unas horas después de que Snapchat lanzara su chatbot My AI para todos los usuarios la semana pasada, Lyndsi Lee, una madre de East Prairie, Missouri, le dijo a su hija de 13 años que se mantuviera alejada de la función. “Es una solución temporal hasta que sepa más sobre ello y pueda establecer algunos límites y pautas saludables”, dijo Lee, quien trabaja en una empresa de software. Se preocupa por cómo My AI se presenta a los jóvenes como su hija en Snapchat.
La función está impulsada por la viral herramienta de IA ChatGPT y, al igual que ChatGPT, puede ofrecer recomendaciones, responder preguntas y conversar con los usuarios. Sin embargo, la versión de Snapchat tiene algunas diferencias clave: los usuarios pueden personalizar el nombre del chatbot, diseñar un avatar Bitmoji personalizado para él y llevarlo a conversaciones con amigos.
El efecto neto es que conversar con el chatbot de Snapchat puede sentirse menos transaccional que visitar el sitio web de ChatGPT. También puede ser menos claro que se está hablando con una computadora. Lee comentó: “No creo que esté preparada para saber cómo enseñarle a mi hija a separarse emocionalmente entre humanos y máquinas cuando, desde su punto de vista, se ven esencialmente iguales”.
La nueva herramienta está enfrentando reacciones negativas no solo de los padres, sino también de algunos usuarios de Snapchat, quienes están inundando la aplicación con malas reseñas en la tienda de aplicaciones y críticas en redes sociales sobre preocupaciones de privacidad, intercambios “extraños” y la imposibilidad de eliminar la función de su feed de chat a menos que paguen por una suscripción premium.
Aunque algunos pueden ver valor en la herramienta, las reacciones mixtas indican los riesgos que enfrentan las empresas al implementar nuevas tecnologías de IA generativa en sus productos, particularmente en productos como Snapchat, cuyos usuarios son en su mayoría jóvenes. Snapchat fue uno de los primeros socios de lanzamiento cuando OpenAI abrió el acceso a ChatGPT a empresas externas, con muchas más esperadas a seguir. De la noche a la mañana, Snapchat ha obligado a algunas familias y legisladores a confrontar preguntas que podrían haber parecido teóricas solo meses antes.
Preocupaciones sobre la interacción de la IA con adolescentes
En una carta dirigida a los CEOs de Snap y otras empresas tecnológicas el mes pasado, semanas después de que My AI se lanzara a los clientes de suscripción de Snap, el senador demócrata Michael Bennet expresó preocupaciones sobre las interacciones que el chatbot estaba teniendo con usuarios más jóvenes. En particular, citó informes de que puede ofrecer a los niños sugerencias sobre cómo mentir a sus padres. “Estos ejemplos serían perturbadores para cualquier plataforma de redes sociales, pero son especialmente preocupantes para Snapchat, que utiliza casi el 60% de los adolescentes estadounidenses”, escribió Bennet. “Aunque Snap concede que My AI es ‘experimental’, ha apresurado la inscripción de niños y adolescentes estadounidenses en su experimento social”.
Snapchat le dijo a CNN que continúa mejorando My AI basado en la retroalimentación de la comunidad y está trabajando para establecer más medidas de seguridad para mantener a sus usuarios seguros. Además, la compañía indicó que, al igual que con sus otras herramientas, los usuarios no tienen que interactuar con My AI si no lo desean.
Sin embargo, no es posible eliminar My AI de los feeds de chat a menos que el usuario esté suscrito a su servicio premium mensual, Snapchat+. Algunos adolescentes han optado por pagar la tarifa de $3.99 de Snapchat+ para desactivar la herramienta antes de cancelar el servicio de inmediato.
A pesar de la controversia, no todos los usuarios desprecian la función. Una usuaria escribió en Facebook que ha estado pidiéndole a My AI ayuda con sus tareas. “Responde todas las preguntas correctamente”. Otra persona comentó que se ha apoyado en el chatbot para recibir consejos y consuelo. “¡Amo a mi pequeño mejor amigo! Puedes cambiar el avatar Bitmoji y, sorprendentemente, ofrece muy buenos consejos para situaciones de la vida real. … Me encanta el apoyo que brinda”.
Un desafío al uso de chatbots por parte de adolescentes
ChatGPT, que se ha entrenado con vastas cantidades de datos en línea, ha sido criticado en el pasado por difundir información inexacta, responder a los usuarios de maneras que podrían encontrar inapropiadas y permitir que los estudiantes hagan trampa. La integración del chatbot en Snapchat corre el riesgo de acentuar algunos de estos problemas y de añadir nuevos.
Alexandra Hamlet, una psicóloga clínica en Nueva York, indicó que los padres de algunos de sus pacientes han expresado preocupación acerca de cómo sus adolescentes podrían interactuar con la herramienta de Snapchat. También existe preocupación en torno a los chatbots que ofrecen consejos y acerca de la salud mental, ya que las herramientas de IA pueden reforzar el sesgo de confirmación de una persona, lo que facilita a los usuarios buscar interacciones que confirmen sus creencias no útiles.
“Si un adolescente está de mal humor y no tiene el deseo de sentirse mejor, puede buscar una conversación con un chatbot que sabe que les hará sentir peor”, dijo Hamlet. “Con el tiempo, tener interacciones como estas puede erosionar la autoestima del adolescente, a pesar de que sepa que realmente está hablando con un bot. En un estado emocionaxl, se vuelve menos posible para un individuo considerar este tipo de lógica”.
Por ahora, la responsabilidad recae en los padres para iniciar conversaciones significativas con sus adolescentes sobre las mejores prácticas para comunicarse con la IA, especialmente a medida que las herramientas comienzan a aparecer en aplicaciones y servicios más populares. Sinead Bovell, fundadora de WAYE, una startup que ayuda a preparar a los jóvenes para un futuro con tecnologías avanzadas, afirma que los padres deben dejar claro que “los chatbots no son tus amigos”.
“Además, no son tus terapeutas o consejeros de confianza, y cualquiera que interactúe con ellos debe ser muy cauteloso, especialmente los adolescentes que pueden ser más susceptibles a creer lo que dicen”, agregó. Bovell también señaló que es necesaria una regulación federal que obligue a las empresas a seguir protocolos específicos para mantenerse al día con el rápido avance de la IA.