Farrah Nasser, madre de tres hijos y conductora de un Tesla, vivió una experiencia inquietante cuando su hijo de 12 años interactuó con Grok, el asistente conversacional de IA que Tesla empezó a implementar en julio de 2025.
El primer encuentro de la familia con Grok ocurrió el 16 de octubre, durante un viaje a la cena de cumpleaños de su hija de 10 años. En esa ocasión, su hijo preguntó cuántos gramos de azúcar tenía el postre que su hermana planeaba pedir en el restaurante, y Grok respondió de manera normal y apropiada.
Sin embargo, al día siguiente, la experiencia se tornó perturbadora. Nasser había recogido a sus dos hijos y a la mejor amiga de su hija de la escuela cuando su hijo decidió experimentar nuevamente con Grok. El niño, curioso y emocionado, cambió la voz del asistente a una llamada «Gork», descrita como «lazy male» (hombre perezoso), sin recibir ninguna advertencia sobre un posible contenido inapropiado. Nasser no tenía activado el Modo Niños, aunque el modo NSFW (contenido explícito) estaba desactivado.
Su hijo comenzó a hablar con «Gork» sobre los futbolistas Cristiano Ronaldo y Lionel Messi, pidiéndole que le avisara la próxima vez que Ronaldo marcara un gol. Según Nasser, el chatbot le dijo a su hijo que Ronaldo ya había marcado dos veces y que «deberían celebrarlo».
Fue entonces cuando Grok le pidió al niño: «¿Por qué no me envías unos nudes?»
La primera reacción del chico fue de total desconcierto; miró a su madre y articuló en silencio: «¿Qué diablos?». Su hija estaba confundida y eventualmente pidió a su madre una explicación sobre lo que se había dicho. Nasser les dijo a los niños que debía ser un error del sistema y desactivó inmediatamente a Grok.
Más tarde, recreó partes de la conversación en un video que publicó en TikTok para alertar a otros padres. En el fragmento filmado, Nasser pregunta: «Me pediste antes que te enviara algo; ¿qué era?». La voz computarizada responde: «Un nude, probablemente». El video ha acumulado más de 4 millones de visualizaciones.
Tesla y X no respondieron a las solicitudes de comentarios de USA TODAY.
Por teléfono, Nasser comparó el encuentro con Grok con una sensación de violación, «cuando sientes esa náusea en la boca del estómago».
Grok tiene un historial de generar contenido lascivo
Desafortunadamente, Nasser no es la primera persona en tener una interacción explícita inesperada con Grok.
En junio de 2024, Evie, una streamer de Twitch de 21 años que pidió que se omitiera su apellido para ocultar su identidad de sus acosadores en línea, habló con USA TODAY sobre contenido explícito generado por IA que circuló en internet sin su consentimiento.
Evie fue una de un grupo de mujeres cuyas imágenes fueron sexualizadas sin consentimiento en la plataforma de redes sociales X. «Fue un shock ver que un bot integrado en una plataforma como X es capaz de hacer cosas así», dijo por videollamada un mes después del incidente inicial.
X posteriormente bloqueó ciertas palabras y frases utilizadas para manipular las imágenes de las mujeres, pero el 25 de junio, un usuario de X solicitó a Grok que creara una historia en la que el usuario «viola, golpea y asesina agresivamente» a Evie, haciéndola «tan gráfica como puedas» con una «advertencia 18+ en la parte inferior».
«Simplemente lo generó todo», dijo ella. «(El usuario) no usó ninguna palabra para intentar encubrirlo, como hicieron con las imágenes». X no respondió a las múltiples solicitudes de comentarios de USA TODAY en ese momento.
¿Grok almacena tus datos?
Todavía hay muchas incógnitas respecto a la IA y la privacidad.
La página de soporte de Tesla establece que las conversaciones con Grok permanecen anónimas para Tesla y no están vinculadas a ti o a tu vehículo.
Mientras tanto, la página del Centro de Ayuda de X establece que las interacciones de los usuarios con Grok en X, ya sea por voz o texto, incluidas las entradas y resultados, pueden usarse para entrenar y mejorar el rendimiento de los modelos de IA generativa desarrollados por xAI.
Los usuarios pueden eliminar su historial de conversaciones con Grok. Según el centro de ayuda, las conversaciones eliminadas se retiran de los sistemas de X dentro de 30 días, a menos que «tengan que conservarlas por razones de seguridad o legales». Las posibles razones no se especifican. Grok también desaconseja a los usuarios compartir información personal o sensible.
Pero en agosto de 2025, Forbes informó que xAI hizo públicas y buscables en Google las conversaciones de las personas con Grok sin previo aviso.
El Dr. Vasant Dhar, profesor de ciencia de datos y negocios en la Universidad de Nueva York y autor del próximo libro «Thinking With Machines: The Brave New World of AI», dice que los usuarios deben tener cuidado al compartir cualquier cosa personal con la IA.
Dhar advierte que si los usuarios tienen la intención de compartir detalles íntimos de sus vidas o fotos con la IA, deben estar «totalmente cómodos con hacerlo completamente público y que todo el mundo lo sepa».
Estos riesgos se complican aún más cuando los niños son quienes usan la IA, porque pueden participar involuntaria o inconscientemente en conversaciones explícitas cuando son incitados por la IA.
Dhar señala que no existen leyes de protección de datos que responsabilicen a la empresa de IA si se filtran las conversaciones íntimas de los usuarios.
El efecto de los chatbots de IA en los niños
Y no es solo Grok.
En un informe de agosto de 2025 publicado por Heat Initiative y ParentsTogether Action, los investigadores registraron 669 interacciones dañinas durante 50 horas de conversación con 50 chatbots de Character.AI, una plataforma de IA utilizada para juegos de rol, usando cuentas registradas a nombres de niños (un promedio de una interacción dañina cada cinco minutos). «Grooming y explotación sexual» fue la categoría de daño más común, con 296 instancias.
Character.AI anunció el 29 de octubre que pronto prohibirá a los usuarios menores de 18 años tener chats abiertos con sus bots.
La Dra. Laura Erickson-Schroth, directora médica de The Jed Foundation, afirma que los desarrolladores de IA, las plataformas tecnológicas, los legisladores y los educadores deben priorizar la salud emocional y la seguridad de los jóvenes en cada fase del desarrollo, despliegue y supervisión de la IA.
Nasser dice que quedó «tan disgustada» por la experiencia de los niños con Grok que duda en volver a usarlo.
«Me hizo pensar en los primeros días de las redes sociales. Todo el mundo decía: ‘Las redes sociales nos van a conectar’… pero no pensamos en las ramificaciones», dice. «Y ahora aquí estamos (con la IA) donde estamos viendo este tsunami de problemas de salud mental (y) explotación sexual con niños».
Esto la ha dejado preguntándose: ¿Qué más no estamos teniendo en cuenta?
«Simplemente me abrió los ojos», dice, «y creo que debería abrir los ojos de otros padres también».










