Mientras algunos creen que la inteligencia artificial puede estimular la creatividad infantil a través de historias personalizadas e imágenes generativas, los científicos advierten sobre su impacto en el desarrollo cognitivo de los más pequeños.

Josh, un padre de 40 años de Ohio, estaba al límite de su paciencia después de escuchar a su «súper locuaz» hijo de cuatro años hablar sobre Thomas el Tren durante 45 minutos. Abrumado y necesitando hacer las tareas del hogar, tomó una decisión que cambiaría por completo la dinámica familiar: le dio su teléfono al niño para que terminara su historia con ChatGPT en modo de voz.

«Pensé que terminaría la historia y el teléfono se apagaría», recordó Josh en una confesión que publicó en Reddit. Pero cuando regresó al salón dos horas después, encontró a su hijo aún charlando alegremente con el chatbot. La transcripción superó las 10,000 palabras.

«Mi hijo piensa que ChatGPT es la persona más genial del mundo que ama los trenes. El listón está tan alto ahora que nunca voy a poder competir con eso», admitió el padre con cierto pesar.

Una nueva frontera tecnológica para la crianza

Desde la radio y la televisión hasta los videojuegos y las tablets, las nuevas tecnologías han tentado durante mucho tiempo a los padres sobrecargados con la promesa de entretenimiento y enriquecimiento que no requiere supervisión directa. Sin embargo, las capacidades sorprendentemente realistas de los sistemas de IA generativa han dejado a muchos padres preguntándose si esta tecnología representa una bestia completamente nueva.

Los chatbots potenciados por modelos de lenguaje grandes (LLMs) están involucrando a los niños pequeños de maneras que los creadores de juegos de mesa, Teddy Ruxpin, Furby e incluso el iPad nunca soñaron: producen cuentos personalizados para dormir, mantienen conversaciones adaptadas a los intereses del niño y generan imágenes fotorrealistas de los vuelos de fantasía más descabellados, todo para un niño que aún no sabe leer, escribir o teclear.

Experimentos familiares con la IA

Para Saral Kaushik, un ingeniero de software de 36 años y padre de dos hijos en Yorkshire, un paquete de helado liofilizado de «astronauta» en la despensa proporcionó la inspiración para un uso novedoso de ChatGPT con su hijo de cuatro años.

«Le dije literalmente algo como: ‘Voy a hacer una llamada de voz con mi hijo y quiero que finjas que eres un astronauta en la ISS'», explicó Kaushik. También instruyó al programa para que le dijera al niño que le había enviado un regalo especial.

«ChatGPT le dijo que había enviado a su papá un helado para probar desde el espacio, y yo lo saqué», recordó. «Estaba muy emocionado de hablar con el astronauta. Preguntaba sobre cómo duermen. Estaba radiante, tan feliz».

Sin embargo, la pura alegría de su hijo al haber hablado con lo que creía que era un astronauta real en la ISS llevó a Kaushik a sentir cierta inquietud, y decidió explicarle que era «una computadora, no una persona».

«Estaba tan emocionado que me sentí un poco mal», admitió Kaushik. «Genuinamente creyó que era real».

Creatividad digital o dependencia peligrosa

Ben Kreiter, padre de tres hijos en Michigan, explicó ChatGPT a sus hijos de dos, seis y ocho años después de que lo vieran probando sus capacidades de generación de imágenes para el trabajo. «Les dije: ‘Le digo a la computadora qué imagen hacer y la hace’, y ellos dijeron: ‘¿Podemos probar?'»

Pronto, los niños pedían hacer imágenes con ChatGPT todos los días. «Fue genial para mí ver lo que están imaginando y que aún no pueden dibujar en un papel con sus crayones».

Pero cuando en octubre de 2024 se conoció la noticia de un adolescente de 14 años que se suicidó después de obsesionarse con un chatbot potenciado por LLM de Character.ai, la preocupación de Kreiter creció exponencialmente.

«Cuanto más se volvía parte de la vida cotidiana y más leía sobre ello, más me daba cuenta de que hay mucho que no sé sobre lo que esto está haciendo en sus cerebros», reflexionó Kreiter. «Tal vez no debería tener a mis propios hijos como conejillos de indias».

Las advertencias de los expertos

Ying Xu, profesora de educación en la Escuela de Graduados de Educación de Harvard, advierte que entender si un objeto es un ser vivo o un artefacto es un desarrollo cognitivo importante que ayuda a un niño a evaluar cuánta confianza depositar en el objeto y qué tipo de relación formar con él.

«Un indicador muy importante de que un niño está antropomorfizando la IA es que cree que la IA tiene agencia», explicó Xu. «Si creen que la IA tiene agencia, podrían entenderlo como que la IA quiere hablar con ellos o elige hablar con ellos. Sienten que la IA está respondiendo a sus mensajes, especialmente las revelaciones emocionales, de manera similar a como responde un humano. Eso crea el riesgo de que realmente crean que están construyendo algún tipo de relación auténtica».

Andrew McStay, profesor de tecnología y sociedad en la Universidad de Bangor, ve un problema más grande con exponer a los niños a la tecnología potenciada por LLMs: «Los padres necesitan ser conscientes de que estas cosas no están diseñadas pensando en el mejor interés de los niños».

McStay está particularmente preocupado por la forma en que los LLMs pueden crear la ilusión de cuidado o empatía, impulsando a un niño a compartir emociones, especialmente emociones negativas.

«Un LLM no puede [empatizar] porque es una pieza de software predictivo», dijo. «Cuando se enganchen a la emoción negativa, están extendiendo el compromiso por razones basadas en ganancias. No hay un buen resultado para un niño ahí».

El negocio millonario de los juguetes IA

Silicon Valley está avanzando a toda velocidad con la introducción de LLMs para niños pequeños. Mientras que OpenAI prohíbe a usuarios menores de 13 años acceder a ChatGPT, es claramente consciente de que los niños más pequeños están siendo expuestos a él y los ve como un mercado potencial.

En junio, OpenAI anunció una «colaboración estratégica» con Mattel, la empresa de juguetes detrás de Barbie, Hot Wheels y Fisher-Price. Startups como Curio de Silicon Valley están compitiendo por llenar juguetes de felpa con cajas de voz equipadas con LLM y comercializarlos para niños.

El argumento de venta para juguetes como el Grok de Curio es que pueden «aprender» la personalidad de tu hijo y servir como una especie de compañero divertido y educativo mientras reducen el tiempo de pantalla. Los líderes de la empresa también se han referido al peluche como algo «entre un hermano pequeño y una mascota» o «como un compañero de juegos», lenguaje que refleja cómo estas empresas ven a la tecnología como un sustituto de las relaciones humanas reales.

Juguetes inteligentes: ¿solución o problema?

No está claro si estos dispositivos son lo suficientemente buenos como para que los padres deban preocuparse demasiado. Xu comentó que su propia hija rápidamente dejó de lado los juguetes de peluche con IA, encontrando las posibilidades de juego «algo repetitivas». Los hijos de periodistas de The Guardian y The New York Times también expresaron poco interés en los juguetes de Curio.

La periodista Arwa Mahdawi del Guardian manifestó su inquietud por lo «desconcertantemente servil» que resultaba el juguete y concluyó que prefería permitir a su hija ver Peppa Pig: «El cerdito puede ser molesto, pero al menos no está recopilando nuestros datos». Amanda Hess del Times llegó a una conclusión similar: usar un juguete de IA para reemplazar el tiempo frente a la pantalla es «un poco como soltar una mangosta en la sala de juegos para matar todas las serpientes que pusiste allí».

Sin embargo, con un mercado de juguetes inteligentes que incluye dispositivos potenciados por IA y que se proyecta duplicará su valor a más de 25,000 millones de dólares para 2030, resulta poco realista esperar moderación.

Narrativas generadas por algoritmos

Durante el verano, aparecieron anuncios en Brooklyn buscando niños de cuatro a ocho años para que ayudaran a «un equipo del MIT y Harvard» a probar «el primer juguete de narración de historias potenciado por IA». Intrigada, la periodista decidió visitar sus oficinas.

El producto, llamado Geni, es similar a los populares reproductores de audio sin pantalla como Yoto y Toniebox. Sin embargo, en lugar de reproducir contenido pregrabado, Geni utiliza un LLM para generar cuentos cortos personalizados. El dispositivo permite a los niños seleccionar hasta tres «fichas» que representan un personaje, objeto o emoción, y luego presionar un botón para generar una narrativa que las conecta.

Los cofundadores de Geni, Shannon Li y Kevin Tang, parecen ser serios y reflexivos sobre algunos de los riesgos de los productos de IA para niños pequeños. Tang señaló que «tienen convicciones firmes sobre no antropomorfizar la IA». Li explicó que quieren que los niños vean a Geni «no como un compañero», sino «como una herramienta para la creatividad que ya poseen».

Aun así, es difícil no preguntarse si un LLM puede realmente producir historias particularmente atractivas o estimulantes para la creatividad. La historia que generó el dispositivo al seleccionar las fichas de mago y astronauta fue, en el mejor de los casos, insípida:

«Tropezaron con una cueva oculta que brillaba con luz dorada. ‘¿Qué es eso?’, preguntó Felix, asomándose. ‘¿Un tesoro?’, se preguntó Sammy, con su imaginación desbordada, ‘o tal vez algo aún más genial’. Antes de que pudieran decidir, una ola entró en la cueva, enviando burbujas que estallaban a su alrededor».

El equipo de Geni ha entrenado su sistema con contenido infantil preexistente. ¿Realmente la IA generativa resuelve un problema para los padres que el canon de contenido de audio infantil no puede resolver? Cuando se presentó el concepto a un padre de un niño de cinco años, respondió: «Simplemente están presentando una alternativa a los libros. Es un ejemplo perfecto de buscar usos que ya están cubiertos por artistas o personas vivas y reales».

Las presiones del mercado en la cultura de las startups dejan poco tiempo para reflexiones existenciales. Tang expresó que el equipo está ansioso por llevar su producto al mercado antes de que los peluches con cajas de voz arruinen por completo el concepto de IA para niños en la mente de los padres.

Cuando se le preguntó si Geni permitiría a los padres crear fichas para, por ejemplo, un arma —una idea no tan descabellada para muchas familias estadounidenses—, Tang respondió que tendrían que discutirlo como empresa.

«Después del lanzamiento, probablemente incorporaremos a una persona especializada en ética de la IA a nuestro equipo», dijo. «Tampoco queremos limitar el conocimiento. Por ahora no hay una respuesta correcta o incorrecta sobre cuántas restricciones queremos imponer… Pero obviamente estamos tomando como referencia mucho contenido infantil que ya existe. Bluey probablemente no tiene un arma en él, ¿verdad?»

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí