Los expertos advierten de que delegar tareas cognitivas a los chatbots de IA podría estar afectando nuestras habilidades de pensamiento crítico y resolución de problemas.
¿Cuál fue la última cosa que le pediste a un chatbot de IA? Tal vez le solicitaste una estructura de ensayo para ayudarte a responder una pregunta difícil, un análisis perspicaz de un conjunto de datos complejo, o que revisara si tu carta de presentación coincide con la descripción del trabajo.
Algunos expertos temen que externalizar este tipo de tareas significa que tu cerebro está trabajando menos, e incluso podría estar dañando tus habilidades de pensamiento crítico y resolución de problemas.
Menos actividad cerebral al usar ChatGPT
Este año, el Instituto Tecnológico de Massachusetts (MIT) publicó un estudio que demuestra que las personas que usaron ChatGPT para escribir ensayos mostraron menos actividad en las redes cerebrales asociadas con el procesamiento cognitivo durante el ejercicio.
Los investigadores del MIT utilizaron electroencefalografía (EEG) para registrar la actividad cerebral de 54 participantes, reclutados del MIT y universidades cercanas, mientras realizaban tareas de escritura. Los electrodos se colocaron en el cuero cabelludo para monitorear la actividad neuronal.
Estas personas tampoco pudieron citar sus ensayos tan fácilmente como aquellos en el estudio que no usaron un chatbot de IA. Los investigadores dijeron que su estudio demostró «la urgente necesidad de explorar una posible disminución en las habilidades de aprendizaje».
Algunos de los prompts utilizados por los participantes incluían pedirle a la IA que resumiera preguntas de ensayos, rastreara fuentes, así como refinara la gramática y el estilo. También se usó para generar y articular ideas, aunque algunos usuarios sintieron que la IA no era muy buena en esto.
«La IA hace demasiado fácil encontrar respuestas»
Por separado, la Universidad Carnegie Mellon y Microsoft, que opera Copilot, encontraron que las habilidades de resolución de problemas de las personas podrían disminuir si se vuelven demasiado dependientes de la IA.
Encuestaron a 319 trabajadores de oficina que usaban herramientas de IA para sus trabajos al menos una vez por semana sobre cómo aplican el pensamiento crítico al usarlas. Examinaron 900 ejemplos de tareas dadas a la IA, desde analizar datos para obtener nuevas perspectivas hasta verificar si un trabajo satisface reglas particulares.
El estudio encontró que una mayor confianza en la capacidad de la herramienta para realizar una tarea estaba relacionada con «menos esfuerzo de pensamiento crítico».
«Mientras que la IA generativa puede mejorar la eficiencia del trabajador, puede inhibir el compromiso crítico con el trabajo y potencialmente llevar a una dependencia excesiva a largo plazo de la herramienta y a habilidades disminuidas para la resolución independiente de problemas», concluyeron los investigadores.
El impacto en los estudiantes
Entonces, con la explosión masiva del uso de IA, ¿están nuestras habilidades cognitivas en riesgo de declive?
Los escolares en el Reino Unido fueron encuestados de manera similar para un estudio publicado en octubre por Oxford University Press (OUP). Encontró que seis de cada diez estudiantes sintieron que la IA había impactado negativamente sus habilidades en relación con el trabajo escolar.
Sin embargo, no necesariamente es una imagen completamente negativa, dice la Dra. Alexandra Tomescu, especialista en IA generativa en OUP que trabajó en la encuesta escolar.
«Nuestra investigación nos dice que nueve de cada diez estudiantes dicen que la IA les ha ayudado a desarrollar al menos una habilidad relacionada con el trabajo escolar, ya sea resolución de problemas, creatividad o revisión. Pero al mismo tiempo, aproximadamente una cuarta parte afirma que el uso de IA hizo que fuera demasiado fácil hacer el trabajo por ellos… Así que es una imagen bastante matizada».
Agrega que muchos alumnos quieren más orientación sobre cómo usar la IA. ChatGPT, que tiene más de 800 millones de usuarios activos semanales según su CEO Sam Altman, ha publicado un conjunto de 100 prompts para estudiantes diseñados para ayudarlos a aprovechar al máximo la tecnología.
La necesidad de más investigación
Pero el Prof. Wayne Holmes, quien investiga estudios críticos de inteligencia artificial y educación en el University College London (UCL), dice que esto no es suficiente. Quiere que se haga mucha más investigación académica sobre los efectos de las herramientas de IA en el aprendizaje antes de que se anime a los alumnos y estudiantes a usarlas.
«Hoy no hay evidencia independiente a escala de la efectividad de estas herramientas en la educación, o de su seguridad, o incluso de la idea de que tienen un impacto positivo», nos dice.
¿Mejores resultados pero peor aprendizaje?
El Prof. Holmes señala la investigación sobre la atrofia cognitiva, donde las habilidades y capacidades de alguien empeoran después de usar IA. Dice que esto ha sido un problema para los radiólogos que usan herramientas de IA para ayudarles a interpretar rayos X antes de diagnosticar a los pacientes.
Un estudio de la Escuela de Medicina de Harvard publicado el año pasado encontró que la asistencia de IA mejoró el rendimiento de algunos médicos pero dañó a otros por razones que los investigadores no entienden completamente.
Los autores pidieron que se haga más trabajo sobre cómo los humanos interactúan con la IA para que podamos descubrir formas de usar herramientas de IA que «impulsen el rendimiento humano en lugar de dañarlo».
El Prof. Holmes teme que los estudiantes, ya sea en la escuela o en la universidad, puedan volverse demasiado dependientes de la IA para hacer su trabajo por ellos y no desarrollar las habilidades fundamentales que proporciona una educación.
Un ensayo de un estudiante podría recibir mejores calificaciones gracias a la ayuda de la IA, pero la cuestión es si terminan entendiendo menos.
Como lo expresa el Prof. Holmes: «Sus resultados son mejores pero en realidad su aprendizaje es peor».
La perspectiva de OpenAI
Jayna Devani, quien lidera la educación internacional en OpenAI – la empresa propietaria de ChatGPT – y ayudó a asegurar un acuerdo con la Universidad de Oxford, dice que la empresa es «muy consciente de este debate ahora mismo».
La Universidad de Oxford comenzó a proporcionar ChatGPT de forma gratuita a estudiantes y personal en septiembre.
«Definitivamente no creemos que los estudiantes deberían usar ChatGPT para externalizar el trabajo», dice a la BBC.
En su opinión, es mejor usado como un tutor en lugar de solo un proveedor de respuestas. El ejemplo que da es de un estudiante teniendo un intercambio con ChatGPT usando la configuración de modo de estudio.
Ingresas la pregunta que tienes dificultades para responder y el chatbot puede desglosar sus componentes y ayudarte a entenderla.
El ejemplo que proporciona es el de un estudiante haciendo una tarea tarde en la noche sobre un tema que no comprende del todo.
«Si tienes una presentación próxima que dar y… son las medianoche, no vas a enviar un email a tu tutor universitario y pedirle ayuda. Creo que el potencial realmente está ahí para que ChatGPT acelere el aprendizaje cuando se usa de manera dirigida».
Recomendaciones para un uso responsable
Sin embargo, el Prof. Holmes insiste en que cualquier estudiante que use herramientas de IA debe ser consciente de cómo funciona su razonamiento y cómo las empresas que las proporcionan manejan los datos. Enfatiza que los resultados siempre deben ser verificados.
«No es solo la última iteración de la calculadora», dice, describiendo las capacidades e implicaciones de gran alcance de la IA.
«Nunca les digo a mis estudiantes que no deberían usar IA… Pero lo que intento decir es: miren, necesitamos entender todas estas diferentes cosas al respecto para que puedan tomar decisiones informadas».










