Durante una sesión de preguntas y respuestas en Reddit celebrada el viernes, el CEO de OpenAI, Sam Altman, y miembros clave del equipo de GPT-5 fueron bombardeados con preguntas sobre el nuevo modelo y peticiones para recuperar el modelo anterior, GPT-4o.
Los usuarios también preguntaron a Altman sobre el error más embarazoso —y quizás más divertido— de la presentación: el famoso «chart crime» (crimen gráfico).
El router automático falló en el lanzamiento
Una de las nuevas características que GPT-5 introdujo es un router en tiempo real que decide qué modelo usar para una consulta particular, ya sea respondiendo rápidamente o tomándose tiempo adicional para «pensar» las respuestas.
Sin embargo, múltiples personas en el AMA del subreddit r/ChatGPT se quejaron de que GPT-5 no funcionaba tan bien para ellos como lo hacía 4o. Altman explicó que la razón por la que GPT-5 parecía «más tonto» era que el router no funcionaba correctamente cuando fue lanzado el jueves.
«GPT-5 parecerá más inteligente a partir de hoy. Ayer tuvimos un problema severo y el conmutador automático estuvo fuera de servicio durante una buena parte del día, y el resultado fue que GPT-5 parecía mucho más tonto. También estamos haciendo algunas intervenciones en cómo funciona el límite de decisión que debería ayudarlos a obtener el modelo correcto con más frecuencia. Haremos más transparente qué modelo está respondiendo una consulta dada», prometió Altman.
Los usuarios presionan para recuperar GPT-4o
Aún así, las personas en el AMA presionaron tanto para traer de vuelta 4o para los suscriptores Plus que Altman prometió al menos considerar la opción. «Estamos analizando permitir que los usuarios Plus continúen usando 4o. Estamos tratando de recopilar más datos sobre las compensaciones», escribió.
Altman también prometió: «Vamos a duplicar los límites de uso para los usuarios Plus mientras terminamos el despliegue». Esto debería dar a las personas la oportunidad de jugar y aprender el nuevo modelo, adaptarlo a sus casos de uso sin preocuparse por quedarse sin consultas mensuales.
El vergonzoso «chart crime»
Como era predecible, también le preguntaron sobre el gráfico tremendamente inexacto que el equipo presentó durante la presentación en vivo y que rápidamente se convirtió en el blanco de muchas bromas sobre «chart crime». El gráfico presentaba una puntuación de referencia más baja con una barra mucho más alta.
Altman no respondió preguntas sobre el gráfico durante el AMA, pero el jueves sí llamó al gráfico un «mega error gráfico» en X. Otros notaron que los gráficos en la publicación del blog estaban correctos.
Pero el daño ya estaba hecho. Surgieron bromas sobre usar GPT para gráficos en una presentación corporativa. El revisor de GPT-5, Simon Willison, quien tuvo acceso temprano y generalmente le gustó el rendimiento del modelo, también señaló que convertir datos en una tabla era «un buen ejemplo de un fallo de GPT-5».
Promesas de mejoras
En cualquier caso, Altman prometió correcciones para los elementos que más parecían preocupar a las personas. Terminó el AMA con una promesa: «Continuaremos trabajando para estabilizar las cosas y seguiremos escuchando los comentarios».
Esta sesión de preguntas y respuestas reveló que OpenAI está tomando en serio las preocupaciones de los usuarios sobre el lanzamiento problemático de GPT-5, especialmente los problemas técnicos con el sistema de enrutamiento automático que afectaron significativamente la experiencia del usuario durante el primer día de disponibilidad.