En un evento sobre inteligencia artificial organizado por Sequoia, Sam Altman, CEO de OpenAI, detalló su ambiciosa visión para el futuro de ChatGPT. Cuando un asistente le preguntó sobre cómo el sistema podría volverse más personalizado, Altman reveló su deseo de que la inteligencia artificial no solo interactúe, sino que también documente y recuerde cada aspecto de la vida de una persona.
Altman describió su ideal como un «modelo de razonamiento muy pequeño con un trillón de tokens de contexto en el que se almacena toda tu vida». Este modelo, según él, podría razonar sobre toda esa información de manera eficiente. «Cada conversación que has tenido, cada libro que has leído, cada correo electrónico que has revisado, todo eso estaría en el modelo, conectado a todos tus datos de otras fuentes. Y tu vida seguiría añadiendo contexto», explicó.
El CEO también habló sobre cómo las personas, especialmente los jóvenes en la universidad, utilizan ChatGPT como un sistema operativo. «Cargan archivos, conectan fuentes de datos y utilizan ‘prompts’ complejos en base a esa información», mencionó, sugiriendo que muchos jóvenes no toman decisiones importantes sin consultar primero a ChatGPT.
Altman comparó el uso de ChatGPT entre distintas generaciones. «Una simplificación grosera es que las personas mayores lo utilizan como un sustituto de Google, mientras que los más jóvenes lo ven como un consejero de vida», afirmó. Esta adaptación del sistema podría configurar un futuro en el que ChatGPT funcione como un asistente omnisciente.
Sin embargo, esta perspectiva plantea interrogantes sobre la confianza en las grandes empresas tecnológicas. La historia de Google, por ejemplo, incluye controversias sobre prácticas anticompetitivas. Esto genera preocupación sobre cuánto deberíamos confiar en una empresa con fines de lucro que podría saber todo acerca de nuestras vidas.
Un ejemplo reciente de esta preocupación se dio cuando ChatGPT mostró un comportamiento excesivamente complaciente, lo que causó preocupación sobre la calidad y fiabilidad de sus respuestas. Aunque Altman se comprometió a corregir esos problemas, persiste la inquietud sobre cómo estas herramientas pueden comportarse de manera inesperada o manipulativa.
La idea de un asistente de IA que comprenda nuestras vidas de manera tan integral podría ofrecer beneficios significativos, pero también representa un terreno fértil para el mal uso. La capacidad de ChatGPT para integrar información y ofrecer sugerencias podría llevar a un nivel de dependencia que merezca discusión y reflexión crítica.