OpenAI está experimentando importantes cambios estructurales y salidas de personal clave, específicamente con la disolución de su equipo de «Preparación para AGI» (Inteligencia Artificial General). Miles Brundage, quien dirigía este equipo, anunció su salida de la empresa a través de un post en Substack, citando varios motivos:
- Considera que su investigación tendría mayor impacto desde fuera de la empresa
- Busca mantener una perspectiva menos sesgada
- Siente que ha cumplido sus objetivos en OpenAI
Brundage hizo una declaración significativa al partir: «Ni OpenAI ni ningún otro laboratorio de vanguardia está preparado, y el mundo tampoco lo está» para la AGI. Planea establecer su propia organización sin fines de lucro o unirse a una existente para enfocarse en investigación y política de IA.
Este no es un caso aislado en OpenAI. La empresa ha experimentado varios cambios significativos recientemente:
- La disolución del equipo de «Superalignment» en mayo de 2023, apenas un año después de su creación
- La salida de tres ejecutivos importantes: Mira Murati (CTO), Bob McGrew (jefe de investigación) y Barret Zoph (VP de investigación)
- La reasignación de Aleksander Madry, uno de sus principales ejecutivos de seguridad
En términos financieros, OpenAI:
- Cerró una ronda de financiación valorando la empresa en $157 mil millones
- Recibió una línea de crédito rotativa de $4 mil millones
- Espera pérdidas de aproximadamente $5 mil millones sobre ingresos de $3.7 mil millones este año
El artículo también destaca preocupaciones crecientes sobre la seguridad y la supervisión en OpenAI:
- Un grupo de empleados actuales y antiguos publicó una carta abierta expresando preocupaciones sobre el rápido avance de la IA sin supervisión adecuada
- La FTC y el Departamento de Justicia planean investigaciones antimonopolio sobre OpenAI, Microsoft y Nvidia
- Jan Leike, ex líder del equipo de Superalignment, expresó preocupaciones sobre la cultura de seguridad de la empresa, indicando que «la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos»
Estos cambios ocurren en medio de una carrera armamentista de IA generativa, donde se prevé que el mercado supere el billón de dólares en ingresos en una década. Las preocupaciones principales giran en torno a:
- La falta de protecciones para denunciantes
- Los incentivos financieros que tienen las empresas para evitar una supervisión efectiva
- La limitada obligación de compartir información crucial sobre riesgos y medidas de seguridad con gobiernos y sociedad civil