La empresa de inteligencia artificial más poderosa del mundo acaba de admitir que necesita ayuda de uno de sus mayores rivales para mantenerse a flote.
OpenAI, la empresa detrás de ChatGPT, ha añadido silenciosamente a Google Cloud como uno de sus proveedores oficiales de servicios, lo que significa que Google ahora ayudará a alimentar los sistemas que ejecutan ChatGPT y otros productos de IA.
Este desarrollo fue revelado en el sitio web de OpenAI en una lista de lo que se denominan sub-procesadores, o empresas que manejan o procesan datos de usuarios en nombre de OpenAI.
Para los usuarios cotidianos, puede no parecer gran cosa. Pero entre bastidores, es un cambio importante.
OpenAI, que cuenta con el respaldo de Microsoft, a menudo ha sido vista como un competidor directo de Google en la carrera por construir y monetizar la inteligencia artificial. Ambas empresas han invertido miles de millones en IA y compiten en todo, desde el rendimiento de chatbots hasta el dominio de motores de búsqueda. Ahora, OpenAI está alquilando espacio de servidor y poder computacional de la misma empresa a la que está tratando de vencer.
Por qué está sucediendo esto
A principios de este año, el CEO de OpenAI, Sam Altman, hizo una serie de publicaciones públicas en X (anteriormente Twitter) admitiendo que la empresa estaba luchando con problemas de infraestructura. No había suficientes unidades de procesamiento gráfico —conocidas como GPU— para satisfacer la demanda de los usuarios. Las GPU son los chips especializados que permiten que los modelos de IA como ChatGPT operen a gran escala. Son costosas, difíciles de encontrar y principalmente controladas por unos pocos gigantes tecnológicos.
Altman lo expresó sin rodeos en abril: «Estamos controlando las cosas, pero deberían esperar que los nuevos lanzamientos de OpenAI se retrasen, que las cosas se rompan y que el servicio a veces sea lento mientras lidiamos con desafíos de capacidad».
Más tarde agregó: «¡Si alguien tiene capacidad de GPU en bloques de 100,000 que podamos obtener lo antes posible, por favor llame!»
«trabajando tan rápido como podemos para que las cosas realmente funcionen; ¡si alguien tiene capacidad de GPU en bloques de 100k que podamos obtener lo antes posible, por favor llame!»
Aparentemente, eso no era una broma.
En los meses siguientes, OpenAI ha trabajado silenciosamente para estabilizar sus sistemas. Y ahora sabemos cómo. Al asociarse con Google Cloud, OpenAI obtiene acceso a algunos del hardware de IA más avanzado y la infraestructura de centros de datos más sofisticada del mundo. Google, como Amazon y Microsoft, opera granjas masivas de servidores que alquilan poder computacional a otras empresas. Y a diferencia de OpenAI, tiene suficientes chips para satisfacer la demanda.
Qué significa esto para los usuarios
Si has notado que ChatGPT se ralentiza o falla en las últimas semanas, es probable que sea resultado de la demanda abrumadora en los servidores de OpenAI. Millones de personas ahora usan la herramienta diariamente, y la infraestructura de la empresa no se ha escalado lo suficientemente rápido para manejarlo.
Con Google ahora a bordo, OpenAI puede ser capaz de entregar respuestas más rápidas, tiempo de actividad más confiable y futuros lanzamientos de características que previamente habían sido retrasados. También le da a OpenAI espacio para respirar y enfocarse en su investigación central y desarrollo de productos sin verse frenada por la escasez de hardware.
Big Tech sigue siendo la columna vertebral
Esta asociación también revela algo más profundo sobre el futuro de la IA. Incluso mientras las empresas hablan de independencia, descentralización y disrupción, la realidad es que un puñado de gigantes tecnológicos aún controlan las herramientas esenciales. Ya sea a través de chips, centros de datos o infraestructura en la nube, empresas como Google, Microsoft y Amazon siguen siendo la columna vertebral de todo lo que está en línea, incluida la inteligencia artificial.
Así que mientras OpenAI y Google pueden ser rivales en la superficie, ahora están trabajando silenciosamente juntos entre bastidores. Y para los usuarios, eso significa que el futuro de la IA puede estar más interconectado de lo que cualquiera esperaba.