OpenAI disuelve equipo centrado en riesgos de IA a largo plazo menos de un año después de anunciarlo

OpenAI ha disuelto su equipo dedicado a los riesgos a largo plazo de la inteligencia artificial, apenas un año después de haberlo anunciado, según confirmó una fuente a CNBC el viernes. Algunos miembros del equipo están siendo reasignados a otros grupos dentro de la empresa.

La noticia se produce días después de que los líderes del equipo, Ilya Sutskever, cofundador de OpenAI, y Jan Leike, anunciaran su salida de la startup respaldada por Microsoft. Leike escribió el viernes que la «cultura y procesos de seguridad de OpenAI han quedado en segundo plano frente a productos llamativos».

El equipo de Superalineación de OpenAI, anunciado el año pasado, se centraba en avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que los humanos. OpenAI había prometido dedicar el 20% de su capacidad de computación a esta iniciativa durante cuatro años.

Sutskever y Leike anunciaron sus salidas en la plataforma social X, pero el viernes, Leike compartió más detalles sobre su decisión. «Me uní porque pensaba que OpenAI sería el mejor lugar del mundo para hacer esta investigación», escribió. «Sin embargo, he estado en desacuerdo con la dirección de OpenAI sobre las prioridades principales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura».

Leike cree que la empresa debería enfocarse mucho más en seguridad, monitoreo, preparación, y el impacto social de la IA. «Estos problemas son bastante difíciles de abordar correctamente, y me preocupa que no estemos en una trayectoria adecuada», escribió.

Añadió que OpenAI debe convertirse en una «empresa de AGI con prioridad en la seguridad». «Construir máquinas más inteligentes que los humanos es una empresa inherentemente peligrosa», escribió. «OpenAI está asumiendo una responsabilidad enorme en nombre de toda la humanidad».

El despido de Altman provocó renuncias y amenazas de renuncias, incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI y el descontento de inversores, incluido Microsoft. En menos de una semana, Altman regresó a la empresa y los miembros del consejo que habían votado por su destitución, Helen Toner, Tasha McCauley e Ilya Sutskever, dejaron el consejo.

El martes, Altman compartió sus pensamientos sobre la salida de Sutskever. «Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía de nuestro campo y un querido amigo», escribió Altman en X.

La noticia de las salidas de Sutskever y Leike, y la disolución del equipo de superalineación, se produce días después del lanzamiento de un nuevo modelo de IA y una versión de escritorio de ChatGPT por parte de OpenAI, junto con una interfaz de usuario actualizada. La actualización trae el modelo GPT-4 a todos, incluidos los usuarios gratuitos de OpenAI. La jefa de tecnología, Mira Murati, dijo que el nuevo modelo, GPT-4o, es «mucho más rápido» y con capacidades mejoradas en texto, video y audio.

Fuente

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.