OpenAI desintegra su equipo de seguridad mientras su director advierte que ‘Nadie está preparado para la Inteligencia Artificial General’

OpenAI está experimentando importantes cambios estructurales y salidas de personal clave, específicamente con la disolución de su equipo de «Preparación para AGI» (Inteligencia Artificial General). Miles Brundage, quien dirigía este equipo, anunció su salida de la empresa a través de un post en Substack, citando varios motivos:

  1. Considera que su investigación tendría mayor impacto desde fuera de la empresa
  2. Busca mantener una perspectiva menos sesgada
  3. Siente que ha cumplido sus objetivos en OpenAI
El logotipo de OpenAI repetido en un patrón sobre un fondo negro. El logotipo consiste en un diseño geométrico de líneas entrelazadas en color blanco que forma una especie de nudo o símbolo infinito estilizado. En el centro de la imagen aparece el texto "OpenAI" en color blanco. El contraste entre el blanco y negro crea un efecto visual llamativo y moderno.

Brundage hizo una declaración significativa al partir: «Ni OpenAI ni ningún otro laboratorio de vanguardia está preparado, y el mundo tampoco lo está» para la AGI. Planea establecer su propia organización sin fines de lucro o unirse a una existente para enfocarse en investigación y política de IA.

Este no es un caso aislado en OpenAI. La empresa ha experimentado varios cambios significativos recientemente:

  • La disolución del equipo de «Superalignment» en mayo de 2023, apenas un año después de su creación
  • La salida de tres ejecutivos importantes: Mira Murati (CTO), Bob McGrew (jefe de investigación) y Barret Zoph (VP de investigación)
  • La reasignación de Aleksander Madry, uno de sus principales ejecutivos de seguridad

En términos financieros, OpenAI:

  • Cerró una ronda de financiación valorando la empresa en $157 mil millones
  • Recibió una línea de crédito rotativa de $4 mil millones
  • Espera pérdidas de aproximadamente $5 mil millones sobre ingresos de $3.7 mil millones este año

El artículo también destaca preocupaciones crecientes sobre la seguridad y la supervisión en OpenAI:

  • Un grupo de empleados actuales y antiguos publicó una carta abierta expresando preocupaciones sobre el rápido avance de la IA sin supervisión adecuada
  • La FTC y el Departamento de Justicia planean investigaciones antimonopolio sobre OpenAI, Microsoft y Nvidia
  • Jan Leike, ex líder del equipo de Superalignment, expresó preocupaciones sobre la cultura de seguridad de la empresa, indicando que «la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos»

Estos cambios ocurren en medio de una carrera armamentista de IA generativa, donde se prevé que el mercado supere el billón de dólares en ingresos en una década. Las preocupaciones principales giran en torno a:

  1. La falta de protecciones para denunciantes
  2. Los incentivos financieros que tienen las empresas para evitar una supervisión efectiva
  3. La limitada obligación de compartir información crucial sobre riesgos y medidas de seguridad con gobiernos y sociedad civil

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.