El exdirector de la Agencia de Seguridad Nacional (NSA), el general retirado Paul Nakasone, se unirá a la junta directiva de OpenAI, según anunció la compañía de inteligencia artificial el jueves por la tarde. Además, formará parte del subcomité de «seguridad y protección» de la junta.

Esta incorporación de alto perfil parece tener como objetivo satisfacer a los críticos que consideran que OpenAI está avanzando más rápido de lo prudente para sus clientes y posiblemente para la humanidad, lanzando modelos y servicios sin evaluar adecuadamente sus riesgos o asegurar su seguridad.

Nakasone aporta décadas de experiencia en el Ejército, el Comando Cibernético de EE. UU. y la NSA. Independientemente de las opiniones sobre las prácticas y decisiones de estas organizaciones, no se le puede acusar de falta de experiencia.

A medida que OpenAI se consolida como un proveedor de inteligencia artificial no solo para la industria tecnológica, sino también para el gobierno, la defensa y grandes empresas, este tipo de conocimiento institucional es valioso tanto por sí mismo como para tranquilizar a los accionistas preocupados. (Sin duda, las conexiones que trae consigo en el aparato estatal y militar también son bien recibidas).

«La dedicación de OpenAI a su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público», dijo Nakasone en un comunicado de prensa.

Esto parece ser cierto: Nakasone y la NSA recientemente defendieron la práctica de comprar datos de procedencia cuestionable para alimentar sus redes de vigilancia, argumentando que no hay ninguna ley que lo prohíba. OpenAI, por su parte, ha tomado grandes cantidades de datos de internet, argumentando, cuando se le ha descubierto, que no hay ninguna ley que lo prohíba. Parecen compartir la misma mentalidad de pedir perdón en lugar de permiso, si es que piden alguno.

El comunicado de OpenAI también afirma:

«Los conocimientos de Nakasone también contribuirán a los esfuerzos de OpenAI para comprender mejor cómo la inteligencia artificial puede utilizarse para fortalecer la ciberseguridad mediante la rápida detección y respuesta a las amenazas cibernéticas. Creemos que la IA tiene el potencial de ofrecer beneficios significativos en este ámbito para muchas instituciones que son frecuentemente objetivo de ciberataques, como hospitales, escuelas e instituciones financieras.»

Así que también se trata de una nueva jugada de mercado.

Nakasone se unirá al comité de seguridad y protección de la junta, que es «responsable de hacer recomendaciones a la junta completa sobre decisiones críticas de seguridad y protección para los proyectos y operaciones de OpenAI». Aún se desconoce qué hará exactamente esta entidad recién creada y cómo operará, ya que varios de los altos cargos que trabajaban en seguridad (en cuanto a riesgos de IA) han dejado la compañía, y el comité está en medio de una evaluación de 90 días de los procesos y salvaguardas de la empresa.

Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí