OpenAI y Anthropic permiten al gobierno de EE. UU. acceder a modelos de IA antes de su lanzamiento para mejorar su seguridad

OpenAI y Anthropic han llegado a un acuerdo con el gobierno de Estados Unidos para permitir que este tenga acceso a sus nuevos modelos de inteligencia artificial (IA) antes de su lanzamiento público. Según lo anunciado por el Instituto de Seguridad en IA de EE. UU. el jueves, las compañías han firmado memorandos de entendimiento para compartir sus modelos tanto antes como después de ser lanzados al público. El objetivo de esta medida es colaborar en la evaluación de los riesgos de seguridad y mitigar posibles problemas asociados con la IA. Además, el gobierno estadounidense trabajará junto a su contraparte británica para proporcionar retroalimentación sobre las mejoras necesarias en la seguridad de estos modelos.

Ilustración abstracta que representa un cerebro anaranjado dentro de un marco de robot blanco con formas geométricas simples para los ojos, nariz y boca. El fondo es un patrón de líneas onduladas en tonos azules, creando un efecto visual de profundidad y movimiento. La imagen sugiere una combinación entre inteligencia artificial y funciones cerebrales, destacando la relación entre la mente humana y la tecnología.

Este paso es crucial en un momento en el que los legisladores a nivel federal y estatal están considerando la implementación de medidas de control sobre la tecnología de IA, buscando equilibrar la seguridad sin frenar la innovación. En California, por ejemplo, se aprobó recientemente la ley SB 1047, conocida como Ley de Innovación Segura y Protegida para Modelos Avanzados de Inteligencia Artificial de Vanguardia. Esta legislación exige que las empresas de IA tomen precauciones específicas antes de entrenar modelos avanzados. Sin embargo, ha generado críticas de empresas como OpenAI y Anthropic, quienes advierten que podría perjudicar a los desarrolladores de código abierto más pequeños. La ley ha sido modificada y está pendiente de la firma del gobernador Gavin Newsom.

Mientras tanto, la Casa Blanca ha trabajado para asegurar compromisos voluntarios de las principales empresas tecnológicas en relación con las medidas de seguridad en IA. Varias de estas compañías han aceptado compromisos no vinculantes para invertir en ciberseguridad, investigación sobre discriminación y el desarrollo de técnicas para marcar el contenido generado por IA.

Elizabeth Kelly, directora del Instituto de Seguridad en IA de EE. UU., declaró que estos nuevos acuerdos son «solo el comienzo, pero representan un hito importante en nuestro esfuerzo por gestionar de manera responsable el futuro de la IA.»

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.