Seguridad de la Inteligencia Artificial, Reino Unido y Estados Unidos firman un acuerdo histórico

El acuerdo firmado establece un marco de cooperación en áreas clave como la transparencia, la equidad, la rendición de cuentas y la seguridad en el desarrollo y despliegue de sistemas de IA. Ambos países se comprometen a trabajar juntos para abordar los desafíos comunes relacionados con la privacidad de los datos, la discriminación algorítmica y la toma de decisiones automatizada. Esta iniciativa busca promover la confianza del público en la IA y garantizar que se utilice de manera ética y responsable en diversos sectores, desde la salud hasta la seguridad nacional.

El pasado lunes, Reino Unido y Estados Unidos firmaron un acuerdo histórico para colaborar en el desarrollo de métodos robustos para evaluar la seguridad de las herramientas de inteligencia artificial (IA) y los sistemas que las sustentan. Este pacto marca el primer acuerdo bilateral de su tipo, con el objetivo de afrontar los riesgos y maximizar el potencial beneficioso de la IA.

La ministra de Tecnología del Reino Unido, Michelle Donelan, destacó la importancia de este desafío tecnológico, subrayando la necesidad de una colaboración global para garantizar el desarrollo seguro de la IA. Este acuerdo se basa en los compromisos adquiridos durante la Cumbre de Seguridad en IA celebrada en Bletchley Park en noviembre de 2023, evento que contó con la presencia de líderes del sector como Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Elon Musk.

La creación de Institutos de Seguridad en IA en ambos países, fruto de esta cumbre, pretende evaluar sistemas de IA tanto de código abierto como cerrado. A pesar de la aparente calma en el frente de la seguridad de la IA, el sector ha estado notablemente activo, manteniendo una competencia intensa entre los principales chatbots de IA.

Hasta ahora, las firmas de IA, principalmente basadas en EE. UU., han colaborado con conceptos regulatorios sin enfrentar restricciones significativas. Sin embargo, la inminente Ley de IA de la UE requerirá que los desarrolladores sean transparentes sobre los riesgos de sus sistemas de IA y compartan información sobre los datos utilizados en el entrenamiento de sus herramientas. Este paso es crucial, especialmente después de que OpenAI decidiera no lanzar una herramienta de clonación de voz por los riesgos que presenta.

Existe una distinción entre la IA «estrecha», capaz de realizar tareas específicas, y la IA «general», que podría realizar una variedad de tareas humanas, lo que plantea riesgos potenciales para la humanidad. Expertos como el Prof. Sir Nigel Shadbolt de la Universidad de Oxford opinan que, aunque los riesgos existenciales de la IA son una preocupación, se deben equilibrar con el reconocimiento de los esfuerzos por investigar y mitigar estos peligros.

Gina Raimondo, secretaria de Comercio de EE. UU., enfatizó que este acuerdo mejorará la comprensión de los sistemas de IA por parte de los gobiernos, lo que permitirá ofrecer una orientación más efectiva sobre los riesgos para la seguridad nacional y la sociedad en general.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.