Las empresas de inteligencia artificial están tratando de construir a un dios. ¿No deberían pedir nuestro permiso primero?

Las empresas de inteligencia artificial están impulsando una revolución tecnológica sin precedentes. Están trabajando en máquinas que, eventualmente, podrían superar la inteligencia humana, generando una transformación económica y social de gran alcance. Un ejemplo claro es Sam Altman, CEO de OpenAI (creadores de ChatGPT), quien ha manifestado abiertamente su intención de desarrollar lo que denomina una «inteligencia mágica en el cielo», lo que oficialmente se conoce como inteligencia artificial general (AGI, por sus siglas en inglés). Altman no solo cree que la AGI puede «romper el capitalismo», sino que también la considera «probablemente la mayor amenaza para la continuidad de la humanidad».

Dos manos estilizadas formadas por puntos de luz, representadas de forma digital o pixelada, extendiéndose una hacia la otra. Ambas manos están a punto de tocarse por las yemas de los dedos, evocando una sensación de conexión o creación. En el punto donde los dedos casi se tocan, hay un resplandor brillante que emite luz, simbolizando energía o un momento trascendental. El fondo es oscuro y está compuesto por tonos espaciales y nebulosas, lo que da una impresión de un entorno cósmico o digital abstracto.

Esta declaración plantea una pregunta crucial: ¿quién pidió este tipo de inteligencia artificial? ¿Con qué derecho unos pocos ejecutivos tecnológicos poderosos deciden que el mundo entero debe cambiar de forma radical?

El dilema democrático en la IA

El desarrollo de tecnologías tan disruptivas por parte de empresas privadas sin consultar a la sociedad es, evidentemente, un proceso antidemocrático. Incluso dentro de la propia industria tecnológica se ha expresado inquietud por la falta de participación pública en estas decisiones. Jack Clark, cofundador de la compañía de IA Anthropic, señaló en una entrevista con Vox que es «extraño» que este tipo de proyectos no sea liderado por los gobiernos. Se cuestiona, entre otras cosas, cuánto consentimiento social es necesario antes de implementar cambios irrevocables.

A lo largo de la historia, los tecnólogos han adoptado una postura libertaria, ejemplificada en el lema de Silicon Valley de «moverse rápido y romper cosas», un enfoque que ha dominado el desarrollo de tecnologías como las redes sociales y las plataformas de transporte compartido. Pero, ¿deberíamos permitir que la IA siga este mismo camino?

El malentendido del consentimiento

El argumento de que el uso masivo de aplicaciones como ChatGPT indica el consentimiento de los usuarios es engañoso. El hecho de que millones de personas utilicen la IA no significa que estén plenamente informadas sobre sus riesgos o que apoyen el desarrollo de una inteligencia que pueda superar a la humanidad. La mayoría de la población no es consciente de los costos ambientales y sociales que genera el desarrollo de la IA, como el elevado consumo de energía. Además, muchas personas utilizan tecnologías porque sienten que no tienen otra opción, por miedo a quedar en desventaja profesional o social.

Incluso si aceptamos que los usuarios consienten el uso de una IA limitada para tareas específicas, como la edición de texto o la programación, eso no significa que apoyen la creación de una AGI, cuyo objetivo es mucho más amplio y potencialmente peligroso.

Innovación sin consulta: ¿siempre es válida?

A menudo, se argumenta que grandes innovaciones, como la imprenta o el internet, no surgieron de un consenso social previo. Sin embargo, esos inventos, aunque transformadores, no amenazaban con destruir a la humanidad. Para tecnologías de alto riesgo, como las armas nucleares o biológicas, la sociedad ha intentado implementar mecanismos de supervisión y control globales, como el Tratado de No Proliferación Nuclear o la Convención sobre Armas Biológicas. ¿Por qué no debería ocurrir lo mismo con la inteligencia artificial avanzada?

¿Es inevitable el progreso tecnológico?

Un mito frecuente es que el progreso tecnológico es inevitable y que nada puede detenerlo. Sin embargo, la historia demuestra lo contrario. Hay numerosas tecnologías que hemos decidido no desarrollar o que hemos restringido severamente, como la clonación humana o la modificación genética. El ejemplo de la Conferencia de Asilomar en 1975, donde los investigadores acordaron detener ciertos experimentos de ADN recombinante, muestra que el desarrollo científico puede frenarse si se considera necesario.

Del mismo modo, el Tratado del Espacio Exterior de 1967, que prohíbe la militarización del espacio, refleja la capacidad de la humanidad para regular el uso de tecnologías con potenciales consecuencias globales. Este tratado es invocado hoy en debates sobre si deberíamos enviar mensajes al espacio con la esperanza de contactar con extraterrestres, dado el riesgo de atraer una civilización hostil.

La importancia de la deliberación democrática

Las decisiones que afectan a toda la humanidad, como el desarrollo de una superinteligencia artificial, deben ser tomadas de manera democrática. No se trata de que el público determine los detalles técnicos de la IA, sino de que tenga voz en cuestiones fundamentales como la seguridad y las implicaciones éticas de su desarrollo. Al igual que con armas nucleares o transmisiones interplanetarias, el destino de la inteligencia artificial no debería estar en manos de unos pocos, sino en la deliberación colectiva de todos.

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.