La Open Source Initiative (OSI) ha presentado una definición oficial de lo que considera una inteligencia artificial (IA) “abierta”, diferenciándose de lo que grandes empresas, como Meta, actualmente denominan de esta forma. Esta iniciativa podría marcar el comienzo de un enfrentamiento con gigantes tecnológicos que, hasta ahora, han promovido sus modelos de IA como abiertos, pero que no cumplen con los nuevos estándares establecidos por OSI.

Computadora de escritorio antigua con monitor CRT, teclado y ratón sobre un fondo de color naranja con patrones de código binario en rojo. En la pantalla de la computadora se muestra un dibujo de un cerebro en color blanco sobre fondo azul, simbolizando la inteligencia artificial o la tecnología de aprendizaje automático.

La OSI ha liderado históricamente el estándar de software de código abierto, pero la IA incorpora elementos que complican su categorización dentro de las licencias convencionales, como los datos usados en el entrenamiento del modelo. Según la nueva definición de OSI, un sistema de IA puede considerarse verdaderamente abierto si proporciona:

  • Acceso a los detalles de los datos de entrenamiento, permitiendo que otros puedan entender y recrear el modelo.
  • El código completo usado para desarrollar y ejecutar la IA.
  • Los ajustes y ponderaciones del entrenamiento que guían los resultados de la IA.

Esta definición plantea un desafío directo a modelos como Llama, de Meta, el cual se presenta como uno de los sistemas de IA abiertos más avanzados. Aunque Llama está disponible para su descarga y uso público, limita el uso comercial para aplicaciones con más de 700 millones de usuarios y no proporciona acceso a los datos de entrenamiento, lo que lo sitúa fuera de los estándares de OSI. Según la iniciativa, estas limitaciones comprometen la libertad para utilizar, modificar y compartir el modelo sin restricciones.

Una portavoz de Meta, Faith Eischen, respondió en una entrevista con The Verge, afirmando que, aunque comparten muchos puntos en común con OSI, no están de acuerdo con esta nueva definición, ya que “no existe una única definición de IA de código abierto, y definirla resulta un desafío por las complejidades de los modelos de IA actuales”.

Meta, sin embargo, aseguró que continuará colaborando con OSI y otros organismos para hacer que la IA sea más accesible de manera responsable, sin depender de definiciones técnicas.

Desde hace 25 años, la definición de software de código abierto de OSI ha sido ampliamente aceptada, permitiendo a los desarrolladores construir sobre el trabajo de otros sin temores de litigios o restricciones de licencias. Con el auge de la IA, los principios de apertura están siendo puestos a prueba, y los gigantes tecnológicos deberán decidir si adoptan estos valores o buscan alternativas. La Fundación Linux también ha intentado recientemente establecer su propia definición de IA abierta, lo que demuestra que el debate sobre cómo adaptar los valores de código abierto a la IA está ganando relevancia.

El CEO de Hugging Face, Clément Delangue, describió la definición de OSI como “una gran ayuda para orientar la conversación sobre apertura en IA, especialmente en relación con el papel crucial de los datos de entrenamiento”.

Para Stefano Maffulli, director ejecutivo de OSI, la nueva definición es resultado de dos años de colaboración con expertos de diversas áreas, incluidas universidades, especialistas en procesamiento de lenguaje natural y expertos en derechos de autor y licencias libres. Aunque Meta argumenta que la restricción de sus datos de entrenamiento responde a preocupaciones de seguridad, los críticos sugieren que la motivación principal es reducir su responsabilidad legal y proteger su ventaja competitiva en el mercado.

Este debate también recuerda los conflictos de la industria en los años 90, cuando Microsoft veía al software de código abierto como una amenaza para su modelo de negocio. Maffulli compara esa época con el momento actual en IA: “Meta está repitiendo los mismos argumentos”, explicó, señalando que los altos costes y la complejidad son utilizados como justificación para mantener la tecnología cerrada. Los datos de entrenamiento, según Maffulli, representan el “ingrediente secreto” y el valor intelectual clave de estos modelos de IA.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí