IBM Research AI ha introducido los Granite 3.2 Language Models, una familia de modelos de lenguaje ajustados para empresas. Los nuevos modelos incluyen el Granite 3.2-2B Instruct, un modelo compacto y muy eficiente optimizado para una inferencia rápida, y el Granite 3.2-8B Instruct, una variante más poderosa capaz de manejar tareas complejas en entornos empresariales. IBM también ha proporcionado un modelo de vista previa de acceso anticipado, Granite 3.2-8B Instruct Preview, que incluye los últimos avances en afinación de instrucciones.
Los modelos Granite 3.2 han sido desarrollados enfocándose en las capacidades de seguimiento de instrucciones, lo que permite respuestas estructuradas y adecuadas a las necesidades empresariales. Estos modelos extienden el ecosistema de IA de IBM más allá de los modelos de incrustación Granite, habilitando una recuperación de texto eficiente y una generación de texto de alta calidad para aplicaciones del mundo real.
Los modelos utilizan una arquitectura basada en transformadores y emplean técnicas de optimización por capas para reducir la latencia mientras preservan la precisión del modelo. Han sido entrenados usando una mezcla de conjuntos de datos empresariales seleccionados y corporas basados en instrucciones, asegurando un rendimiento adecuado en diversas industrias. La variante de dos mil millones de parámetros ofrece una alternativa ligera para empresas que necesitan soluciones de IA rápidas y eficientes, mientras que el modelo de ocho mil millones de parámetros proporciona una comprensión contextual más profunda y una mejor generación de respuestas.
Los resultados de evaluación extensos demuestran que los modelos Granite 3.2 superan a los modelos de lenguaje de instrucción ajustados comparables en tareas empresariales clave. El modelo de 8B muestra mayor precisión en tareas de instrucciones estructuradas que modelos de tamaño similar, mientras que el modelo de 2B logra una latencia de inferencia un 35% menor que las alternativas líderes. Las evaluaciones en métricas de preguntas y respuestas, tareas de resumen y conjuntos de datos de generación de texto indican que los modelos mantienen una alta fluidez y coherencia mientras mejoran la eficiencia.
Principales Conclusiones sobre Granite
- El modelo Granite 3.2-8B ofrece un 82.6% de precisión en tareas de recuperación específicas de dominio, con una ejecución de instrucciones estructuradas un 11% mejor que los modelos de competencia.
- El modelo de 2B reduce la latencia de inferencia en un 35%, haciéndolo adecuado para aplicaciones empresariales de respuesta rápida.
- Los modelos están ajustados con conjuntos de datos seleccionados y técnicas de auto-distilación, mejorando la generación de respuestas estructuradas.
- Los modelos Granite 3.2 superan a los modelos de lenguaje de instrucción ajustados anteriores en tareas de preguntas y respuestas, resumen y generación de texto por un margen notable.
- Estos modelos están diseñados para el uso real y ofrecen una tasa de éxito del 97% en tareas de conversación de múltiples turnos.
- La liberación se realiza bajo la licencia Apache 2.0, permitiendo un despliegue comercial y de investigación sin restricciones.
- IBM planea mejorar aún más los modelos, con posibles expansiones en recuperación multilingüe y eficiencia de memoria optimizada.
Para más detalles técnicos sobre los modelos, puedes consultar el modelo en Hugging Face.