bytevyte
bytevyte
Language
ai-beats-es

IBM presenta Granite Embedding Multilingual R2 con una ventana de contexto ampliada de 32K

Granite Embedding Multilingual R2

IBM ha lanzado el Granite Embedding Multilingual R2, una nueva generación de modelos de text embedding diseñados para manejar conjuntos de datos masivos en cientos de idiomas. Esta actualización, anunciada esta semana, introduce una ventana de contexto de 32,768 tokens. Esto representa un aumento de 64 veces respecto a la versión R1 anterior. Al ampliar la cantidad de datos que el modelo puede procesar en una sola pasada, IBM se enfoca en las necesidades empresariales de recuperación de documentos extensos y análisis de datos complejos.

El lanzamiento incluye dos versiones distintas: un modelo de tamaño completo de 311 millones de parámetros y un modelo compacto de 97 millones de parámetros. Ambas versiones están disponibles bajo la licencia Apache 2.0 en Hugging Face. Estos modelos admiten más de 200 idiomas e incluyen entrenamiento de recuperación especializado para 52 idiomas y nueve lenguajes de programación. Esto los hace aplicables para el desarrollo de software global y entornos corporativos multinacionales.

Eficiencia técnica y despliegue flexible

El Granite Embedding Multilingual R2 está construido sobre la arquitectura ModernBERT, que incorpora Flash Attention 2.0 y rotary position embeddings para mantener el rendimiento durante operaciones de contexto largo. Una característica clave del modelo 311M es el uso de Matryoshka Representation Learning. Esta técnica permite a los desarrolladores truncar los embeddings de 768 dimensiones a 128 dimensiones. Esta flexibilidad permite reducir los costes de almacenamiento y aumentar la velocidad de recuperación con un impacto mínimo en la precisión.

Para el edge computing y escenarios de alto rendimiento, el modelo de 97M parámetros ofrece una alternativa ligera. IBM afirma que esta versión más pequeña supera a muchos competidores de mayor tamaño en su clase en los benchmarks de MTEB. Los datos de entrenamiento para ambos modelos fueron seleccionados para evitar conjuntos de datos con restricciones no comerciales. Esto garantiza que las empresas puedan desplegar estas herramientas sin complicaciones legales relacionadas con la procedencia de los datos.

Impacto estratégico en la búsqueda empresarial

El cambio a una ventana de contexto de 32K aborda un cuello de botella en los sistemas de Retrieval-Augmented Generation (RAG). La mayoría de los modelos de embedding estándar están limitados a 512 tokens, lo que obliga a los desarrolladores a fragmentar los documentos en trozos pequeños. Con el Granite Embedding Multilingual R2, las organizaciones pueden procesar manuales técnicos completos o contratos legales como unidades individuales. Esto mejora la relevancia de las respuestas generadas por IA.

La decisión de IBM de utilizar la licencia Apache 2.0 posiciona a estos modelos como una alternativa directa a las ofertas propietarias de proveedores de código cerrado. La empresa se dirige a los CTO y líderes tecnológicos que priorizan la soberanía de los datos y el escalado rentable. La inclusión de soporte para lenguajes de programación sugiere un enfoque en la codificación asistida por IA y la modernización de sistemas heredados.

Los modelos son actualmente accesibles para pruebas e integración a través de la plataforma Hugging Face. Los desarrolladores ya pueden integrar estos embeddings en flujos de trabajo de producción que requieren el procesamiento de contenido multilingüe de formato largo con tamaños de vector eficientes.

Aunque nos esforzamos por la exactitud, bytevyte puede cometer errores. Se aconseja a los usuarios verificar toda la información de forma independiente. No aceptamos ninguna responsabilidad por errores u omisiones.

✔Human Verified

Share