IBM enthüllt Granite Embedding Multilingual R2 mit erweitertem 32K-Kontextfenster
IBM hat das Granite Embedding Multilingual R2 veröffentlicht, eine neue Generation von Text-Embedding-Modellen, die für die Verarbeitung massiver Datensätze in hunderten von Sprachen entwickelt wurden. Dieses Update, das diese Woche angekündigt wurde, führt ein Kontextfenster von 32.768 Token ein. Dies entspricht einer 64-fachen Steigerung gegenüber der vorherigen R1-Version. Durch die Erweiterung der Datenmenge, die das Modell in einem einzigen Durchgang verarbeiten kann, zielt IBM auf die Anforderungen von Unternehmen für das Retrieval von Langform-Dokumenten und komplexe Datenanalysen ab.
Die Veröffentlichung umfasst zwei verschiedene Versionen: ein Full-Size-Modell mit 311 Millionen Parametern und ein kompaktes Modell mit 97 Millionen Parametern. Beide Versionen sind unter der Apache 2.0-Lizenz auf Hugging Face verfügbar. Diese Modelle unterstützen mehr als 200 Sprachen und beinhalten spezialisiertes Retrieval-Training für 52 Sprachen sowie neun Programmiersprachen. Dies macht sie für die globale Softwareentwicklung und multinationale Unternehmensumgebungen einsetzbar.
Technische Effizienz und flexible Bereitstellung
Das Granite Embedding Multilingual R2 basiert auf der ModernBERT-Architektur, die Flash Attention 2.0 und Rotary Position Embeddings integriert, um die Performance bei Operationen mit langem Kontext aufrechtzuerhalten. Ein Hauptmerkmal des 311M-Modells ist die Verwendung von Matryoshka Representation Learning. Diese Technik ermöglicht es Entwicklern, Embeddings von 768 Dimensionen auf bis zu 128 Dimensionen zu kürzen. Diese Flexibilität ermöglicht Reduzierungen bei den Speicherkosten und erhöht die Retrieval-Geschwindigkeit bei minimalen Auswirkungen auf die Genauigkeit.
Für Edge Computing und Szenarien mit hohem Durchsatz bietet das 97M-Parameter-Modell eine leichtgewichtige Alternative. IBM gibt an, dass diese kleinere Version viele größere Wettbewerber in ihrer Klasse bei MTEB-Benchmarks übertrifft. Die Trainingsdaten für beide Modelle wurden so kuratiert, dass Datensätze mit nicht-kommerziellen Beschränkungen vermieden wurden. Dies stellt sicher, dass Unternehmen diese Tools ohne rechtliche Komplikationen hinsichtlich der Datenherkunft einsetzen können.
Strategische Auswirkungen auf die Unternehmenssuche
Der Wechsel zu einem 32K-Kontextfenster behebt einen Engpass in Retrieval-Augmented Generation (RAG)-Systemen. Die meisten Standard-Embedding-Modelle sind auf 512 Token beschränkt, was Entwickler dazu zwingt, Dokumente in kleine Stücke zu zerlegen. Mit dem Granite Embedding Multilingual R2 können Organisationen ganze technische Handbücher oder rechtliche Verträge als einzelne Einheiten verarbeiten. Dies verbessert die Relevanz von KI-generierten Antworten.
IBMs Entscheidung, die Apache 2.0-Lizenz zu verwenden, positioniert diese Modelle als direkte Alternative zu proprietären Angeboten von Closed-Source-Anbietern. Das Unternehmen richtet sich an CTOs und Tech-Leader, die Datensouveränität und kosteneffiziente Skalierung priorisieren. Die Einbeziehung der Unterstützung von Programmiersprachen deutet auf einen Fokus auf KI-gestützte Codierung und die Modernisierung von Legacy-Systemen hin.
Die Modelle sind derzeit für Tests und Integration über die Hugging Face-Plattform zugänglich. Entwickler können diese Embeddings nun in Produktions-Workflows integrieren, die die Verarbeitung von mehrsprachigen Langform-Inhalten mit effizienten Vektorgrößen erfordern.
Obwohl wir um Genauigkeit bemüht sind, kann bytevyte Fehler machen. Benutzern wird empfohlen, alle Informationen unabhängig zu überprüfen. Wir übernehmen keine Haftung für Fehler oder Auslassungen.
Related Articles
- Google erweitert Gemini API File Search mit multimodaler Unterstützung und Zitaten
- MongoDB 8.3 debütiert mit Automated Voyage AI Embeddings für Production GenAI
- Amazon Bedrock führt Metadaten-Filterung für das Langzeitgedächtnis von KI-Agenten ein, um die Abrufgenauigkeit zu verbessern
✔Human Verified