bytevyte
bytevyte
Language
ai-beats-de

Marvell und Alphabet entwickeln gemeinsam Custom AI Inference Silicon

maßgeschneiderte KI-Inferenz-Chips

Marvell Technology und Alphabet befinden sich laut Branchenberichten in Verhandlungen über die gemeinsame Entwicklung von zwei spezialisierten Halbleitern. Diese Zusammenarbeit konzentriert sich auf custom AI inference silicon, das darauf ausgelegt ist, die Tensor Processing Units (TPUs) von Google zu optimieren und die Abhängigkeit von Drittanbietern für Hardware zu verringern.

Das Projekt umfasst die Entwicklung einer Memory Processing Unit (MPU) und einer neuen Generation von TPUs, die speziell auf Inference-Aufgaben abgestimmt sind. Alphabet und Marvell erwarten, diese Designs bereits im nächsten Jahr fertigzustellen, wobei der Einsatz für 2027 geplant ist.

Skalierung von Custom AI Inference Silicon für die Cloud

Dieser Schritt positioniert Marvell als zentralen Akteur im wettbewerbsintensiven AI-ASIC-Markt. Die Aktien von Marvell stiegen nach Berichten über den erweiterten Deal um 6,3 %. Die Custom-Silicon-Sparte des Unternehmens hat eine jährliche Run-Rate von 1,5 Milliarden US-Dollar erreicht und 18 Design-Wins bei großen Cloud-Anbietern gesichert. Dazu gehören Infrastrukturprojekte für Amazons Trainium- und Microsofts Maia-Chips.

Alphabets Entscheidung, die Verbindung zu Marvell zu vertiefen, folgt auf die 3,25 Milliarden US-Dollar schwere Übernahme von Celestial AI durch das Halbleiterunternehmen. Diese Akquisition integrierte die "Photonic Fabric"-Technologie in das Portfolio von Marvell. Die Technologie bietet Hochgeschwindigkeits-Interconnect-Funktionen, die für moderne Rechenzentrum-Workloads unerlässlich sind.

Die finanzielle Performance spiegelt dieses Wachstum wider. Marvell meldete für das Geschäftsjahr 2026 einen Umsatz im Bereich Datencenter von 6,1 Milliarden US-Dollar. Während das Unternehmen eine 2 Milliarden US-Dollar schwere Partnerschaft für Networking-Silicon mit Nvidia unterhält, fordert dieses custom AI inference silicon-Vorhaben die aktuelle Vormachtstellung von Nvidia auf dem Markt für KI-Infrastruktur direkt heraus.

Durch die interne Entwicklung von custom AI inference silicon mit Marvell strebt Google danach, die thermische Effizienz und Rechenleistung seiner Cloud-Infrastruktur zu verbessern. Stand April 2026 definiert der Trend hin zu maßgeschneiderter Hardware das Machtgefüge zwischen traditionellen Chipherstellern und Hyperscale-Cloud-Betreibern weiterhin neu.

Obwohl wir uns um Genauigkeit bemühen, kann bytevyte Fehler machen. Benutzern wird empfohlen, alle Informationen unabhängig zu überprüfen. Wir übernehmen keine Haftung für Fehler oder Auslassungen.

✔Human Verified

Share