Marvell e Alphabet co-sviluppano silicio personalizzato per l'inferenza AI
Marvell Technology e Alphabet sono in fase di negoziazione per co-sviluppare due semiconduttori specializzati, secondo i report del settore. Questa collaborazione si concentra su custom AI inference silicon progettato per ottimizzare le Tensor Processing Units (TPU) di Google e ridurre la dipendenza da fornitori di hardware terzi.
Il progetto prevede lo sviluppo di una memory processing unit (MPU) e di una nuova generazione di TPU specificamente calibrate per compiti di inferenza. Alphabet e Marvell prevedono di finalizzare questi design già dal prossimo anno, con l'obiettivo di una distribuzione entro il 2027.
Scalare il custom AI inference silicon per il Cloud
Questa mossa posiziona Marvell come un attore centrale nel competitivo mercato degli ASIC per l'AI. Le azioni di Marvell sono salite del 6,3% in seguito alle notizie sull'ampliamento dell'accordo. La divisione custom silicon dell'azienda ha raggiunto un run-rate annuale di 1,5 miliardi di dollari, assicurandosi 18 vittorie di design presso i principali fornitori cloud. Questi includono progetti infrastrutturali per i chip Trainium di Amazon e Maia di Microsoft.
La decisione di Alphabet di approfondire i legami con Marvell segue l'acquisizione da 3,25 miliardi di dollari di Celestial AI da parte della società di semiconduttori. Questa acquisizione ha integrato la tecnologia "Photonic Fabric" nel portafoglio di Marvell. La tecnologia fornisce capacità di interconnessione ad alta velocità essenziali per i moderni carichi di lavoro dei data center.
Le performance finanziarie riflettono questa crescita. Marvell ha riportato ricavi per i data center pari a 6,1 miliardi di dollari per l'anno fiscale 2026. Sebbene l'azienda mantenga una partnership da 2 miliardi di dollari per il silicio di networking con Nvidia, questa iniziativa sul custom AI inference silicon sfida direttamente l'attuale posizione di forza di Nvidia nel mercato delle infrastrutture AI.
Sviluppando internamente custom AI inference silicon con Marvell, Google mira a migliorare l'efficienza termica e la potenza di elaborazione della sua infrastruttura cloud. A partire da aprile 2026, il passaggio verso l'hardware su misura continua a ridefinire l'equilibrio di potere tra i produttori di chip tradizionali e gli operatori cloud iperscalabili.
Sebbene ci impegniamo per l'accuratezza, bytevyte può commettere errori. Si consiglia agli utenti di verificare tutte le informazioni in modo indipendente. Non accettiamo alcuna responsabilità per errori o omissioni.
Related Articles
- Intel e Google Cloud potenziano le prestazioni AI con Xeon 6 e silicio personalizzato
- Meta, Broadcom estendono la Custom AI Silicon Partnership
- Intel e Musk si uniscono per la joint venture Terafab da 25 miliardi di dollari per la produzione di chip AI
✔Human Verified