Marvell et Alphabet co-développent du silicium d'inférence IA personnalisé
Marvell Technology et Alphabet sont en négociations pour co-développer deux semi-conducteurs spécialisés, selon des rapports de l'industrie. Cette collaboration se concentre sur du custom AI inference silicon conçu pour optimiser les Tensor Processing Units (TPUs) de Google et réduire la dépendance vis-à-vis des fournisseurs de matériel tiers.
Le projet implique le développement d'une unité de traitement de mémoire (MPU) et d'une nouvelle génération de TPUs spécifiquement réglés pour les tâches d'inférence. Alphabet et Marvell prévoient de finaliser ces conceptions dès l'année prochaine, avec un objectif de déploiement d'ici 2027.
Mise à l'échelle du silicium d'inférence IA personnalisé pour le Cloud
Cette initiative positionne Marvell comme un acteur central sur le marché concurrentiel des ASIC d'IA. Les actions de Marvell ont grimpé de 6,3 % suite aux rapports sur l'extension de cet accord. La division de silicium personnalisé de l'entreprise a atteint un taux de rendement annuel de 1,5 milliard de dollars, décrochant 18 contrats de conception auprès des principaux fournisseurs de cloud. Ceux-ci incluent des projets d'infrastructure pour les puces Trainium d'Amazon et Maia de Microsoft.
La décision d'Alphabet d'approfondir ses liens avec Marvell fait suite à l'acquisition de Celestial AI par la firme de semi-conducteurs pour 3,25 milliards de dollars. Cette acquisition a intégré la technologie « Photonic Fabric » au portefeuille de Marvell. Cette technologie offre des capacités d'interconnexion à haute vitesse essentielles pour les charges de travail des centres de données modernes.
Les performances financières reflètent cette croissance. Marvell a déclaré un chiffre d'affaires de 6,1 milliards de dollars pour le secteur des centres de données pour l'exercice fiscal 2026. Bien que l'entreprise maintienne un partenariat de 2 milliards de dollars avec Nvidia pour le silicium de mise en réseau, ce projet de custom AI inference silicon défie directement l'emprise actuelle de Nvidia sur le marché des infrastructures d'IA.
En développant du custom AI inference silicon en interne avec Marvell, Google vise à améliorer l'efficacité thermique et la puissance de traitement de son infrastructure cloud. En avril 2026, le passage vers du matériel sur mesure continue de redéfinir l'équilibre des forces entre les fabricants de puces traditionnels et les opérateurs de cloud hyperscale.
Bien que nous nous efforcions d'être précis, bytevyte peut commettre des erreurs. Il est conseillé aux utilisateurs de vérifier toutes les informations de manière indépendante. Nous déclinons toute responsabilité en cas d'erreurs ou d'omissions.
Related Articles
- Intel et Google Cloud boostent les performances de l'IA avec Xeon 6 et du silicium personnalisé
- Meta et Broadcom étendent leur partenariat sur le silicium IA personnalisé
- Intel et Musk s'unissent pour le projet Terafab : une coentreprise de 25 milliards de dollars pour la fabrication de puces IA
✔Human Verified