Marvell y Alphabet codesarrollan silicio de inferencia de IA personalizado
Marvell Technology y Alphabet están en negociaciones para codesarrollar dos semiconductores especializados, según informes de la industria. Esta colaboración se centra en custom AI inference silicon diseñado para optimizar las Tensor Processing Units (TPUs) de Google y reducir la dependencia de proveedores de hardware externos.
El proyecto implica el desarrollo de una unidad de procesamiento de memoria (MPU) y una nueva generación de TPUs ajustadas específicamente para tareas de inferencia. Alphabet y Marvell esperan finalizar estos diseños el próximo año, con el objetivo de implementarlos para 2027.
Escalando el silicio de inferencia de IA personalizado para la nube
Este movimiento posiciona a Marvell como un actor central en el competitivo mercado de AI ASIC. Las acciones de Marvell subieron un 6,3% tras los informes sobre la ampliación del acuerdo. La división de silicio personalizado de la compañía ha alcanzado una tasa de ejecución anual de 1.500 millones de dólares, logrando 18 victorias de diseño entre los principales proveedores de la nube. Estos incluyen proyectos de infraestructura para los chips Trainium de Amazon y Maia de Microsoft.
La decisión de Alphabet de profundizar sus vínculos con Marvell sigue a la adquisición de Celestial AI por parte de la firma de semiconductores por 3.250 millones de dólares. Esta adquisición integró la tecnología "Photonic Fabric" en el portafolio de Marvell. La tecnología proporciona capacidades de interconexión de alta velocidad esenciales para las cargas de trabajo de los centros de datos modernos.
El desempeño financiero refleja este crecimiento. Marvell reportó ingresos en centros de datos de 6.100 millones de dólares para el año fiscal 2026. Si bien la compañía mantiene una asociación de silicio de red de 2.000 millones de dólares con Nvidia, este proyecto de custom AI inference silicon desafía directamente el dominio actual de Nvidia en el mercado de infraestructura de IA.
Al desarrollar custom AI inference silicon internamente con Marvell, Google busca mejorar la eficiencia térmica y la potencia de procesamiento de su infraestructura en la nube. A partir de abril de 2026, el cambio hacia el hardware a medida continúa redefiniendo el equilibrio de poder entre los fabricantes de chips tradicionales y los operadores de nube a hiperescala.
Aunque nos esforzamos por la exactitud, bytevyte puede cometer errores. Se aconseja a los usuarios verificar toda la información de forma independiente. No aceptamos ninguna responsabilidad por errores u omisiones.
Related Articles
- Intel y Google Cloud impulsan el rendimiento de la IA con Xeon 6 y silicio personalizado
- Meta y Broadcom amplían su custom AI silicon partnership
- IBM y Arm unen fuerzas para la innovación en dual-architecture AI hardware
✔Human Verified