Nvidia busca una parte del pastel de silicio personalizado, aparentemente forma una unidad para ofrecer propiedad intelectual.
Según informes, Nvidia está creando una unidad de negocio para ofrecer su propiedad intelectual y servicios de diseño a empresas como AWS, Microsoft y Meta.
Este cambio corporativo responde al creciente número de proveedores de servicios en la nube y grandes escaladores que están desarrollando alternativas internas a las GPUs de Nvidia para la inteligencia artificial y otras cargas de trabajo aceleradas, según un informe de Reuters que cita múltiples fuentes familiarizadas con el asunto.
Amazon Web Services fue uno de los primeros en implementar silicio personalizado en sus centros de datos con sus GPUs Graviton hace más de cinco años y desde entonces ha ampliado su línea para incluir smartNICs y aceleradores de IA. De manera similar, las unidades de procesamiento tensorial (TPUs) de Google, una alternativa a las GPUs para las cargas de trabajo de entrenamiento e inferencia de IA, han estado en desarrollo desde 2015, pero solo han estado disponibles para el público desde 2017.
Sin embargo, ha sido más recientemente que Microsoft y Meta, dos de los mayores consumidores de GPUs de Nvidia para IA generativa, han comenzado a implementar silicio personalizado propio. La semana pasada, observamos los últimos chips de inferencia de Meta, que planea implementar a gran escala en sus centros de datos para alimentar modelos de recomendación de aprendizaje profundo. Mientras tanto, Microsoft reveló sus aceleradores de IA Maia 100 el otoño pasado, diseñados para el entrenamiento e inferencia de modelos de lenguaje grandes.
Aunque personalizados en el sentido de que están construidos y optimizados para las cargas de trabajo internas de un proveedor de servicios en la nube, estos chips a menudo dependen de propiedad intelectual de empresas como Marvell o Broadcom. Como informamos el otoño pasado, las TPUs de Google hacen un uso extensivo de tecnologías de Broadcom para cosas como interfaces de serie-deserializador de alta velocidad, o SerDes, que permiten que los chips se comuniquen con el mundo exterior.
Por su parte, Nvidia ha desarrollado y adquirido una cantidad considerable de propiedad intelectual relacionada con todo, desde procesamiento paralelo hasta redes y telas de interconexión.
Según informes, los ejecutivos de Nvidia ven la oportunidad de imitar a Broadcom y parcelar estas tecnologías, y ya se han acercado a Amazon, Meta, Microsoft, Google y OpenAI con respecto a la perspectiva de desarrollar chips personalizados basados en sus diseños. Nvidia también ha abordado a clientes de telecomunicaciones, automotrices y de videojuegos con ofertas similares, se afirma.
El cortejo de Nvidia a Google es particularmente interesante ya que el año pasado comenzó a circular un rumor ahora disputado de que el gigante de las búsquedas estaba planeando cortar lazos con Broadcom.
Hemos pedido a Nvidia un comentario sobre sus planes para licenciar la propiedad intelectual; les informaremos si recibimos alguna respuesta.
Aunque más proveedores de servicios en la nube están persiguiendo silicio personalizado, no parece que ninguno de ellos esté listo para reemplazar el hardware de Nvidia, AMD o Intel en el corto plazo.
A pesar de los esfuerzos continuos para poner su silicio personalizado a disposición del público, como el anuncio de Google de una versión optimizada de su acelerador de IA TPUv5 en diciembre que se puede alquilar en grupos de hasta 8,960, las GPUs siguen siendo líderes cuando se trata de IA generativa.
Meta puede haber comenzado a implementar su chip de inferencia personalizado, pero no reemplazará a las GPUs para todas las cargas de trabajo. De hecho, Meta planea implementar 350,000 H100s y afirma que tendrá el equivalente a 600,000 H100s de computación para fin de año. Se dice que estos chips alimentarán la última fascinación del CEO Mark Zuckerberg: la inteligencia artificial general.
Meta no es la única empresa que asegura sus apuestas de silicio personalizado con grandes implementaciones de GPUs. Microsoft continúa implementando grandes cantidades de H100s de Nvidia y recientemente reveló sus planes de emplear el MI300X recién lanzado de AMD a gran escala para alimentar sus servicios respaldados por IA generativa.
Mientras tanto, AWS anunció una gran implementación de 16,384 superchips Nvidia Grace-Hopper junto con sus CPUs Graviton de cuarta generación y aceleradores de IA Trainium de segunda generación el otoño pasado.