La conferencia principal de Nvidia en GTC trajo algunas sorpresas

SAN JOSE – «Espero que se den cuenta de que esto no es un concierto», dijo el presidente de Nvidia, Jensen Huang, a una audiencia tan grande que llenó el SAP Center en San José. Así es como presentó lo que quizás sea todo lo contrario a un concierto: el evento GTC de la empresa. «Han llegado a una conferencia de desarrolladores. Habrá mucha ciencia describiendo algoritmos, arquitectura de computadoras, matemáticas. Siento un peso muy grande en la habitación; de repente, están en el lugar equivocado».

Puede que no haya sido un concierto de rock, pero el CEO de 61 años de edad, vestido con chaqueta de cuero, de la tercera empresa más valiosa del mundo por capitalización de mercado, ciertamente tenía un buen número de fans en la audiencia. La empresa se lanzó en 1993, con la misión de llevar la computación general más allá de sus límites. «Computación acelerada» se convirtió en el grito de guerra de Nvidia: ¿No sería genial hacer chips y placas especializados, en lugar de para un propósito general? Los chips de Nvidia brindan a los jugadores ávidos de gráficos las herramientas que necesitan para jugar en alta resolución, con mayor calidad y más cuadros por segundo.

El discurso de apertura del lunes fue, de alguna manera, un regreso a la misión original de la empresa. «Quiero mostrarles el alma de Nvidia, el alma de nuestra empresa, en la intersección de gráficos por computadora, física e inteligencia artificial, todo intersectando dentro de una computadora».

Luego, durante las siguientes dos horas, Huang hizo algo raro: se volvió un friki. En serio. Cualquiera que hubiera asistido al discurso esperando que se convirtiera en un Tim Cook, con un discurso pulido y centrado en la audiencia, seguramente se decepcionaría. En general, el discurso fue muy técnico, lleno de siglas, y sin pedir disculpas, una conferencia para desarrolladores.

Necesitamos GPUs más grandes

Las unidades de procesamiento gráfico (GPUs) es donde Nvidia comenzó. Si alguna vez has construido una computadora, probablemente estés pensando en una tarjeta gráfica que se inserta en una ranura PCI. Ahí es donde comenzó el viaje, pero hemos avanzado mucho desde entonces.

La empresa anunció su nueva plataforma Blackwell, que es un monstruo absoluto. Huang dice que el núcleo del procesador estaba «empujando los límites de la física de cuán grande podía ser un chip». Utiliza la combinación de dos chips, ofreciendo velocidades de 10 Tbps.

«Estoy sosteniendo alrededor de $10 mil millones en equipos aquí», dijo Huang, sosteniendo un prototipo de Blackwell. «El siguiente costará $5 mil millones. Afortunadamente para todos ustedes, se abarata a partir de ahí». Juntar un montón de estos chips puede generar una potencia verdaderamente impresionante.

La generación anterior de GPU optimizada para AI se llamaba Hopper. Blackwell es entre 2 y 30 veces más rápido, dependiendo de cómo se mida. Huang explicó que se necesitaron 8,000 GPUs, 15 megavatios y 90 días para crear el modelo GPT-MoE-1.8T. Con el nuevo sistema, podría usar solo 2,000 GPUs y consumir el 25% de la energía.

Estas GPUs están moviendo una cantidad fantástica de datos, lo que es una muy buena transición a otro tema del que Huang habló.

¿Qué sigue?

Nvidia presentó un nuevo conjunto de herramientas para los fabricantes de automóviles que trabajan en coches autónomos. La empresa ya era un jugador importante en robótica, pero redobló la apuesta con nuevas herramientas para los robotistas para que sus robots sean más inteligentes.

La empresa también presentó Nvidia NIM, una plataforma de software destinada a simplificar la implementación de modelos de IA. NIM aprovecha el hardware de Nvidia como base y tiene como objetivo acelerar las iniciativas de IA de las empresas al proporcionar un ecosistema de contenedores listos para AI. Compatible con modelos de diversas fuentes, incluidas Nvidia, Google y Hugging Face, e integrado con plataformas como Amazon SageMaker y Microsoft Azure AI. NIM ampliará sus capacidades con el tiempo, incluidas herramientas para chatbots de IA generativos.

“Cualquier cosa que puedas digitalizar: siempre y cuando haya una estructura donde podamos aplicar algunos patrones, significa que podemos aprender los patrones”, dijo Huang. “Y si podemos aprender los patrones, podemos entender el significado. Cuando entendemos el significado, también podemos generarlo. Y aquí estamos, en la revolución de la IA generativa”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *