El presidente de Nvidia, Jensen Huang, sorprendió a una audiencia tan grande que llenó el SAP Center en San José al decir: «Espero que se den cuenta de que esto no es un concierto». Así introdujo lo que quizás sea todo lo contrario a un concierto: el evento GTC de la compañía. «Han llegado a una conferencia para desarrolladores. Habrá mucha ciencia describiendo algoritmos, arquitectura de computadoras, matemáticas. Siento un peso muy grande en la habitación; de repente, están en el lugar equivocado.»
Aunque no era un concierto de rock, el CEO de 61 años de la tercera empresa más valiosa del mundo por capitalización de mercado, ciertamente tenía un buen número de seguidores en la audiencia. La compañía se lanzó en 1993 con una misión de llevar la computación general más allá de sus límites. «Computación acelerada» se convirtió en el grito de guerra para Nvidia: ¿No sería genial hacer chips y placas especializados, en lugar de para un propósito general? Los chips de Nvidia dan a los jugadores ávidos de gráficos las herramientas que necesitan para jugar en una resolución más alta, con mayor calidad y una mayor tasa de cuadros.
El lunes, la presentación principal fue, de alguna manera, un retorno a la misión original de la compañía. «Quiero mostrarles el alma de Nvidia, el alma de nuestra empresa, en la intersección de gráficos por computadora, física e inteligencia artificial, todo intersectándose dentro de una computadora.»
Luego, durante las siguientes dos horas, Huang hizo algo único: se volvió un auténtico fanático de la tecnología. Cualquiera que haya venido a la presentación principal esperando que hiciera un Tim Cook, con una presentación pulida y centrada en la audiencia, seguramente se habría decepcionado. En general, la presentación fue muy técnica, llena de siglas y, sin lugar a dudas, una conferencia para desarrolladores.
Las Unidades de Procesamiento Gráfico (GPUs) son donde Nvidia comenzó. Si alguna vez has construido una computadora, seguramente estás pensando en una tarjeta gráfica que va en una ranura PCI. Ahí es donde comenzó el viaje, pero hemos recorrido un largo camino desde entonces.
La compañía anunció su nueva plataforma Blackwell, que es un monstruo absoluto. Huang dice que el núcleo del procesador estaba «empujando los límites de la física de lo grande que podría ser un chip». Combina la potencia de dos chips, ofreciendo velocidades de 10 Tbps.
“Estoy sosteniendo alrededor de $10 mil millones en equipo aquí,” dijo Huang, mostrando un prototipo de Blackwell. “El siguiente costará $5 mil millones. Afortunadamente para todos ustedes, se vuelve más barato a partir de ahí.” Reunir un montón de estos chips puede generar una potencia verdaderamente impresionante.
La generación anterior de GPUs optimizadas para inteligencia artificial se llamaba Hopper. Blackwell es entre 2 y 30 veces más rápido, dependiendo de cómo lo mides. Huang explicó que se necesitaron 8,000 GPUs, 15 megavatios y 90 días para crear el modelo GPT-MoE-1.8T. Con el nuevo sistema, podrías usar solo 2,000 GPUs y consumir el 25% de energía.
Estas GPUs están moviendo una cantidad fantástica de datos, lo que es un buen punto de partida para otro tema del que habló Huang.
Nvidia lanzó un nuevo conjunto de herramientas para fabricantes de automóviles que trabajan en vehículos autónomos. La compañía ya era un jugador importante en la robótica, pero duplicó su apuesta con nuevas herramientas para los robóticos para que sus robots sean más inteligentes.
Huang siguió repitiendo la frase «fábrica de inteligencia artificial», en lugar de centro de datos. «Está ocurriendo una nueva Revolución Industrial en estas [salas de servidores]: las llamo fábricas de inteligencia artificial,» dijo Huang.
La compañía también presentó Nvidia NIM, una plataforma de software destinada a simplificar la implementación de modelos de IA. NIM utiliza el hardware de Nvidia como base y tiene como objetivo acelerar las iniciativas de IA de las empresas al proporcionar un ecosistema de contenedores listos para la IA. Compatible con modelos de diversas fuentes, como Nvidia, Google y Hugging Face, e integrado con plataformas como Amazon SageMaker y Microsoft Azure AI. NIM expandirá sus capacidades con el tiempo, incluyendo herramientas para chatbots de IA generativa.
«Cualquier cosa que puedas digitalizar: siempre y cuando haya alguna estructura donde podamos aplicar algunos patrones, significa que podemos aprender los patrones,» dijo Huang. «Y si podemos aprender los patrones, podemos entender el significado. Cuando entendemos el significado, también podemos generarlo. Y aquí estamos, en la revolución de la IA generativa.»