NVIDIA Vera Rubin: plataforma de siete chips para fábricas de IA y agentes en 2025

NVIDIA lanzó Vera Rubin, plataforma de siete chips en producción para escalar fábricas de IA globales, con soporte de Anthropic, OpenAI, Mistral AI y los principales proveedores de nube.

NVIDIA confirmó que la plataforma Vera Rubin se encuentra en plena producción con siete nuevos chips diseñados para escalar las fábricas de IA más grandes del mundo.

La plataforma integra la CPU Vera, la GPU Rubin, el conmutador NVLink 6, la SuperNIC ConnectX-9, la DPU BlueField-4 —procesador de infraestructura de datos que descarga tareas de red y almacenamiento de la CPU principal—, el conmutador Ethernet Spectrum-6 y la LPU Groq 3 —procesador de lenguaje optimizado para inferencia de alta velocidad—.

Los chips están diseñados para cubrir todas las fases de la inteligencia artificial: desde el preentrenamiento a gran escala y el postentrenamiento hasta la inferencia agéntica en tiempo real —proceso por el cual agentes de IA ejecutan tareas complejas de forma autónoma—.

“Vera Rubin representa un salto generacional: siete chips innovadores, cinco racks, un supercomputador gigante, diseñado para impulsar todas las fases de la IA”, señaló Jensen Huang, CEO y fundador de NVIDIA.

“El punto de inflexión de la IA con agentes llegó con Vera Rubin, dando inicio a la mayor expansión de infraestructura de la historia”, agregó.

Los racks de la plataforma Vera Rubin

Rack NVL72: integra 72 GPU Rubin y 36 CPU Vera conectadas mediante NVLink 6 —tecnología de interconexión de alta velocidad entre GPU y CPU—.

Entrena grandes modelos de mezcla de expertos con una cuarta parte de las GPU en comparación con la plataforma NVIDIA Blackwell y alcanza una tasa de inferencia hasta 10 veces mayor por vatio a una décima parte del costo por token.

Rack de CPU Vera: orientado a cargas de trabajo de aprendizaje por refuerzo y agentes de IA, integra 256 CPU Vera con refrigeración líquida sobre la plataforma MGX. Ofrece resultados dos veces más eficientes y un 50% más rápidos que las CPU tradicionales.

Rack LPX con Groq 3: combina 256 LPU con 128 GB de SRAM —memoria de acceso estático de muy alta velocidad— integrada y 640 TB/s de ancho de banda.

Orientado a inferencia de baja latencia, ofrece hasta 35 veces más rendimiento por megavatio para modelos con billones de parámetros.

Rack BlueField-4 STX: infraestructura de almacenamiento nativa para IA que amplía la memoria de la GPU en todo el POD —punto de presencia, unidad de infraestructura que agrupa múltiples racks como un sistema coherente—.

Incluye NVIDIA DOCA Memos, nueva estructura que permite el procesamiento dedicado de caché KV —memoria intermedia que almacena datos generados durante la inferencia— para aumentar la tasa de inferencia hasta cinco veces.

Rack Ethernet Spectrum-6 SPX: diseñado para el tráfico este-oeste en centros de datos de IA, con óptica integrada que alcanza cinco veces más eficiencia de potencia y diez veces más resiliencia que los transceptores tradicionales.

“Las empresas y los desarrolladores están utilizando Claude para razonamientos cada vez más complejos, flujos de trabajo con agentes y decisiones de importancia crítica. La plataforma Vera Rubin de NVIDIA nos ofrece la capacidad de computación, la red y el diseño de sistemas necesarios para seguir ofreciendo resultados, al tiempo que mejoramos la seguridad y la confiabilidad de las que dependen nuestros clientes”, señaló Dario Amodei, CEO y cofundador de Anthropic.

“Con NVIDIA Vera Rubin, ejecutaremos modelos y agentes más potentes a gran escala y ofreceremos sistemas más rápidos y confiables a cientos de millones de personas”, afirmó Sam Altman, CEO de OpenAI.

“El sistema BlueField-4 STX proporcionará un aumento de rendimiento crucial para escalar nuestros esfuerzos en IA activa. Al ofrecer una nueva capa de almacenamiento diseñada para la memoria de los agentes de IA, STX garantiza que nuestros modelos puedan mantener la coherencia y la velocidad al razonar sobre conjuntos de datos masivos”, sostuvo Timothée Lacroix, cofundador y CTO de Mistral AI.

Marcio Aguiar, director de la división Enterprise de NVIDIA para América Latina, destacó que la arquitectura Vera Rubin posiciona a la compañía a la vanguardia de la era de la IA basada en agentes.

“El objetivo es garantizar que el mercado corporativo siga contando con la infraestructura necesaria para transformar toda esta inteligencia en productividad real e innovación continua”, señaló.

Eficiencia energética y ecosistema de socios

NVIDIA presentó la plataforma DSX para Vera Rubin junto a más de 200 socios de infraestructura.

DSX Max-Q permite el aprovisionamiento dinámico de energía en toda la fábrica de IA, habilitando un 30% más de infraestructura en centros de datos con energía fija. El nuevo software DSX Flex permite liberar 100 gigavatios de energía ociosa de la red.

Los productos basados en Vera Rubin estarán disponibles a partir del segundo semestre de este año a través de los principales proveedores de nube —Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure— y socios como CoreWeave, Crusoe, Lambda, Nebius, Nscale y Together AI.

Entre los fabricantes de sistemas que ofrecerán servidores basados en Vera Rubin figuran Cisco, Dell Technologies, HPE, Lenovo y Supermicro, entre otros.

Los laboratorios de IA Anthropic, Meta, Mistral AI y OpenAI buscan utilizar la plataforma para entrenar modelos más grandes, dar soporte a sistemas multimodales de contexto largo con menor latencia y a menor costo que las generaciones anteriores de GPU.

Redacción ebizLatam
Redacción ebizLatamhttp://www.ebizlatam.com
Desde la redacción de ebizLatam gestionamos todos los contenidos del portal pionero sobre tecnología y negocios América Latina.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas