Acuerdo OpenAI-NVIDIA por valor de 100.000 millones de dólares: infraestructura de IA de 10 gigavatios

El apretón de manos entre Jensen Huang y Sam Altman representa algo más que diplomacia corporativa. Sus empresas acaban de comprometerse a construir 10 gigavatios de infraestructura de IA, suficiente potencia de cálculo para ofrecer mil millones de veces más capacidad que el único sistema DGX que Huang entregó personalmente en la oficina de OpenAI hace nueve años.¹ NVIDIA tiene previsto invertir hasta 100.000 millones de dólares mientras OpenAI despliega estos sistemas, lo que Huang denomina "el mayor proyecto de infraestructura de IA de la historia".

La alianza llega en un momento crítico. OpenAI da servicio a 700 millones de usuarios activos semanales, que generan colectivamente demandas computacionales que eclipsan las de la mayoría de los centros de supercomputación nacionales.³ Mientras tanto, la plataforma Vera Rubin de nueva generación de NVIDIA promete ocho exaflops de rendimiento de IA y 100 TB de memoria rápida en un solo rack. La convergencia de las innovaciones del modelo de OpenAI con los avances en hardware de NVIDIA crea una infraestructura que modifica nuestra forma de concebir la economía de la IA.

Una década de asociación llega a un punto de inflexión.

La colaboración entre NVIDIA y OpenAI parece una historia de Silicon Valley. En 2016, Huang entregó en mano el primer superordenador DGX de NVIDIA en la sede de OpenAI en San Francisco, un momento capturado en fotografías ahora icónicas. El presidente de OpenAI, Greg Brockman, reflexiona sobre ese momento: "La colaboración representa mil millones de veces más potencia de cálculo que ese servidor inicial"⁵.

Ambas compañías han superado juntos los límites a través de múltiples saltos tecnológicos. El hardware de NVIDIA impulsó la evolución de la serie GPT de OpenAI, desde los primeros modelos de lenguaje hasta el explosivo debut de ChatGPT. Cada generación requería una capacidad de cálculo exponencialmente mayor, lo que llevó a NVIDIA a acelerar sus ciclos de desarrollo de chips mientras OpenAI perfeccionaba las arquitecturas de los modelos para maximizar la eficiencia del hardware.

El nuevo acuerdo formaliza lo que los observadores del sector sospechaban desde hace tiempo: estas empresas se necesitan mutuamente. OpenAI necesita ingentes recursos computacionales para entrenar sistemas superinteligentes, mientras que NVIDIA se beneficia de las innovaciones del modelo de OpenAI que ponen de manifiesto sus capacidades de hardware. Las empresas "optimizarán conjuntamente sus planes de trabajo para el modelo y la infraestructura de OpenAI", lo que sugiere una profunda colaboración técnica que va más allá de la simple dinámica comprador-proveedor.

La plataforma Vera Rubin redefine los límites computacionales.

La plataforma NVL144 CPX Rubin Vera de NVIDIA representa un salto generacional en el diseño de infraestructuras de IA. El sistema integra 144 GPU Rubin CPX, 144 GPU Rubin y 36 CPU Vera en una configuración de bastidor único que ofrece 7,5 veces más rendimiento de IA que los sistemas NVIDIA GB300 NVL72.⁷ Las cifras dejan perplejos incluso a los ingenieros de infraestructuras más experimentados. Los 1,7 petabytes por segundo de ancho de banda de memoria permiten a los modelos procesar contextos de millones de tokens sin degradación del rendimiento.

La arquitectura Rubin CPX introduce circuitos especializados optimizados para los mecanismos de atención de los modelos lingüísticos y las cargas de trabajo de procesamiento de vídeo. Cada Rubin CPX cuenta con 128 gigabytes de memoria GDDR7 en un único chip, mientras que la plataforma alcanza un rendimiento de 50 petaflops en FP4,2,5 veces más que los 20 petaflops de Blackwell.⁸ NVIDIA ha diseñado estos sistemas específicamente para las cargas de trabajo de inferencia que dominarán la economía de la IA a medida que los modelos pasen de la investigación a la producción.

Vera representa el primer diseño de CPU personalizado de NVIDIA basado en su arquitectura de núcleo Olympus. El procesador de 88 núcleos basado en Arm promete el doble de rendimiento que la CPU Grace utilizada en los actuales sistemas Blackwell.⁹ La estrecha integración entre las CPU Vera y las GPU Rubin a través del sistema NVIDIA MGX elimina los tradicionales cuellos de botella que afectan a las arquitecturas de cálculo distribuido.

La economía de las infraestructuras transforma los modelos de negocio de la IA.

La ingeniería financiera que hay detrás de la alianza revela cómo ha evolucionado la economía de la infraestructura de IA. El compromiso de NVIDIA de invertir hasta 100.000 millones de dólares de forma progresiva, después de desplegar cada gigavatio, crea un novedoso modelo de financiación que alinea los incentivos de los proveedores de hardware con el éxito de los clientes.¹⁰ El acuerdo permite a OpenAI escalar la infraestructura sin un gasto de capital inicial masivo, mientras que NVIDIA participa en la creación de valor que permite su hardware.

A escala, la plataforma Vera Rubin promete un rendimiento de la inversión de 30 a 50 veces, lo que podría traducirse en unos ingresos de 5.000 millones de dólares a partir de un gasto de capital de 100 millones de dólares.¹¹ Estos aspectos económicos cambian fundamentalmente la forma en que las empresas evalúan las decisiones de infraestructura de IA. El coste por unidad de inteligencia, una métrica en la que ambas empresas hacen hincapié, se reduce drásticamente cuando los sistemas alcanzan una escala y una utilización suficientes.

La estructura de la alianza sugiere que ambas compañías han aprendido de los ciclos de auge y caída de la minería de criptomonedas. En lugar de vender hardware para satisfacer una demanda especulativa, NVIDIA vincula su inversión a la implantación y utilización reales. OpenAI obtiene una expansión de capacidad predecible alineada con el crecimiento de usuarios y los plazos de desarrollo del modelo.

Las implicaciones regionales remodelan la geografía de los centros de datos.

El despliegue de 10 gigavatios requiere una capacidad de centros de datos sin precedentes que remodelará los mapas de infraestructuras mundiales. Para contextualizar, 10 gigavatios equivalen aproximadamente al consumo eléctrico de 10 millones de hogares o de un área metropolitana central. Encontrar ubicaciones con potencia disponible, capacidad de refrigeración y conectividad de red a esta escala plantea retos de ingeniería que rivalizan con los de la complejidad computacional.

La construcción de infraestructuras crea oportunidades para los mercados regionales de centros de datos, especialmente en regiones de APAC con redes eléctricas sólidas y ventajas de refrigeración. Los países con excedentes de energías renovables y entornos normativos favorables se posicionan para captar una parte de este despliegue. El calendario de la asociación -los primeros sistemas operativos a finales de 2026- ofrece a los operadores de centros de datos y a los gobiernos un estrecho margen para preparar la infraestructura.

A esta escala, la experiencia profesional en el despliegue se convierte en un factor crítico. La diferencia entre las especificaciones teóricas y el rendimiento operativo a menudo se reduce a la eficiencia de la refrigeración, la distribución de la energía y la optimización de las interconexiones. Empresas como Introl, con experiencia en la implantación de clusters de GPU masivos en diversas regiones geográficas, entienden los matices que determinan si estos sistemas ofrecen el rendimiento prometido.

La competencia se intensifica, pero el modelo de asociación emerge como el enfoque dominante.

La alianza OpenAI-NVIDIA es señal de un cambio más amplio en la industria hacia profundas colaboraciones entre desarrolladores de modelos y proveedores de hardware. La colaboración de Anthropic con Amazon Web Services y el desarrollo interno de TPU por parte de Google representan variaciones sobre el mismo tema. El avance de la IA requiere una coordinación sin precedentes entre la innovación en software y hardware.

La posición de Microsoft añade complejidad al panorama. Como principal inversor y socio de OpenAI en la nube, Microsoft debe equilibrar sus inversiones en la infraestructura Azure con la relación directa de OpenAI con NVIDIA. Las empresas presentan sus esfuerzos como complementarios, pero las decisiones de asignación de recursos pondrán a prueba esa narrativa a medida que se dispare la demanda computacional.

Las ventajas del modelo de asociación quedan claras cuando se examinan enfoques alternativos. Construir silicio a medida requiere años de desarrollo y miles de millones de dólares de inversión, con resultados inciertos. Depender exclusivamente de proveedores en la nube introduce un apilamiento de márgenes que dificulta económicamente la formación a gran escala. La colaboración directa entre OpenAI y NVIDIA elimina los costes de intermediación y acelera los ciclos de innovación.

El calendario revela un calendario de despliegue agresivo pero alcanzable.

El primer gigavatio de sistemas se pondrá en marcha en la segunda mitad de 2026, coincidiendo con la disponibilidad de NVIDIA Rubin CPX.¹² El agresivo calendario exige la ejecución paralela de múltiples flujos de trabajo: fabricación de chips, construcción de centros de datos, despliegue de infraestructura energética y optimización del software. Cada elemento presenta posibles cuellos de botella que podrían retrasar la visión más amplia de los 10 gigavatios.

Los socios fabricantes de NVIDIA, principalmente TSMC, deben asignar una capacidad sustancial a la producción de Rubin. Las avanzadas tecnologías de empaquetado necesarias para Rubin CPX añaden una complejidad que va más allá de la fabricación tradicional de GPU. La diversificación de la cadena de suministro se convierte en un factor crítico para evitar puntos únicos de fallo que podrían hacer descarrilar los calendarios de implantación.

La ventana de despliegue de 2026-2030 coincide con varias transiciones tecnológicas. La modernización de la infraestructura eléctrica, especialmente en la integración de energías renovables, se acelera para satisfacer las demandas de los centros de datos. Las tecnologías de interconexión óptica han madurado para satisfacer las crecientes necesidades de ancho de banda. Las innovaciones en refrigeración, desde la refrigeración líquida directa a los sistemas de inmersión, se convierten en estándar en lugar de experimentales.

Los retos de ingeniería exigen innovación en toda la pila.

El despliegue de 10 gigavatios de infraestructura de IA plantea retos de ingeniería que ponen al límite las tecnologías actuales. El suministro de energía a esta escala requiere coordinación con las compañías eléctricas y una capacidad de generación potencialmente exclusiva. Un solo bastidor de Vera Rubin que consuma megavatios de energía genera un calor que la refrigeración por aire tradicional no puede disipar eficazmente.

La arquitectura de red debe evolucionar para soportar el paralelismo de modelos en miles de GPU. Los 1,7 petabytes por segundo de ancho de banda de memoria de un rack Vera Rubin significan que la red externa se convierte en el principal cuello de botella para el entrenamiento distribuido. La inversión de NVIDIA en tecnologías de interconexión óptica y silicio de conmutación resuelve estas limitaciones, pero requiere un cuidadoso diseño del sistema.

La optimización del software resulta igualmente crítica. Los modelos de OpenAI deben utilizar eficazmente los circuitos especializados de Rubin CPX para los mecanismos de atención. El compromiso de las empresas de cooptimizar sus hojas de ruta sugiere una profunda colaboración en tecnologías de compiladores, optimización del núcleo y evolución de la arquitectura de los modelos. Las mejoras de rendimiento derivadas de la optimización del software suelen superar a las mejoras del hardware a esta escala.

Las implicaciones para el mercado van más allá de los participantes directos.

El efecto dominó de la asociación se extiende por todo el ecosistema tecnológico. Los proveedores de tecnología de refrigeración ven una demanda sin precedentes de soluciones de refrigeración líquida. Las empresas de infraestructuras eléctricas aceleran los proyectos de modernización de la red. Los fabricantes de componentes ópticos aumentan la producción para satisfacer las necesidades de interconexión.

La guerra de talentos se intensifica a medida que ambas empresas amplían sus equipos de ingeniería. Los ingenieros de infraestructuras que entienden de optimización de clusters de GPU reciben una remuneración superior. Los ingenieros de software con experiencia en formación distribuida adquieren un valor incalculable. La alianza crea miles de puestos de trabajo bien remunerados en múltiples disciplinas y zonas geográficas.

Las empresas de IA más pequeñas se enfrentan a una dura disyuntiva: asociarse con proveedores de cloud computing que ofrecen hardware NVIDIA o aceptar restricciones computacionales que limitan las ambiciones del modelo. La economía de la infraestructura de IA favorece cada vez más la escala, lo que crea una presión natural para la consolidación en todo el sector.

La futura hoja de ruta apunta a un ritmo de innovación sostenido

Aunque el acuerdo actual se centra en la implantación de Vera Rubin, ambas compañías apuntan a una colaboración sostenida más allá de 2030. La cadencia anual de la arquitectura de NVIDIA (Blackwell, Rubin y futuras plataformas sin nombre) sugiere mejoras continuas del rendimiento. La progresión de OpenAI hacia la inteligencia artificial general requiere recursos computacionales que crecen exponencialmente con cada salto de capacidad.

El compromiso de cooptimización implica un desarrollo tecnológico compartido que podría producir innovaciones que ninguna de las empresas lograría por sí sola. De esta colaboración podrían surgir silicio a medida para arquitecturas de modelos específicos, enfoques de refrigeración novedosos para despliegues ultradensos o tecnologías de interconexión revolucionarias.

Otros participantes podrían colaborar de este modo en el futuro. Fabricantes de chips, especialistas en refrigeración y proveedores de infraestructura energética podrían unirse al ecosistema, creando una pila integrada optimizada para cargas de trabajo de IA. Las ventajas de la integración vertical se vuelven insuperables para los competidores que intentan ensamblar capacidades similares a partir de componentes discretos.

Conclusión

La alianza OpenAI-NVIDIA transforma la infraestructura de IA de una tecnología de apoyo a un diferenciador estratégico. El compromiso de 100.000 millones de dólares y el objetivo de despliegue de 10 gigavatios establecen nuevos puntos de referencia para la ambición computacional. A medida que estos sistemas entren en funcionamiento a partir de 2026, permitirán desarrollar capacidades de IA que hoy sólo existen en los trabajos de investigación y en la ciencia ficción.

El modelo de colaboración (profunda integración técnica, incentivos económicos alineados y riesgo compartido) ofrece un modelo de cómo las tecnologías transformadoras alcanzan escala. Aunque siguen existiendo retos en el suministro de energía, la eficiencia de la refrigeración y la optimización del software, la estructura de la asociación incentiva la resolución de estos problemas en lugar de eludirlos.

Para las organizaciones que planifican inversiones en infraestructura de IA, el mensaje es claro: la era de las adiciones de capacidad incremental ha llegado a su fin. El despliegue competitivo de la IA requiere pensar en gigavatios, no en megavatios. Los socios de infraestructuras profesionales que entienden estas dinámicas de escala son esenciales para capturar el valor de la próxima fase de la IA. El futuro computacional que OpenAI y NVIDIA prevén llegará antes de lo que la mayoría espera. La única pregunta es quién estará preparado para aprovecharlo.

Referencias

  1. NVIDIA. "NVIDIA y OpenAI anuncian "el mayor despliegue de infraestructura de IA de la historia"". Blog de NVIDIA. 22 de septiembre de 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  2. NVIDIA. "NVIDIA y OpenAI anuncian "el mayor despliegue de infraestructura de IA de la historia"". Blog de NVIDIA. 22 de septiembre de 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  3. NVIDIA. "NVIDIA y OpenAI anuncian "el mayor despliegue de infraestructura de IA de la historia"". Blog de NVIDIA. 22 de septiembre de 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  4. Revista AI. "OpenAI y Nvidia: 100.000 millones de dólares en infraestructuras de IA". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.

  5. NVIDIA. "NVIDIA y OpenAI anuncian "el mayor despliegue de infraestructura de IA de la historia"". Blog de NVIDIA. 22 de septiembre de 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  6. Revista AI. "OpenAI y Nvidia: 100.000 millones de dólares en infraestructuras de IA". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.

  7. Revista AI. "OpenAI y Nvidia: 100.000 millones de dólares en infraestructuras de IA". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.

  8. Semianálisis. "NVIDIA GTC 2025 - Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman". 19 de marzo de 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.

  9. Wccftech. "NVIDIA Rubin y Rubin Ultra con CPU Vera de nueva generación empezarán a llegar el año que viene: Hasta 1 TB de memoria HBM4, GPU de 4 retículas, 100PF FP4 y 88 núcleos de CPU". 18 de marzo de 2025. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.

  10. NVIDIA. "NVIDIA y OpenAI anuncian "el mayor despliegue de infraestructura de IA de la historia"". Blog de NVIDIA. 22 de septiembre de 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  11. Revista AI. "OpenAI y Nvidia: 100.000 millones de dólares en infraestructuras de IA". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.

  12. Revista AI. "OpenAI y Nvidia: 100.000 millones de dólares en infraestructuras de IA". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.

Anterior
Anterior

40-250 kW por rack: soluciones para centros de datos de densidad extrema

Siguiente
Siguiente

VVater e Introl anuncian una alianza para redefinir el futuro de los centros de datos de IA