Los centros de datos de EE.UU. en la era de la IA: cómo la infraestructura de GPU está transformando el panorama

Preparando el escenario: El auge de la IA llega a los centros de datos

Cierra los ojos e imagina una interminable extensión de servidores zumbando, todos listos para procesar modelos de aprendizaje automático más rápido de lo que puedes decir "magia algorítmica". Eso es el centro de datos moderno de Estados Unidos, un hervidero de innovación (literalmente, gracias a todo el calor de la GPU) que se está convirtiendo en una "fábrica de IA" para nuestro mundo cada vez más impulsado por la tecnología.

El auge de las aplicaciones de inteligencia artificial (IA) ha desencadenado una carrera armamentística en la construcción de centros de datos y la implantación de GPU. La revolución de la infraestructura resultante no consiste solo en conectar más servidores, sino en aprovechar una gran potencia de cálculo para entrenar y ejecutar los modelos de IA más avanzados de la actualidad, desde redes neuronales que predicen los precios de las acciones hasta modelos de texto generativo que reescriben las reglas de la creación de contenidos.

Según la investigación agregada por McKinsey & Company y Dell'Oro Group, la potencia de la IA y la aceleración basada en GPU han impulsado inversiones récord en nuevas instalaciones y ampliaciones en los principales centros de todo el país. Más de 5300 centros de datos estadounidenses representan aproximadamente el 40% del mercado mundial, que no hace más que crecer.

Por qué las GPU son la estrella del espectáculo

Seamos realistas: Los sistemas basados en CPU siguen siendo potentes, pero las GPU se han convertido en el corazón de la infraestructura de IA de vanguardia. Destacan en el procesamiento paralelo, lo que significa que pueden manejar simultáneamente millones (o miles de millones) de cálculos, algo crucial para entrenar modelos avanzados de aprendizaje automático. No es de extrañar que, según Dell'Oro Group, las ventas de GPU y aceleradores alcancen los 54 000 millones de dólares solo en el segundo trimestre de 2024.

El dominio de NVIDIA continúa con su arquitectura Blackwell, sucesora de Hopper, que ofrece un rendimiento sin precedentes para las cargas de trabajo de IA. Los sistemas GB200 han pasado del anuncio a la implantación en el mundo real, con Oracle Cloud Infrastructure entre los primeros en implantar miles de GPU NVIDIA Blackwell en sus centros de datos a partir de mayo de 2025. Estos bastidores GB200 NVL72 con refrigeración líquida ya están disponibles para uso de los clientes en NVIDIA DGX Cloud y Oracle Cloud Infrastructure para desarrollar y ejecutar modelos de razonamiento y agentes de IA de última generación. Otros proveedores de servicios en la nube están siguiendo rápidamente su ejemplo: AWS, Google Cloud, Microsoft Azure y proveedores de servicios en la nube para GPU como CoreWeave están planificando infraestructuras basadas en Blackwell para los próximos meses.

NVIDIA ha ampliado su oferta de inteligencia artificial con la arquitectura Blackwell Ultra, anunciada en la GTC 2025 celebrada en marzo. Blackwell Ultra mejora el diseño original de Blackwell con el doble de aceleración de la capa de atención y 1,5 veces más FLOPS de cálculo de IA en comparación con las GPU Blackwell estándar. Esta nueva evolución de la plataforma se ha diseñado específicamente para la "era del razonamiento de IA" con funciones de seguridad mejoradas, incluida la primera GPU que incorpora virtualización de E/S de confianza. De cara al futuro, NVIDIA también ha revelado su hoja de ruta para la arquitectura Rubin de nueva generación, que se centrará en la inferencia de IA y la computación de alto rendimiento cuando se estrene.

Sin embargo, para liberar esa potencia, los centros de datos necesitan un diseño especializado. Esto incluye:

  • Refrigeración de alta densidad: La refrigeración por aire tradicional empieza a agitar la bandera blanca cuando cada rack consume hasta 130 kW. Las tecnologías de refrigeración líquida están dando un paso adelante para evitar que estos clústeres de GPU se fundan:

    • Refrigeración monofásica directa al chip: Actualmente el líder del mercado, hace circular fluido refrigerado a través de placas frías acopladas directamente a las GPU y CPU, absorbiendo el calor con una eficacia 3.000 veces superior a la del aire. NVIDIA ha impuesto la refrigeración líquida para todas las GPU y sistemas Blackwell B200 debido a que su consumo energético supera los 2.700 W. Los sistemas GB200 NVL72 utilizan este método de refrigeración directa al chip, que es 25 veces más eficiente desde el punto de vista energético y, según los informes, 300 veces más eficiente con agua que los sistemas de refrigeración tradicionales. El refrigerante entra en el rack a 25 °C a dos litros por segundo y sale 20 grados más caliente, eliminando la pérdida de agua por cambio de fase.

    • Refrigeración por inmersión: Los sistemas monofásicos y bifásicos sumergen completamente los servidores en fluido dieléctrico, lo que elimina los puntos calientes y permite densidades aún mayores, cercanas a los 250 kW por rack.

  • Infraestructura eléctrica robusta: Con la previsión de que la demanda de energía de los centros de datos alcance entre el 6,7% y el 12% del consumo total de electricidad de EE.UU. en 2028-2030, según el Departamento de Energía y el Instituto de Investigación de Energía Eléctrica (EPRI), los operadores están luchando por conseguir fuentes de energía fiables -e idealmente ecológicas-. Esta previsión representa un aumento espectacular respecto al 4,4% de la electricidad estadounidense que consumían los centros de datos en 2023, siendo las cargas de trabajo de IA el principal motor de este crecimiento acelerado.

  • Planificación estratégica de ubicaciones: El entrenamiento de la IA no requiere una latencia ultrabaja como las tareas específicas de cálculo financiero o de borde, por lo que las empresas están construyendo estratégicamente nuevos centros de datos centrados en la GPU en lugares como Iowa o Wyoming, donde la energía es más barata y el terreno más abundante. Los sistemas GB200 NVL72 ahora admiten densidades de alimentación en rack de 120-140 kW, lo que hace que la ubicación estratégica cerca de fuentes de alimentación fiables sea aún más crítica.

Crecimiento, inversión y una pizca de competencia

Desde el "Callejón de los Centros de Datos" del norte de Virginia hasta Dallas-Fort Worth y Silicon Valley, los gigantes de la nube (Amazon, Microsoft, Google, Meta) y los recién llegados impulsados por la IA están respaldando una colosal ola de expansión. Los analistas prevén que el mercado estadounidense de centros de datos se duplique con creces, alcanzando entre 350.000 y 650.000 millones de dólares a principios de la década de 2030.

En el centro de este crecimiento está la necesidad urgente de seguir el ritmo de la transformación de la IA:

  • La ambiciosa iniciativa de 500.000 millones de dólares Project Stargate -respaldada por OpenAI, Oracle y SoftBank- tiene previsto construir 20 grandes centros de datos de IA en todo Estados Unidos, creando capacidades soberanas de IA al tiempo que aborda una demanda de computación sin precedentes.

  • Los principales laboratorios de IA están ampliando rápidamente su infraestructura:

    • OpenAI colabora con Microsoft en su clúster de nueva generación en Mount Pleasant, Wisconsin. El clúster albergará aproximadamente 100.000 aceleradores de IA B200 de NVIDIA.

    • Anthropic ha conseguido compromisos multimillonarios de Amazon y Google para potenciar las necesidades de formación e inferencia de Claude.

    • xAI (la empresa de IA de Elon Musk) acaba de inaugurar un nuevo centro de datos de IA en Memphis (Tennessee). El centro utiliza turbinas modulares de gas natural para generar energía mientras construye sus modelos Grok.

  • Hiperescaladores como Microsoft y Amazon están desarrollando proyectos de centros de datos de miles de millones de dólares, corriendo para satisfacer las cargas de trabajo de IA en evolución.

  • Los proveedores de servicios de coubicación están ampliando su capacidad, a menudo alquilando por adelantado nuevas instalaciones en un 70% o más antes incluso de que se asiente el polvo de la construcción.

  • Las restricciones energéticas en zonas de alta demanda (mira tú, norte de Virginia) hacen que los jugadores más avispados construyan cerca de centrales energéticas -o incluso instalaciones nucleares- para mantener esas GPU alimentadas con energía ininterrumpida.

  • NVIDIA también ha democratizado el acceso a la computación Grace Blackwell con Project DIGITS, un superordenador personal de IA presentado en CES 2025. Este sistema pone el GB10 Grace Blackwell Superchip al alcance de investigadores y desarrolladores de IA, proporcionando hasta 1 petaflop de rendimiento de IA con precisión FP4 en un formato de sobremesa. El proyecto DIGITS permite a los desarrolladores crear prototipos y probar modelos localmente antes de escalar las implantaciones a la nube o a la infraestructura del centro de datos, utilizando la misma arquitectura Grace Blackwell y la plataforma de software NVIDIA AI Enterprise.

Retos en el horizonte

Sostenibilidad: A medida que se disparan las necesidades de energía de los centros de datos, los operadores se enfrentan a un creciente escrutinio de su huella energética. Cada vez son más los que firman contratos a largo plazo de energía solar, eólica y otras renovables. Sin embargo, la presión para reducir drásticamente las emisiones de carbono al tiempo que se duplica o triplica la capacidad es una gran exigencia, incluso para un sector al que le encantan los retos importantes.

Cuellos de botella en las infraestructuras: Algunas empresas de servicios públicos han suspendido las nuevas conexiones en determinados puntos calientes hasta que puedan aumentar la capacidad de la red. Mientras tanto, la construcción de nuevos centros de datos en el Medio Oeste debe lidiar con las limitaciones de la transmisión eléctrica.

Aumento de los costes: La enorme demanda y la escasa oferta hacen que los precios suban. El aumento interanual del 12,6% en los precios de venta de espacios de 250-500 kW (según datos de CBRE) pone de manifiesto la competitividad del mercado.

A pesar de estos baches, el tono general sigue siendo optimista: La IA, los macrodatos y la computación en nube siguen impulsando el rendimiento y la innovación. Los centros de datos, antaño héroes olvidados de Internet, pasan a primer plano.

Donde entra Introl: Computación de alto rendimiento (HPC) bien hecha

Si estas ampliaciones de GPU y transformaciones de centros de datos fueran una película de acción, Introl sería el equipo de operaciones especiales que llega en helicóptero en el acto final: frío bajo presión y siempre preparado para la misión.

¿Quiere ampliar su infraestructura de GPU? Introl despliegues de infraestructura de GPU lo cubren todo, desde la instalación de clústeres a gran escala hasta estrategias de refrigeración avanzadas, para que su nueva fábrica de IA se mantenga estable y eficiente. ¿Necesita migraciones de centros de datos sin problemas? Nuestro enfoque garantiza un tiempo de inactividad cero, incorporando las mejores prácticas para reubicar sus servidores sin problemas.

¿Necesita personal urgentemente? Las soluciones de de Introl ofrecen una red nacional de más de 800 técnicos expertos. ¿Le preocupa el cableado estructurado? Consulte los servicios de cableado estructurado y contención de Introl para mantener sus flujos de datos en funcionamiento sin enredos ni peligros de tropiezos.

¿Nuestra misión? Acelerar las implantaciones de IA y HPC a cualquier escala, ya sea con 100.000 GPUs o con solo 10.

El futuro: Fábricas de IA e innovación sostenible

No es ningún secreto que los centros de datos de última generación se están convirtiendo en "fábricas de IA", que permiten desde el procesamiento del lenguaje natural en tiempo real hasta simulaciones científicas avanzadas. He aquí algunas direcciones clave:

  • Más allá de las GPU: Aunque NVIDIA domina, están surgiendo aceleradores de IA personalizados como posibles alternativas. Empresas como Cerebras Systems, con su Wafer-Scale Engine, y procesadores fotónicos emergentes de startups como Lightmatter, están ampliando los límites de lo posible, ofreciendo potencialmente una mayor eficiencia para cargas de trabajo de IA específicas.

  • Más refrigeración líquida: Con densidades de rack de GPU que superan los 100 kW, la refrigeración líquida se está convirtiendo en un elemento innegociable para los entornos HPC.

  • Gestión asistida por IA: Irónicamente, los centros de datos que funcionan con IA también la utilizan para el mantenimiento predictivo y la optimización energética, lo que mejora la eficiencia.

  • Microrredes y energías renovables: Se esperan más asociaciones con parques de energías renovables, centrales eléctricas locales y generación in situ de energía de reserva fiable.

Incluso ante las limitaciones energéticas y las presiones de la sostenibilidad, el impulso subyacente sugiere que los centros de datos estadounidenses seguirán siendo el corazón palpitante de la economía digital mundial. La computación de alto rendimiento, la hiperconvergencia y los servicios impulsados por la inteligencia artificial avanzan a la velocidad del rayo, y no hemos hecho más que empezar.

Para terminar: De ENIAC al nirvana de la inteligencia artificial

Cuando en 1945 se inauguró el primer centro de datos que albergaba la ENIAC, pocos podían imaginar que sería el modelo de las modernas fábricas de IA. Hoy en día, los centros de datos tienden puentes entre la teoría computacional abstracta y las aplicaciones reales que cambian las reglas del juego.

Ya sea para potenciar una startup de IA o para ampliar un entorno HPC empresarial, el momento de aprovechar la infraestructura centrada en la GPU es ahora. Y si está buscando un socio de confianza en la evolución de los centros de datos de IA, alguien que le ayude a diseñar, implantar y gestionar sistemas que amplíen los límites, Introl está aquí para hacerlo realidad.

¿Listo para hablar en concreto? Concierte una llamada con Introl y tracemos el camino hacia un futuro impulsado por la IA.

(Al fin y al cabo, sólo estamos en los albores de esta nueva era: imagina lo que conseguiremos para 2030 y más allá).

Anterior
Anterior

Los centros de datos de EMEA en la era de la IA: la infraestructura de GPU está impulsando un renacimiento en todo el continente

Siguiente
Siguiente

La revolución de los transformadores: Cómo "la atención es todo lo que necesitas" reconfiguró la IA moderna