Refrigeración líquida frente a aire: La guía de los racks para GPU de 50 kW (2025)

El crecimiento exponencial de las cargas de trabajo de IA ha llevado a la refrigeración de los centros de datos a un punto de inflexión crítico. A medida que las densidades de los bastidores de GPU superan los 50 kW -con sistemas de próxima generación que exigen 100 kW y más-, la refrigeración por aire tradicional ha alcanzado sus límites físicos fundamentales. Este exhaustivo análisis revela cómo el sector está sorteando esta transformación térmica a través de tecnologías avanzadas de refrigeración líquida, proporcionando un ahorro energético del 10-21%, una reducción del 40% en los costes de refrigeración y habilitando la infraestructura necesaria para la revolución de la IA.

Cuando el aire se convierte en el cuello de botella

El fracaso de la refrigeración por aire a altas densidades no es gradual, sino estrepitoso. A 50 kW por rack, la física se vuelve implacable: la refrigeración requiere 7.850 pies cúbicos por minuto (CFM ) de flujo de aire a un diferencial de temperatura de 20 °F. Si se duplica a 100 kW, se necesitan 15.700 pies cúbicos por minuto, lo que crea vientos huracanados a través de las tomas de aire de los servidores, que miden sólo 2-4 pulgadas cuadradas. La ecuación fundamental de eliminación de calor (Q = 0,318 × CFM × ΔT) revela un reto insuperable: a medida que aumenta la densidad, el flujo de aire necesario se escala linealmente, pero el consumo de energía del ventilador se escala con el cubo de la velocidad del ventilador. Un aumento del 10% en el caudal de aire exige un 33% más de potencia del ventilador, lo que crea una espiral de consumo de energía que hace que la refrigeración por aire de alta densidad sea económica y prácticamente imposible.

Las pruebas del mundo real confirman estos límites teóricos. Un caso documentado demostró que 250 racks con sólo 6 kW pasaron de 72 °F a más de 90 °F en 75 segundos cuando falló la refrigeración. Los centros de datos tradicionales diseñados para densidades medias de rack de 5-10 kW simplemente no pueden soportar las cargas de trabajo de las GPU modernas. Incluso con sistemas avanzados de contención de pasillos fríos y calientes, la refrigeración por aire se resiente por encima de los 40 kW, mientras que los sistemas sin contención sufren pérdidas de capacidad del 20-40% por la recirculación de aire caliente. La nueva clase ambiental ASHRAE H1, creada explícitamente para equipos de alta densidad, restringe las temperaturas permitidas a 18-22 °C, un rango imposible de mantener con refrigeración por aire a escala de GPU.

Las tecnologías de refrigeración líquida transforman lo posible.

La transición a la refrigeración líquida representa algo más que una mejora incremental: es un replanteamiento fundamental de la eliminación del calor. El coeficiente de transferencia de calor del agua es 3.500 veces mayor que el del aire, lo que permite capacidades de refrigeración que hacen que los bastidores de más de 100 kW sean rutinarios en lugar de extraordinarios.

La refrigeración directa al chip lidera la transformación, con placas frías dotadas de microcanales (27-100 micras) acopladas directamente a los procesadores. Estos sistemas, que funcionan con agua de suministro a 40 °C y agua de retorno a 50 °C, eliminan entre el 70% y el 75% del calor del rack a través del líquido, al tiempo que mantienen un PUE parcial de 1,02-1,03. Las implementaciones modernas soportan 1,5 kW+ por chip con caudales de 13 litros por minuto para un servidor de 9 kW. El 25-30% restante del calor -procedente de la memoria, las unidades y los componentes auxiliares- sigue necesitando refrigeración por aire, lo que convierte a estos sistemas híbridos en la opción práctica para la mayoría de las implantaciones.

La refrigeración por inmersión va más allá y sumerge servidores enteros en fluidos dieléctricos. Los sistemas monofásicos que utilizan aceites minerales cuestan entre 50 y 100 dólares por galón y soportan sistemáticamente 200 kW por rack. Los sistemas bifásicos prometen una transferencia de calor superior a través de la ebullición y la condensación, pero se enfrentan a retos: los fluidos de fluorocarbono cuestan entre 500 y 1.000 dólares por galón, y el cese de la producción de 3M para 2025 debido a preocupaciones medioambientales ha congelado la adopción. La complejidad de la tecnología -cajas selladas, riesgos de cavitación y normativas sobre PFAS- limita su uso a aplicaciones especializadas.

Las unidades de distribución de refrigerante (CDU) constituyen la columna vertebral de la infraestructura de refrigeración líquida. Las unidades modernas van desde sistemas de montaje en bastidor de 7 kW hasta gigantes de más de 2.000 kW como el CHx2000 de CoolIT. Los principales proveedores -Vertiv, Schneider Electric, Motivair y CoolIT- ofrecen soluciones con redundancia N+1, filtración de 50 micras y variadores de frecuencia para adaptar la carga. Se prevé que el mercado de CDU, valorado en 1.000 millones de dólares en 2024, alcance los 3.600 millones en 2031 (20,5% CAGR), lo que refleja la rápida adopción de la refrigeración líquida.

El arte y la economía de la modernización

La transición de los centros de datos existentes a la refrigeración líquida requiere una orquestación cuidadosa. El método más eficaz consiste en una migración por fases: empezar con uno o dos bastidores de alta densidad, ampliar a una fila y, a continuación, escalar en función de la demanda. Han surgido tres vías principales de adaptación: CDU de líquido a aire que aprovechan el aire acondicionado existente, intercambiadores de calor de puerta trasera que pueden refrigerar hasta 40 kW por bastidor y soluciones directas al chip para obtener la máxima eficiencia.

Las modificaciones de la infraestructura suponen el principal reto. Las instalaciones diseñadas para cargas medias de 5-10 kW no pueden soportar bastidores de más de 50 kW, independientemente de la capacidad de refrigeración. La fontanería requiere un cuidadoso modelado CFD en entornos de suelo elevado o instalación aérea con bandejas de goteo en construcciones de losa. La carga del suelo, especialmente en el caso de los sistemas de inmersión, puede superar la capacidad estructural de las instalaciones más antiguas.

El análisis de costes revela una rentabilidad convincente a pesar de la elevada inversión inicial. Un estudio de la Comisión de Energía de California documentó un sistema completo de refrigeración líquida para 1.200 servidores repartidos en 17 bastidores con un coste total de 470.557 dólares, o 392 dólares por servidor, incluidas las modificaciones de las instalaciones. El ahorro anual de energía de 355 MWh (39.155 $ a 0,11 $/kWh) supone una amortización simple de 12 años, aunque las implantaciones optimizadas consiguen rentabilidades de 2 a 5 años. El análisis de Schneider Electric muestra un ahorro de capital del 14% gracias a la compactación 4x de los racks, mientras que el ahorro operativo incluye una reducción del 10,2% en la potencia total del centro de datos y una mejora del 15,5% en la Eficacia de Uso Total.

Los retos de integración se multiplican en los entornos híbridos. Incluso las instalaciones "totalmente refrigeradas por líquido" necesitan entre un 20% y un 30% de capacidad de refrigeración por aire para los componentes auxiliares. Los sistemas de control deben coordinar múltiples tecnologías de refrigeración, supervisando tanto las temperaturas de entrada de los bastidores como las condiciones del agua de suministro. La redundancia se convierte en un factor crítico: los intercambiadores de calor de la puerta trasera deben pasar a la refrigeración por aire cuando se abren para el servicio, mientras que los sistemas directos al chip tienen menos de 10 segundos de tiempo de funcionamiento a plena carga.

De los pilotos a la producción

Los despliegues reales demuestran la madurez de la refrigeración líquida. Meta lidera la adopción a escala, implementando la refrigeración líquida asistida por aire en más de 40 millones de pies cuadrados de espacio de centros de datos. Su diseño de bastidor Catalina admite 140 kW con 72 GPU, mientras que la implantación de la refrigeración líquida en toda la instalación está prevista para principios de 2025. La transformación requirió el desguace de varios centros de datos en construcción para rediseños optimizados para IA, con un ahorro de costes del 31 % gracias a la nueva arquitectura.

El viaje de siete años de Google con las TPU refrigeradas por líquido proporciona el conjunto de datos más completo del sector. Gracias al despliegue de sistemas de bucle cerrado en más de 2.000 TPU Pods a escala de gigavatios, han logrado un tiempo de actividad del 99,999% y han demostrado una conductividad térmica 30 veces superior a la del aire. Su diseño de CDU de quinta generación, Project Deschutes, se incorporará al Open Compute Project para acelerar su adopción en todo el sector.

Microsoft supera los límites con la refrigeración por inmersión bifásica en producción, que utiliza fluidos dieléctricos que hierven a 122 °F-50 °C menos que el agua. Esta tecnología permite reducir la potencia de los servidores entre un 5 % y un 15 % y eliminar los ventiladores de refrigeración. Su compromiso de reducir el consumo de agua en un 95 % para 2024 impulsa la innovación en sistemas de circuito cerrado sin evaporación.

Proveedores especializados como CoreWeave demuestran la refrigeración líquida para cargas de trabajo de IA. CoreWeave, que tiene previstas 4.000 implantaciones de GPU para finales de 2024, alcanza densidades de rack de 130 kW con un 20% más de utilización del sistema que sus competidores. Sus diseños optimizados para raíles ahorran 3,1 millones de horas de GPU gracias a una mayor fiabilidad, y despliegan clústeres H100 en menos de 60 días.

Satisfacer las exigencias térmicas de los aceleradores de IA

Las especificaciones de la GPU revelan por qué la refrigeración líquida se ha convertido en obligatoria. La NVIDIA H100 SXM5 funciona con un TDP de 700 W, lo que requiere refrigeración líquida para un rendimiento óptimo. La H200 mantiene la misma potencia y, al mismo tiempo, ofrece 141 GB de memoria HBM3e a 4,8 TB/s, 1,4 veces más ancho de banda, lo que genera un calor proporcional. El próximo B200 va más allá: 1.200 W en las variantes refrigeradas por líquido frente a 1.000 W en las refrigeradas por aire, con un rendimiento FP4 de 20 PFLOPS que exige una gestión térmica sofisticada.

El GB200 NVL72, que incluye72 GPU Blackwell y 36 CPU Grace en un único rack, representa el punto final de la viabilidad de la refrigeración por aire. Con 140 kW de potencia de rack, requiere refrigeración líquida obligatoria a través de placas frías de nuevo desarrollo y CDU de 250 kW. Las consideraciones a nivel de sistema aumentan la complejidad: Las interconexiones NVSwitch añaden entre 10 y 15 W cada una, mientras que la memoria de alta velocidad y los sistemas de suministro de energía aportan un calor adicional considerable.

Los análisis técnicos realizados por JetCool demuestran las marcadas diferencias de rendimiento: su SmartPlate H100 alcanza una resistencia térmica de 0,021 °C/W, lo que permite que los chips funcionen 35 °C más fríos que las alternativas de aire, a la vez que soportan temperaturas de entrada de 60 °C. En teoría, esta reducción de la temperatura multiplica por 8 la vida útil de la GPU y proporciona un rendimiento máximo sostenido, lo que resulta esencial para entrenamientos de IA de varias semanas de duración.

La hoja de ruta hasta 2030

El sector se encuentra en un punto de transformación en el que las mejores prácticas evolucionan rápidamente para convertirse en requisitos. La nueva clase ambiental H1 de ASHRAE (18-22 °C recomendados) reconoce que las directrices tradicionales no pueden adaptarse a las cargas de trabajo de la IA. Los estándares de refrigeración líquida del Open Compute Project impulsan la interoperabilidad, mientras que sus requisitos de inmersión Rev. 2.10 establecen procesos de cualificación para tecnologías emergentes.

La refrigeración por inmersión bifásica, a pesar de las dificultades actuales, promete ser adoptada de forma generalizada en 2025-2027. Las previsiones de mercado indican un crecimiento de 375 millones de dólares (2024) a 1.200 millones (2032), impulsado por una transferencia de calor superior que permite 1.500 W+ por chip. Innovaciones como Accelsius NeuCool y las alternativas a los fluidos 3M descatalogados responden a las preocupaciones medioambientales al tiempo que mantienen el rendimiento.

La optimización impulsada por IA ofrece rendimientos inmediatos. La implementación de Google DeepMind logró una reducción del 40 % de la energía de refrigeración mediante el aprendizaje en tiempo real, mientras que la optimización de la refrigeración de espacios en blanco de Siemens y plataformas similares proliferan. Estos sistemas predicen fallos, optimizan la química del refrigerante y se ajustan dinámicamente a los patrones de carga de trabajo, capacidades que el 91% de los proveedores esperan que sean omnipresentes dentro de cinco años.

La recuperación del calor residual transforma el pasivo en un activo. Los parques de datos de Estocolmo ya calientan 10.000 hogares con los residuos de los centros de datos, y su objetivo es cubrir el 10% de la calefacción urbana en 2035. La presión normativa acelera la adopción: Alemania obliga a reutilizar el 20% del calor para 2028, mientras que el Título 24 de California exige infraestructuras de recuperación en las nuevas construcciones. La tecnología de bombas de calor eleva el calor residual de 30-40 °C a 70-80 °C para calefacción urbana, creando flujos de ingresos a partir de energía que antes se desechaba.

Hacer la transición

El éxito en el despliegue de la refrigeración líquida requiere una planificación estratégica en múltiples dimensiones. Las organizaciones deberían empezar con CDU de líquido a aire sencillas para conseguir la barrera de entrada más baja, pero primero deben evaluar la infraestructura eléctrica: unacapacidad eléctrica inadecuadadescalifica la viabilidad de la retroadaptación independientemente de la tecnología de refrigeración. Empezar con 1-2 pilotos de rack permite aprender antes de ampliar, mientras que mantener la experiencia en refrigeración por aire sigue siendo fundamental para las operaciones híbridas.

El modelo financiero debe tener en cuenta el valor total del sistema. Aunque la inversión inicial oscila entre 1.000 y 2.000 dólares por kW de capacidad de refrigeración, el ahorro operativo se multiplica: un 27% de reducción de la potencia de las instalaciones en las implantaciones optimizadas, un 30% de ahorro energético en refrigeración frente a los sistemas convencionales y, lo que es más importante, la capacidad de implantar cargas de trabajo de IA que generen ingresos, algo imposible con la refrigeración por aire. Las mejores implantaciones consiguen amortizaciones inferiores a 2 años gracias a un diseño cuidadoso: evitar la integración ineficiente de enfriadoras ahorra entre un 20% y un 30%, mientras que centrarse en las aplicaciones de mayor densidad maximiza la rentabilidad.

Los equipos técnicos requieren nuevas competencias. Además de los conocimientos tradicionales sobre calefacción, ventilación y aire acondicionado, el personal debe conocer la química de los refrigerantes, los protocolos de respuesta ante fugas y los sistemas de control integrados. Las asociaciones con proveedores resultan esenciales: la asistencia 24 horas al día, 7 días a la semana para componentes especializados y el mantenimiento preventivo periódico a intervalos de 6 meses se convierten en necesidades operativas. Los protocolos de seguridad se amplían para incluir la manipulación de fluidos dieléctricos y la gestión de sistemas de presión.

El mercado muestra un impulso abrumador. La refrigeración líquida de centros de datos pasa de 4.900 millones de dólares (2024) a 21.300 millones previstos (2030), con una CAGR del 27,6%. La refrigeración monofásica directa al chip se convierte en estándar para las cargas de trabajo de IA en 2025-2026, mientras que la inmersión bifásica alcanza la adopción generalizada en 2027. En 2030, los bastidores de 1 MW requerirán refrigeración líquida avanzada como estándar, no como excepción.

Conclusión

La física es clara: la refrigeración por aire ha alcanzado sus límites. A densidades de rack de 50-100 kW, las limitaciones termodinámicas fundamentales hacen que la refrigeración líquida no sólo sea preferible, sino obligatoria. La transición representa el cambio de infraestructura más importante en la historia de los centros de datos, que requiere nuevas competencias, una inversión considerable y una transformación operativa. Sin embargo, las ventajas -un ahorro energético del 10-21%, una reducción de los costes de refrigeración del 40%, una mejora de la fiabilidad de 8 veces y, lo que es más importante, la capacidad de implantar infraestructuras de IA de nueva generación- hacen que esta evolución sea inevitable. Las organizaciones que dominen la refrigeración líquida hoy impulsarán los avances de la IA del mañana; las que se retrasen se quedarán rezagadas en la carrera del sector hacia densidades de cálculo cada vez mayores. Hemos alcanzado el muro térmico; la refrigeración líquida es la forma de atravesarlo.

Referencias

Biblioteca Digital ACM. "Formación LLM energéticamente eficiente en centros de datos de GPU con sistemas de refrigeración por inmersión". Actas de la 16ª Conferencia Internacional ACM sobre Sistemas Energéticos Futuros y Sostenibles. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "Comparación de configuraciones NVIDIA Blackwell". 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

---. "Las 5 consideraciones más importantes para implantar NVIDIA Blackwell". 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC con refrigeración por agua caliente y reutilización de energía". 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

---. "[1709.05077] Transformación de la optimización de la refrigeración para centros de datos ecológicos mediante aprendizaje profundo por refuerzo". 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Actualización de la nueva directriz térmica de Ashrae: una nueva tendencia de alta densidad". Expert Green Centros de Datos Prefabricados. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "Diseño de refrigeración líquida de alta potencia: requisitos de la solución directa al chip para bastidores de 500 kW". Chilldyne | Refrigeración líquida. 29 de julio de 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "¿Qué es la refrigeración de centros de datos?". 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta esboza las mejoras de la infraestructura de IA en la cumbre OCP 2024". 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Guía completa sobre refrigeración líquida: El futuro de los centros de datos de alto rendimiento y los despliegues de IA". 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Creación de clusters de IA para empresas 2025". 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

---. "GPUs para modelos de IA e innovación". 2025. https://www.coreweave.com/products/gpu-compute.

Asesores de Ciberdefensa. "Mantenimiento predictivo basado en IA: El futuro de la fiabilidad de los centros de datos". 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Catálogo de centros de datos. "Meta planea el cambio a la refrigeración líquida para su infraestructura de centros de datos". 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Dinámica del centro de datos. "Una introducción a la refrigeración líquida en el centro de datos". 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

---. "Los hiperescaladores se preparan para bastidores de 1MW en OCP EMEA; Google anuncia una nueva CDU". 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

---. "Las nuevas directrices de ASHRAE desafían el impulso de la eficiencia". 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

---. "El CEO de Nvidia confirma que el próximo sistema será de refrigeración líquida". 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

---. "Optimización de la eficiencia de los centros de datos con refrigeración líquida directa al chip". 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

---. "La refrigeración bifásica se verá afectada por las normas de la EPA y la salida de 3M de los PFAS 'productos químicos para siempre'". 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Frontera del centro de datos. "8 tendencias que marcarán el sector de los centros de datos en 2025". 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

---. "Buenas prácticas para implantar servidores refrigerados por líquido en su centro de datos". 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

---. "Google desarrolla una nueva tecnología de refrigeración "climáticamente consciente" para ahorrar agua". 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

---. "Google se pasa a la refrigeración líquida para el crujido de datos de IA". 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

---. "Meta planea el cambio a la refrigeración líquida para su infraestructura de centros de datos". 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

---. "Meta adelanta un nuevo diseño de centro de datos para un futuro impulsado por la IA". 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

---. "OCP 2024: Meta estrena un rack de inteligencia artificial de 140 kW refrigerado por líquido; Google apuesta por la robótica para potenciar las GPU Hyperscaler". 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

---. "Superando los límites de la refrigeración por aire en entornos de alta densidad". 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

---. "Informe: Meta planea cambiar a la refrigeración líquida en el rediseño del centro de datos centrado en IA". 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

---. "La importancia de la refrigeración líquida para el Open Compute Project (OCP)". 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

---. "El aprovechamiento del calor residual es el siguiente paso de la industria de los centros de datos hacia la energía neta cero". 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

---. "La tecnología de refrigeración líquida HyperCool de ZutaCore será compatible con las avanzadas GPU H100 y H200 de NVIDIA para una IA sostenible". 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Conocimientos sobre centros de datos. "Estrategias de modernización de centros de datos". 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

---. "Refrigeración híbrida: El puente hacia la refrigeración líquida total en los centros de datos". 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Aprovechar al máximo el calor residual de los centros de datos". Junio de 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Centros de datos. "El papel de CoreWeave en la alianza en la nube de Google y OpenAI redefine la infraestructura de IA". 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "Cuándo pasar de la refrigeración por aire a la refrigeración líquida para su centro de datos". 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Red Digital Infra. "El megavatio de Google para la IA: renovar la potencia y la refrigeración". 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Refrigeración líquida de centros de datos frente a refrigeración por aire". 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Ingeniería en Meta. "La visión del hardware de IA abierta de Meta". 15 de octubre de 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Mercado de refrigeración por inmersión líquida bifásica de centros de datos, 2032". 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Habilitación de bastidores de TI de 1 MW y refrigeración líquida en OCP EMEA Summit". Blog de Google Cloud. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

Refrigeración GR. "Explorando la refrigeración líquida avanzada: Immersion vs. Direct-to-Chip Cooling". 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

---. "Refrigeración por inmersión bifásica frente a monofásica". 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Refrigeración líquida directa al chip". 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Salas híbridas: la solución combinada para la refrigeración por aire y líquido en centros de datos". 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 se desvanece: Nvidia anuncia hardware para 2024 con H200". 13 de noviembre de 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Gestión térmica para centros de datos 2025-2035: Tecnologías, mercados y oportunidades". 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Refrigeración líquida directa vs. refrigeración por inmersión para centros de datos". 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

---. "Sistema de refrigeración líquida para la GPU NVIDIA H100". 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU". 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Proyecto Natick Fase 2". 2025. https://natick.research.microsoft.com/.

Noticias de Microsoft. "Para enfriar los servidores del centro de datos, Microsoft recurre al líquido hirviendo". 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Soluciones de refrigeración para centros de datos de Nortek. "El aprovechamiento del calor residual es el siguiente paso de la industria de los centros de datos hacia la energía neta cero". 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "GPU de núcleo tensorial H200". 2025. https://www.nvidia.com/en-us/data-center/h200/.

Proyecto Open Compute. "La Fundación Open Compute Project amplía su iniciativa Open Systems for AI". 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Tamaño, cuota y análisis de tendencias del mercado de refrigeración por inmersión, 2032". 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro presenta SuperClusters AI Plug-and-Play de refrigeración líquida a escala de bastidor para NVIDIA Blackwell y NVIDIA HGX H100/H200". 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

---. "La tecnología de refrigeración líquida HyperCool de ZutaCore será compatible con las avanzadas GPU H100 y H200 de NVIDIA para una IA sostenible". 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "¿Qué es la refrigeración directa al chip - y está la refrigeración líquida en su futuro?". 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Refrigeración líquida de centros de datos: Una necesidad frente a los retos". 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

Semianálisis. "Anatomía del centro de datos Parte 1: Sistemas eléctricos". 14 de octubre de 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

---. "Anatomía del centro de datos Parte 2 - Sistemas de refrigeración". 13 de febrero de 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

---. "Entrenamiento en múltiples centros de datos: El ambicioso plan de OpenAI para superar la infraestructura de Google". 4 de septiembre de 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "Especificaciones de NVIDIA H100 PCIe 80 GB". Base de datos de GPU de TechPowerUp. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Refrigeración líquida frente a refrigeración por aire en el centro de datos". 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "Cómo los principales desarrolladores de LLM impulsan el auge de la refrigeración líquida". 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "Cómo afectan la densidad del rack y Delta T a su estrategia de gestión del flujo de aire". 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

---. "Cuándo reequipar el centro de datos para adaptarlo a la IA y cuándo no". 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Instituto Uptime. "Mejores prácticas de refrigeración de centros de datos". 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

---. "Las expectativas de rendimiento de la refrigeración líquida necesitan una revisión de la realidad". Blog del Uptime Institute. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "Perspectivas para 2025 de la refrigeración de los centros de datos". 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Implantación de refrigeración líquida en centros de datos: Instalación y gestión de unidades de distribución de refrigerante (CDU)". 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

---. "Opciones de refrigeración líquida y por inmersión para centros de datos". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

---. "Opciones de refrigeración líquida para centros de datos". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

---. "Cuantificación del impacto sobre el PUE y el consumo energético al introducir refrigeración líquida en un centro de datos refrigerado por aire". 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

---. "Entendiendo la refrigeración directa al chip en la infraestructura HPC: Una inmersión profunda en la refrigeración líquida". 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

---. "Vertiv™ CoolPhase CDU | Soluciones de alta densidad". 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Enfriar la IA y los centros de datos". 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Anterior
Anterior

La revolución de la IA en Corea del Sur: 65.000 millones de dólares: Cómo Samsung y SK Hynix lideran el auge de la infraestructura de GPU en Asia

Siguiente
Siguiente

La revolución de la IA en Indonesia: Cómo la mayor economía del sudeste asiático se convirtió en una potencia mundial de la IA