CoreWeave: La revolución de la infraestructura de IA - Cómo una startup de minería de criptomonedas se convirtió en la columna vertebral de 23.000 millones de dólares de la inteligencia artificial
CoreWeave ha surgido de sus orígenes en la minería de criptomonedas para convertirse en el proveedor de infraestructura de IA en la nube más especializado del mundo, operando superordenadores GPU a una escala sin precedentes y siendo pionero en refrigeración líquida y arquitecturas bare-metal que lo diferencian de los hiperescaladores tradicionales. La transformación de la empresa, que pasó de minar Ethereum en 2017 a impulsar los modelos GPT de OpenAI, representa el giro más espectacular de Silicon Valley, validado por una financiación de deuda de 7.500 millones de dólares a una valoración de 19.000 millones de dólares (mayo de 2024), seguida de una venta secundaria a 23.000 millones de dólares (octubre de 2024), un crecimiento explosivo de los ingresos del 737% en 2024 y una clasificación entre los primeros puestos en el nuevo marco ClusterMAX de SemiAnalysis; el informe destaca el aislamiento de inquilinos, Kubernetes bare-metal y la madurez de operaciones de CoreWeave.
El foso técnico que CoreWeave ha construido aprovecha la arquitectura especializada optimizada exclusivamente para la computación acelerada. Mientras que los proveedores de nube tradicionales equilibran las cargas de trabajo de uso general con la computación de GPU, CoreWeave ha creado específicamente cada capa de su pila para aplicaciones de IA y HPC. Su arquitectura Kubernetes bare-metal elimina por completo la sobrecarga de virtualización, mientras que la refrigeración líquida directa al chip permite densidades de rack de 130 kilovatios que las instalaciones refrigeradas por aire no pueden igualar. Esta ventaja arquitectónica fundamental, combinada con una programación que tiene en cuenta la topología y una red InfiniBand, ofrece lo que CoreWeave considera una utilización del modelo de FLOPS superior al 50 % en las GPU de clase Hopper, aproximadamente un 20 % más que los modelos de referencia de las fundaciones públicas según sus pruebas de rendimiento internas.
La relación simbiótica de la empresa con NVIDIA va más allá de las típicas asociaciones con proveedores, ya que NVIDIA mantiene aproximadamente un 6% de participación en marzo de 2025 y selecciona constantemente a CoreWeave para las implantaciones inaugurales de arquitecturas revolucionarias. CoreWeave fue el primero en generalizar la disponibilidad de los sistemas GB200 NVL72 (febrero de 2025) y el primero en desplegar los sistemas GB300 NVL72 (3 de julio de 2025). El despliegue de GB300 promete lo que NVIDIA describe como "mejoras de hasta 50 veces en los resultados de inferencia del modelo de razonamiento", aunque esto representa marketing del proveedor en lugar de pruebas comparativas revisadas por pares. (Orientaciones de marketing de NVIDIA; evaluación comparativa independiente pendiente).
Las métricas financieras subrayan la enorme demanda del mercado de infraestructuras especializadas en IA, con CoreWeave logrando unos ingresos trimestrales de 1.210 millones de dólares (segundo trimestre de 2025), manteniendo una cartera de contratos de 30.100 millones de dólares y asegurando compromisos de clientes ancla de Microsoft (que representan el 62% de los ingresos de 2024), OpenAI (hasta 11.900 millones de dólares de contrato más 4.000 millones de ampliación) y otros líderes de IA que requieren niveles de rendimiento optimizados para el entrenamiento y la inferencia a gran escala. La OPV de marzo de 2025 a 40 dólares por acción recaudó aproximadamente 1.500 millones de dólares, estableciendo a CoreWeave como una empresa pública posicionada para capturar valor a medida que se acelera la demanda global de computación de IA.
Sin embargo, bajo este crecimiento explosivo se esconde un riesgo de ejecución sustancial, ya que CoreWeave tiene una deuda de más de 11.000 millones de dólares, con unos gastos por intereses de 267 millones en el segundo trimestre de 2005 (frente a 67 millones en el segundo trimestre de 2004), lo que implica una tasa de ejecución anualizada de más de 1.000 millones de dólares a medida que se amplía el balance. Esta estructura de capital exige una ejecución impecable, ya que la empresa se apresura a desplegar infraestructura antes que la competencia de hiperescaladores. La extrema concentración de clientes, con Microsoft representando el 62% de los ingresos de 2024; y los dos principales clientes el 77%.
Este análisis en profundidad examina cómo CoreWeave diseñó una infraestructura especializada en IA a partir de principios básicos, por qué sus ventajas técnicas resultan significativas frente a la competencia de hiperescaladores y si su agresiva estrategia de expansión puede mantener el liderazgo tecnológico al tiempo que navega por las realidades intensivas en capital de la construcción de infraestructuras de computación a exaescala. A través de documentación técnica, referencias de rendimiento y análisis de la industria, revelamos cómo una empresa que comenzó a minar criptomoneda en un garaje de Nueva Jersey se posicionó como infraestructura crítica para el desarrollo de inteligencia artificial, y los desafíos financieros que podrían afectar a esta trayectoria.
La ventaja CoreWeave: Infraestructura diseñada específicamente para cargas de trabajo de IA
La idea fundamental de CoreWeave -que las cargas de trabajo de IA exigen una infraestructura radicalmente diferente a la de la computación en nube tradicional- impulsó decisiones arquitectónicas que ahora ofrecen ventajas de rendimiento cuantificables en las cargas de trabajo de formación, ajuste e inferencia. Mientras los hiperescaladores invertían cientos de miles de millones en optimizar las aplicaciones web, las bases de datos y el software empresarial, CoreWeave se dio cuenta de que los grandes modelos lingüísticos y las redes neuronales requieren un ancho de banda de memoria extremo, interconexiones de latencia ultrabaja y una disipación térmica sostenida que los centros de datos de uso general tienen dificultades para proporcionar de forma constante.
La diferenciación técnica comienza con una integración vertical completa optimizada exclusivamente para cargas de trabajo de GPU. El enfoque Kubernetes bare-metal de CoreWeave proporciona acceso directo de hardware a los recursos de GPU, CPU, red y almacenamiento sin capas de virtualización. Su programación en función de la topología minimiza la latencia de la comunicación entre GPU, mientras que el tejido InfiniBand dedicado proporciona una conectividad de 400 Gb/s por GPU. Cabe destacar que las instancias de GPU hyperscaler de primer nivel también ofrecen ahora redes de gran ancho de banda: las instancias A3 de Google Cloud exponen 3,2 Tbps por VM, ND H100 v5 de Azure proporciona conectividad de clase 1,6-3,2 Tbps y los clústeres AWS P5 ofrecen redes de instancia de 3200 Gbps con SR-IOV/EFA. La diferenciación radica menos en las velocidades de enlace brutas y más en la topología de clúster de CoreWeave, la optimización de la colocación del programador y la gestión térmica con refrigeración líquida a escala de bastidor.
De acuerdo con las pruebas de rendimiento publicadas por NVIDIA, Cohere logró un entrenamiento hasta tres veces más rápido en los sistemas GB200 NVL72 de CoreWeave en comparación con las GPU Hopper de la generación anterior, aunque esto representa mejoras generacionales de hardware en lugar de comparaciones entre nubes. Otras afirmaciones de los clientes sobre el rendimiento circulan en los debates del sector, pero carecen de verificación pública por parte de las propias empresas.
La innovación en el modelo de negocio resulta igualmente significativa: al centrarse exclusivamente en el cálculo en la GPU en lugar de ofrecer cientos de servicios, CoreWeave puede optimizar todos los aspectos de sus operaciones para las cargas de trabajo de IA. Esta especialización permite una rápida implantación de nuevas generaciones de hardware (semanas frente a trimestres en el caso de las nubes tradicionales), operaciones simplificadas con una menor sobrecarga de gestión, relaciones directas con clientes nativos de GPU que priorizan el rendimiento y modelos de consumo flexibles, incluidas instancias reservadas, bajo demanda y precios al contado que se lanzarán a finales de 2025.
La competencia de los hiperescaladores se intensifica a medida que reconocen la importancia estratégica de la infraestructura de IA, con AWS, Google Cloud y Microsoft Azure ampliando sus ofertas de GPU con opciones mejoradas de red y bare-metal. Sin embargo, el enfoque especializado de CoreWeave y su ventaja como pionero con el hardware más reciente de NVIDIA crean diferenciación. Como único receptor de la calificación ClusterMAX de nivel Platinum de SemiAnalysis en marzo-abril de 2025, CoreWeave demuestra liderazgo técnico, aunque este sistema de calificación planifica actualizaciones cada 3-6 meses y la dinámica competitiva sigue evolucionando.
De la minería de Ethereum a la formación de modelos para fundaciones: La insólita historia de su origen
La transformación de CoreWeave de operación de minería de criptomonedas a potencia de infraestructura de IA comenzó en 2017, cuando los cofundadores Michael Intrator, Brian Venturo y Brannin McBee reconocieron que su experiencia en GPU podía servir para fines más valiosos que resolver rompecabezas criptográficos. La operación, con sede en Weehawken (Nueva Jersey), se centró inicialmente en la minería de Ethereum, acumulando miles de GPU mientras desarrollaban soluciones de refrigeración personalizadas y software de orquestación que más tarde resultarían muy valiosas para las cargas de trabajo de IA.
El momento crucial llegó en 2019, cuando el cambio de Ethereum hacia el proof-of-stake amenazó con dejar obsoleta por completo la minería en GPU. En lugar de liquidar activos como la mayoría de los mineros, los fundadores de CoreWeave identificaron una oportunidad de mercado emergente: proporcionar computación de GPU para investigadores de aprendizaje automático que tenían dificultades para acceder a hardware en nubes tradicionales. Entre los primeros clientes se encontraban instituciones académicas que necesitaban computación en ráfaga para sus experimentos, estudios de efectos visuales que renderizaban CGI para películas y startups que entrenaban modelos de visión artificial.
La pandemia de 2020 aceleró el giro de CoreWeave, ya que el trabajo a distancia impulsó la demanda de renderizado en la nube al tiempo que catalizaba la adopción de la IA en todos los sectores. La compañía firmó su primer gran contrato con un fondo de inversión que necesitaba procesamiento paralelo masivo para modelar riesgos, lo que validó el modelo de negocio más allá de la especulación con criptomonedas. A finales de año, CoreWeave contaba con más de 10.000 GPU para diversas cargas de trabajo, desde simulaciones de plegamiento de proteínas hasta transcodificación de vídeo en tiempo real.
El gran avance llegó en 2022, cuando OpenAI seleccionó a CoreWeave como socio de infraestructura para el entrenamiento de modelos GPT, atraída por su capacidad para desplegar rápidamente miles de GPU A100 con redes InfiniBand, una configuración optimizada para el entrenamiento a gran escala. El éxito de las implantaciones validó la arquitectura de CoreWeave a una escala sin precedentes, lo que condujo a la ampliación de los contratos para cubrir otros modelos básicos. Este cliente de referencia aportó estabilidad a los ingresos y credibilidad técnica, lo que atrajo a otros pioneros de la IA.
El capital riesgo reconoció la posición estratégica de CoreWeave en la cadena de suministro de IA, con Magnetar Capital liderando una Serie B de 200 millones de dólares en 2022, seguida de un rápido crecimiento de la valoración. La financiación de deuda en mayo de 2024 de 7.500 millones de dólares de Blackstone, Coatue y otros, con una valoración de 19.000 millones de dólares, representó una de las facilidades de crédito privado más amplias de la historia de la tecnología, permitiendo una agresiva expansión de la infraestructura para satisfacer la explosión de la demanda.
El ADN cultural de la minería de criptomonedas -aceptar el riesgo técnico, optimizar la eficiencia, operar con fiabilidad 24/7- se tradujo perfectamente a los requisitos de infraestructura de IA. Los mismos ingenieros que exprimieron al máximo las tasas de hash de las GPU ahora optimizan las operaciones tensoriales, mientras que la disciplina financiera necesaria para beneficiarse de la volatilidad de los mercados de criptomonedas ayuda a gestionar el negocio de las infraestructuras, que requiere mucho capital. Esta inverosímil historia demuestra cómo la disrupción tecnológica suele surgir de sectores adyacentes en lugar de los tradicionales, con personas ajenas a la industria que no se ven limitadas por el pensamiento heredado y que diseñan soluciones especializadas a partir de principios básicos.
Una estructura de capital compleja refleja tanto la oportunidad como el riesgo.
La estructura de capital de CoreWeave refleja tanto la enorme oportunidad en infraestructura de IA como la naturaleza intensiva en capital de competir a hiperescala. El historial de financiación incluye 7.500 millones de dólares en líneas de deuda a un tipo de interés aproximado del 14% (mayo de 2024), una financiación total de capital superior a 1.000 millones de dólares a través de múltiples rondas, una venta secundaria de acciones que valoró la empresa en 23.000 millones de dólares (octubre de 2024) y una OPV de 1.500 millones de dólares a 40 dólares por acción (28 de marzo de 2025), creando una empresa pública con un valor empresarial superior a 35.000 millones de dólares incluida la deuda.
Los inversores de referencia demuestran un valor estratégico que va más allá del capital. La participación de aproximadamente el 6% de NVIDIA, valorada en 900 millones de dólares en marzo de 2025 y casi 1.600 millones de dólares en mayo, garantiza un acceso preferente al suministro de GPU durante las restricciones de asignación, al tiempo que proporciona colaboración técnica en la optimización de hardware/software. La relación con los clientes de Microsoft valida CoreWeave como infraestructura esencial, sobre todo teniendo en cuenta su masiva asociación OpenAI que requiere importantes recursos de computación. El consorcio de inversores, que incluye a Fidelity, BlackRock y Altimeter, aporta credibilidad institucional, crucial para las ventas a empresas y futuras ampliaciones de capital.
La concentración de clientes presenta tanto validación como riesgo. Microsoft representó aproximadamente el 62% de los ingresos de CoreWeave en 2024, según los archivos S-1, una dependencia que permitió un rápido crecimiento, pero que crea vulnerabilidad ante la renegociación de contratos o los cambios estratégicos. La naturaleza a largo plazo de estos contratos proporciona cierta estabilidad, aunque las duraciones específicas no se hacen públicas (los pedidos suelen ser de dos a cinco años). El compromiso de OpenAI de hasta 11.900 millones de dólares, más una ampliación posterior de 4.000 millones revelada en los materiales de relaciones con los inversores de la empresa, proporciona ingresos de anclaje adicionales. La base de clientes más amplia, que incluye IBM y las principales instituciones financieras, demuestra la expansión del mercado más allá de los inquilinos ancla iniciales.
La cartera de ingresos de 30.100 millones de dólares en el segundo trimestre de 2025 ofrece una visibilidad sin precedentes para una compañía de infraestructuras, ya que los ingresos contratados representan varios años de compromisos futuros, aunque el riesgo de ejecución sigue siendo considerable dada la complejidad de implantar y poner en funcionamiento cientos de miles de GPU en docenas de centros de datos. El reconocimiento de los ingresos depende de la disponibilidad de la infraestructura, lo que ejerce presión para mantener un calendario de despliegue agresivo y garantizar al mismo tiempo la fiabilidad que exigen los clientes empresariales.
Los resultados financieros revelan la difícil economía unitaria de la infraestructura de IA. Los resultados del segundo trimestre de 2025 mostraron unos ingresos de 1.210 millones de dólares, pero unas pérdidas cada vez mayores, con la empresa enfrentándose a enormes gastos de depreciación de un hardware en rápida evolución, unos gastos por intereses que se acercan a los 1.000 millones de dólares anuales, dada la carga de la deuda, y unos costes operativos que aumentan con el despliegue de la infraestructura. El camino hacia la rentabilidad requiere alcanzar una mayor escala para amortizar los costes fijos, mejorar las tasas de utilización y mantener la disciplina de precios a pesar de las presiones competitivas, un delicado equilibrio entre crecimiento y sostenibilidad.
La adquisición en mayo de 2025 de Weights & Biases por aproximadamente 1.700 millones de dólares (según TechCrunch e informes del sector, aunque los términos oficiales siguen sin revelarse) añade capacidades de MLOps al tiempo que aumenta la complejidad de la integración. La operación se cerró el 5 de mayo de 2025, combinando infraestructura con herramientas de desarrollo de modelos utilizadas por más de 1.400 empresas.
Posición de mercado reforzada por la especialización y las asociaciones.
La estrategia de mercado de CoreWeave invierte los enfoques tradicionales de las plataformas en la nube al restringir deliberadamente el alcance para lograr una profundidad sin igual en la computación acelerada por GPU. Mientras que AWS ofrece más de 200 servicios para todas las cargas de trabajo imaginables, CoreWeave proporciona una infraestructura de cálculo en la GPU optimizada para el entrenamiento y la inferencia de IA. Esta especialización permite optimizaciones arquitectónicas y eficiencias operativas que las plataformas generalistas equilibran con requisitos más amplios.
La dinámica competitiva sigue evolucionando rápidamente. Los hiperescaladores han mejorado significativamente sus ofertas de GPU, con AWS, Google Cloud y Azure proporcionando ahora opciones de red de gran ancho de banda, instancias bare-metal y mayor disponibilidad de GPU. La diferenciación se centra cada vez más en la disponibilidad a escala de clúster, la optimización de la topología, la gestión térmica y la integración de la pila de software, más que en las especificaciones en bruto.
La estrategia de asociación de CoreWeave amplifica su enfoque centrado en la integración profunda en el ecosistema. La relación con NVIDIA va más allá de la dinámica cliente-proveedor: la participación de NVIDIA en el capital y la selección constante de CoreWeave para el lanzamiento de nuevas arquitecturas (GB200 NVL72 en febrero de 2025, GB300 NVL72 en julio de 2025) demuestran su alineación estratégica. Las asociaciones con Databricks, Hugging Face y otras plataformas de IA garantizan la compatibilidad de los flujos de trabajo sin que CoreWeave tenga que crear servicios competidores.
La expansión geográfica sigue a los centros de innovación de IA, con 3.500 millones de dólares comprometidos en infraestructuras europeas, incluidos 1.000 millones de libras para operaciones en el Reino Unido e instalaciones en Noruega, Suecia y España, aprovechando la energía renovable. La empresa opera 33 centros de datos a partir de 2025 con aproximadamente 470 MW de potencia activa de TI y alrededor de 2,2 GW de capacidad contratada (segundo trimestre de 2025), posicionándose para un crecimiento continuo.
La ventaja competitiva sostenible se deriva de efectos compuestos en los que la infraestructura especializada atrae a clientes exigentes, la demanda concentrada justifica la inversión continua y el liderazgo técnico garantiza el acceso temprano al nuevo hardware. Todo ello sitúa a CoreWeave en una posición única, aunque los riesgos de ejecución siguen siendo considerables dadas las necesidades de capital y las presiones competitivas.
Infraestructura técnica: Ingeniería de IA a una escala sin precedentes
La huella de los centros de datos de CoreWeave abarca 33 instalaciones operativas en Estados Unidos y Europa a partir de 2025, lo que representa uno de los mayores despliegues especializados de GPU a nivel mundial. La distribución geográfica incluye 28 ubicaciones en EE.UU. con importantes despliegues, como la instalación de Plano (Texas), con un coste de 1.600 millones de dólares, que alberga más de 3.500 GPU H100 en 454.421 pies cuadrados. En la versión 5.0 de MLPerf Training (junio de 2025), CoreWeave, NVIDIA e IBM lograron el mayor benchmark de la historia utilizando 2.496 GPUs GB200 para entrenar Llama 3.1 405B en 27,3 minutos, más del doble de rápido que clusters de tamaño comparable de otros proveedores.
La infraestructura de alimentación representa un elemento diferenciador fundamental, con aproximadamente 470 megavatios de capacidad activa y cerca de 2,2 gigavatios o más contratados en el segundo trimestre de 2025, incluidas instalaciones diseñadas para ofrecer una eficiencia excepcional. La tecnología de refrigeración líquida de 130 kilovatios por rack (frente a los 30 kilovatios de la refrigeración por aire) permite implantar configuraciones densas como los sistemas NVIDIA GB200 NVL72, con 72 GPU por rack.
La flota de GPU se centra en las últimas arquitecturas de NVIDIA, con un total aproximado de 250.000 GPU implantadas. La composición incluye variantes H100 en configuraciones SXM5 y PCIe, GPU H200 con memoria HBM3e de 141 GB e implantaciones iniciales de sistemas GB200 NVL72. CoreWeave logró la primera disponibilidad general en el mercado de GB200 NVL72 (febrero de 2025) y la primera implantación de GB300 NVL72 (3 de julio de 2025), manteniendo su patrón de acceso anticipado al nuevo hardware de NVIDIA.
La red troncal emplea NVIDIA Quantum-2 InfiniBand, que proporciona 400 Gb/s por GPU a través de adaptadores ConnectX-7 en topologías Fat Tree no bloqueantes, con lo que se consigue una latencia inferior a un microsegundo con un alto rendimiento, aunque la velocidad bruta de la red ahora está a la altura de las ofertas de hiperescaladores de gama alta. La diferenciación radica en la optimización de la topología, la integración del programador y la configuración coherente en todos los clústeres.
La arquitectura de almacenamiento se centra en las implantaciones de VAST Data Platform, que utiliza una arquitectura desagregada para un escalado independiente. El sistema alcanza un rendimiento sostenido de hasta 1 GB/s por GPU con patrones de E/S optimizados que distinguen las lecturas de entrenamiento de las escrituras de comprobación. La tecnología LOTA (Local Object Transfer Accelerator) de CoreWeave almacena en caché los datos de acceso más frecuente en los nodos de la GPU, lo que reduce el tráfico de red y mejora el rendimiento.
Pila de software optimizada para el rendimiento bare-metal.
La arquitectura Kubernetes bare-metal de CoreWeave elimina la sobrecarga de virtualización ejecutando Kubernetes directamente en el hardware. Este enfoque proporciona acceso directo al hardware al tiempo que mantiene la multitenencia a través de las DPU NVIDIA BlueField. Las pruebas de rendimiento internas afirman que esto permite una utilización de FLOPS de modelo superior al 50 % en las GPU Hopper, aproximadamente un 20 % más que las líneas de base públicas, aunque la verificación independiente de estas cifras específicas sigue siendo limitada.
CoreWeave Kubernetes Service (CKS) va más allá de los típicos Kubernetes gestionados, ya que permite al cliente controlar los componentes del plano de datos mientras CoreWeave gestiona el plano de control. Preconfigurado con controladores de GPU, interfaces de red/almacenamiento y complementos de observabilidad, CKS se integra con herramientas de orquestación de cargas de trabajo como Slurm, KubeFlow y KServe.
SUNK (Slurm on Kubernetes) tiende un puente entre los paradigmas de HPC y la nube desplegando Slurm como recursos Kubernetes en contenedores, lo que permite compartir recursos dinámicamente entre trabajos por lotes y servicios de larga duración. Consigue una alta utilización gracias a una programación que tiene en cuenta la topología y está optimizada para configuraciones de tejido InfiniBand.
La tecnología Tensorizer acelera el despliegue de modelos a través de la serialización y el streaming optimizados, logrando velocidades de carga de modelos 5 veces más rápidas que los enfoques estándar, según las pruebas de CoreWeave. La herramienta de código abierto permite la carga de "copia cero" que transmite los modelos trozo a trozo en lugar de cargar modelos enteros en la RAM.
Implantaciones de vanguardia con referencias de rendimiento verificadas
Los logros de CoreWeave en infraestructura incluyen envíos verificables de MLPerf que demuestran escala y rendimiento. El envío de MLPerf Training v5.0 en junio de 2025 con 2.496 GPUs NVIDIA GB200 completó el entrenamiento de Llama 3.1 405B en 27,3 minutos, el mayor envío realizado por cualquier proveedor de cloud computing y más del doble de rápido que clusters de tamaño comparable.
El rendimiento de inferencia alcanza los 800 tokens/segundo en Llama 3.1 405B utilizando sistemas GB200 según los resultados de MLPerf Inference v5.0, lo que supone una mejora de 2,86 veces por chip con respecto a H200. La arquitectura GB200 NVL72 combina 72 GPU Blackwell con 36 CPU Grace por rack, lo que proporciona 1,44 exaFLOPS con 13,5 TB de memoria conectada mediante NVLink.
El sistema de calificación ClusterMAX de SemiAnalysis situó únicamente a CoreWeave en el nivel Platino en su lanzamiento de marzo-abril de 2025, evaluando frente a AWS, Google Cloud, Azure y otros proveedores más de 50 requisitos técnicos. Esta evaluación independiente valida la diferenciación técnica, aunque el sistema de clasificación planea actualizaciones periódicas a medida que evoluciona el panorama competitivo.
Las asociaciones tecnológicas aceleran la capacidad de las plataformas.
La asociación con NVIDIA va más allá de las típicas relaciones entre proveedores, ya que NVIDIA posee aproximadamente un 6% de las acciones, valoradas en casi 1.600 millones de dólares en mayo de 2025. Esta profunda integración se manifiesta en implantaciones consistentes de nuevas arquitecturas y esfuerzos de ingeniería conjunta en optimizaciones. Las presentaciones conjuntas de MLPerf demuestran esta colaboración técnica.
El despliegue de la infraestructura CoreWeave de IBM para la formación del modelo Granite aprovecha los sistemas GB200 con redes InfiniBand Quantum-2. La asociación de infraestructuras de Dell incluye servidores PowerEdge XE9712 con GB200 NVL72 en bastidores refrigerados por líquido. VAST Data se encarga del almacenamiento en todos los centros de datos CoreWeave a través de su plataforma de arquitectura desagregada.
La adquisición de Weights & Biases por aproximadamente 1.700 millones de dólares (completada el 5 de mayo de 2025) crea una plataforma de IA integrada que combina infraestructura con capacidades de MLOps. La plataforma, utilizada por más de 1400 empresas, entre ellas OpenAI y Meta, mantiene la interoperabilidad al tiempo que añade herramientas de desarrollo y supervisión de modelos.
La trayectoria futura equilibra el crecimiento con la sostenibilidad financiera.
Las iniciativas de CoreWeave de cara al futuro incluyen varios avances clave. El despliegue de GB300 NVL72 (julio de 2025) promete lo que NVIDIA comercializa como "mejoras de 50 veces en el rendimiento de la inferencia de modelos de razonamiento", aunque esto representa proyecciones del proveedor en lugar de pruebas comparativas verificadas de forma independiente. El alquiler de GPU al contado, que se lanzará a finales de 2025, proporcionará instancias interrumpibles de bajo coste con precios dinámicos.
La expansión europea, que asciende a 3.500 millones de dólares, establece la soberanía de los datos mediante instalaciones alimentadas con energías renovables que cumplen los requisitos del GDPR. La empresa sigue escalando hacia los 1,6 gigavatios de capacidad energética contratada, al tiempo que amplía las capacidades de refrigeración líquida para soportar hardware de nueva generación.
Los retos financieros exigen una navegación cuidadosa. Con más de 11.000 millones de dólares de deuda que generan aproximadamente 1.000 millones de dólares anuales en gastos por intereses, CoreWeave debe equilibrar un crecimiento agresivo con una senda de rentabilidad. El riesgo de concentración de clientes sigue siendo elevado, ya que Microsoft representa el 62% de los ingresos de 2024. La empresa registró pérdidas crecientes en el segundo trimestre de 2025, a pesar de haber obtenido unos ingresos trimestrales de 1.210 millones de dólares.
La oportunidad de mercado sigue siendo considerable, ya que IDC prevé un gasto anual en infraestructura de IA de 500.000 millones de dólares para 2027. El enfoque especializado y las ventajas técnicas de CoreWeave la posicionan para captar un valor significativo, aunque persisten los riesgos de ejecución dados los requisitos de capital, la dinámica competitiva y la necesidad de diversificar su base de clientes al tiempo que mantiene el impulso de crecimiento.
Conclusión
CoreWeave ha diseñado una infraestructura de IA especializada que ofrece ventajas cuantificables a través de la arquitectura Kubernetes bare-metal, la refrigeración líquida compatible con densidades de rack de 130 kW y la implementación consistente y pionera en el mercado de las últimas tecnologías de NVIDIA. Su transformación desde la minería de criptomonedas hasta convertirse en el único proveedor con calificación Platinum en el sistema ClusterMAX de SemiAnalysis (a partir de marzo de 2025) demuestra la ejecución exitosa de una estrategia enfocada. Con logros verificables que incluyen el mayor envío de MLPerf Training -Llama 3.1 405B en 27,3 minutos utilizando 2.496 GPU GB200- y 30.100 millones de dólares en cartera de ingresos contratados, CoreWeave se ha consolidado como una infraestructura crítica para el desarrollo de la IA.
Sin embargo, el camino a seguir requiere superar importantes retos, como una deuda de más de 11.000 millones de dólares, la concentración de clientes, con Microsoft representando la mayor parte de los ingresos de 2024, y la competencia de ofertas de hiperescaladores cada vez más capaces. A medida que la empresa se acerca a los 2,2 gigavatios de potencia contratada y despliega sistemas de nueva generación, su capacidad para mantener el liderazgo técnico y lograr la sostenibilidad financiera determinará si esta antigua minera de criptomonedas puede remodelar de forma permanente el panorama de la infraestructura de IA.
Datos actualizados hasta el 15 de agosto de 2025. Las fuentes incluyen archivos de la empresa, documentos de la SEC, referencias MLPerf y análisis del sector de SemiAnalysis.
Referencias
CoreWeave, Inc. - Formulario S-1 (declaración de registro inicial), U.S. SEC, presentado el 3 de marzo de 2025. (Historial de ingresos; crecimiento del 737% en 2024; antecedentes de la empresa.)(SEC)
CoreWeave, Inc. - Prospectus (Form 424B4), U.S. SEC, abril de 2025. (Concentración de clientes; Microsoft = 62% de los ingresos de 2024.)(SEC)
CoreWeave - "CoreWeave Reports Strong Second Quarter 2025 Results", Business Wire/IR, 12 de agosto de 2025. ( Ingresos de 1.212 millones de dólares en el segundo trimestre, cartera de pedidos de 30.100 millones de dólares; ~470 MW activos, ~2,2 GW contratados; OpenAI 11.900 millones de dólares + 4.000 millones de dólares de expansión).(Business Wire)
Reuters - "CoreWeave revenue beats estimates on AI boom but shares fall on bigger loss", 12 de agosto de 2025. (Resultados del segundo trimestre; 33 centros de datos.)(Reuters)
Reuters - "CoreWeave recauda 7.500 millones de dólares en deuda con una valoración de 19.000 millones", 17 de mayo de 2024. (Crédito privado; valoración de 19.000 millones de dólares).
Reuters - "CoreWeave cierra una venta secundaria de acciones por valor de 650 millones de dólares... valorada en 23.000 millones de dólares", 13 de noviembre de 2024.( Valoración secundaria de 23.000 millones de dólares.)(Reuters)
SemiAnalysis - "Introducing the Cloud GPU Performance Rating System - ClusterMAX (Q2 2025)", abril de 2025. (Metodología ClusterMAX; CoreWeave = Platinum.)(SemiAnalysis).
CoreWeave - "Blackwell a escala: General Availability of GB200 NVL72 on CoreWeave", 4 de febrero de 2025. (Primero en GA con GB200 NVL72.)(Reuters)
CoreWeave - "First NVIDIA GB300 NVL72 Deployment" (blog), 3 de julio de 2025. (Primera implantación de GB300 NVL72.)(CoreWeave)
NVIDIA Developer Blog - "Blackwell Ultra for the Era of AI Reasoning", 19 de marzo de 2025. (**"10× TPS por usuario" + "5× TPS por MW" ⇒ "hasta 50× rendimiento" reclamo de marketing).(Desarrollador de NVIDIA)
MLCommons - Resultados de MLPerf Training v5.0 (2025). (Llama-3.1 405B 27,3 minutos en 2.496 GB200; mayor envío.)(Microsoft Learn)
MLCommons - Resultados de MLPerf Inference v5.0 (Centro de datos) (2025). (Llama-3.1 405B rendimiento/latenciaincl. comparación GB200 vs H200 utilizada en los resúmenes de los proveedores).(Microsoft Learn)
AWS - Instancias P5 / Redes EFA (doc/blog oficial).( Redes de instancias dehasta 3.200 Gbps en p5 con EFA/SR-IOV.)(Amazon Web Services, Inc.)
Microsoft Azure - Página del producto "ND H100 v5-Series (Preview)".( Redes declase 1,6-3,2 Tbps.)(Documentación de AWS)
Google Cloud Blog - "A3 Ultra: 3,2 Tbps de red de GPU por VM" (material de lanzamiento de A3/A3 Ultra). (3,2 Tbps por VM.)(Google Cloud)
Dell Technologies - "Dell envía los primeros servidores PowerEdge XE9712 con NVIDIA GB200 NVL72 a CoreWeave", 20 de junio de 2025. (Socio de suministro a escala de bastidor y refrigeración líquida.)(CoreWeave)
VAST Data - "Scale-out AI performance at CoreWeave" (estudio de caso/página de soluciones), 2025. (VAST desplegado en los centros de distribución de CoreWeave; arquitectura de E/S.)(CoreWeave)
Weights & Biases - "We're joining CoreWeave" (anuncio de adquisición), 5 de mayo de 2025. (Cierre/plazos de la operación con W&B; dirección de la integración.)(FinTech Weekly - Página principal)
Reuters - "CoreWeave invertirá otros 2.200 millones de dólares en Europa, lo que eleva el total a 3.500 millones", 5 de junio de 2024. (Escala/ubicaciones de la expansión europea.)(Reuters)
Investor's Business Daily - "Nvidia-backed CoreWeave's IPO filing shows big revenue jump... Microsoft 62%; Nvidia 6% stake", 2025 de marzo. (Corrobora la participación de ~6% de NVIDIA indicada en archivos/prensa.)(Inversores)