Nvidia lanza un plan de US$26.000 millones para blindar su dominio en la IA
La compañía busca reforzar su ecosistema tecnológico mediante modelos open-weight y una apuesta fuerte en desarrollo propio. El movimiento intenta sostener la dependencia de sus GPU frente al avance de AMD, chips de hyperscalers y nuevas herramientas que reducen la ventaja de CUDA.

Nvidia reveló que planea invertir US$ 26.000 millones durante los próximos cinco años para desarrollar modelos de inteligencia artificial de pesos abiertos (open-weight). La información surgió de una presentación financiera de 2025 que primero publicó Wired y que luego confirmaron ejecutivos de la empresa.

Los modelos open-weight liberan los parámetros que determinan el funcionamiento de un sistema de IA. Eso permite que desarrolladores, investigadores y startups descarguen esos modelos, los modifiquen y los ejecuten en su propia infraestructura.

Para ponerlo en perspectiva: OpenAI gastó cerca de US$ 3.000 millones para entrenar GPT-4. El compromiso de Nvidia equivale, en términos aproximados, a la valuación actual de Anthropic y supera lo que Meta destinó el año pasado a Reality Labs.

Jack Dorsey, después de recortar el 40% de la plantilla de Block para apostar por la inteligencia artificial, calificó el plan como "excelente". Al mismo tiempo, se trata de la apuesta de ecosistema más agresiva en tecnología desde que Google lanzó Android. También representa el mayor riesgo estratégico que tomó Nvidia en su historia. Para entender el motivo, primero conviene analizar qué intenta defender Nvidia.

El dominio de CUDA existe y enfrenta presión

Nvidia concentra el 86% de los ingresos por ventas de GPU para centros de datos en 2026, contra cerca del 90% en 2024. Mizuho Securities ubicó esa participación en una franja de entre 70% y 95%, según el segmento. En el tercer trimestre fiscal de 2026, la empresa generó US$ 51.200 millones en ingresos trimestrales por su negocio de centros de datos, una cifra que representó el 90% de la facturación total de la compañía, que llegó a US$ 57.000 millones.

La ventaja defensiva no está en el hardware. Está en CUDA, el ecosistema de software que Nvidia construyó a lo largo de casi 20 años. CUDA ya reúne a más de 4 millones de desarrolladores, más de 3.000 aplicaciones optimizadas y una integración profunda con todos los grandes frameworks de inteligencia artificial. Las universidades enseñan CUDA. Los papers académicos usan CUDA como referencia para sus pruebas. @@FIGURE@@

Reescribir un sistema basado en CUDA para adaptarlo a la plataforma de un competidor implica volver a capacitar ingenieros, rehacer kernels optimizados, validar otra vez los pipelines de rendimiento y asumir incertidumbre operativa. El costo de cambiar no es solo técnico. También es organizacional.

Pero esa barrera defensiva empezó a mostrar su primer desgaste serio. AMD asegura que su MI355X ya rinde un 30% más en inferencia que la B200 de Nvidia en ciertos benchmarks, con una relación de tokens por dólar cerca de un 40% superior. A eso se suma que ROCm 7.0 ya incorpora soporte nativo para PyTorch y JAX. Además, el compilador Triton de OpenAI les permite a los equipos ejecutar modelos sobre chips de AMD e Intel sin reescribir código.

Un análisis de Built In, publicado en enero de 2026, sostuvo que el dominio de CUDA llegó a un punto de inflexión a medida que ganaron terreno los compiladores agnósticos al hardware.

Ese es el contexto que vuelve razonable el anuncio de US$ 26.000 millones. Nvidia no libera software por generosidad. Lo que busca es reforzar su ecosistema justo cuando sus competidores intentan desgastarlo.

La estrategia Android, pero con una diferencia

La comparación con Android es la más precisa, aunque con una diferencia clave.

Google convirtió a Android en software de código abierto para garantizar que el buscador predeterminado en cada smartphone del mundo fuera Google Search, que era de donde salían los ingresos reales. Los fabricantes de teléfonos se quedaban con márgenes ajustados de hardware. Google capturaba los datos y los ingresos publicitarios que circulaban por la plataforma.

La versión de Nvidia sigue una lógica parecida: abrir los modelos para que todos los desarrolladores construyan sobre esa base y para que cada modelo quede optimizado para el hardware de Nvidia, que es de donde sale el negocio de verdad. @@FIGURE@@

La compañía ya lanzó modelos como Nemotron para tareas de razonamiento y otros especializados para flujos de trabajo específicos. La inversión de US$ 26.000 millones lleva esa estrategia a desarrollos de frontera y pone a Nvidia a competir de manera directa con OpenAI y Anthropic, dos empresas que hasta ahora figuraban entre sus principales clientes.

Ahí aparece el giro que Google nunca tuvo que enfrentar. Google no les vendía hardware a Samsung ni a HTC. Nvidia, en cambio, les vende chips a Microsoft, Amazon, Google y Meta, los cuatro hyperscalers que al mismo tiempo son sus clientes más grandes y sus rivales más decididos.

Los cuatro desarrollan silicio propio para depender menos de Nvidia. Microsoft Azure, Trainium de Amazon, las TPU de Google y los chips MTIA de Meta apuntan a lo mismo que esta apuesta de US$ 26.000 millones intenta frenar: romper el vínculo entre el desarrollo de inteligencia artificial y el hardware de Nvidia.

Si los modelos abiertos de Nvidia alcanzan un nivel lo bastante bueno como para que los desarrolladores los elijan por defecto, esos modelos van a quedar ajustados para las GPU de Nvidia, y eso refuerza la dependencia de su hardware.

Pero si esos modelos empujan a los hyperscalers a acelerar sus propios programas de chips, la inversión puede salir mal. La presentación financiera señala que los fondos irán a desarrollo de modelos, infraestructura de cómputo, contratación de investigadores y "ecosystem development", una categoría que probablemente incluya alianzas y posibles adquisiciones.

El dato del "90% de los papers" necesita contexto

El artículo original afirmó que "más del 90% de los nuevos papers de investigación en inteligencia artificial citan actualmente software CUDA optimizado específicamente para hardware de Nvidia". Ese número parece referirse al dominio de Nvidia en los benchmarks académicos, más que a una cifra concreta de citas en papers.

Lo que sí se puede verificar es lo siguiente: Nvidia concentra el 86% de los ingresos por GPU para centros de datos. Además, CUDA se convirtió en el entorno estándar para el desarrollo de IA desde que las universidades empezaron a enseñarlo hace más de una década. Por ese motivo, los trabajos académicos casi siempre realizan sus benchmarks sobre hardware de Nvidia, básicamente porque es el que está disponible. @@FIGURE@@

Un análisis de SDxCentral, publicado en enero de 2026, describió a los compiladores, bibliotecas y API de CUDA como "infraestructura central para modelos de machine learning y despliegues de IA en empresas".

En la práctica, el efecto es el mismo que sugería la afirmación original: la gran mayoría del desarrollo en inteligencia artificial ocurre sobre la plataforma de Nvidia. La diferencia está en el mecanismo. No se trata de una simple métrica de citas académicas, sino del dominio de todo un ecosistema tecnológico.

¿Qué se puede comprar realmente con 26 mil millones de dólares?

La inversión cumple tres funciones al mismo tiempo.

Primero, impulsa el desarrollo de modelos optimizados para las arquitecturas más recientes de Nvidia. Cada modelo open-weight ajustado para su hardware eleva el costo de migración para cualquier desarrollador que evalúe pasarse a AMD o a chips diseñados a medida. Esa es la jugada defensiva.

Segundo, le da a Nvidia información directa sobre cómo los desarrolladores usan la inteligencia artificial. El desarrollo open source funciona como el grupo de prueba más grande del mundo. La empresa puede detectar qué funciones se modifican, qué arquitecturas se amplían y en qué puntos aparecen cuellos de botella de rendimiento, todo sin pagar por esa investigación.

Ese circuito de retroalimentación ya impulsó el dominio de CUDA: mejores modelos llevan a una optimización superior del hardware, eso atrae a más desarrolladores y ese movimiento genera más datos sobre qué construir después.

Tercero, posiciona a Nvidia como desarrolladora de modelos y no solo como proveedora de chips. En el ejercicio fiscal 2025, el negocio de centros de datos generó US$ 115.190 millones, una cifra que representó el 88% de los ingresos totales de la compañía. Ese mismo año, la empresa destinó US$ 12.910 millones a investigación y desarrollo. @@FIGURE@@

Si se suman US$ 26.000 millones adicionales para el desarrollo de modelos a lo largo de cinco años, unos US$ 5.200 millones por año, el perfil de la compañía cambia de forma significativa. Nvidia ya no vende solo las palas. Ahora también entra en la mina.

El riesgo que el artículo original no mencionó

El artículo original presentó esta decisión como una demostración de poder sin costos aparentes. Pero los riesgos son concretos y de gran escala.

Microsoft, Amazon, Google y Meta son los principales clientes de Nvidia. En conjunto, explican la mayor parte de la demanda de GPU para centros de datos. Además, ya destinan recursos al desarrollo de chips propios.

Si Nvidia empieza a competir con ellos en la capa de modelos, el incentivo para acelerar esos programas de silicio personalizado sube, no baja.

Bloomberg informó que los hyperscalers destinarán más de US$ 380.000 millones a infraestructura de inteligencia artificial en 2025. Si aunque sea una parte de ese gasto pasa de las GPU de Nvidia a chips propios porque la compañía ahora también compite con ellos, el golpe financiero puede superar con amplitud la inversión de US$ 26.000 millones. Ese movimiento ya aparece en el radar de hyperscalers.

La cadencia anual de productos de Nvidia forma parte de esa defensa. Blackwell salió en 2025. Vera Rubin llegará en el tercer trimestre de 2026 con soporte para HBM4. Rubin Ultra aparecerá en la segunda mitad de 2027.

Jensen Huang se define como "the chief revenue destroyer" porque cada nueva generación vuelve obsoleta a la anterior de manera deliberada. La apuesta consiste en sostener una ventaja de hardware lo bastante amplia como para que ni siquiera competidores muy decididos logren achicar la brecha a tiempo, mientras la estrategia de modelos abiertos refuerza el encierro dentro de su software.

Que esa apuesta salga bien o mal dependerá de la ejecución. Nvidia pasó 20 años construyendo la barrera de CUDA. Ahora tiene cinco años y US$ 26.000 millones para levantar la próxima antes de que la capa de compiladores empiece a desarmar la primera.

*Este artículo fue publicado originalmente en Forbes.com