La semana pasada, The Information informó que Google atraviesa la última etapa de negociaciones con Marvell Technology para desarrollar en conjunto dos nuevos chips personalizados de inteligencia artificial. Uno es una unidad de procesamiento de memoria que se integrará con las Unidades de Procesamiento Tensorial (TPU) que Google ya usa. El otro es una TPU completamente nueva, diseñada específicamente para la inferencia de IA: el trabajo en tiempo real que realiza un modelo cada vez que responde una pregunta, no los enormes procesos de entrenamiento que le dieron origen.
Si el acuerdo con Marvell se concreta, Google contará con cuatro socios de diseño en su cadena de suministro de silicio personalizado: Broadcom, MediaTek, Marvell y sus propios equipos internos. La compañía ahora espera que los envíos de TPU alcancen los 4,3 millones de unidades en 2026 y suban a 35 millones en 2028. TrendForce proyecta que las ventas de chips de IA personalizados crecerán un 45 % en 2026, frente al 16 % previsto para las GPU estándar. Además, Google les ofrece garantías financieras a los proveedores de la nube para que sus TPU se conviertan en la opción predeterminada para las cargas de trabajo de IA en producción. En paralelo, presentó una nueva capa de software llamada TorchTPU para ayudar a los desarrolladores a migrar fuera del ecosistema de Nvidia.
La mayoría de los medios presenta este movimiento como el momento en que Google decide tomarse en serio a Nvidia. Esa lectura no es incorrecta, pero falla en la forma de medir la batalla.
La batalla que realmente importa se juega dentro de una empresa de Taiwán que ni Google ni Nvidia controlan, y que ninguna de las dos puede reemplazar.
Qué es la inferencia y por qué importa ahora
El entrenamiento es la etapa en la que un modelo aprende. Grandes clústeres de GPU procesan miles de millones de datos durante meses. Es costoso, exige una enorme capacidad de cálculo y fue el área que concentró la mayor parte del gasto en IA entre 2022 y 2025.
La inferencia es lo que ocurre después de entrenar el modelo. Cada vez que alguien le hace una pregunta a ChatGPT, cuando Claude escribe una línea de código o cuando el agente de IA interno de una empresa consulta un documento, eso es inferencia. Cada solicitud es pequeña, pero, al multiplicarla por miles de millones de usuarios y cientos de empresas, la inferencia empieza a costar más que el entrenamiento. @@FIGURE@@
Por eso, la industria de los chips cambia de rumbo. Los chips de entrenamiento se diseñaron para entregar potencia bruta. En cambio, los chips de inferencia deben optimizar el costo, la velocidad y la eficiencia por consulta. Las empresas que ganen en el terreno de la inferencia no serán necesariamente las que tengan el chip más rápido, sino las que consigan la inferencia más barata por millón de tokens. Ese es un desafío de ingeniería distinto.
Google lo entiende a la perfección. Su acuerdo con Marvell apunta precisamente a esa brecha. La unidad de procesamiento de memoria que desarrolla en conjunto con Marvell está pensada para resolver el cuello de botella del ancho de banda de la memoria, que frena la inferencia en las TPU actuales. La nueva TPU específica para inferencia implica un rediseño completo para esta carga de trabajo. La contribución de MediaTek, un chip con nombre en clave Zebrafish, busca una reducción del 30 % en el costo por operación de inferencia. Toda la estrategia es coherente y la ingeniería es de alto nivel.
Pero nada de eso importa si esos chips no se pueden fabricar.
El único edificio que hace que todo esto funcione
Todos los chips de IA avanzados del planeta, con algunas excepciones menores, los fabrica Taiwan Semiconductor Manufacturing Company (TSMC). Los Blackwell de Nvidia, las TPU de Google, Trainium de Amazon, Maia de Microsoft y la serie MI de AMD. Si el chip es de última generación y está diseñado para IA, se produce en Hsinchu, Taiwán. TSMC controla más del 90 % de la fabricación mundial de chips avanzados.
Esto es lo que significa, en la práctica, para la ambiciosa estrategia de Google de contar con varios socios.
En enero de 2026, Nvidia superó a Apple como el mayor cliente de TSMC, una posición que Apple había mantenido durante más de una década. El analista de Creative Strategies, Ben Bajarin, proyecta que Nvidia generará alrededor de US$ 33.000 millones en ingresos para TSMC en 2026, lo que representa cerca del 22 % de los ingresos totales de la fundición. Apple ahora ocupa el segundo lugar, con US$ 27.000 millones y el 18 %.
La cifra más importante está en el empaquetado avanzado, el proceso CoWoS que se usa para integrar la lógica y la memoria en un chip de IA funcional. Nvidia reservó más de la mitad de la capacidad CoWoS de TSMC para 2026, y algunos informes hablan de más del 60 %, con entre 800.000 y 850.000 obleas comprometidas. La propia TSMC duplica su capacidad CoWoS: pasó de unas 35.000 obleas al mes a fines de 2024 a una proyección de 130.000 mensuales para fines de 2026. Incluso con esa expansión, las reservas de Nvidia llegan hasta 2027.
El director ejecutivo de TSMC, CC Wei, fue explícito sobre lo que esto significa a nivel estructural:
- Construir una nueva fábrica lleva aproximadamente tres años.
- Alcanzar la plena capacidad de producción exige otros dos.
- Eso implica un mínimo de cinco años entre la decisión de expandirse y el inicio del servicio a nuevos clientes a gran escala.
Google no puede solucionar esto a fuerza de diseñar más chips. Tampoco Amazon, Microsoft ni cualquier otro competidor. Todos los diseñadores de chips de IA del planeta esperan turno para acceder a las mismas máquinas, en los mismos edificios y bajo la operación de la misma empresa, cuya próxima capacidad de producción recién estará disponible dentro de varios años.
Por qué esto cambia el marco
Ahí está la trampa en la que cae la mayoría de los inversores cuando lee noticias sobre chips de IA: cree que la competencia es entre Nvidia y Google, entre Nvidia y AMD, o entre Nvidia y Trainium de Amazon. Interpreta "Google desarrolla una TPU personalizada" como "Google va por el éxito de Nvidia".
La realidad es distinta. Google, Nvidia, Amazon, Microsoft y el resto de los diseñadores compiten por espacio en TSMC. El que consigue más lugar fabrica más chips. El que consigue menos, produce menos. Por eso, quien gana la carrera del diseño sigue atado a quien controla la fabricación. Y ese actor dejó algo muy claro en los últimos dos años: prioriza a su mayor cliente, y ese cliente es Nvidia.
¿Por qué Nvidia consigue los mejores espacios? Hay tres razones.
- Primero, realiza los mayores pagos iniciales. Los anticipos multimillonarios le aseguran producción con años de anticipación.
- Segundo, sus chips son los más complejos y los que generan más ingresos por oblea. TSMC gana más por milímetro cuadrado con un chip Blackwell que con casi cualquier otro producto de su línea de fabricación.
- Tercero, Jensen Huang construyó su relación con Morris Chang, fundador de TSMC, hace tres décadas. En aquel momento, Huang le dijo a Chang que Nvidia algún día se convertiría en el mayor cliente de TSMC. Esa predicción ya es una realidad.
Google ahora intenta replicar lo que hizo Nvidia, pero en un plazo mucho más ajustado. Las negociaciones con Marvell, la alianza con MediaTek y la ampliación del acuerdo con Broadcom representan la estrategia de Google para construir la misma redundancia estructural que Nvidia tardó años en conseguir. Es la decisión correcta. También es un proyecto de largo plazo, mientras Nvidia conservará la mejor capacidad, los nodos más rápidos y el acceso más temprano a los nuevos procesos. @@FIGURE@@
El error del inversor consiste en interpretar "Google desafía a Nvidia" como "La ventaja competitiva de Nvidia se debilita". La lección real es más directa y precisa: la ventaja competitiva siempre estuvo en la fábrica, no en el diseñador, y la fábrica ya dejó claro a quién favorece.
Qué mirar de verdad
Quienes entienden esta industria dejaron de mirar los benchmarks de chips hace un año. Ahora prestan atención a los informes de asignación de capacidad.
Los números que importan no son las velocidades de reloj ni los FLOPS. Son estos:
- Las comunicaciones trimestrales de capacidad de TSMC, que muestran cuántas obleas se producen realmente en los nodos avanzados.
- La asignación de CoWoS por cliente, que revela quién recibe el empaquetado que convierte el silicio en un acelerador de IA funcional.
- Los lineamientos de inversión de capital de TSMC, que indican a qué velocidad puede aliviarse la falta de capacidad.
- La diferencia entre las obleas pedidas y las entregadas, que es la verdadera medida de la escasez de suministro.
Todas las novedades sobre chips de IA de 2026 se terminarán de analizar a través de estas cifras: las ambiciones de Google con la TPU, la escalabilidad de Trainium de Amazon, la hoja de ruta de Maia de Microsoft, el rumoreado chip personalizado de Anthropic e incluso la arquitectura Rubin de Nvidia. Ninguna de ellas existiría sin TSMC, y el ritmo de TSMC lo marcan las leyes de la física, no el marketing.
Se puede argumentar, con bastante lógica, que la posición más valiosa en todo el ecosistema de la IA no es la del mejor diseñador de chips, ni la del mejor modelo, ni siquiera la del mejor proveedor de servicios en la nube. Es la empresa que controla el cuello de botella físico que todos los demás deben superar. TSMC no necesita ganar la carrera de la IA: solo necesita seguir como el único lugar donde esa carrera puede existir.
Esa es la verdadera historia detrás de la estrategia de cuatro socios de Google. La guerra del diseño es real y los ganadores obtendrán grandes ganancias. Pero la barrera de la fabricación es más alta que cualquier ventaja de diseño, y sube cada año a medida que la expansión de capacidad queda por detrás de la demanda. Google no crea un rival para Nvidia: arma una defensa ante la posibilidad de que Nvidia se quede con una porción todavía mayor de una torta que ninguna de las dos controla.
El cuello de botella no está en Mountain View ni en Santa Clara. Está en Hsinchu. Fijate en ese edificio, no en los benchmarks.
*Este artículo fue publicado originalmente por Forbes.com