La megainversión de Google: el nuevo líder de IA anticipa que podría rozar los US$ 2 billones en una década
Google planea destinar hasta US$ 185.000 millones este año a centros de datos y chips, con el foco puesto a diez años. Con la caja de Alphabet como respaldo, la apuesta busca sostener la demanda récord de placas y apurar un despliegue global más estandarizado.

El mes pasado, durante una conferencia telefónica sobre resultados, el director ejecutivo de Google, Sundar Pichai, afirmó que la compañía invertirá hasta US$ 185.000 millones en inversiones de capital vinculadas con la inteligencia artificial este año. Se trata de una cifra desorbitada que más que duplica los US$ 90.000 millones que destinó en 2025. Sin embargo, eso podría ser apenas el comienzo. En los próximos años, el gasto del gigante tecnológico en centros de datos representará una "inversión significativa", según declaró a Forbes Amin Vahdat, el recién nombrado director de tecnología de infraestructura de IA de Google, en su primera entrevista en el cargo.

"En números simples, si hay una cotización a diez años, y estamos en US$ 175.000 millones a US$ 185.000 millones este año, uno podría imaginar, suponiendo que no va a bajar, que esto podría extenderse a una cifra grande durante 10 años", dice. @@FIGURE@@

Hicimos los cálculos. Con un gasto de US$ 185.000 millones por año, en ocho años Google gastaría US$ 1,5 billones, un poco más de lo que OpenAI se comprometió a invertir durante el mismo período. Si ese gasto se extendiera a 10 años, como señaló Vahdat, la compañía desembolsaría US$ 1,9 billones.

Vahdat deja en claro que no se trata de una promesa de que Google vaya a invertir tanto en los próximos 10 años. Sin embargo, su proyección a lo largo de una década muestra el alcance de la apuesta de la compañía. "La cuestión es que en Google estamos invirtiendo al máximo nivel", afirma.

Hay una gran diferencia entre las ambiciones de Google en cuanto a centros de datos y las de OpenAI: Google es una máquina de hacer plata. En el cuarto trimestre, Alphabet, la empresa matriz de Google, obtuvo US$ 113.000 millones en ingresos. A lo largo de todo el año, las ventas superaron los US$ 400.000 millones por primera vez en los más de 25 años de historia de la compañía. En comparación, OpenAI invirtió a niveles similares y solo generó US$ 13.000 millones en ingresos el año pasado: una fracción mínima de los ingresos de Google y menos de la mitad de sus reservas de efectivo.

@@FIGURE@@

La demanda, aparentemente insaciable, de computación es el motor económico central de la era de la IA. Ese empuje disparó la capitalización de mercado de Nvidia hasta la exorbitante cifra de US$ 4,5 billones. El Proyecto Stargate, una iniciativa de OpenAI, SoftBank y Oracle para construir infraestructura de IA por US$ 500.000 millones en Estados Unidos, se convirtió en una de las apuestas tecnológicas más destacadas para el arranque del segundo mandato del presidente Donald Trump. Sin embargo, según informes, el progreso se estancó. En total, las grandes tecnológicas podrían invertir unos US$ 500.000 millones en centros de datos y chips de IA solo este año, de acuerdo con un informe de Goldman Sachs. @@FIGURE@@

El desarrollo de la infraestructura es tan grande que conviene mirarlo a largo plazo, afirma Vahdat. Construir un solo centro de datos puede llevar varios años, y la energía se compra con mucha antelación. Parte de ese gasto irá de inmediato a chips y equipos de procesamiento de datos en los centros de datos que ya existen, agrega, mientras que otra parte financiará nuevos emplazamientos. La semana pasada, por ejemplo, Google firmó acuerdos con AES y Xcel, dos proveedores de servicios públicos, para suministrar energía a sus centros de datos en todo el país.

Vahdat, veterano de 15 años en Google, se sumó a la empresa después de una trayectoria académica como investigador y profesor, con pasos por Duke, la Universidad de Washington y la Universidad de California en San Diego. También realizó prácticas en Xerox PARC, el legendario laboratorio de investigación de Silicon Valley. Se incorporó a Google en 2010 para trabajar en redes informáticas y escaló hasta quedar al frente de las TPU (Unidades de Procesamiento Tensorial), los chips de IA personalizados de la compañía. En diciembre, lo ascendieron para supervisar la estrategia de infraestructura de IA, que incluye el desarrollo y la optimización de chips, la construcción de centros de datos y las inversiones en energía. En ese rol, reporta de manera directa al director ejecutivo, Sundar Pichai. @@FIGURE@@

Antes, las TPU de Google se usaban solo de manera interna para su infraestructura: impulsaban apps de consumo como Gmail y YouTube y, con el tiempo, también se destinaron al entrenamiento de autos autónomos y al desarrollo, entrenamiento y ejecución de modelos de IA como Gemini. Ahora son una de las opciones preferidas de la industria. Quizás no alcanzan el nivel de popularidad de las Blackwell de gama alta de Nvidia, pero sirven para el preentrenamiento y la operación de modelos de IA a escala.

Google empezó a vender acceso a esas TPU a través de un servicio en la nube en 2018, lo que permitió que otras empresas alquilaran potencia de procesamiento. Más cerca en el tiempo, la compañía firmó acuerdos de alto perfil, como un gran contrato con Anthropic, y, según se informó, mantuvo conversaciones con Meta para que use sus chips. En diciembre, Morgan Stanley estimó que las TPU podrían generar US$ 13.000 millones para Google para 2027. "Es justo decir que la demanda de TPU en la nube no ha tenido precedentes", precisa Vahdat, sobre todo en los últimos años.

Un aspecto central del desarrollo de los centros de datos pasa por conseguir la energía necesaria para alimentarlos, un tema que suele aparecer entre las críticas. En agosto, Vahdat, Jeff Dean, científico jefe de Google, y otros diez investigadores y ejecutivos de la compañía publicaron en conjunto un artículo para poner en contexto el consumo de energía de la IA. Según ese texto, una consulta promedio al modelo de IA Gemini de Google usa la misma cantidad de energía que se necesita para alimentar nueve segundos de televisión y consume aproximadamente cinco gotas de agua, lo que, según ellos, es "sustancialmente inferior a muchas estimaciones públicas". Un informe, por su parte, señala que los grandes centros de datos pueden consumir hasta 19 millones de litros por día, lo que equivale al consumo de agua de una ciudad de hasta 50.000 habitantes.

A partir de esas críticas, otros gigantes de la IA se comprometieron a pagar más por la electricidad. El mes pasado, su rival en IA, Anthropic, creador del prestigioso chatbot Claude, se comprometió a estimar y cubrir los costos de las subidas de precios de la energía que puedan derivar de su consumo. "Me alegró mucho ver ese anuncio de Anthropic", afirma Vahdat. Y agrega: "Pronto daremos más detalles sobre nuestra postura al respecto".

El mayor desafío que enfrenta Google, argumenta Vahdat, no pasa solo por escalar, sino por rediseñar la construcción de su propia infraestructura. Durante los próximos cinco años, prevé que los centros de datos dejarán de lado la construcción a medida y adoptarán diseños más modulares y repetibles: planos estandarizados, capaces de replicarse a nivel global a una velocidad sin precedentes. Esa apuesta podría consolidar la posición de Google como uno de los principales competidores en la carrera de la IA en los próximos años.

*Este artículo fue publicado originalmente por Forbes.com