Las acciones de Intel suben, pero lo importante es por qué: la inferencia en IA podría cambiar su destino
Con un nuevo chip más barato y eficiente, y capacidad industrial para escalar, Intel apuesta a quedarse con la etapa más demandada —y rentable— del uso masivo de modelos como ChatGPT.

El impulso de OpenAI para construir supercomputadoras de inteligencia artificial de nueva generación desató una fuerte competencia entre los fabricantes de chips. Nvidia, líder indiscutido en unidades de procesamiento gráfico, se comprometió a invertir hasta US$ 100.000 millones para financiar la construcción masiva del centro de datos de OpenAI. La compañía de IA planea equipar esas instalaciones con millones de chips de Nvidia.

AMD, por su parte, cerró un acuerdo propio para desplegar cerca de 6 gigavatios de sus aceleradores destinados a OpenAI. Las acciones de AMD subieron cerca de un 30% desde el anuncio, mientras que Nvidia también se disparó y alcanzó valores casi récord. Su capitalización de mercado ronda los US$ 4,5 billones.

Con Nvidia y AMD afianzadas en el centro de la estrategia de computación de OpenAI, surge una pregunta clave: ¿podría Intel, durante años visto como un actor periférico en la carrera del hardware para inteligencia artificial, sorprender con una alianza de magnitud similar.

Del entrenamiento a la inferencia: un campo de juego distinto

Las tareas de inferencia —la etapa en la que los modelos ya entrenados entregan resultados concretos— podrían representar la mejor oportunidad de Intel para ganar terreno en el mundo de la inteligencia artificial. El entrenamiento de modelos de lenguaje como GPT-4 requiere GPU de alto rendimiento, un segmento dominado por chips de última generación como los H100 y A100 de Nvidia.

Pero una vez entrenados, esos modelos deben operar de manera eficiente y a gran escala, procesando miles de millones de consultas diarias de asistentes de IA, sistemas de recomendación y herramientas para empresas.

A medida que las utilidades de inteligencia artificial llegan a cientos de millones de usuarios, la demanda de capacidad para inferencia crecerá de manera explosiva. De hecho, todo indica que el mercado de inferencia podría superar al de entrenamiento tanto en volumen como en ingresos. En este terreno, factores como la rentabilidad, la disponibilidad y la eficiencia energética pesan más que la pura potencia de cálculo.

Este escenario le abre a Intel una posible ventana de oportunidad: aprovechar su escala industrial y un rendimiento más equilibrado para ofrecer infraestructura de IA a un costo menor.

Lip-Bu Tan, CEO de Intel

Gaudi 3: el diferencial de Intel en precio y rendimiento

El acelerador de IA Gaudi 3 refuerza el potencial competitivo de Intel. En pruebas realizadas en la plataforma de IA de Dell, Gaudi 3 mostró una relación precio-rendimiento un 70% superior en tareas de inferencia del modelo Llama 3 80B de Meta, frente a la GPU H100 de Nvidia.

Con un precio de entre US$ 16.000 y US$ 20.000 —cerca de la mitad de lo que cuesta una H100—, Gaudi 3 se perfila como una alternativa atractiva para cargas de trabajo enfocadas en inferencia de IA.

Es probable que la próxima etapa de expansión de OpenAI ponga el foco en la inferencia a gran escala, más que en el rendimiento puro del entrenamiento. En ese contexto, Intel podría posicionarse como un actor clave en la provisión de computación accesible. El uso de redes Ethernet estándar en Gaudi 3 —a diferencia de las tecnologías propietarias InfiniBand y NVLink de Nvidia— también puede resultar atractivo para empresas que buscan integrar sus centros de datos de manera más flexible y económica.

El factor fundición

Más allá de los chips, las ambiciones de Intel en el negocio de fundición abren otra vía de crecimiento. En los últimos cuatro años, la compañía invirtió más de US$ 90.000 millones para ampliar su capacidad de producción, con el objetivo de acortar distancias frente a TSMC y Samsung.

Si bien Intel todavía enfrenta desafíos para captar clientes externos de primer nivel en la fabricación de chips para computación acelerada, su estrategia orientada a la inferencia podría modificar ese escenario.

Su nuevo nodo Intel 18A incorpora transistores RibbonFET con puerta completa y una tecnología de alimentación posterior llamada PowerVia, ambos desarrollos pensados para mejorar el rendimiento y la eficiencia energética. PowerVia, en particular, podría aportar una ventaja relevante en tareas de inferencia de inteligencia artificial y computación de alto rendimiento, al reducir la pérdida de energía en grandes centros de datos.

Hay otro elemento que juega a favor de Intel: la capacidad. Aunque TSMC sigue siendo el principal fabricante de chips avanzados, sus líneas de producción de 3 y 5 nanómetros ya están reservadas hasta 2026, y la demanda por su nodo de 2 nanómetros empieza a crecer. OpenAI y otros grandes operadores de infraestructura podrían enfrentarse pronto a cuellos de botella en el abastecimiento. Esa brecha podría ser cubierta por la red de fundiciones en expansión que Intel viene desarrollando.

La enorme ambición computacional de OpenAI

OpenAI no apunta a simples mejoras incrementales. Su objetivo es construir una de las redes de centros de datos para inteligencia artificial más grandes de la historia mediante el proyecto de infraestructura llamado Stargate, que busca alcanzar una capacidad energética de aproximadamente 10 gigavatios (GW) para fines de 2025. La inversión prevista, de US$ 500.000 millones, podría demandar decenas de millones de GPU para entrenar y operar modelos de IA de última generación.

Una iniciativa de esa magnitud requiere no solo chips avanzados, sino también cadenas de suministro amplias y resistentes. Con las fábricas de TSMC probablemente trabajando al límite y la demanda global de aceleradores de IA en aumento, OpenAI podría verse obligada a diversificar sus alianzas dentro del sector. En ese escenario, la combinación entre aceleradores accesibles y capacidad industrial avanzada de Intel podría devolverle protagonismo en el mercado.

 

Con información de Forbes US.