
La obsesión de OpenAI por las GPU se adentra en el terreno de los billones de dólares, y los centros de datos a nivel mundial podrían verse afectados.
El crecimiento de OpenAI le dará a sus inversores motivo para reflexionar.
OpenAI se encuentra en camino de operar más de un millón de GPUs para finales de 2025, una cifra que la posiciona significativamente por delante de sus competidores en términos de recursos de computación. El CEO de la compañía, Sam Altman, ha manifestado que superarán el millón de GPUs en funcionamiento para finales de este año. Aunque su comentario fue expresado con humor, ha generado un debate serio sobre la viabilidad de implementar 100 millones de GPUs en un futuro próximo.
Para poner esto en perspectiva, xAI de Elon Musk utiliza aproximadamente 200,000 GPUs para su modelo Grok 4. Por lo tanto, el objetivo de OpenAI de alcanzar un millón de unidades ya es cinco veces mayor que la cantidad que usa xAI. No obstante, escalar esta cifra a 100 millones implica costos astronómicos, estimados alrededor de 3 billones de dólares, además de importantes desafíos en manufactura, consumo energético y despliegue físico.
Altman, en tono de broma, mencionó que a pesar de estar orgulloso del equipo, es necesario que encuentren una manera de multiplicar por 100 esa cifra. Actualmente, Microsoft Azure sigue siendo la plataforma de nube principal para OpenAI, aunque también ha establecido una colaboración con Oracle y está explorando los aceleradores TPU de Google. Esta diversificación es parte de una tendencia en la industria, donde empresas como Meta, Amazon y Google también están avanzando hacia la adopción de chips propios y una mayor dependencia de memoria de alto ancho de banda.
SK Hynix es una de las compañías que podría beneficiarse de este crecimiento, ya que el aumento en la demanda de GPUs también impulsa la necesidad de HBM, un componente esencial para el entrenamiento de inteligencia artificial. Según informantes en la industria de centros de datos, las especificaciones de las GPUs y HBM son a menudo determinadas por los clientes, como OpenAI, y se configuran conforme a sus solicitudes.
La colaboración de OpenAI con SK Group parece estar consolidándose, ya que el presidente Chey Tae-won y el CEO Kwak No-jung se reunieron recientemente con Altman para reforzar su posición en la cadena de suministro de infraestructura de IA. Esta relación se basa en eventos anteriores, como la competencia de IA de SK Telecom con ChatGPT y su participación en el MIT GenAI Impact Consortium.
A pesar de este crecimiento acelerado, han surgido inquietudes sobre la sostenibilidad financiera de OpenAI, con reportes que indican que SoftBank podría estar reconsiderando su inversión. Si OpenAI logra su ambicioso objetivo de 100 millones de GPUs, no solo necesitará capital, sino también avances significativos en eficiencia computacional, capacidad de manufactura e infraestructura energética global. Por ahora, este objetivo parece ser más una declaración de intenciones audaz que un plan práctico a seguir.