Cover Image for Investigadores afirman que los diseños a gran escala de obleas podrían resolver los límites energéticos que enfrentan los sistemas de IA.

Investigadores afirman que los diseños a gran escala de obleas podrían resolver los límites energéticos que enfrentan los sistemas de IA.

Los procesadores a escala de oblea podrían superar el rendimiento de las unidades de procesamiento gráfico (GPUs).

Investigadores de la Universidad de California Riverside están desarrollando una nueva estrategia para el hardware de inteligencia artificial que puede mejorar tanto el rendimiento como la sostenibilidad. En un estudio publicado en la revista Device, el equipo examinó el potencial de los aceleradores de escala de oblea, que son chips de computadora gigantes que operan en obleas de silicio completas en lugar de los pequeños chips utilizados en las GPUs actuales.

Mihri Ozkan, profesor de ingeniería eléctrica y de computación en UCR y autor principal del estudio, destacó que "la tecnología de escala de oblea representa un avance significativo". Esta innovación permite que modelos de IA con billones de parámetros funcionen de manera más rápida y eficiente en comparación con los sistemas tradicionales.

Estos chips, como el Wafer-Scale Engine 3 (WSE-3) de Cerebras, pueden albergar hasta 4 billones de transistores y 900,000 núcleos diseñados para inteligencia artificial en una sola unidad. Otro procesador a gran escala, el Dojo D1 de Tesla, contiene 1.25 billones de transistores y casi 9,000 núcleos por módulo. Gracias a esta estructura, se eliminan los retrasos y la pérdida de energía que son comunes cuando los datos deben viajar entre múltiples chips, según Ozkan.

Aunque las GPUs tradicionales continuarán siendo relevantes debido a su costo más bajo y su modularidad, a medida que los modelos de IA se vuelven más complejos, estas chips enfrentan barreras de rendimiento y consumo energético. Ozkan subrayó que el futuro de la computación AI no solo se trata de velocidad, sino de diseñar sistemas capaces de mover grandes cantidades de datos sin sobrecalentarse o consumir electricidad en exceso.

Además, los sistemas de escala de oblea ofrecen beneficios ambientales significativos. Por ejemplo, el WSE-3 de Cerebras puede ejecutar hasta 125 cuatrillones de operaciones por segundo, consumiendo mucho menos energía en comparación con las configuraciones de GPU. Ozkan comparó las GPUs con autopistas congestionadas, que son efectivas pero desperdician energía, mientras que los motores a gran escala son como monorailes: directos, eficientes y menos contaminantes.

Sin embargo, un desafío importante persiste: la gestión del calor. Los chips de escala de oblea pueden requerir hasta 10,000 vatios de potencia, casi toda convertida en calor, lo que exige sistemas de refrigeración avanzados para evitar el sobrecalentamiento y mantener su rendimiento. Cerebras ha implementado un sistema de refrigeración basado en glicol integrado en el chip, mientras que Tesla utiliza un sistema líquido que distribuye el refrigerante uniformemente sobre la superficie del chip.