
¿Cuáles son las claves para construir un futuro sostenible en inteligencia artificial?
Uno de los principales retos para la inteligencia artificial es su consumo energético.
La innovación trae consigo un impacto significativo. La revolución de las redes sociales ha transformado la manera en que compartimos contenido, así como nuestras prácticas de compra, venta y aprendizaje. Sin embargo, también ha suscitado interrogantes en torno al mal uso de la tecnología, la censura y la protección de datos. Con cada avance, surgen desafíos, y la inteligencia artificial (IA) no es una excepción.
Uno de los principales retos que enfrenta la IA es su consumo energético. Actualmente, los centros de datos y la IA utilizan entre el 1% y el 2% de la electricidad mundial, una cifra que continúa en aumento. Las estimaciones acerca de este consumo cambian conforme evolucionan nuestras tecnologías de IA y los patrones de uso. En 2022, el consumo de energía de los centros de datos, que incluye plataformas de IA y criptomonedas, ascendió a aproximadamente 460 TWh. Se estimaba que para principios de 2024 este podría aumentar hasta 900 TWh para 2030. Sin embargo, en 2025, se revisó drásticamente esta cifra hacia abajo, situándola en aproximadamente 500 TWh, gracias a modelos de IA y tecnologías de centros de datos más eficientes. Para poner esto en perspectiva, se espera que la demanda de la industria de vehículos eléctricos alcance los 854 TWh para 2030, mientras que la calefacción doméstica e industrial se ubicará en torno a 486 TWh.
La eficiencia energética de la infraestructura de IA está mejorando. Ya sea gracias a la Ley de Moore, que indica que habrá más transistores en un mismo chip, o a la Ley de Koomey, que sugiere más cálculos por joule de energía utilizada, la computación se ha vuelto más eficiente con el tiempo, y las GPUs, motores fundamentales de la IA, seguirán esta tendencia. Entre 2010 y 2018, la capacidad de procesamiento en centros de datos creció un 550%, mientras que el uso de energía solo aumentó un 6%. Este optimismo también se refleja en la creciente adopción de tecnologías de refrigeración líquida en los centros de datos, que, según Markets and Markets, incrementará casi diez veces en los próximos siete años. Gracias a su mayor conductividad térmica, la refrigeración líquida resulta más eficiente y económica en comparación con la refrigeración por aire, lo que es esencial para las cargas de trabajo de IA que demandan más energía.
También se observa innovación en el campo de la refrigeración líquida. Tradicionalmente, los centros de datos han utilizado refrigeración líquida directa a los chips (DLTC), donde placas de enfriamiento se sitúan sobre CPUs o GPUs. Con el aumento de las cargas térmicas, se presencian técnicas de refrigeración por inmersión, que sumergen todo el servidor en un líquido no conductor, permitiendo un enfriamiento simultáneo de todos los componentes. Esta metodología se puede combinar con la refrigeración DLTC, proporcionando un enfriamiento mayor a las partes que suelen generar más calor.
En cuanto a la eficiencia de los recursos, es esencial considerar el uso del agua. Un ejemplo claro es el uso de IA en búsquedas en Internet, que requiere aproximadamente 25 ml de agua, comparado con solo medio mililitro para búsquedas sin IA. En pruebas a gran escala, se ha encontrado que tecnologías de refrigeración inteligente pueden reducir el consumo de agua en un 56%, lo cual puede traducirse en más de un millón de litros ahorrados al año.
La sostenibilidad también implica optimizar el uso de minerales en la infraestructura, ya que estos no existen de manera aislada. Reciclar o reutilizar componentes puede disminuir el impacto ambiental de la IA. Por ejemplo, la extracción de litio, esencial en los automóviles eléctricos, puede demandar hasta medio millón de litros de agua y generar quince toneladas de CO2 por cada tonelada de metal extraído. Además, existe un componente geopolítico en el uso de recursos, dado que una porción significativa del níquel empleado en disipadores provenía de Rusia.
La recuperación de metales es otra opción viable; procesos como la pirólisis pueden obtener cobre "negro" de componentes complejos, y mediante electrólisis se pueden separar los elementos y recuperar metales valiosos, convirtiendo residuos electrónicos en activos. Aunque esto no represente una fuente de ingresos considerable, es un claro ejemplo de cómo la sostenibilidad puede generar beneficios.
Los usuarios también tienen un papel importante en la eficiencia de procesos de IA. No basta con confiar en los operadores de centros de datos o fabricantes de equipos para reducir el consumo de energía. Todas las organizaciones deben ser conscientes de su consumo energético y procurar un diseño sostenible en sus operaciones. Por ejemplo, el entrenamiento de modelos de IA, que raramente es sensible a la latencia, puede realizarse en ubicaciones con acceso a energía renovable, lo que reduce significativamente la huella de carbono.
En resumen, es indudable que el consumo de energía y recursos aumentará en el futuro, siendo este el costo del progreso. Lo que podemos hacer es establecer un precedente que asegure que cada fase de nuestras cadenas de suministro y procesos de IA sea lo más eficiente posible desde el principio, de modo que los futuros desarrollos integren esta eficiencia dentro de sus procedimientos operativos estándar. Conseguir mejoras, aunque sean pequeñas, puede acumularse y garantizar que las necesidades actuales no comprometan el futuro del planeta.