Cover Image for Sam Altman asegura que una consulta promedio en ChatGPT utiliza "aproximadamente una quinceava parte de una cucharadita" de agua.

Sam Altman asegura que una consulta promedio en ChatGPT utiliza "aproximadamente una quinceava parte de una cucharadita" de agua.

No está claro cómo llegó a esa cifra.

En una reciente entrada de blog, Sam Altman, CEO de OpenAI, destacó que una consulta promedio en ChatGPT consume aproximadamente 0.000085 galones de agua, lo que equivale a aproximadamente una quinceava parte de una cucharadita. Este dato fue presentado en el marco de sus predicciones sobre el impacto futuro de la inteligencia artificial en el mundo. Altman también mencionó que el consumo energético de una consulta típica es de aproximadamente 0.34 vatios-hora, comparando este gasto con el de un horno durante poco más de un segundo o con el uso de una bombilla de alta eficiencia a lo largo de varios minutos. Adicionalmente, considera que el costo de la inteligencia debería llegar a ser similar al costo de la electricidad.

Las empresas de inteligencia artificial han sido objeto de críticas en relación con el consumo energético de sus tecnologías. Investigaciones recientes sugieren que, para finales de este año, el uso de energía por parte de la IA podría superar al de la minería de Bitcoin. Por otro lado, un estudio del año anterior reveló que un correo electrónico de 100 palabras generado por un chatbot basado en GPT-4 requería poco más de una botella de agua. Asimismo, se observó que el uso de agua puede variar significativamente según la ubicación de los centros de datos.