El avance de la inteligencia artificial (IA) y su implementación en plataformas de uso cotidiano como ChatGPT intensificaron las inquietudes sobre el impacto ambiental de estas tecnologías. A medida que se populariza el acceso a los asistentes basados en IA, surgen preguntas sobre su consumo energético y las consecuencias para el medioambiente.
Consumo energético de cada consulta en ChatGPT
De acuerdo con especialistas, una sola consulta en ChatGPT utiliza cerca de 3 vatios-hora (Wh), lo que representa un consumo aproximadamente diez veces superior al de una búsqueda estándar en Google. Sin embargo, expertos recomiendan considerar este valor en escala comparativa para comprender su real dimensión.
La científica de datos Hannah Ritchie, investigadora de la Universidad de Oxford, detalló que “una pregunta en ChatGPT consume 3 Wh, mientras el consumo promedio diario de electricidad por persona en el Reino Unido es de 12.000 Wh”. De esta manera, una consulta equivale al 0,2% del consumo energético diario per cápita en dicho territorio.
Ritchie explicó que, aunque la IA demanda gran capacidad de procesamiento y acceso a centros de datos especializados, este parámetro debe leerse según el contexto. “La razón por la que solemos pensar que ChatGPT consume mucha energía se debe a la afirmación inicial: utiliza 10 veces más energía que una búsqueda en Google. Incluso si esto es cierto, lo que falta es el contexto de que una búsqueda en Google consume una cantidad ínfima de energía. Incluso 10 veces una cantidad ínfima sigue siendo ínfima”, sostuvo la especialista.
En países como Estados Unidos, donde el consumo promedio diario por habitante triplica al del Reino Unido, efectuar 10 consultas al día en ChatGPT equivale al 0,09% del gasto eléctrico diario promedio, según los cálculos mencionados por Ritchie.
Centros de datos y sostenibilidad
Los modelos de IA generativa como ChatGPT requieren servidores potentes y centros de datos que, para funcionar, emplean grandes cantidades de energía y recursos como el agua para la refrigeración de equipos. Esta infraestructura también contribuye a la emisión de carbono, un aspecto cada vez más observado por la comunidad científica y tecnológica.
Diversas iniciativas buscan mejorar la sostenibilidad de la inteligencia artificial. Expertos promueven alternativas como la Edge IA, que consiste en operar la IA directamente en los dispositivos finales, disminuyendo el uso de los recursos centralizados de almacenamiento y procesamiento en la nube. Esta tendencia apunta a reducir el consumo energético total y el impacto ambiental asociado al funcionamiento masivo de la IA.






