Inteligencia artificial y su costo energético: algo importante para saber.
Nada es gratis en ala vida. La IA por cierto que tampoco. Pero te quiero hablar de esto porque las implicancias energéticas que trae podrían generar cambios muy signficativos en un futuro cercano. Sólo para empezar, las empresas de tecnología de generación eléctrica serán algo a lo que debemos apostar.
La escala del consumo actual
Según el informe AI Energy Consumption 2025 del MIT y la Agencia Internacional de la Energía, el entrenamiento de un solo modelo de lenguaje grande (como GPT-4 o equivalentes de última generación) consume aproximadamente 1.300 megavatios-hora (MWh) de electricidad. Para ponerlo en perspectiva: esta cantidad equivale al consumo eléctrico anual de 130 hogares estadounidenses promedio, o a 36.000 horas de streaming continuo en Netflix en alta definición.
Pero el entrenamiento es solo el comienzo. La fase de inferencia—cuando el modelo ya está operativo y procesando consultas de usuarios—representa entre el 60% y 80% del consumo total de un sistema de IA a lo largo de su vida útil. Se estima que las consultas globales a motores de IA generan actualmente un gasto energético cercano a los 85 teravatios-hora (TWh) anuales, comparable al consumo eléctrico total de países como Bélgica o Finlandia.
Centros de datos: los gigantes sedientos
Los data centers que albergan estas inteligencias ya consumen aproximadamente el 4% de la electricidad global, porcentaje que se duplicará para 2030 si se mantiene la tendencia actual, según la AI Now Institute. Lo más preocupante es que solo entre el 12% y el 15% de esa energía proviene actualmente de fuentes renovables en muchas regiones, aunque empresas como Google y Microsoft han anunciado compromisos de carbono neutral para sus operaciones de IA.
Un ejemplo concreto: mantener activo un asistente de IA avanzado para 10 millones de usuarios durante un año requiere tanta energía como una ciudad de 50.000 habitantes. Cada búsqueda conversacional compleja (donde la IA analiza contexto, historial y preferencias) consume 10 veces más energía que una búsqueda tradicional en Google.
El dilema entre eficiencia y complejidad
Paradójicamente, mientras los algoritmos se hacen más eficientes, los modelos crecen en tamaño y apetito energético. La Ley de Moore aplicada a la IA muestra que cada mejora en rendimiento conlleva un aumento exponencial en consumo. Sin embargo, hay señales esperanzadoras: las nuevas arquitecturas de chips neuromórficos y la computación cuántica en fase experimental prometen reducir el consumo hasta en un 90% para tareas específicas.
Fíjate en empresas del rubro energético
Las empresas capaces de liderar nuevas tecnologías de generación y transmisión eléctrica serán claves en un futuro cercano. Puede parecer algo banal, pero no lo es. Este 2026, yo a lo menos, estaré mirando la posibilidad de invertir en algunas de ellas. Si el mundo dependerá de la IA, dependerá por tanto de estas empresas, muchas de las cuales, aún están en ciernes.
Si a algo podemos apostar… es aquí. Que tengas un muy próspero 2026.
Fuente:
-
AI Energy Consumption 2025 | MIT


