¿una búsqueda de Google o una consulta a ChatGPT?

Teknalix junio 12, 2025 No hay comentarios

¿una búsqueda de Google o una consulta a ChatGPT?

Durante años, aunque este tema se ha hecho más viral en los últimos meses, la idea de que una consulta a ChatGPT gasta muchísima más electricidad que una búsqueda en Google ha circulado por todos los medios y redes sociales. 

Parecía lógico, ya que, si la inteligencia artificial puede escribir textos, resolver ejercicios y hasta tener una relación amorosa como una persona, ¿no debería consumir mucho más que un simple buscador? La realidad siempre guarda algún que otro matiz.

La cifra que más se ha repetido es que ChatGPT consume hasta diez veces más energía que Google por pregunta. Sin embargo, esta comparación se basa en datos antiguos y en modelos de IA que ya no son los que se usan hoy en día. 

Por ejemplo, en 2023, algunos estudios estimaban que ChatGPT usaba unos 3 vatios-hora por consulta, mientras que Google anunció en 2009 que cada búsqueda consumía 0,3 vatios-hora. Esa relación de 10 a 1 se quedó grabada en la mente de muchos, pero la tecnología ha avanzado desde entonces.

La carrera hacia la inteligencia artificial general

Investigaciones recientes, como la del equipo de Epoch.ai y declaraciones del propio Sam Altman, CEO de OpenAI, apuntan a que ChatGPT, usando el modelo GPT-4o, consume solo 0,3 vatios-hora por pregunta. Es decir, lo mismo que Google decía que gastaba por búsqueda en 2009. 

Pero aquí viene el segundo matiz: Google no ha actualizado sus cifras desde entonces, y hoy sus búsquedas integran cada vez más inteligencia artificial, lo que probablemente ha aumentado su consumo energético. Así que, en 2025, ChatGPT y Google podrían estar casi igualados en eficiencia energética por consulta, aunque nadie lo sabe al 100% porque Google no da datos actualizados.

¿ChatGPT es un monstruo energético y de consumo de agua?

La confusión que existe a día de hoy sobre el consumo energético de la IA tiene su origen en la rapidez con la que avanza la tecnología y en la falta de transparencia de las grandes empresas. 

Pese a los datos antes comentado, no se puede tampoco negar que los modelos más grandes y especializados, como los que se usan para investigaciones científicas o para procesar documentos muy largos, sí pueden disparar el consumo energético. 

Por ejemplo, analizar un texto de 200 páginas puede requerir hasta 40 vatios-hora, pero esos casos son la excepción, no la regla. La mayoría de las consultas diarias a ChatGPT son conversaciones breves, resúmenes o preguntas sencillas.

El problema de fondo es que las empresas tecnológicas, tanto OpenAI como Google, son poco transparentes con sus datos de consumo energético. Cuando Altman dice que ChatGPT gasta 0,3 vatios-hora por pregunta, hay que creerle porque no hay forma de verificarlo de forma independiente. 

Inteligencia artificial junto a un Espanol

Un problema que se agrava por los millones de usuarios que usan ChatGPT diariamente

Aunque ChatGPT y Google puedan estar más o menos igualados en consumo energético por consulta, el verdadero problema está en la escala. Cada día, cientos de millones de personas usan motores de búsqueda y asistentes de inteligencia artificial. Si multiplicamos esos pequeños consumos por el número de usuarios y consultas, el resultado es una demanda energética gigantesca.

Según algunos cálculos, el consumo anual de ChatGPT podría equivaler al de miles de hogares o incluso al de un país pequeño durante varios días. Y eso solo es una parte del problema, porque la inteligencia artificial no solo se usa en chatbots, sino también en búsquedas, recomendaciones, traducciones, generación de imágenes y vídeos, y cada vez más y más.

También hay que tener en cuenta el gasto de agua para refrigerar los servidores, la huella de carbono de los materiales y la construcción de los centros de datos, y el riesgo de que el aumento de la demanda energética lleve a un encarecimiento de la electricidad para todos. 

Sin ir más lejos, el Banco Central Europeo ya ha advertido de que el uso masivo de la IA podría disparar los precios de la luz en Europa si no se toman medidas.

Prompts potentes para inteligencia artificial

El desmedido consumo de agua 

Recuperando ese viral tema de las imágenes generadas con IA con el estilo del Estudio Ghibli, en solo cinco días se consumió más de 216 millones de litros de agua, lo que equivale al suministro mensual de una pequeña ciudad. 

Cada imagen estilo Ghibli puede consumir hasta 3,45 litros de agua solo para enfriar los servidores. ¿Cómo es posible? La clave está en los centros de datos que procesan estas imágenes, instalaciones gigantescas que requieren enormes cantidades de energía y agua para funcionar.

“El consumo de agua no es tanto de la IA per se, sino de todos los centros de datos que tienen los ordenadores donde la IA se está ejecutando”, explica Jordi Damià, director del Máster en IA Generativa de LICEOTIC Training y CEO de Setesca en una entrevista a Telecinco. Mantener estos equipos a temperaturas estables es clave para evitar fallos y que todo siga funcionando como siempre. 

Aunque las cifras son un tanto impactantes, tranquilidad porque también hay que decir que no toda el agua utilizada se pierde. Muchos centros de datos tienen sistemas para reciclarla y devolverla al ecosistema. En algunos casos, el agua vuelve al río o lago del que se extrajo, completamente limpia. Este proceso incluye filtrado para eliminar impurezas antes de devolverla a su origen.

A modo de conclusión, la pregunta “¿qué contamina más, una búsqueda de Google o una consulta a ChatGPT?”, no tiene una respuesta 100% clara, pero el impacto ya se está haciendo notar y urgen medidas para evitar que los problemas se agraven en exceso.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Energías renovables, Software, Medio Ambiente