Qué hacen las empresas para mitigar el consumo de agua y energía que gasta la IA

Especialistas de la UNCUYO explican por qué son las empresas las responsables de adoptar soluciones tecnológicas más sostenibles, como data centers verdes, modelos de lenguaje más pequeños o chips más eficientes. Cuánta agua gasta un solo diálogo con un chatbot y qué rol tiene Argentina.

Qué hacen las empresas para mitigar el consumo de agua y energía que gasta la IA

La clave para mejorar hacia una IA más ecológica es la eficiencia energética. Foto: Freepik

Sociedad

Inteligencia artificial en todos lados

Unidiversidad

Emilio Murgo

Publicado el 20 DE MAYO DE 2025

El avance acelerado de la inteligencia artificial (IA) ha encendido una nueva alarma: su impacto ambiental y qué hay que hacer para mitigar los daños. Especialistas y docentes de la UNCUYO sostienen que esa responsabilidad no debe recaer sobre usuarios y usuarias, sino en las empresas tecnológicas, que deben mejorar la eficiencia energética y reducir el uso de agua. El camino es, entonces, empezar a analizar qué alternativas se barajan para revertir la problemática, y ya aparecen algunas: trasladar los centros de datos a zonas frías y con energías renovables —como la Patagonia Argentina—, desarrollar modelos de lenguaje más pequeños y específicos que consuman menos recursos y avanzar en la miniaturización de chips para reducir el gasto energético sin perder potencia.

Desde Unidiversidad, conversamos con dos docentes e investigadores de la Universidad Nacional de Cuyo (UNCUYO): el ingeniero Jorge Núñez Mc Leod, profesor de la cátedra de Investigación Operativa de Ingeniería Industrial, y la ingeniera Selva Rivera, docente de Inteligencia Artificial I en la carrera de Ingeniería Mecatrónica. Ambos analizaron el impacto energético e hídrico de esta tecnología, debatieron sobre las posibles alternativas y reflexionaron sobre el rol que puede asumir Argentina en este nuevo escenario.

Jorge Núñez Mc Leod y Selva Rivera son docentes e investigadores de la UNCUYO. Foto: Unidiversidad

El impacto ambiental de la inteligencia artificial: ¿cuánto consume?

Uno de los efectos colaterales del uso masivo de IA es el elevado consumo de energía y agua que implica su funcionamiento. “Aunque los números pueden variar, se estima que un solo diálogo largo con un chatbot como ChatGPT puede requerir la misma cantidad de agua que una botella de medio litro”, indicó Jorge Núñez Mc Leod. Esta cifra, aunque simbólica, alerta sobre la necesidad de desarrollar tecnologías más eficientes.

El especialista explicó que los data centers, donde se alojan los servidores que dan vida a estas tecnologías, consumen una gran porción de la energía global, pero no solo por el uso de inteligencia artificial, sino también por otras actividades digitales cotidianas: correos electrónicos, redes sociales, plataformas de streaming, videojuegos en línea, entre otros. De hecho, para el docente, en lugares como Arizona (EE. UU.), donde el agua escasea y las temperaturas son elevadas, los sistemas de refrigeración de los servidores compiten directamente con el consumo doméstico, lo que plantea una contradicción ética y ambiental.

“Esto es algo que debe ser revisado y modificado. Hoy las empresas están empezando a trasladar sus servidores a regiones más frías, como el norte de Europa o incluso la Patagonia argentina, donde podrían reducir drásticamente su consumo energético”, agregó.

El uso de IA demanda grandes volúmenes de energía y agua. Cada interacción con un chatbot puede implicar el consumo equivalente a medio litro de agua. Foto: Freepik

Hacia centros de datos más sustentables

Frente a este panorama, ambos entrevistados coinciden en que no se trata de dejar de usar IA, sino de usar mejor la tecnología. “Como en su momento pasó con Internet, no se trata de frenar la innovación, sino de acompañarla con responsabilidad, sobre todo por parte de las empresas encargadas de su funcionamiento.”, apuntó Núñez Mc Leod. A modo de ejemplo, el ingeniero mencionó que Microsoft ya probó centros de datos submarinos, que se refrigeran de forma natural, como parte de sus estrategias para reducir el consumo.

Además, la especialista Selva Rivera remarcó el rol que tienen los avances en la industria de microchips. “Hoy se están fabricando chips de 3 o 2 nanómetros, que permiten hacer más cálculos con menos consumo energético. La miniaturización y eficiencia del hardware son claves para el futuro de una inteligencia artificial más ecológica”, señaló.

Rivera apuesta a los modelos de lenguaje reducidos, que consumen menos recursos y pueden ejecutarse localmente, sin depender de la nube ni de grandes servidores. Foto: Unidiversidad

Argentina frente al nuevo paradigma de la inteligencia artificial

En este escenario global, ¿qué lugar ocupa Argentina? Según Núñez Mc Leod, el país tiene una oportunidad única: “Tenemos capital humano formado, capacidad técnica y condiciones geográficas favorables. Podemos convertirnos en un nodo importante del desarrollo de IA sustentable, pero, para ello, debemos tomar las decisiones correctas”.

Otra de las alternativas más viables es la relocalización de los centros de datos en zonas con bajas temperaturas y disponibilidad de energías renovables. “La Patagonia argentina cumple con ambos requisitos. Tiene un gran potencial en energía eólica, que permitiría crear centros de datos con huella de carbono casi nula y menor huella hídrica”, explicó.

El investigador destacó que la combinación de energías renovables y una red de universidades públicas con recursos científicos puede posicionar al país como actor clave. Sin embargo, advirtió: “Si Argentina legisla sin entender el fenómeno, corremos el riesgo de perder una oportunidad histórica”.

Para Mc Leod, Argentina tiene capital humano y recursos naturales para liderar un modelo de IA sustentable. Foto: Unidiversidad

Modelos más pequeños y más eficientes

Además del hardware, el tamaño de los modelos de lenguaje también juega un papel central. Rivera explicó que la tendencia actual apunta a desarrollar modelos más pequeños y especializados, que consumen menos energía y pueden ejecutarse incluso en dispositivos locales como notebooks o celulares.

“Un modelo pequeño funciona como un médico que sabe mucho de una especialidad: es más eficiente porque está enfocado. Esto permite que se ejecute directamente en el dispositivo, sin necesidad de enviar los datos a servidores externos (nube), lo que reduce tanto el consumo como la exposición de información personal”, indicó la docente e investigadora.

Modelos como Mistral Small 3.1 o TinyLlama 1.1B son accesibles, rápidos y se pueden correr en dispositivos con poca memoria. “Además de ser más ecológicos, permiten que más personas puedan usar la inteligencia artificial sin depender de la nube, y eso también democratiza la tecnología”, agregó Rivera.

Núñez Mc Leod sostiene que la clave está en migrar a chips más eficientes y ubicar los servidores en regiones frías, con energías limpias. La Patagonia es una opción prometedora. Foto Unidiversidad

¿Conviene o no regular la inteligencia artificial?

Otro de los debates actuales en torno a la IA es si debe o no ser regulada. Para Núñez Mc Leod, regular sin conocimiento puede ser contraproducente. “Europa ha sobrerregulado y el resultado es que casi no tiene startups con impacto global. La innovación necesita margen para desarrollarse. Si regulás demasiado pronto, solo lográs frenar el avance tecnológico y se pierde una gran oportunidad”, opinó.

Sin embargo, el especialista sí consideró viable pensar en mecanismos de regulación ambiental, como un etiquetado similar al de los electrodomésticos, que informe al usuario o la usuaria sobre el impacto energético de una herramienta de inteligencia artificial. “No obstante, las empresas tienen como objetivo bajar su consumo energético, ya que va de la mano con la reducción de costos. Las propias empresas están trabajando para consumir menos energía porque hoy no les cierra el costo operativo. Mantener estos servidores es muy caro y las empresas literalmente están 'quemando plata' en sostener estos servidores”, explicó.

Núñez Mc Leod y Rivera advierten que regular la IA sin comprenderla del todo puede frenar su innovación. Foto: Unidiversidad

En números: ¿cuál es el costo energético e hídrico de utilizar la IA?

Actualmente, los grandes centros de datos que permiten funcionar a la IA consumen mucha electricidad. Según la Agencia Internacional de la Energía, estos centros ya usan el 1,5 % de toda la energía del planeta, y se espera que esa cifra se duplique para 2030, por lo que superarían el consumo total de países como Japón.

Consumo energético de la IA

  • Generación de imágenes: crear una sola imagen con IA puede consumir entre 0,01 y 0,29 kWh, dependiendo del modelo y la complejidad de la tarea. Esto equivale aproximadamente a la energía necesaria para cargar completamente un teléfono móvil;
  • Comparación con otras tareas: la generación de imágenes consume, en promedio, 60 veces más energía que la generación de texto, debido a la complejidad computacional que implica la síntesis de imágenes desde cero.

Consumo hídrico asociado a la IA

  • Enfriamiento de servidores: los centros de datos utilizan grandes cantidades de agua para refrigerar los servidores que procesan las tareas de IA. Por ejemplo, generar una imagen con IA puede requerir entre 2 y 5 litros de agua, dependiendo del modelo y la ubicación del centro de datos;
  • Consultas de texto: cada consulta a modelos de lenguaje como ChatGPT puede consumir entre 25 y 500 mililitros de agua, considerando el agua utilizada para enfriar los servidores y la energía necesaria para procesar la solicitud;
  • Entrenamiento de modelos: el entrenamiento de modelos de IA a gran escala puede consumir cientos de miles de litros de agua. Por ejemplo, entrenar modelos avanzados como GPT-3 ha requerido aproximadamente 700,000 litros de agua, principalmente para la refrigeración de los centros de datos.

inteligencia artificial, ia, uncuyo,