La inteligencia artificial generativa consume mucha energía. Pero de todas las acciones relacionadas con esta tecnología, la creación de imágenes es la más costosa. Generar una sola imagen equivale a gastar la carga completa de un celular de un solo tirón.
Para ponerlo en perspectiva: ejecutar 1.000 acciones de generación de texto, en una herramienta como ChatGPT, solo consume tanta energía como el 16% de la batería de tu celular. El cálculo es resultado de un estudio de la startup IA Hugging Face y la Universidad Carnegie Mellon de Estados Unidos.
El equipo, liderado por la investigadora Sasha Luccioni, calculó la energía que consumen 10 tareas comunes ejecutadas por una inteligencia artificial. Por ejemplo, la generación de texto, la clasificación de imágenes, la generación de subtítulos y la generación de imágenes. El experimento consideró 88 modelos diferentes. Para hacer el comparativo, ejecutaron 1.000 indicaciones por cada tarea.
No solo midieron la energía consumida, sino también estimaron las emisiones de carbono. Es la primera vez que se mide el impacto ambiental de un modelo de inteligencia artificial en sus diferentes tareas, aseguraron los investigadores.
Para el estudio, desarrollaron una herramienta llamada Code Carbon, que estima el uso de energía con base en lo que consume la computadora cuando ejecuta el modelo. Estimaron las emisiones generadas utilizando ocho modelos generativos, que fueron entrenados para ese objetivo.
La costosa generación de imágenes por inteligencia artificial
Crear una imagen con inteligencia artificial fue por mucho la que más consumió energía y, por lo tanto, emitió más carbono. Por ejemplo: 1.000 imágenes creadas por un modelo como Stable Diffusion XL emite casi la misma cantidad de dióxido de carbono que conducir un auto a gasolina en un trayecto de 6,5 kilómetros. El mismo ejercicio con el modelo de generación de texto más eficiente genera tanto impacto ambiental como conducir 0,001 kilómetros.
El equipo también descubrió que el uso de grandes modelos generativos, como ChatGPT o Bard, consumía mucha más energía que los modelos de inteligencia artificial más pequeños diseñados para tareas específicas. Los modelos grandes utilizan mucha más energía porque intentan hacer muchas cosas a la vez: generar, clasificar y resumir texto, en lugar de una sola tarea.
Los investigadores también confirmaron que las emisiones diarias exceden con creces las generadas durante el entrenamiento de modelos grandes. Probaron diferentes versiones de BLOOM, un modelo multilingüe desarrollado por Hugging Face, para ver cuántos usos serían necesarios para superar los costos de capacitación.
Al final, se necesitaron más de 590 millones de usos para alcanzar el costo de carbono generado durante el entrenamiento de su modelo más grande. Para sistemas como ChatGPT, usado por millones de personas, esto se superaría en solo dos semanas, aseguró Luccioni a MIT Technology Review.
Un informe publicado por SemiAnalysis a principio de año ya advertía que los costos para inferir —el proceso para responder a las preguntas y consultas— de ChatGPT exceden los costos de capacitación semanalmente. Mientras más uso y más usuarios, más dinero tienen que desembolsar. Y más energía e impacto en el ambiente.
Mitigación del impacto que se viene
El informe del nuevo estudio destaca que quieren ayudar en la comprensión «del impacto ambiental de las distintas industrias para desarrollar estrategias eficaces que mitiguen este impacto». Y es que esto recién comienza. Otra investigación publicada en octubre estima que la industria de la inteligencia artificial podría consumir tanta energía como un país del tamaño de los Países Bajos o Irlanda. Esto, cuando se instale de manera general, que calculan que ocurra para 2027.
El impacto ambiental tiene distintos frentes. Solo para enfriar los servidores de productos con ChatGPT se necesitan cantidades impresionantes de agua. Por ejemplo, el entrenamiento de GPT-3 —uno de los modelos detrás de ChatGPT— en los centros de datos de Microsoft en EE. UU. llegó a consumir directamente 700.000 litros de agua dulce limpia. Es lo mismo, por ejemplo, que demandaría producir 370 coches BMW o 320 vehículos eléctricos Tesla.
Las desarrolladoras ya están buscando alternativas. Más que por el impacto ambiental, por la cantidad de dinero que les demanda. Microsoft se ha comprometido públicamente a buscar energía nuclear. En mayo, la compañía anunció que firmó un acuerdo de compra de energía con Helion, una startup de fusión nuclear, para comprarle electricidad a partir de 2028.
«Si podemos reducir la inteligencia de costos y el costo de la energía, la calidad de vida de todos nosotros aumentará increíblemente», dijo en mayo Sam Altman, director ejecutivo de OpenAI, quien también es uno de los inversores más importantes en Helion. «Hay que hacer que los sistemas de inteligencia artificial sean cada vez más potentes por cada vez menos dinero», dijo Altman a propósito del nuevo convenio.