Goizero, milioika pertsonak ChatGPT bezalako aplikazioren bat irekitzen dute eguneroko atazak egiteko: email bat idatzi, aurkezpen bat prestatu edo, besterik gabe, txiste bat kontatzea eskatzeko. Erantzun sinple horiek emateko, munduko lekuren batean, GPU batek lan egin behar du eta mikrouhin batek segundo hamarren batez erabiliko lukeen energia kontsumitzen du. Ez dirudi kontsumo handia denik, baina eskaera konplexuagoa bada, adibidez, zure maskota reggaetoia dantzatzen erakusten duen bideo bat sortzea, kontsumoa nabarmen igotzen da. Izan ere, horrelako kasuetan, GPU horrek ataza hori egiteko kontsumitzen duen energia hozkailu batek 30 ordutan kontsumitzen duen energiaren baliokidea izango litzateke.

Adimen artifizialaren bilakaera azken hamarkadan esparru digitalean izan den aldaketa esanguratsuena izan da. Ehunka milioi pertsonak egunero txatbotak erabiltzen dituzte eguneroko zereginak, lan produktiboak edo kontu dibertigarriak egiteko. Hala ere, egiten dugun galdera horietako bakoitzak energia-kontsumo bat eta orain ulertzen hasi garen gasen emisioak eragiten ditu.

Gaur egun, adimen artifizialak Estatu Batuetan kontsumitzen den energia guztiaren % 4,4 inguru kontsumitzen du. 2028. urterako, kopuru hori hirukoiztu egingo dela espero da, % 12ra iritsiz. Teknologia-enpresa handienek 431.000 milioi euro inguru inbertituko dituzte datu-lanketarako zentro berrietan datozen lau urteetan.

Pasa den uztailaren 14an MIT Technology Review-ek argitaratu zuen txosten batek agerian utzi du, lehenengoz, adimen artifizialaren benetako energia-kontsumoa. Ikerketak, bi dozena aditurekin elkarrizketak eta ehunka txosten-orrialderen analisiak barne, teknologia horren inpaktu energetikoari buruzko ezagutzan dauden hutsuneak azaleratu ditu.

Galdera bakoitzaren kostua

Galdera bakoitzak zer nolako kontsumoa eskatzen duen zehaztea uste baino ataza konplexuagoa da. Erabiltzen den ereduaren, erantzunaren tamainaren eta bestelako aldagai teknikoen arabera, galdera baten kontsumoa nabarmen alda daiteke. Txostena egin duen Michigan Unibertsitateko ikerketa-taldeak, Jae-Won Chung doktoregai eta Mosharaf Chowdhury irakaslearen gidaritzapean, kode irekiko zenbait ereduren kontsumoak aztertu ditu. Jasotako emaitzen artean izugarrizko aldeak aurkitu dituzte. Adibidez, Llama 3.1 8B ereduak, 8.000 milioi parametrorekin, 114 joule inguru kontsumitzen ditu testuan oinarritutako erantzun bakoitzagatik. Baina bere bertsiorik garatuenak (Llama 3.1 405B), 405.000 milioi parametrorekin, 6.706 joule inguru kontsumitzen ditu testuan oinarritutako erantzun bakoitzagatik. Energia kopuru horrekin LED bonbila bat piztuta manten daiteke bi minutuz.

Alde horrek badu azalpen bat: eredu bat tamaina zehatz batera iristen denean, aldi berean exekutatu behar da txip askotan, energia-kontsumoa esponentzialki biderkatuz. Eskuragarri dauden datu bakarrak ikertzaileek zuzenean deskargatu eta neur ditzaketen kode irekiko ereduetatik datoz. Hala ere, sistema horiek ez dira merkataritza-ereduak bezain aurreratuak, eta, beraz, benetako kontsumoa nabarmen handiagoa izan daiteke.

Bideoek kontsumoa biderkatzen dute

Irudiak sortzen dituzten ereduek, testua bakarrik sortzen duten horiekin alderatuta, funtzionamendu desberdina dute. Testuan oinarritutako ereduen kasuan energia-kontsumoa, nagusiki, egindako galderaren araberakoa den bitartean, irudiak sortzen dituzten ereduetan energia-gastua erabilitako ereduaren tamainarekin, irudiaren bereizmenarekin eta prozesuan eman beharreko urrats kopuruarekin du harremana.

Adibidez, Stable Diffusion 3 Medium ereduan kalitate ertaineko irudi bat (1014x1024 pixel) sortzeko 2.282 jouleko kontsumoa behar da. Kalitatea hobetu nahi bada, kontsumoa 4.402 jouletara bikoiztu daiteke. Energia hori hozkailu batek lau minututan egiten duenaren baliokidea da.

Adimen artifizialarekin sortzen diren bideoen kasuan, energia-kontsumoak askoz altuagoak dira. Horretarako den kode irekiko eredu garatuenetako bat den CogVideoX-ek 3,4 milioi joule behar ditu bost segundoko bideo bat sortzeko. Kopuru hori labe elektriko batek ordubetean egiten duen edo kontsumo baxuko LED bonbilla batek 15 egunez egiten duen kontsumoaren baliokidea da.

Kontsumo handiagoa, emisio gehiago

Munduan gehien bisitatzen den bosgarren webgune den ChatGPT-k 1.000 milioi mezu baino gehiago prozesatzen ditu egunean. Epoch AI ikerketa-zentroak egin dituen kalkuluen arabera, horietako kontsulta bakoitzak, batez beste, 1.080 joule kontsumitzen ditu. Datuak estrapolatuta, ChatGPTren urteko kontsumoa 109 gigawatt-ordutik gorakoa izango litzateke, urte oso batean Estatu Batuetako 10.400 etxe hornitzeko adinakoa.

Kopuru horri, erabiltzaileek egunero sortu ohi dituzten 78 milioi irudiak gehitzen badizkiogu, urtean beste 35 gigawatt-ordu gehiago gehitu behar dira, hots, beste 3.300 etxeren kontsumoa. 2024an, Estatu Batuetan diren datu-lanketarako zentroek, batez beste, 200 terawatt-orduko kontsumoa izan zuten. Gezurra badirudi ere, kopuru hori da, adibidez, urte oso batean Thailandia bezalako herrialde batek egiten duen kontsumoa.

Txostenak azpimarratzen duenez, arazoa energia-kontsumotik haratago doa. Izan ere, datu-lanketarako zentro askok erabiltzen duten elektrizitatea kutsagarriak diren gasa eta ikatza bezalako iturriekin sortu da. Harvardeko Osasun Publikoko Eskolak egin duen azterlan batek egiaztatu ahal izan duenez, datu-lanketarako zentroetan erabilitako elektrizitateak kontsumo elektrikoaren batez bestekoa baino % 48 karbono dioxido gehiago isurtzen du.

Hori, nagusiki, bi faktoreen ondorioa da. Alde batetik, horrelako zentro gehienak sare elektrikoa erregai fosilen mende dagoen eremuetan daude. Bestalde, azpiegitura horiek etengabe daude funtzionamenduan, baita energia berriztagarriak erabiltzeko aukera ez dagoenean ere eta, hortaz, iturri kutsagarrien beharra ere dute.

Enpresa-hermetismoa

Adimen artifizialaren sektorean nagusi diren enpresek ez dute haien ereduen energia-kontsumoaren inguruko daturik ematen. OpenAI, Google, Microsoft eta Anthropic bezalako enpresek diote hori sekretu komertziala dela eta ez dute kontsumoen inguruko datu zehatzik partekatu nahi.

Salesforceko AAren jasangarritasunaren arduradun Boris Gamazaychikov-en hitzetan, egoera “kaxa beltz bat da”. Opakutasun horrek aukera teknologiko desberdinen klima-inpaktuari buruzko kalkulu zehatzak egitea eta erabaki informatuak hartzea eragozten du.

Lawrence Berkeley Laborategi Nazionaleko kalkuluen arabera, etorkizunean tresna hauen energia-kontsumoak nabarmen egingo du gora. 2028rako, adimen artifizialera berariaz bideratuko energia 165 eta 326 terawatt/orduko kontsumora hel daiteke, hots, Estatu Batuetako etxebizitza guztien % 22k kontsumitzen duten energiaren baliokidea.

Etorkizun hori ez dago urruti. SoftBank, OpenAI, Oracle eta MGX enpresek 431.000 milioi euro inguru inbertituko dituzte Estatu Batuetan datu-lanketarako zentro berriak garatzeko. Lehenengoa Texasen eraikiko da eta zortzi eraikin izango ditu. Eraikin horietako bakoitza futbol-estadio bat baino handiagoa izango da. Anthropic enpresak jada eskatu dio Estatu Batuetako gobernuari 2027rako industria honi bideratutako energia 50 gigawatt-etan handitzea.

Kontsumitzaileek ordainduko dute

Harvard Unibertsitatetik ohartarazi dutenez, energia-sektorean izan daitekeen eraldaketa hori kontsumitzaileek ordainduko dute. Konpainia elektrikoek enpresa teknologiko handiei deskontuak eskaintzen dizkietenez, deskontu horiek etxeko fakturen bidez konpentsatuko lirateke.

Energia-kontsumo ezagunak dituzten nekazaritza edo industria sektoreetan ez bezala, adimen artifizialaren kasuan ez daude zehatzik. Enpresa teknologikoek kontsumo horien berri ematen ez dutenez, ezinezkoa da proiekzio fidagarriak egitea edo politika publiko egokiak planifikatzea.

Norbanakook egiten dugun adimen artifizialaren erabilerak kontsumo txikiak dituen arren, milioika norbanakoen kontsumoak batzen dira mundu-mailako arazo baten aurrean gaudela ikus daiteke. Horregatik, funtsezkoa da industria horrek zehazki zein energia-kontsumo duen ezagutzea, herritarrek eta gobernuek erabaki zuzenak hartzeko informazio nahikoa izan dezaten.