De vraag naar stroom en water van de AI-industrie leidt nu al tot tekorten en hogere prijzen. En dat is pas het begin, gezien de groeiprognoses. Wat betekenen al die chats, foto’s en video’s voor de energievoorziening?
Geen spandoeken, maar lege waterflessen. Het is een opmerkelijk protest dat in het voorjaar van 2023 in Montevideo wordt gehouden. Uruguay zucht onder extreme hitte en droogte. Het belangrijkste reservoir van het land is opgedroogd en de rivieren zijn uitgeput. Om de watervoorziening op peil te houden zijn de waterbedrijven genoodzaakt zeewater te mengen met zoet water. Er komt zout water uit de kranen.
Het protest richt zich op een nieuw datacenter van Google in de buurt van de hoofdstad. Dit zou ruim 7,5 miljoen liter drinkwater per dag nodig hebben, evenveel als het dagelijkse verbruik van 55 duizend inwoners. ‘Dit is geen droogte, dit is plundering’, menen de inwoners. Google past het plan na de ophef aan naar een waterloos koelsysteem.
Een ander, nog groter, knelpunt rondom datacenters is elektriciteit. Veel landen lopen tegen het probleem aan dat nieuwe voorzieningen, van ziekenhuizen tot onderwijsinstellingen en industrie, in een wachtrij staan om een elektriciteitsaansluiting te krijgen.
In het Verenigd Koninkrijk werd de wachtrij in de eerste helft van 2025 ruim vijfenhalf keer langer, voornamelijk door de grote energiebehoefte van AI, meldt BBC News. De regering wil prioriteit geven aan projecten die de meeste economische ontwikkeling en werkgelegenheid opleveren. Nieuwe woningen moeten dan maar even wachten.
De anekdotes zijn tekenend voor de botsende belangen van de techindustrie en inwoners. Ook OpenAI-topman Sam Altman gaf onlangs op een evenement in India toe dat de zorgen over de energieconsumptie van AI terecht zijn.
Niet zozeer omdat elke chat, foto of video zoveel kost, maar omdat al dat gebruik bij elkaar wel enorm begint op te tellen. Daarom moeten we versneld naar wind-, zonne- en nucleaire energie grijpen, vindt Altman.
Eerder stelden onderzoekers dat het genereren van één AI-plaatje gelijk zou staan aan het één keer opladen van een iPhone. Altman noemt dat soort vergelijkingen ‘oneerlijk’, zeker als onderzoekers ook rekening houden met de energieconsumptie die het trainen van AI-modellen vereist.
Op dat punt komt Altman met een vergelijking die critici in verbijstering achterlaat: ‘Het kost ook veel energie om een mens te trainen. Het vraagt zo’n twintig jaar en al het voedsel dat je in die tijd eet voordat je intelligent wordt.’ En erger nog: er zijn al ruim honderd miljard mensen geweest die telkens deze cyclus hebben doorgemaakt.
Kortom: het valt allemaal enorm mee. Het is de vraag of de inwoners van de Amerikaanse steden waar de elektriciteitsprijzen de laatste jaren zijn gestegen dat ook zo zien. De voorbeelden zijn legio.
‘Ze blijven maar stijgen’, zegt een 57-jarige inwoner uit Baltimore tegen persbureau Bloomberg, wijzend op zijn energierekeningen. Hij woont ongeveer een uur rijden van het gebied ten noorden van de stad dat bekendstaat als Data Center Alley.
Precies in dit soort gebieden stijgen de prijzen voor elektriciteit het hardst, becijfert Bloomberg. Gemeten over de afgelopen vijf jaar is dat zelfs 267 procent voor de plaatsen heel dicht bij datacenters.
Om aan de toenemende vraag van alle data- en rekencenters te voldoen, zijn netwerkbeheerders genoodzaakt aanpassingen in hun netwerken te doen. De kosten hiervan worden rechtstreeks doorberekend aan alle klanten, ook de particuliere.
In de dagelijkse discussie lopen de termen door elkaar: datacenters, hyperscales (een heel groot datacenter), AI-fabrieken. Het klassieke datacenter is een plek waar servers, opslag en netwerkapparatuur draaien, terwijl een rekencenter voor AI (de turbovariant is de AI-gigafactory) specifiek is geoptimaliseerd voor zware rekenklussen zoals het trainen en draaien van AI-modellen. Een AI-rekencenter (ook wel AI-fabriek genoemd) gebruikt andere chips en wordt meestal met water gekoeld, voor klassieke datacenters is soms luchtkoeling voldoende.
Het is niet het enige gevolg van de almaar stijgende vraag die deels wordt gevoed door de AI-industrie. Altman hint op schone bronnen, maar de praktijk is weerbarstiger. Op korte termijn is de vraag zo groot dat fossiele bronnen dominant blijven. Niet voor niets riep de regering-Trump vorig jaar de sector op om kolencentrales langer open te houden. Volgens het Internationaal Energieagentschap (IEA) is er de komende jaren zo’n 200 terawattuur (TWh) aan met steenkool opgewekte elektriciteit nodig voor datacenters: ongeveer honderd kolencentrales. Een groot deel van de nieuwe datacenters wordt ingezet voor AI.
Ook andere fossiele bronnen worden aangesproken. Even buiten Pittsburgh, op de plek waar ooit de grootste kolencentrale van de staat Pennsylvania stond, verrijst volgend jaar een gasgestookt datacenter met een vermogen van 4,5 gigawatt (GW). Dat is genoeg om een flinke stad van elektriciteit te voorzien.
De nieuwe fabriek gaat volgens een milieuorganisatie 1,8 miljoen kilo CO2 per uur uitstoten, ongeveer evenveel als vier miljoen stationair draaiende auto’s. Het blijft niet bij hogere energieprijzen en meer uitstoot; ook het landschap verandert ingrijpend.
‘Rijd vanuit een willekeurige Amerikaanse stad in een willekeurige richting en je komt al snel bij een datacenter terecht: een gigantische witte doos die oprijst uit een geëgaliseerd terrein, geflankeerd door generatoren en omheind als een gevangenisplein’, zo beschrijft The New Yorker deze verandering.
Het is pas het begin, afgaande op de verwachtingen van de bazen van de grote commerciële AI-bedrijven. Alleen al OpenAI wist zich vorig jaar via een aantal afspraken (onder andere met chipmakers Nvidia en AMD) te verzekeren van maar liefst 20 GW voor de komende jaren. Het staat grofweg gelijk aan het vermogen van twintig kernreactoren, zo rekende de Financial Times voor.
‘Ik denk dat een groot deel van de wereld na verloop van tijd vol komt te staan met datacenters’, liet Altman zich vorige zomer nog in een podcast ontvallen. In dat licht is het niet onlogisch dat Google al concrete plannen heeft om datacenters in de ruimte te gaan bouwen.
Ondertussen blijft er onduidelijkheid bestaan over het daadwerkelijke energieverbruik van AI. Google schat dat een ‘gemiddelde tekstprompt’ van zijn chatbot Gemini 0,24 wattuur aan energie verbruikt (gelijk aan negen seconden tv-kijken), 0,03 gram koolstofdioxide-equivalent uitstoot en vijf druppels water verbruikt. ‘Cijfers die aanzienlijk lager liggen dan veel openbare schattingen’, stelt het bedrijf.
OpenAI laat zich in vergelijkbare bewoordingen uit. Een gemiddelde ChatGPT-query (een antwoord van de chatbot op een vraag) verbruikt volgens Altman 0,34 wattuur, ‘ongeveer evenveel als een energiezuinige lamp in een paar minuten’. Niet veel dus, is de boodschap. Bovendien worden de AI-modellen alleen maar efficiënter, benadrukt zowel OpenAI als Google.
AI is inderdaad nog geen grootverbruiker van stroom. In Nederland kwam het verbruik van alle datacenters (ook die niets met AI te maken hebben) in 2024 op 4,6 procent van het totale stroomverbruik, berekende het Centraal Bureau voor de Statistiek. Wereldwijd is dat slechts 1 procent.
Maar dat gaat veranderen. Het IEA schat in dat de stroomvraag van datacenters tot 2030 met ruim 500 TWh zal groeien, harder dan de groei van de stroomvraag voor de zware industrie, of het verwarmen van huizen en water. Het voorland is misschien wel Ierland, waar volgens onderzoeksbureau Icis nu al een vijfde van alle stroom naar datacenters gaat.
Over vier jaar, in 2030, komt de Europese Unie 80 TWh elektriciteit tekort voor datacenters, schrijven onderzoekers van het Kiel Instituut voor de Wereldeconomie. Dat is gelijk aan het stroomverbruik van bijvoorbeeld Finland of België.
In een blog schrijft Altman dat het waterverbruik (nodig voor de koeling in het datacenter) voor zo’n opdracht al helemaal verwaarloosbaar is: ‘ruwweg een vijftiende van een theelepel’. Alle zorgen over het waterverbruik zijn dan ook ‘volkomen onterecht’, zei hij op hetzelfde evenement in India waar hij het energieverbruik van de mens vergeleek met dat van machines.
Experts zijn niet overtuigd van dit soort getallen zolang bedrijven als OpenAI geen inzicht geven in hoe ze precies tot hun berekeningen komen. Zo is niet duidelijk in hoeverre het trainen van AI-systemen of het koel houden van de servers in de berekeningen doortellen.
Precies daarom hecht Sasha Luccioni, klimaatexpert bij AI-bedrijf Hugging Face, niet veel waarde aan Altmans cijfers. ‘Hij kan dat zomaar uit zijn duim zuigen’, zegt ze tegenover Wired. Ze pleit voor meer transparantie bij techbedrijven over de milieu-impact van hun modellen.
‘Ik vind het ongelooflijk dat je een auto kunt kopen en precies weet hoeveel kilometer per liter deze aflegt, terwijl we dagelijks al die AI-tools gebruiken en absoluut geen gegevens hebben over efficiëntie, emissiefactoren, helemaal niets’, vervolgt ze. Het gevolg is dat het publiek het moet doen met anekdotes (een vraag aan ChatGPT zou tien keer zo veel energie verbruiken als een vraag aan een ouderwetse zoekmachine, zegt Google), vage schattingen en uitspraken van topmannen in podcasts en blogs.
Volgens Europese regels moeten Amerikaanse grootverbruikers hun gebruikscijfers openbaren, maar doen ze dat niet, zo schreef NRC eerder dit jaar. De jaarverslagen en duurzaamheidsverslagen van de grote datacenters (in Nederland zijn dat de hyperscales van Microsoft en Google in de Eemshaven en bij Middenmeer) geven geen inzicht in het stroomverbruik.
In reactie zegt Google wel dat zijn datacenters tot de ‘meest energiezuinige ter wereld’ behoren. Maar cijfers over het aandeel AI per datacenter geeft het bedrijf niet. Bij Microsoft is het hetzelfde verhaal: ronkende persberichten over de efficiëntie van hun datacenters, geen details over het verbruik. ‘Wij delen geen specifieke verbruiksgegevens voor een locatie’, zegt een woordvoerder.
Ook datawetenschapper Alex de Vries-Gao (Vrije Universiteit Amsterdam), die onderzoek doet naar het energie- en waterverbruik van AI-modellen, klaagt over het gebrek aan transparantie.
In een nieuwe studie, gepubliceerd in het wetenschappelijke tijdschrift Patterns, keek hij naar de CO₂- en watervoetafdruk van AI-systemen. Daarvoor combineerde hij duurzaamheidsrapporten van grote techbedrijven, wetenschappelijke data over de CO₂-uitstoot en het watergebruik per kilowattuur stroom, en vergeleek hij deze met een rapport van het IEA.
Het energieagentschap schatte dat alle datacenters – ook die gedeeltelijk of niets met AI hebben te maken – in 2023 in totaal 560 miljard liter water verbruikten. Een grove onderschatting, stelt De Vries-Gao. Het daadwerkelijke (ook indirecte) verbruik lag een factor drie à vier hoger dan de officiële schattingen, aldus de onderzoeker.
Nog meer verwarring: wat betekent verbruik eigenlijk? De Vries-Gao benadrukt dat er veel water verdampt tijdens het koelproces: ‘Het idee dat het water er aan het einde van de rit gewoon weer uitstroomt, klopt dus niet.’ Bovendien gaat het ook nog eens om vrij schoon water dat erin stroomt, ‘vaak zelfs drinkwater’.
Bij het indirecte verbruik zit ook het water dat nodig is om de elektriciteit voor de datacenters op te wekken. Hierover is nauwelijks iets bekend, zegt De Vries-Gao. Op basis van zijn eerdere schattingen over de totale benodigde stroomcapaciteit voor de wereldwijde AI-industrie verbruiken alleen AI-systemen jaarlijks tussen de 312- en 764 miljard liter water. ‘Evenveel als al het flessenwater dat we wereldwijd in één jaar drinken.’
Dat klinkt indrukwekkend, maar op het totale wereldwijde waterverbruik valt het alleszins mee, benadrukte de Amerikaanse onderzoeker Andy Masley onlangs op zijn blog. Datacenters verbruikten in 2023 slechts 0,04 procent van het Amerikaanse zoetwater, schrijft hij. ‘Dat is 3 procent van het waterverbruik van de Amerikaanse golfindustrie.’ Zijn conclusie: het hele waterprobleem van AI bestaat niet.
Hoe kan dat? De Vries-Gao geeft toe dat er op wereldschaal geen waterprobleem is: ‘Water houdt nooit op te bestaan.’ Maar lokaal kan water wel degelijk een groot probleem zijn. Niet in de Eemshaven, maar wel in droge gebieden elders in de wereld. Nederland kent weer andere plaatselijke knelpunten.
De onderzoeker trekt de vergelijking met het stroomverbruik van datacenters, dat in het overvolle elektriciteitsnet in Nederland nu ook al lokaal tot problemen leidt. De provincie Flevoland gaf vorige zomer groen licht voor de bouw van een datacenter nabij Almere. Het centrum, overigens voor zover bekend niet voor AI, verbruikt evenveel stroom als tachtigduizend huishoudens.
Het wrange van het voorbeeld uit Almere is dat de nieuwe campus van Hogeschool Windesheim even verderop in de stad niet op het net kan worden aangesloten: geen capaciteit. De Vries-Gao’s boodschap: in het totale plaatje valt het verbruik misschien mee, lokaal kan de komst van een datacentrum een enorm effect hebben.
Masley zegt daar weer over dat alle industrieën nu eenmaal water en energie verbruiken, ook AI. Bovendien bewijst de AI-industrie zijn nut, aldus Masley.
De Vries-Gao is minder overtuigd van dat argument: ‘Die hele industrie rechtvaardigt het huidige energie- en waterverbruik met potentiële verbeteringen in de toekomst. Maar hoe nuttig zijn die toepassingen echt?’ Ondertussen worden de kosten van het verbruik afgewenteld op de maatschappij, stelt De Vries-Gao.
Dat dit begint te wringen, lijkt ook Willemijn Aerdts, staatssecretaris van Digitale Zaken, te erkennen. In een recente Kamerbrief noemt ze specifiek ‘grootschalige AI-rekenfaciliteiten’ die om ‘substantiële hoeveelheden elektriciteit’ vragen. Nederland staat volgens haar voor ‘uitdagingen’ op het gebied van netcongestie en ruimtelijke schaarste. In het licht van alle prognoses over de groei van AI lijkt dat een understatement.
Alles over tech vindt u hier.
Geselecteerd door de redactie
Source: Volkskrant