Onlangs vroeg het Nationaal Programma Regionale Energiestrategieën (RES) mij een essay te schrijven over de rol van kunstmatige intelligentie (AI) in de energietransitie. Een relevante, maar ook ongemakkelijke vraag: hoe kan AI bijdragen aan een toekomstbestendig energiesysteem, en onder welke voorwaarden?
Eerder deze week publiceerde ik mijn verkennend literatuuronderzoek, de uitgangspunten voor het essay en mijn argumentatie waarom AI cruciaal is voor de energietransitie. In deze blog licht ik de verborgen kosten van AI toe. Een update van een eerdere blog over dit onderwerp.
Sinds de lancering van ChatGPT eind 2022 is kunstmatige intelligentie in hoog tempo doorgedrongen tot het dagelijks leven. Het gebruik groeit explosief, maar de vraag hoeveel energie, water en grondstoffen dit kost, blijft grotendeels onbeantwoord. Grote technologiebedrijven als OpenAI, Google en Meta publiceren geen volledige gegevens. Onderzoekers zijn daarom aangewezen op indirecte methoden om het verbruik te schatten. Dat gebrek aan transparantie maakt het moeilijk om de maatschappelijke en ecologische impact van AI goed te beoordelen.
Een schatting van de verborgen kosten van AI
Het energieverbruik van AI kent twee fases: de training en het dagelijks gebruik. De training van GPT-4 kostte naar schatting ruim 100 miljoen dollar en verbruikte circa 50 gigawattuur elektriciteit. Dat is vergelijkbaar met het stroomgebruik van de hele stad San Francisco gedurende drie dagen.
De grootste verbruiker is echter de gebruiksfase, waarin miljoenen mensen dagelijks vragen stellen aan chatbots of beelden en video’s laten genereren. Onderzoek van MIT en andere universiteiten laat zien hoeveel energie dat vergt (zie tabel). Zo kost het genereren van een korte video van vijf seconden in lage resolutie ongeveer 3,5 miljoen joule — honderd keer het opladen van een smartphone.
Een gemiddelde dagelijkse gebruiker die vijftien vragen stelt aan een groot taalmodel, tien beelden genereert en drie korte video’s maakt, verbruikt circa 3 kWh per dag. Dat is vergelijkbaar met het elektriciteitsverbruik van een Nederlands huishouden in ruim één dag, 3,5 uur koken met een magnetron, 100 kilometer fietsen op een e-bike of 10 kilometer rijden in een elektrische auto.
Individueel lijkt dat misschien bescheiden, maar op grote schaal tikt het aan. ChatGPT verwerkt dagelijks ongeveer een miljard berichten. Op jaarbasis komt dat neer op ruim 109 gigawattuur: genoeg voor het jaarverbruik van zo’n 39.000 Nederlandse huishoudens, bijna tien procent van het jaarlijkse elektriciteitsverbruik van alle huishoudens in Amsterdam.
Energie-econoom Alex de Vries-Gao van de Vrije Universiteit Amsterdam berekende op basis van chipproductie bij TSMC dat AI in 2024 verantwoordelijk was voor 11 tot 20 procent van het wereldwijde stroomverbruik van datacenters. Als de huidige groeilijn doorzet, kan dat eind 2025 oplopen tot 50 procent, waarmee AI zelfs het energieverbruik van cryptovaluta overstijgt. Het totale AI-stroomverbruik in 2024 bedroeg naar schatting 200 terawattuur — vergelijkbaar met tweemaal het elektriciteitsverbruik van alle Nederlandse huishoudens samen, of het volledige elektriciteitsverbruik van Spanje.
Toekomstprojecties en infrastructurele uitdagingen
Het Internationaal Energieagentschap verwacht dat het wereldwijde stroomverbruik van datacenters zal toenemen van 415 TWh in 2024 tot 945 TWh in 2030 — vergelijkbaar met het huidige verbruik van heel Japan. In de VS kan het AI-gerelateerde stroomverbruik groeien van 53–76 TWh in 2024 naar 165–326 TWh in 2028, goed voor tot wel een vijfde van het verbruik van alle Amerikaanse huishoudens.
Nederland krijgt te maken met specifieke uitdagingen. Netbeheer Nederland voorziet dat datacenters in 2050 tot 40–70 procent van het huidige totale Nederlandse elektriciteitsverbruik kunnen vragen. Het stroomnet kampt nu al met congestie, waardoor nieuwe datacenters op veel plaatsen geen aansluiting krijgen.
Voormalig Google-CEO Eric Schmidt waarschuwde het Amerikaanse Congres dat superintelligente AI een ongekende druk op het wereldwijde energiesysteem kan leggen. Hij schetst zelfs een scenario waarin AI-datacenters tot 99 procent van de wereldwijde elektriciteitsproductie zouden kunnen gebruiken.
Milieu-impact en transparantieproblemen
Een groot deel van de datacenters draait op netten met relatief hoge CO₂-uitstoot. In delen van de VS is de gebruikte stroom gemiddeld bijna 50 procent vervuilender dan het nationale gemiddelde. Omdat AI-diensten 24/7 draaien, is volledig overstappen op hernieuwbare energie extra lastig.
Transparantie ontbreekt grotendeels. Google meldt dat machine learning minder dan 15 procent van het eigen energieverbruik uitmaakt, maar geeft geen details. Ook andere bedrijven delen geen exacte cijfers over het AI-aandeel in hun energie- en waterverbruik. En dan is er nog de kwestie van grondstoffen.
Grondstoffenverbruik
De productie van AI-hardware vraagt om grote hoeveelheden zeldzame en kritieke grondstoffen. Voor AI-chips en datacentercomponenten zijn onder meer neodymium, dysprosium en terbium nodig voor magneten; lithium, kobalt en nikkel voor batterijen; gallium en indium voor halfgeleiders; tantaal voor condensatoren; en goud, zilver en palladium voor processorverbindingen.
De winning hiervan vindt vaak plaats in landen als Congo, Chili en China, met gevolgen zoals bodem- en watervervuiling, verlies van biodiversiteit en soms ernstige sociale misstanden.
De gemiddelde vervangingscyclus van AI-hardware ligt tussen de drie en vijf jaar, waardoor de berg elektronisch afval toeneemt. Een NVIDIA H100 GPU bevat tientallen verschillende metalen, waaronder kilo’s koper en grammen goud en zeldzame aardmetalen. Met de huidige AI-groei neemt de druk op deze schaarse hulpbronnen sterk toe.
Aanbevelingen en toekomstperspectief
De komende jaren vragen om een gecombineerde aanpak van meten, transparantie, efficiënt gebruik, technologische innovatie en maatschappelijk debat. Op korte termijn is het cruciaal om harde data te verzamelen. Bedrijven zouden verplicht moeten worden het energie- en waterverbruik van AI-diensten per taak openbaar te maken — bijvoorbeeld per 1.000 tokens, per afbeelding of per minuut video — inclusief indicatoren als Power Usage Effectiveness (PUE), Water Usage Effectiveness (WUE) en de gebruikte energiemix. Zonder deze gegevens blijft beleid in het duister tasten. Overheden kunnen daarnaast “AI only when necessary”-richtlijnen invoeren, waarbij kleine, efficiënte modellen de norm zijn en zware modellen alleen worden ingezet als de maatschappelijke baten het extra verbruik rechtvaardigen.
Technisch is er direct winst te boeken door gerichte modelkeuze, optimalisatie en hardware-efficiëntie. Denk aan het inzetten van kleinere of gespecialiseerde modellen, sparsity-technieken, en het batchen en cachen van verzoeken. Ook kan worden overgestapt op directe vloeistofkoeling en opbouw van datacenters in regio’s met een koolstofarme energiemix en zonder structurele waterschaarste.
Op middellange termijn is structurele inpassing in energie- en ruimtelijke planning nodig. Datacenters zouden verplicht restwarmte moeten leveren aan lokale warmtenetten en hun vraag afstemmen op momenten van overvloedige hernieuwbare opwek. Investeringen in neuromorfe en andere low-power-architecturen moeten omhoog, zonder dat deze dienen als vrijbrief voor ongeremde groei. Innovaties in modelcompressie, energiezuinige trainingsmethoden en gespecialiseerde chips (zoals ASIC’s) laten zien dat technologische vooruitgang mogelijk is, maar veelbelovende ontwikkelingen als fotonische chips en neuromorfe architecturen bevinden zich voorlopig nog in de experimentele fase. Op infrastructuurniveau bieden modulaire datacenterdesigns kansen voor flexibeler en duurzamer gebruik.
Ook maatschappelijk is actie nodig. Er moet een breed gesprek op gang komen over de waarde en noodzaak van specifieke AI-toepassingen. Dat vraagt samenwerking tussen overheid, bedrijfsleven, wetenschap en maatschappelijke organisaties. Het gaat niet alleen om het beperken van energie- en waterverbruik, maar ook om het benutten van AI voor het optimaliseren van energienetten, het verminderen van materiaalgebruik en het monitoren van milieu-impact.
Tegelijkertijd groeit de politieke druk voor regelgeving. In de EU gebeurt dat onder meer via de AI Act en de Critical Raw Materials Act, terwijl steden en regio’s steeds vaker eisen stellen aan de locatie, het energieverbruik en het watergebruik van datacenters. Ook neemt de publieke aandacht voor de ecologische voetafdruk van digitale diensten toe, waardoor bedrijven onder reputatiedruk komen te staan om transparanter en efficiënter te werken.
De kernvraag is of AI een versneller of juist een rem op de energietransitie wordt. AI is niet immaterieel: het heeft een aanzienlijke fysieke voetafdruk in stroom, water en grondstoffen. Zonder duidelijke keuzes en transparantie dreigt AI uit te groeien tot een grootverbruiker die de energietransitie bemoeilijkt. De beslissingen die we nu nemen, bepalen of AI uitgroeit tot een krachtig hulpmiddel voor verduurzaming, of tot een extra last voor een toch al onder druk staand energiesysteem.
Bronnen
- Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
- Dauvergne, P. (2020). AI in the wild: Sustainability in the age of artificial intelligence. MIT Press.
- De Vries-Gao, A. (2025). AI energy consumption analysis based on TSMC chip production capacity. Vrije Universiteit Amsterdam.
- Derksen, M. (2025, 21 mei). Wat AI echt kost aan energie. Koneksa Mondo.
- European Commission. (2023). Critical raw materials for strategic technologies and sectors in the EU: A foresight study. Publications Office of the European Union.
- International Energy Agency. (2023). Critical minerals market review 2023.
- International Energy Agency. (2025). Energy and AI: Global electricity demand projections 2024–2030. IEA Publications.
- Kaack, L. H., Donti, P. L., Strubell, E., Kamiya, G., Creutzig, F., & Rolnick, D. (2022). Aligning artificial intelligence with climate change mitigation. Nature Climate Change, 12(6), 518–527.
- Ligozat, A. L. (2024). Generative AI: Energy consumption soars. Polytechnique Insights.
- MIT Technology Review. (2025, 20 mei). AI energy usage and climate footprint.
- Mols, B. (2025). AI in the era of climate change: Solution or problem? Communications of the ACM.
- Netbeheer Nederland. (2025). Scenarios editie 2025: Toekomstverkenning elektriciteitsnet Nederland 2050.
- NVIDIA. (2023). Environmental product declaration: NVIDIA H100 Tensor Core GPU. NVIDIA Corporation.
- NOS Nieuwsuur. (2025, 22 mei). Nieuw onderzoek: AI verbruikt 11 tot 20 procent van wereldwijde stroom datacenters.
- Schmidt, E. (2024, december). We need energy for AI, and AI for energy. Project Syndicate.
- International Telecommunication Union (ITU) & United Nations Institute for Training and Research (UNITAR). (2024). The Global E-waste Monitor 2024.
- World Bank. (2020). Minerals for climate action: The mineral intensity of the clean energy transition. World Bank Publications.
7 reacties
Niet opgenomen in mijn blog, maar interessant is dat verschillende AI-modellen blijkbaar sterk verschillen in hun efficiëntie per zoekopdracht. Grok AI presteert het best met slechts 0,17 gram CO2 per vraag. Google Gemini gebruikt 1,6 gram, terwijl Meta Llama 3,2 gram nodig heeft. ChatGPT met GPT-4 scoort het minst efficiënt met 4,2 gram CO2 per opdracht. Dit betekent dat ChatGPT 25 keer meer uitstoot dan Grok AI voor een vergelijkbare taak.
https://techeconomy.ng/study-reveals-grok-ai-as-the-most-eco-friendly-chatbot/
Update:
Veel media citeren deze cijfers van TRG Datacenters die beweren dat Grok AI 25 keer minder CO2 uitstoot dan ChatGPT, maar het originele rapport is nergens te vinden en dus niet te verifiëren. Het is dan ook opmerkelijk dat zulke specifieke claims zo breed worden overgenomen terwijl een commercieel datacenterbedrijf geen transparantie biedt over hun onderzoeksmethode.
OpenAI zelf geeft in de officiële GPT-5 System Card aan dat GPT-5 efficiënter omgaat met energie door een slimmere, taakgerichte architectuur, maar ze publiceren géén absolute cijfers over het energieverbruik van GPT-5. In het document wordt gesteld dat GPT-5 dankzij een “unified model routing system” en een Mixture of Experts (MoE)-architectuur bij elke taak alleen de noodzakelijke modelonderdelen activeert; hierdoor is het model energiezuiniger dan eerdere generaties.
Klik om toegang te krijgen tot gpt5-system-card-aug7.pdf
GPT-5 is in veel opzichten efficiënter dan eerdere modellen, maar vanwege het grotere model en bredere toepassing is zowel het energieverbruik als de operationele kosten per opdracht nog altijd hoog.
Iemand al meer concretere cijfers over de trainings- en gebruikkosten van GPT-5?
Can the big AIs tell you what their carbon emissions are?
https://www.holdfastprojects.com/chat-carbon-emissions
Zie ook mijn bericht op LinkedIn:
https://www.linkedin.com/posts/mderksen_digitaletransformatie-ai-energietransitie-activity-7359879233952751617-kaOx
GPT-5 en energieverbruik: feiten en nuance
De lancering van GPT-5 door OpenAI bracht naast verbeteringen in snelheid, nauwkeurigheid en complexiteit ook zorgen over het energieverbruik. OpenAI zelf geeft geen officiële cijfers vrij, maar onafhankelijke metingen van de University of Rhode Island laten zien dat het verbruik sterk varieert per modelvariant en taak: Zo geeft GPT-5 (high) een gemiddeld verbruik van ongeveer 21,5 Wh per middelgrote prompt, GPT-5 (medium) 11,2 Wh en voor GPT-5 (low) 4,3 Wh. Bij andere zware modellen zoals o3-pro kan dit oplopen tot circa 25–30 Wh. De vaak genoemde piekwaarde van 40 Wh is in dit onderzoek niet gemeten bij GPT-5. Ter vergelijking: lichte modellen uit 2023 verbruikten voor eenvoudige vragen rond de 2 Wh.
GPT-5 kan voor complexe taken dus aanzienlijk meer energie gebruiken dan eerdere modellen, maar het verbruik is niet uniform en hangt af van keuzes in modeltype en gebruik. De discussie verschuift daarmee van algemene uitspraken naar bewuste afwegingen per toepassing.
Bronnen:
Google publiceerde vandaag cijfers over de milieu-impact van zijn Gemini AI. Volgens de studie kost een enkele tekstprompt circa 0,24 Wh energie, stoot 0,03 gram CO₂ uit en verbruikt 0,26 milliliter water, vergelijkbaar met negen seconden tv-kijken of vijf druppels kraanwater. Google wijst op efficiëntieverbeteringen en de inkoop van schone energie als verklaring voor een 33-voudige afname in energiegebruik en een 44-voudige reductie in CO₂-uitstoot per prompt.
Daarop kwam kritiek van onder meer The Verge en The Wall Street Journal. Zij merken op dat de studie zich uitsluitend richt op het gebruik van AI en niet op de energie-intensieve training, de productie van hardware of de winning van grondstoffen. Ook rekent Google met marktgebaseerde emissies, die de daadwerkelijke uitstoot in specifieke regio’s verhullen.
In mijn eigen blog hierboven probeer ik juist dat bredere perspectief zichtbaar te maken: de werkelijke footprint van AI omvat training, hardwareproductie, waterverbruik en schaarse grondstoffen.
Het is goed dat Google nu data publiceert, maar zonder het volledige plaatje blijft de discussie onvolledig.
Wouter van Noort verwijst vanmorgen naar net Nature-artikel Net zero needs AI — five actions to realize its promise van Amy Luers. In het kort:
Om in 2050 netto-nul uitstoot te bereiken moet de energievraag bijna verdubbelen, hernieuwbare capaciteit verdrievoudigen en industrieën als staal en cement drastisch verduurzamen. Het artikel stelt dat AI hierbij onmisbaar is. AI kan elektriciteitsnetten efficiënter maken, nieuwe materialen sneller ontwikkelen en zo jaarlijks 1,4 tot 5,4 gigaton CO₂ besparen.
Daartegenover staat dat datacenters steeds meer elektriciteit en water vragen. Ze zijn nu verantwoordelijk voor circa 1,5 procent van het wereldwijde stroomverbruik en 0,5 procent van de uitstoot. Mondiaal bescheiden, maar lokaal vaak een stevige druk op netten en watersystemen.
Luers schetst vijf acties om AI’s potentieel te benutten: het verduurzamen van datacenters, het inzetten van AI voor netbeheer en systeemoptimalisatie, het versnellen van materiaal- en technologische innovatie, het verkleinen van de kloof in kennis en vaardigheden, en het inbouwen van robuust bestuur en ethische waarborgen.
De kernboodschap: AI kan de transitie versnellen, maar alleen als de negatieve effecten worden begrensd en de technologie bewust en eerlijk wordt ingezet. Dit sluit aan bij de essay dat ik aan het schrijven ben voor RES.