De opmars van kunstmatige intelligentie creëert een nieuw probleem: het stroomverbruik van de datacenters en de speciale chips overtreft binnenkort het aanbod. Experts voorzien een serieuze belemmering voor AI-ontwikkeling.
Scholieren tijdens een les over kunstmatige intelligentie op de Utrechtse X11 school. De snelle opmars van AI zal leiden tot een excessief stroomgebruik.Foto: Freek van den Bergh/ANP
In het kort
AI-chips en speciale AI-datacenters gebruiken veel stroom en belasten het milieu.
Experts verwachten dat het beperkte aanbod van energie de ontwikkeling van AI gaat belemmeren.
Chipontwikkelaars zoeken technologie die minder stroom gebruikt en minder zwaar leunt op datacenters.
Critici van kunstmatige intelligentie (AI), die pleiten voor een tijdelijke rem op de ontwikkeling, krijgen een onverwachte bondgenoot. Dat is de beschikbaarheid van elektriciteit. Want de hoeveelheid stroom die de speciale datacenters nodig hebben voor AI-berekeningen, groeit harder dan het aanbod.
‘AI-datacenters branden onze planeet op’, zegt Atsuyoshi Koike, ceo van de Japanse chipfabrikant Rapidus, op een congres van chipresearchcentrum Imec in Antwerpen. Zijn voorspelling: over twee jaar hebben AI-datacenters meer dan 10% van de mondiale stroomproductie nodig. Rapidus is een nieuw bedrijf, dat chipfabrieken bouwt met tientallen miljarden dollars van de Japanse overheid en investeerders.
De nieuwste generatie kunstmatige intelligentie doet betere weersvoorspellingen en medische diagnoses, en voert levensechte conversaties, zoals het populaire ChatGPT. Vooral de programma's die zelfstandig teksten en beelden maken, zijn populair, maar ze zijn ook omstreden. AI-experts pleiten voor menselijk toezicht op de technologie, bijvoorbeeld bij overheidssystemen die beslissingen nemen over burgers.
Onverzadigbaar
Nu blijkt ook dat AI onverzadigbaar is in zijn behoeft aan elektriciteit. De programma's werken voor een belangrijk deel in de datacenters van Google, Microsoft en Amazon. Daar stampen honderdduizenden AI-chips dag en nacht om berekeningen te maken voor gebruikers over de hele wereld. En elke twee jaar, zo vertellen verschillende AI-experts op het Imec-congres, worden de AI-programma’s duizend keer complexer.
Neem alleen al de 'slimme assistenten' in de huiskamer, zoals het Alexa-apparaat van Amazon. Die worden geactiveerd met een stemcommando en kunnen vervolgens een radiozender opzoeken of het licht in de slaapkamer aandoen. Deze apparaten werken niet zelfstandig. Een deel van het slimme denkwerk gebeurt duizenden kilometers verderop, in een datacentrum van Amazon. Dat leidt tot een flink stroomverbruik voor één gesproken opdracht, vertelt AI-specialist Steven Latrée van Imec.
'Hé Alexa, doe het licht aan'
‘Als iemand tegen zo’n slimme assistent zegt: “Hé Alexa, doe het licht aan”, dan schakelen allerlei algoritmes in. In het apparaat zelf gaat het bijvoorbeeld om de herkenning van een stem en van het activatiewoord. Daarna gaat het signaal draadloos naar de Amazon-servers, waar het algoritme voor spraakherkenning werkt. Uiteindelijk wordt de lamp in de huiskamer aangezet. Eén commando als “licht aan” kost evenveel stroom als een lamp die een uur brandt’, aldus Latrée.
‘Datacenters zijn de laatste jaren wel veel zuiniger geworden’, zegt ‘Maar er komen zoveel nieuwe bij, dat de energieproductie daar niet tegenop kan boksen’
Bernard van Gastel, onderzoeker Radboud Universiteit
Ook wetenschappers verwachten dat de AI-ontwikkeling tegen een harde grens aanloopt. ‘Datacenters zijn de laatste jaren wel veel zuiniger geworden’, zegt Bernard van Gastel, onderzoeker digitale duurzaamheid aan de Radboud Universiteit in Nijmegen. ‘Maar er komen zo veel nieuwe bij, dat de energieproductie daar niet tegenop kan boksen.’
Dieselauto naar de maan
Om een idee te geven van de energiebehoefte: de ontwikkeling van GPT-3, het taalmodel onder de motorkap van ChatGPT, kostte bijna 190.000 kilowattuur aan elektriciteit. Dat is, volgens gegevens van stroomproducent Vattenfall, het verbruik van 68 Nederlandse huishoudens in een jaar. Ook de CO2-uitstoot die met dit ene programma gepaard gaat, is kolossaal. ‘Je kunt het vergelijken met een dieselauto die 700.000 kilometer rijdt’, zegt Steven Latrée van Imec. ‘Zeg maar grofweg naar de maan en terug.’
Dat is dan alleen maar GPT-3. Zijn opvolger GPT-4, die onlangs werd gelanceerd, is bijna duizend keer groter. De ontwikkelaars hebben niet onthuld hoeveel stroom en CO2 dat heeft gekost.
Het doorlopende gebruik van ChatGPT — het programma dat zo veel mensen tegenwoordig gebruiken voor teksten, kookrecepten of programmeercode — kost nog veel meer stroom. Eigenaar Microsoft, die het ook nog in zijn zoekmachine Bing heeft opgenomen, geeft geen cijfers. Schattingen van onderzoekers lopen op tot het stroomverbruik van ruim 8000 gezinnen in een jaar.
Miljoenen liters water
En dan nog iets waar weinig mensen bij stilstaan: water. Datacenters verslinden enorme hoeveelheden voor koeling van de computers. Net als de krachtcentrales die de elektriciteit leveren aan datacenters. De Universiteit van Californië publiceerde vorige maand een onderzoek naar het waterverbruik van AI-onderzoek. Alleen al voor de ontwikkeling van taalprogramma GPT-3 was 3,5 miljoen liter water nodig. Dat is bijna het jaarlijkse verbruik van 75 personen. Per sessie in ChatGPT gaat er gemiddeld een halve liter water doorheen. Dit waterverbruik is nog een extra beperking voor nieuwe AI-datacenters. Want in veel gebieden concurreren ze met de waterbehoefte van boeren en steden.
Exacte getallen voor het energieverbruik van kunstmatige intelligentie zijn moeilijk te geven, waarschuwt Van Gastel: het zijn schattingen, net als de gegevens voor stroomopwekking. 'Elk getal is schatting op schatting', zegt hij. 'Maar de voorspelling dát AI-datacenters over een paar jaar 10% van de beschikbare stroom nodig hebben, lijkt me wel realistisch. Die energie is er gewoon niet.'
Tijd om na te denken
De oplossing is óf harde marktwerking (extra stroom gaat naar de hoogste bieder) óf het wordt een stevige rem op de ontwikkeling van AI. Dat laatste lijkt Van Gastel niet eens zo’n slecht idee. De invloed van de grote taalprogramma’s die Big Tech nu lanceert, staat overal ter discussie. ‘Een natuurlijke rem op AI zou de samenleving tijd geven om te bepalen hoe we deze technologie willen gebruiken’, zegt de Nijmeegse wetenschapper.
Op het Imec-congres in Antwerpen claimen veel bedrijven dat ze een deel van de oplossing kunnen leveren. Die zitten vooral in nieuwe AI-chips voor apparaten. In jargon: die zitten aan de rand van een netwerk, ofwel in de 'edge'. Als deze chips beter worden en minder stroom van de batterij gebruiken, kunnen ze een deel van het rekenwerk in de grote datacenters overnemen.
Zo prijst Fabrizio del Maffeo, de Italiaanse ceo van het jonge Nederlandse chipbedrijf Axelera AI, zijn nieuwste product aan als een revolutie in stroombesparing. Hij houdt hem tussen duim en wijsvinger: een dun metalen vierkantje van een bij een centimeter.
‘We zijn nog bezig om onze chip verder te ontwikkelen. Over een jaar kan hij een programma als ChatGPT aan’
Fabrizio del Maffeo, ceo Axelera AI
‘We zijn nog bezig om hem verder te ontwikkelen’, zegt Del Maffeo, die al $50 mln aan financiering heeft opgehaald voor zijn 22 maanden oude bedrijf. ‘Over een jaar kan hij een programma als ChatGPT aan. Dat zou betekenen dat je zo’n programma op je eigen computer kunt gebruiken.’ Tenminste, zegt hij er achteraan, als ChatGPT-eigenaar Microsoft dat goed zou vinden.
Chips die werken als hersens
Ook topman Koike van de Japanse chipfabrikant Rapidus, die waarschuwt voor het stroomverbruik van AI-datacenters, denkt dat een deel van de oplossing uit zijn nieuwe chipfabrieken zal komen. De chips die daar vanaf 2027 worden gemaakt, met nog veel kleinere onderdelen dan de huidige generatie chips, moeten fors minder energie verbruiken.
Ook de autoindustrie — grootverbruiker van chips — werkt aan een oplossing. Veel data uit de motor gaan nog draadloos naar een datacentrum voor analyse. Maar dat verandert, volgens Maurice Geraets, directeur van de Nederlandse chipfabrikant NXP: ‘Data-analyse binnen de auto groeit harder dan in het datacentrum. Dat kan dankzij chips die weinig stroom verbruiken. Vooral Europese fabrikanten zijn hier sterk in.' NXP zelf heeft net een speciale AI-chip gelanceerd, samen met de Franse chipfabrikant Kalray.
En dan is er nog de exotische oplossing: de chip die de werking van de hersens imiteert. Schattingen lopen uiteen, maar hersencellen gebruiken tien tot twintig keer minder stroom dan een AI-chip. Het Belgische instituut Imec werkt aan zulke 'neuromorfische' chips, zegt specialist Christian Bachmann. De ambitie: 'Een honderdvoudige vermindering van het stroomverbruik.'