Elenergi
1 200–1 800 MtCO₂
Lösningar
AI har ett verkligt miljöavtryck — men kan också vara det mest kraftfulla verktyget mot klimatkrisen. Fakta är mer nyanserade än de verkar.
Enligt BCG och Google kan varje ton CO₂ som AI släpper ut förhindra mellan 3 och 10 ton i andra sektorer. Förhållandet beror på hur och var den tillämpas.
AI kommer att släppa ut ~100 MtCO₂ år 2030, men kan undvika mellan 2,6 och 5,3 Gt — ett förhållande på x 4 till x 10. Den potentialen stöds redan av verkliga fall: DeepMind minskade kylningsenergin i datacenter med 40 %, och vindprognosmodeller ökar värdet på förnybar energi med 20 %. Förhållandet realiseras bara under tre förutsättningar: tillämpning i sektorer med hög påverkan, ren energi för AI-systemen själva, och styrning som förhindrar rebound-effekten.
Uppskattningar av utsläppsminskningar genom tillämpning av AI per sektor fram till 2030
+ 20 %
Ytterligare värde för vindenergi med AI-prediktion (DeepMind)
40 %
Minskad kylenergi i Googles datacenter
x 4
Förhållande minskning vs egna utsläpp (BCG-uppskattning)
345 MtCO₂
Redan dokumenterad minskning i energisektorn 2024
Googles datacenter släppte ut 48 % mer CO₂ under 2024 jämfört med 2023.
Det är ett verkligt faktum. Det står i deras egen hållbarhetsrapport. Och det är den typen av siffra som ger upphov till rubriker om AI som klimathot.
Men det finns en annan sida av den ekvationen — en som nästan aldrig dyker upp i samma artikel.
Under 2024 publicerade BCG en av de mest rigorösa analyserna av AI:s nettoklimatpåverkan. Slutsatsen var överraskande i sin omfattning: AI skulle kunna minska mellan 2,6 och 5,3 gigaton CO₂ per år till 2030.
Hur mycket kommer AI själv att släppa ut till det året? De mest konservativa uppskattningarna pekar på ~100 megaton. De mest pessimistiska på 300–500 Mt om tillväxten i beräkningsefterfrågan inte åtföljs av förnybar energi.
Låt oss räkna:
| Scenario | AI-utsläpp (2030) | Potentiell minskning | Förhållande |
|---|---|---|---|
| Konservativt | 500 MtCO₂ | 2 600 MtCO₂ | x5 |
| Centralt | 300 MtCO₂ | 3 900 MtCO₂ | x13 |
| Optimistiskt | 100 MtCO₂ | 5 300 MtCO₂ | x53 |
Förhållandet är inte x4 eller x10 i absoluta termer: det beror kritiskt på var AI körs och vad den tillämpas på.
Det är meningen som saknas i de flesta debatter.
Energisektorn koncentrerar mellan 1 200 och 1 800 MtCO₂ i potentiell årlig minskning enligt uppskattningar från BCG och Nature Climate Change. Det är med bred marginal den kategori med störst hävstång.
Siffrorna är inte längre prognoser — det är uppmätta resultat.
År 2016 tränade DeepMind ett system med förstärkningsinlärning för att kontrollera kylningen i Googles datacenter. Systemet tog hundratals variabler — temperatur, tryck, flöden, meteorologi — och lärde sig att optimera dem i realtid.
Resultat: 40 % minskning av energiförbrukningen för kylning.
Det är inte en uppskattning. Det är ett reviderat resultat, publicerat med kod och verifierbara data, som Google har haft i produktion sedan dess. Kylning utgör typiskt mellan 30 % och 40 % av ett datacenters totala förbrukning, vilket innebär att den verkliga påverkan på centrets totala förbrukning ligger runt 15 % global minskning.
Det fundamentala problemet med vindenergi är inte att producera den — det är att förutsäga den. En turbin som producerar variabel energi har mycket lägre marknadsvärde än en som kan åta sig att leverera en bestämd volym inom ett specifikt tidsfönster.
DeepMind utvecklade en prediktionsmodell för 700 MW vindkraftskapacitet i USA. Systemet förutsäger produktionen 36 timmar i förväg, vilket gör att operatörer kan teckna fasta leveranskontrakt.
Resultat: +20 % ekonomiskt värde för samma genererade energi. Inga fler paneler, inga fler turbiner. Bara bättre hanterad information.
Implikationen är direkt: om vindenergin är värd mer, byggs mer vindenergi. AI som avkastningsmultiplikator för förnybar energi har systemiska effekter som sträcker sig bortom det enskilda användningsfallet.
Transport står för ungefär 16 % av de globala utsläppen. Och till skillnad från energisektorn har AI-användningsfall inom transport gett mätbara resultat i mer än ett decennium.
UPS Project ORION är kanske det mest citerade och mest verifierbara exemplet. Före eran med stora språkmodeller utvecklade UPS ett ruttoptimeringssystem som analyserade miljontals möjliga kombinationer för varje förare.
Resultatet, dokumenterat i deras årsrapporter: besparing på över 100 miljoner körda miles per år. Det motsvarar ungefär 100 000 ton undvikt CO₂ per år — bara för UPS, bara genom ruttoptimering.
Andra dokumenterade påverkansvektorer:
Stål, cement, kemikalier. Det är de tre industrisektorerna som koncentrerar den största andelen utsläpp som är svåra att eliminera med enbart förnybara energikällor. De kräver värme vid mycket höga temperaturer, kemiska processer som släpper ut CO₂ som inneboende biprodukt, eller bådadera.
AI löser inte dessa problem i grunden — men kan komprimera dem.
I november 2023 publicerade Google DeepMind resultatet av projektet GNoME (Graph Networks for Materials Exploration): 2,2 miljoner nya stabila material upptäckta genom maskininlärning på molekylära grafer.
Som jämförelse: materialvetenskapen hade katalogiserat ungefär 50 000 stabila material under de senaste 50 åren av experimentell forskning. GNoME multiplicerade den katalogen med 44 i ett enda projekt.
Bland dessa material finns kandidater för nästa generations batterier, supraledare och katalysatorer för industriella processer med låga utsläpp. Alla kommer inte att nå produktion — men även om 0,1 % är användbara innebär det 2 200 nya material med industriell potential.
En ljusbågsugn i ett stålverk förbrukar mellan 350 och 400 kWh per ton stål. När den havererar oplanerat förbrukar omstartsprocessen mellan 2 och 4 gånger mer energi än en normal cykel under de första timmarna.
AI-baserade system för prediktivt underhåll — som analyserar vibration, temperatur, ström och användningsmönster — kan minska oplanerade stopp med 30–50 %. I ett medelstort stålverk med 500 000 ton årlig produktion kan det motsvara 10 000–20 000 ton undvikt CO₂ per år.
Jordbruk och markanvändning står för ungefär 22 % av de globala utsläppen om avskogning inkluderas. Och det är en av de sektorer där AI har de mest diversifierade insatsvektorerna.
Bevattningsoptimering: AI-system som kombinerar meteorologiska data, markfuktighetssensorer och satellitbilder visar minskningar på 30–50 % i vattenanvändning i pilotprojekt i Kalifornien, Spanien och Israel. Klimatnyttan är dubbel: mindre energi för pumpning, och mindre belastning på akviferer som reglerar den lokala vattencykeln.
Tidig skadedjursdetektering: Kontinuerlig övervakning av grödor med högupplösta satellitbilder, kombinerat med datorseendemodeller, gör det möjligt att upptäcka angrepp i tidiga faser — när den nödvändiga behandlingen är en bråkdel av vad en etablerad infestation skulle kräva. Piloter i kaffeplantager i Colombia och majsodlingar i Kenya har visat minskningar på 40–60 % i bekämpningsmedelsanvändning.
Mätning av kolinlagring: Ett av de strukturella problemen med marknaden för skogliga kolkrediter är bristen på objektiv verifiering. ML-modeller tränade på multispektrala satellitbilder kan uppskatta skogsbiomassa — och därmed lagrat kol — med en precision jämförbar med fältinventeringar, men i global skala och till nära noll marginalkostnad.
Det mest kända fallet är AlphaFold.
År 2022 publicerade DeepMind de förutsagda strukturerna för 200 miljoner proteiner — i princip hela det kända proteomet för livet på jorden. Arbete som hade krävt årtionden av röntgenkristallografi blev tillgängligt i en offentlig, gratis databas, efter 18 månaders beräkning.
Implikationerna för klimatet är indirekta men verkliga: forskning om fjärde generationens biobränslen, om enzymer som bryter ned plast, om biologiska katalysatorer för industriella processer, har accelererat mätbart. Upptäcktscykler som tidigare tog 10–15 år komprimeras nu, i vissa fall, till 3–5.
GraphCast, Googles meteorologiska prediktionsmodell, arbetar med 10 000 gånger hastigheten hos traditionella numeriska modeller från European Centre for Medium-Range Weather Forecasts (ECMWF), med jämförbar eller överlägsen precision för de flesta parametrar. Mer exakta klimatprognoser räddar inte bara liv vid extrema händelser — de optimerar också hanteringen av elnät med hög andel förnybar energi.
Här byter artikeln ton. För det finns ett enormt gap mellan den dokumenterade potentialen och vad som faktiskt händer.
“AI för klimatet” har blivit ett marknadsföringsargument.
80 % av projekten som presenteras som “grön AI” i stora företags ESG-rapporter är i verkligheten intern processoptimering — minskning av driftskostnader som också minskar förbrukning, men som skulle ha skett oavsett med eller utan en explicit klimatagenda.
Förhållandet x4 eller x10 är bara verkligt under tre förutsättningar som sällan uppfylls samtidigt:
1. AI tillämpas på användningsfall med verklig hög påverkan, inte på kosmetiska optimeringar.
Det finns en skillnad mellan att träna en modell för att förutsäga när belysningen i ett kontor ska slås på (marginell påverkan) och att träna en modell för att optimera energidispatch i ett regionalt elnät med 40 % vindpenetration (systemisk påverkan). De två räknas lika i många rapporter.
2. Energin som AI använder kommer från förnybara källor.
En AI tränad med kolkraft för att sedan optimera ett förnybart energinät har ett sämre nettoförhållande än vad som framgår av den vanliga redovisningen. Beräkning har en geografi — och den geografin spelar roll.
3. Besparingen neutraliseras inte av rebound-effekten.
Om AI minskar produktionskostnaden för en vara med 30 % kan efterfrågan på den varan öka tillräckligt mycket för att den totala förbrukningen stiger. Detta är Jevons paradox tillämpad på AI-driven effektivitet. Det är inte hypotetiskt: det finns preliminära belägg för att effektivitetsförbättringar i energianvändningen i AI-datacenter delvis har kompenserats av explosionen i efterfrågan på AI-tjänster.
Googles miljörapport 2024 säger det rakt på sak: utsläppen ökade med 48 % jämfört med föregående år, drivet av energiförbrukningen i AI-infrastrukturen — medan deras egna optimeringssystem redan var i produktion. Nyttan och kostnaden samexisterar i samma företag.
Det finns en strukturell paradox i den nuvarande debatten.
AI kan vara det mest kraftfulla verktyget för att accelerera energiomställningen. Men om samma AI drivs av kol eller gas, växer dess eget avtryck snabbare än de fördelar den genererar i andra sektorer.
De stora teknikföretagen vet detta. Deras svar är avslöjande:
Men avtal om förnybar energi är inte samma sak som förnybar energi i realtid. Ett datacenter som tecknar ett PPA (Power Purchase Agreement) med en vindkraftspark förbrukar fortfarande nätets energimix de stunder då vinden inte blåser. Avkarboniseringen av AI-beräkning kräver lagrings- och dispatchlösningar som ännu inte existerar i den skala som behövs.
AI är varken inneboende grön eller inneboende destruktiv. Den är ett förstärkningsverktyg. Den förstärker det vi redan gör: om vi riktar den mot klimatproblemet med noggrannhet, kan den vara det mest kraftfulla verktyget vi har. Om vi använder den för att göra mer av samma sak, accelererar den bara problemet.
Om du driver ett företag eller ansvarar för verksamheten: Det finansiella och klimatmässiga argumentet konvergerar: att optimera industriell förbrukning med AI minskar kostnader och utsläpp samtidigt. Det första steget är inte ett AI-projekt — det är att ha data. Investering i instrumentering och telemetri är förutsättningen för att något optimeringssystem ska ha något att lära sig.
Om du arbetar inom energi eller industri: Sektorerna med störst potential är elproduktion, tung industri och godstransport. Användningsfallen är dokumenterade och modellerna är tillgängliga. Det verkliga hindret brukar inte vara tekniken — det är datastyrning och organisatoriskt motstånd mot algoritmisk kontroll av kritiska system.
Om du är investerare eller direktör i ESG-fonder: Förhållandet utsläppsminskning per investerad euro i AI tillämpad på energi eller industri överträffar andra kategorier av grön investering. Men det kräver specifik due diligence: vilken är tillämpningssektorn? Vilken är baslinjeminskningen? Drivs själva AI-infrastrukturen med förnybar energi?
Om du är medborgare eller klimataktivist: De två berättelserna — “AI förstör klimatet” och “AI kommer rädda klimatet” — är lika ofullständiga. Kräv den villkorade versionen: AI kan minska utsläpp x4 om den tillämpas i sektorer med hög påverkan, om den använder ren energi, om den styrs för att undvika rebound-effekten.
Googles 48 % ökning i utsläpp under 2024 är verklig. Och det är även den 40 % minskning i kylförbrukning som DeepMind uppnådde med förstärkningsinlärning. De två siffrorna samexisterar. Att förstå varför — och under vilka förutsättningar den ena kan överträffa den andra — är precis den typ av tänkande som klimatkrisen kräver.
Fakta säger inte att AI är bra eller dålig för klimatet. De säger att den kan vara avgörande om vi vet var vi ska rikta den.
Relaterade
La guía definitiva del consumo energético por modelo y modalidad en 2026
Manifiesto AISHA: por qué defendemos la inteligencia artificial y por qué exigimos que se use de forma responsable
Prenumerera på AISHAs redaktionella nyhetsbrev för att hålla dig uppdaterad om nya artiklar, rapporter och verktyg.
Gå till nyhetsbrev