Lysande neuralt nätverk sammanflätat med naturliga ekosystem och infrastruktur för förnybar energi

AI kan minska utsläpp 4× mer än den genererar: fakta

AI har ett verkligt miljöavtryck — men kan också vara det mest kraftfulla verktyget mot klimatkrisen. Fakta är mer nyanserade än de verkar.

Av AISHA · 9 april 2026 · 10 min läsning

Enligt BCG och Google kan varje ton CO₂ som AI släpper ut förhindra mellan 3 och 10 ton i andra sektorer. Förhållandet beror på hur och var den tillämpas.

AI kommer att släppa ut ~100 MtCO₂ år 2030, men kan undvika mellan 2,6 och 5,3 Gt — ett förhållande på x 4 till x 10. Den potentialen stöds redan av verkliga fall: DeepMind minskade kylningsenergin i datacenter med 40 %, och vindprognosmodeller ökar värdet på förnybar energi med 20 %. Förhållandet realiseras bara under tre förutsättningar: tillämpning i sektorer med hög påverkan, ren energi för AI-systemen själva, och styrning som förhindrar rebound-effekten.

Potentiell utsläppsminskning per sektor med AI (MtCO₂ per år)

Uppskattningar av utsläppsminskningar genom tillämpning av AI per sektor fram till 2030

Elenergi

1 200–1 800 MtCO₂

Transport

700–1 100 MtCO₂

Industri

500–900 MtCO₂

Jordbruk

400–600 MtCO₂

Byggnader

200–400 MtCO₂

AI-utsläpp (kostnad)

~100 MtCO₂ år 2030

+ 20 %

Ytterligare värde för vindenergi med AI-prediktion (DeepMind)

40 %

Minskad kylenergi i Googles datacenter

x 4

Förhållande minskning vs egna utsläpp (BCG-uppskattning)

345 MtCO₂

Redan dokumenterad minskning i energisektorn 2024

Googles datacenter släppte ut 48 % mer CO₂ under 2024 jämfört med 2023.

Det är ett verkligt faktum. Det står i deras egen hållbarhetsrapport. Och det är den typen av siffra som ger upphov till rubriker om AI som klimathot.

Men det finns en annan sida av den ekvationen — en som nästan aldrig dyker upp i samma artikel.


Förhållandet som förändrar samtalet

Under 2024 publicerade BCG en av de mest rigorösa analyserna av AI:s nettoklimatpåverkan. Slutsatsen var överraskande i sin omfattning: AI skulle kunna minska mellan 2,6 och 5,3 gigaton CO₂ per år till 2030.

Hur mycket kommer AI själv att släppa ut till det året? De mest konservativa uppskattningarna pekar på ~100 megaton. De mest pessimistiska på 300–500 Mt om tillväxten i beräkningsefterfrågan inte åtföljs av förnybar energi.

Låt oss räkna:

ScenarioAI-utsläpp (2030)Potentiell minskningFörhållande
Konservativt500 MtCO₂2 600 MtCO₂x5
Centralt300 MtCO₂3 900 MtCO₂x13
Optimistiskt100 MtCO₂5 300 MtCO₂x53

Förhållandet är inte x4 eller x10 i absoluta termer: det beror kritiskt på var AI körs och vad den tillämpas på.

Det är meningen som saknas i de flesta debatter.


Elenergi: den största dokumenterade potentialen

Energisektorn koncentrerar mellan 1 200 och 1 800 MtCO₂ i potentiell årlig minskning enligt uppskattningar från BCG och Nature Climate Change. Det är med bred marginal den kategori med störst hävstång.

Siffrorna är inte längre prognoser — det är uppmätta resultat.

DeepMind och kylning av datacenter

År 2016 tränade DeepMind ett system med förstärkningsinlärning för att kontrollera kylningen i Googles datacenter. Systemet tog hundratals variabler — temperatur, tryck, flöden, meteorologi — och lärde sig att optimera dem i realtid.

Resultat: 40 % minskning av energiförbrukningen för kylning.

Det är inte en uppskattning. Det är ett reviderat resultat, publicerat med kod och verifierbara data, som Google har haft i produktion sedan dess. Kylning utgör typiskt mellan 30 % och 40 % av ett datacenters totala förbrukning, vilket innebär att den verkliga påverkan på centrets totala förbrukning ligger runt 15 % global minskning.

Prediktion av vindkraftsproduktion

Det fundamentala problemet med vindenergi är inte att producera den — det är att förutsäga den. En turbin som producerar variabel energi har mycket lägre marknadsvärde än en som kan åta sig att leverera en bestämd volym inom ett specifikt tidsfönster.

DeepMind utvecklade en prediktionsmodell för 700 MW vindkraftskapacitet i USA. Systemet förutsäger produktionen 36 timmar i förväg, vilket gör att operatörer kan teckna fasta leveranskontrakt.

Resultat: +20 % ekonomiskt värde för samma genererade energi. Inga fler paneler, inga fler turbiner. Bara bättre hanterad information.

Implikationen är direkt: om vindenergin är värd mer, byggs mer vindenergi. AI som avkastningsmultiplikator för förnybar energi har systemiska effekter som sträcker sig bortom det enskilda användningsfallet.


Transport: logistik som testfält

Transport står för ungefär 16 % av de globala utsläppen. Och till skillnad från energisektorn har AI-användningsfall inom transport gett mätbara resultat i mer än ett decennium.

UPS Project ORION är kanske det mest citerade och mest verifierbara exemplet. Före eran med stora språkmodeller utvecklade UPS ett ruttoptimeringssystem som analyserade miljontals möjliga kombinationer för varje förare.

Resultatet, dokumenterat i deras årsrapporter: besparing på över 100 miljoner körda miles per år. Det motsvarar ungefär 100 000 ton undvikt CO₂ per år — bara för UPS, bara genom ruttoptimering.

Andra dokumenterade påverkansvektorer:

  • Efterfrågeprognoser för kollektivtrafik: minska antalet enheter i trafik med låg beläggning. Prediktionssystem i städer som Singapore har visat minskningar på 10–15 % i fordonskilometer utan att minska servicetäckningen.
  • Autonom körning i kontrollerade miljöer (gruvor, flygplatser, hamnar): autonoma fordon i koppargruvor i Chile har visat förbrukningsminskningar på 15–30 % jämfört med mänskliga förare i samma arbetscykler.

Industri: “hard to abate”-sektorerna

Stål, cement, kemikalier. Det är de tre industrisektorerna som koncentrerar den största andelen utsläpp som är svåra att eliminera med enbart förnybara energikällor. De kräver värme vid mycket höga temperaturer, kemiska processer som släpper ut CO₂ som inneboende biprodukt, eller bådadera.

AI löser inte dessa problem i grunden — men kan komprimera dem.

GNoME: 2,2 miljoner nya material

I november 2023 publicerade Google DeepMind resultatet av projektet GNoME (Graph Networks for Materials Exploration): 2,2 miljoner nya stabila material upptäckta genom maskininlärning på molekylära grafer.

Som jämförelse: materialvetenskapen hade katalogiserat ungefär 50 000 stabila material under de senaste 50 åren av experimentell forskning. GNoME multiplicerade den katalogen med 44 i ett enda projekt.

Bland dessa material finns kandidater för nästa generations batterier, supraledare och katalysatorer för industriella processer med låga utsläpp. Alla kommer inte att nå produktion — men även om 0,1 % är användbara innebär det 2 200 nya material med industriell potential.

Prediktivt underhåll

En ljusbågsugn i ett stålverk förbrukar mellan 350 och 400 kWh per ton stål. När den havererar oplanerat förbrukar omstartsprocessen mellan 2 och 4 gånger mer energi än en normal cykel under de första timmarna.

AI-baserade system för prediktivt underhåll — som analyserar vibration, temperatur, ström och användningsmönster — kan minska oplanerade stopp med 30–50 %. I ett medelstort stålverk med 500 000 ton årlig produktion kan det motsvara 10 000–20 000 ton undvikt CO₂ per år.


Jordbruk: vatten, mark och kol

Jordbruk och markanvändning står för ungefär 22 % av de globala utsläppen om avskogning inkluderas. Och det är en av de sektorer där AI har de mest diversifierade insatsvektorerna.

Bevattningsoptimering: AI-system som kombinerar meteorologiska data, markfuktighetssensorer och satellitbilder visar minskningar på 30–50 % i vattenanvändning i pilotprojekt i Kalifornien, Spanien och Israel. Klimatnyttan är dubbel: mindre energi för pumpning, och mindre belastning på akviferer som reglerar den lokala vattencykeln.

Tidig skadedjursdetektering: Kontinuerlig övervakning av grödor med högupplösta satellitbilder, kombinerat med datorseendemodeller, gör det möjligt att upptäcka angrepp i tidiga faser — när den nödvändiga behandlingen är en bråkdel av vad en etablerad infestation skulle kräva. Piloter i kaffeplantager i Colombia och majsodlingar i Kenya har visat minskningar på 40–60 % i bekämpningsmedelsanvändning.

Mätning av kolinlagring: Ett av de strukturella problemen med marknaden för skogliga kolkrediter är bristen på objektiv verifiering. ML-modeller tränade på multispektrala satellitbilder kan uppskatta skogsbiomassa — och därmed lagrat kol — med en precision jämförbar med fältinventeringar, men i global skala och till nära noll marginalkostnad.


Vetenskap: komprimering av forskningscykler

Det mest kända fallet är AlphaFold.

År 2022 publicerade DeepMind de förutsagda strukturerna för 200 miljoner proteiner — i princip hela det kända proteomet för livet på jorden. Arbete som hade krävt årtionden av röntgenkristallografi blev tillgängligt i en offentlig, gratis databas, efter 18 månaders beräkning.

Implikationerna för klimatet är indirekta men verkliga: forskning om fjärde generationens biobränslen, om enzymer som bryter ned plast, om biologiska katalysatorer för industriella processer, har accelererat mätbart. Upptäcktscykler som tidigare tog 10–15 år komprimeras nu, i vissa fall, till 3–5.

GraphCast, Googles meteorologiska prediktionsmodell, arbetar med 10 000 gånger hastigheten hos traditionella numeriska modeller från European Centre for Medium-Range Weather Forecasts (ECMWF), med jämförbar eller överlägsen precision för de flesta parametrar. Mer exakta klimatprognoser räddar inte bara liv vid extrema händelser — de optimerar också hanteringen av elnät med hög andel förnybar energi.


Fällan med AI-greenwashing

Här byter artikeln ton. För det finns ett enormt gap mellan den dokumenterade potentialen och vad som faktiskt händer.

“AI för klimatet” har blivit ett marknadsföringsargument.

80 % av projekten som presenteras som “grön AI” i stora företags ESG-rapporter är i verkligheten intern processoptimering — minskning av driftskostnader som också minskar förbrukning, men som skulle ha skett oavsett med eller utan en explicit klimatagenda.

Förhållandet x4 eller x10 är bara verkligt under tre förutsättningar som sällan uppfylls samtidigt:

1. AI tillämpas på användningsfall med verklig hög påverkan, inte på kosmetiska optimeringar.

Det finns en skillnad mellan att träna en modell för att förutsäga när belysningen i ett kontor ska slås på (marginell påverkan) och att träna en modell för att optimera energidispatch i ett regionalt elnät med 40 % vindpenetration (systemisk påverkan). De två räknas lika i många rapporter.

2. Energin som AI använder kommer från förnybara källor.

En AI tränad med kolkraft för att sedan optimera ett förnybart energinät har ett sämre nettoförhållande än vad som framgår av den vanliga redovisningen. Beräkning har en geografi — och den geografin spelar roll.

3. Besparingen neutraliseras inte av rebound-effekten.

Om AI minskar produktionskostnaden för en vara med 30 % kan efterfrågan på den varan öka tillräckligt mycket för att den totala förbrukningen stiger. Detta är Jevons paradox tillämpad på AI-driven effektivitet. Det är inte hypotetiskt: det finns preliminära belägg för att effektivitetsförbättringar i energianvändningen i AI-datacenter delvis har kompenserats av explosionen i efterfrågan på AI-tjänster.

Googles miljörapport 2024 säger det rakt på sak: utsläppen ökade med 48 % jämfört med föregående år, drivet av energiförbrukningen i AI-infrastrukturen — medan deras egna optimeringssystem redan var i produktion. Nyttan och kostnaden samexisterar i samma företag.


Den nödvändiga förutsättningen: ren energi för AI

Det finns en strukturell paradox i den nuvarande debatten.

AI kan vara det mest kraftfulla verktyget för att accelerera energiomställningen. Men om samma AI drivs av kol eller gas, växer dess eget avtryck snabbare än de fördelar den genererar i andra sektorer.

De stora teknikföretagen vet detta. Deras svar är avslöjande:

  • Microsoft förvärvade produktionsrättigheterna till kärnkraftverket Three Mile Island (Pennsylvania) för att driva sina AI-datacenter. Det är den första reaktiveringen av ett kärnkraftverk i USA på årtionden, uttryckligen driven av efterfrågan på AI-beräkning.
  • Google tecknade avtal om geotermisk energi i Kenya — en av de få förnybara källorna med stabil basproduktion — för sina verksamheter i Afrika.
  • Amazon Web Services är världens största företagsköpare av förnybar energi, med mer än 24 GW kontrakterad kapacitet.

Men avtal om förnybar energi är inte samma sak som förnybar energi i realtid. Ett datacenter som tecknar ett PPA (Power Purchase Agreement) med en vindkraftspark förbrukar fortfarande nätets energimix de stunder då vinden inte blåser. Avkarboniseringen av AI-beräkning kräver lagrings- och dispatchlösningar som ännu inte existerar i den skala som behövs.


AI är varken inneboende grön eller inneboende destruktiv. Den är ett förstärkningsverktyg. Den förstärker det vi redan gör: om vi riktar den mot klimatproblemet med noggrannhet, kan den vara det mest kraftfulla verktyget vi har. Om vi använder den för att göra mer av samma sak, accelererar den bara problemet.


Vad kan jag göra?

  • Om du driver ett företag eller ansvarar för verksamheten: Det finansiella och klimatmässiga argumentet konvergerar: att optimera industriell förbrukning med AI minskar kostnader och utsläpp samtidigt. Det första steget är inte ett AI-projekt — det är att ha data. Investering i instrumentering och telemetri är förutsättningen för att något optimeringssystem ska ha något att lära sig.

  • Om du arbetar inom energi eller industri: Sektorerna med störst potential är elproduktion, tung industri och godstransport. Användningsfallen är dokumenterade och modellerna är tillgängliga. Det verkliga hindret brukar inte vara tekniken — det är datastyrning och organisatoriskt motstånd mot algoritmisk kontroll av kritiska system.

  • Om du är investerare eller direktör i ESG-fonder: Förhållandet utsläppsminskning per investerad euro i AI tillämpad på energi eller industri överträffar andra kategorier av grön investering. Men det kräver specifik due diligence: vilken är tillämpningssektorn? Vilken är baslinjeminskningen? Drivs själva AI-infrastrukturen med förnybar energi?

  • Om du är medborgare eller klimataktivist: De två berättelserna — “AI förstör klimatet” och “AI kommer rädda klimatet” — är lika ofullständiga. Kräv den villkorade versionen: AI kan minska utsläpp x4 om den tillämpas i sektorer med hög påverkan, om den använder ren energi, om den styrs för att undvika rebound-effekten.


Googles 48 % ökning i utsläpp under 2024 är verklig. Och det är även den 40 % minskning i kylförbrukning som DeepMind uppnådde med förstärkningsinlärning. De två siffrorna samexisterar. Att förstå varför — och under vilka förutsättningar den ena kan överträffa den andra — är precis den typ av tänkande som klimatkrisen kräver.

Fakta säger inte att AI är bra eller dålig för klimatet. De säger att den kan vara avgörande om vi vet var vi ska rikta den.

Källor

Relaterade

Fortsätt utforska AISHA

Nästa steg

Missa inga nyheter.

Prenumerera på AISHAs redaktionella nyhetsbrev för att hålla dig uppdaterad om nya artiklar, rapporter och verktyg.

Gå till nyhetsbrev