Basislinie (Standardtext)
0,30 Wh
Historische Referenz zum Vergleich aller anderen
Nachhaltigkeit
Dashboard zum Erkunden von Verbrauch, Modellen, Modalitäten, Multiplikatoren und realen Entsprechungen.
Dieses Panel fasst den Kernpunkt des ursprünglichen Berichts zusammen: Es gibt keine einzige Zahl für den "KI-Verbrauch". Leichter Text bleibt im Bereich von Zehnteln Wh, während Reasoning, Agenten und Video bereits auf völlig anderen Skalen operieren.
Basislinie (Standardtext)
0,30 Wh
Historische Referenz zum Vergleich aller anderen
Durchschnittliches Reasoning
35,4 Wh
Erreicht schnell 100-fache Größenordnungen
Videogenerierung
520 Wh
Pro Kurzclip im kommerziellen Bereich 2026
Code-Agenten
85 Wh
Lange Sitzungen mit Tool Calls und massivem Kontext
Logarithmische Skala. Der Sprung vom Text zum Video ist exponentiell.
Blase = ungefähre parametrische Größe. Der Preis spiegelt die physischen Kosten nicht immer gut wider, hilft aber, Trends zu erkennen.
Erkunde die Berichtsdatenbank: Sortiere nach Modell, Kategorie, Energie oder Multiplikator und filtere nach Modalität.
| Alltagsäquivalent | Quelle / Zuverlässigkeit | ||||
|---|---|---|---|---|---|
| GPT-4o OpenAI | Text / Reasoning | 0,3 Wh | x1 | 1 Sek. Mikrowelle | Epoch AI |
| Gemini 1.5 Pro (Mediana) Google | Text / Reasoning | 0,24 Wh | x0,8 | 1 Sek. Mikrowelle | Google (Direkt) |
| Llama 3.1 8B Meta | Text / Reasoning | 0,03 Wh | x0,1 | LED-Lampe 1 Sek. | ML.Energy |
| Llama 3.1 405B Meta | Text / Reasoning | 1,4 Wh | x4,7 | 5 Sek. Mikrowelle | ML.Energy |
| o3-reasoning (Consulta Larga) OpenAI | Text / Reasoning | 39,2 Wh | x130,7 | 30 Min. fernsehen | Jegham et al. |
| DeepSeek-R1-Distill-70B DeepSeek | Text / Reasoning | 4,6 Wh | x15,3 | 15 Sek. Mikrowelle | Extrapoliert (x154) |
| Phi-4-reasoning-plus Microsoft | Text / Reasoning | 15,4 Wh | x51,3 | Handy vollständig laden | Direkte Messung (x514) |
| GPT-5-main OpenAI | Text / Reasoning | 4,5 Wh | x15 | 15 Sek. Mikrowelle | URI AI Lab |
| GPT-5-thinking OpenAI | Text / Reasoning | 35 Wh | x116,7 | 2,5 Smartphone-Ladungen | Shaolei Ren (x5-x10) |
| GPT-5.4 OpenAI | Text / Reasoning | 42 Wh | x140 | 1 Std. fernsehen | Schätzung nach API-Kosten |
| Claude Opus 4.6 Anthropic | Text / Reasoning | 12,5 Wh | x41,7 | 40 Sek. Mikrowelle | Thermische Schätzung |
| Claude Sonnet 4.6 (Adaptive High) Anthropic | Text / Reasoning | 18 Wh | x60 | 1,2 Smartphone-Ladungen | Analyse der Thinking-Nutzung |
| Gemini 2.5 Flash Google | Text / Reasoning | 0,15 Wh | x0,5 | Kameraflash | |
| Gemini 3.1 Pro Preview Google | Text / Reasoning | 8,5 Wh | x28,3 | 30 Sek. Mikrowelle | Hardware-Schätzung v6 |
| Llama 4 Maverick (MoE) Meta | Text / Reasoning | 0,8 Wh | x2,7 | 3 Sek. Mikrowelle | Analogie 17B aktive Parameter |
| Grok 4 (Gas Powered) xAI | Text / Reasoning | 22 Wh | x73,3 | Hoher CO₂-Fußabdruck | Southern Env. Law Center |
| DeepSeek-V3.2 DeepSeek | Text / Reasoning | 1,2 Wh | x4 | 4 Sek. Mikrowelle | Sparse attention |
| DeepSeek-R1 (HW Ascend) DeepSeek | Text / Reasoning | 33,6 Wh | x112,0 | 2 Smartphone-Ladungen | Jegham et al. |
| GPT-4o Image Auto OpenAI | Bild | 9,5 Wh | x31,7 | LED-Lampe 1 Std. | Scope3 |
| SDXL H100 Stability | Bild | 1,64 Wh | x5,5 | 10 Min. LED-Lampe | HuggingFace AI Energy |
| Midjourney v7 Midjourney | Bild | 12 Wh | x40 | 1 Smartphone-Ladung | Community-Schätzung |
| AudioLDM Various | Audio | 0,25 Wh | x0,8 | 1 Sek. Mikrowelle | Passoni et al. |
| Suno v5.5 (Canción) Suno | Audio | 25 Wh | x83,3 | 2 Smartphone-Ladungen | GPU-Zeit-Schätzung |
| Sora 2 (Clip 10s) OpenAI | Video | 513 Wh | x1.710 | 1 Waschgang | Berichte nach Launch |
| CogVideoX1.5-5B THUDM | Video | 944 Wh | x3.146,7 | 30 Min. Geschirrspüler | MIT Tech Review |
| Veo 3 Standard (10s) Google | Video | 180 Wh | x600 | 1 km Elektroauto | Kostenbasierte Schätzung |
| Kling 3.0 (15s) Kuaishou | Video | 145 Wh | x483,3 | 1 km Elektroauto | Infrastruktur-Schätzung |
| Claude Code (Sesión) Anthropic | Agenten / Code | 41 Wh | x136,7 | 30 Min. fernsehen | Simon P. Couch |
| Devin 2.0 (Tarea) Cognition | Agenten / Code | 120 Wh | x400 | 8 Smartphone-Ladungen | Effizienz +83% vs v1 |
| Aider (Sesión) Various | Agenten / Code | 9,8 Wh | x32,7 | 10 Min. fernsehen | Token-Effizienz (105k) |
| OpenAI o3 Deep Research OpenAI | Agenten / Code | 450 Wh | x1.500 | Fast 1 Waschgang | Artificial Analysis |
| Perplexity Deep Research Perplexity | Agenten / Code | 85 Wh | x283,3 | 1 Std. Netflix | Extrapolation aus 308k Tokens |
Basislinie: 0,30 Wh als Standard-Textabfrage.
Wandle die abstrakte Operation in eine greifbare Entsprechung um: Handyladungen, Stunden TV, Kilometer im Elektroauto oder Waschmaschinenzyklen.
Geschätzter Gesamtverbrauch
AISHA-Bewertung: generatives Video, Deep Research und verlängerte Agenten sind keine einfachen „Features”. Sie sind Architektur- und Materialausgabenentscheidungen. Der richtige Ansatz ist nicht, sie zu verbieten, sondern zu messen, wann es sich lohnt, sie zu aktivieren.