Abstrakte Illustration eines halboffenen Unternehmenssafes mit darin versteckten Energiedaten, in Cyan- und Bernsteintönen auf dunklem Hintergrund

Warum wollen KI-Unternehmen nicht, dass du weißt, wie viel Energie du verbrauchst?

Die 6 wirtschaftlichen Anreize, die erklären, warum energetische Intransparenz kein Versehen ist — sondern eine Strategie

Von AISHA · 5. März 2026 · 7 Min. Lesezeit

151 Millionen Euro pro Jahr. So viel gibt die Technologiebranche für Lobbying in Brüssel aus — 55 % mehr als 2021. Und ihre oberste Priorität ist es, zu verhindern, dass die Energieregulierung der KI vorankommt.

KI-Unternehmen veröffentlichen keine Verbrauchsdaten, weil dies gegen ihre wirtschaftlichen Interessen verstößt. Es gibt 6 strukturelle Gründe: Geschäftsgeheimnis, Regulierungsvermeidung, ESG-Risiko, Narrativkontrolle, ungünstige Vergleiche und rechtliche Haftung für Scope-3-Emissionen. Es ist kein Versehen — es ist ein Nash-Gleichgewicht, bei dem kein Akteur einen Anreiz hat, sich als Erster zu bewegen.

€ 151 M

Jährliches Tech-Lobbying in Brüssel

+ 55 %

Anstieg der Lobbying-Ausgaben seit 2021

890

Vollzeit-Lobbyisten der Tech-Industrie in der EU

6

Wirtschaftliche Anreize zur Aufrechterhaltung der Intransparenz

Anstieg der gemeldeten Emissionen der großen KI-Anbieter

Google (2019-2023)

48 %

Microsoft (seit 2020)

23 %

Anthropic

0 Daten

OpenAI

0 Daten

xAI

0 Daten

151 Millionen Euro pro Jahr. So viel gibt die Technologiebranche für Lobbying in der Europäischen Union aus — 55% mehr als 2021. Mit 890 Vollzeit-Lobbyisten, die in Brüssel Druck ausüben, ist die Priorität klar: zu verhindern, dass irgendeine Regulierung zur Energietransparenz vorankommt, bevor sich der Markt konsolidiert hat.

Das ist keine Verschwörungstheorie. Es ist Anreizökonomie. Und es erklärt, warum in einer Branche, die jährlich mehr als eine halbe Billion Dollar für Infrastruktur bewegt, fast niemand veröffentlicht, wie viel Energie das verbraucht, was er verkauft.


Es ist kein Versehen. Es ist ein Nash-Gleichgewicht

Die energetische Intransparenz der KI ist kein Versehen und keine Frage von „wir werden es tun, wenn wir die Daten haben”. Die Anbieter messen ihren Verbrauch bereits intern — sie brauchen die Daten, um Infrastruktur zu dimensionieren, Stromverträge auszuhandeln und Kosten zu optimieren.

Die Frage ist nicht, ob sie die Daten veröffentlichen können. Die Frage ist, warum sie sich entscheiden, es nicht zu tun.

Die Antwort hat sechs Ebenen, und jede verstärkt die anderen.


Anreiz 1: Geschäftsgeheimnis

Energieverbrauchsdaten offenbaren indirekt die Architektur und Effizienz der Modelle. Wenn OpenAI die tatsächlichen Wh von GPT-5.4 mit Reasoning veröffentlichen würde, könnten Wettbewerber daraus ableiten, wie viele interne Token generiert werden, wie viele Schichten aktiviert werden und wie ihr System skaliert.

Das Gesetz schützt dieses Schweigen: Der 18 U.S.C. § 1905 in den USA bestraft die Offenlegung von Geschäftsgeheimnissen durch Beamte, und die Unternehmen argumentieren, dass ihre Effizienzmetriken geistiges Eigentum sind. Kalifornien versuchte dies mit AB-2013 zu ändern, aber der Geltungsbereich blieb begrenzt.

Das Ergebnis: Jedes Unternehmen hat einen rechtlichen und wettbewerblichen Anreiz, nicht das erste zu sein, das veröffentlicht.


Anreiz 2: Regulierungsvermeidung

Wären die Verbrauchsdaten öffentlich, wäre Regulierung unvermeidlich. Und Regulierung hat Kosten.

Der EU AI Act sieht in Artikel 40 bereits Anforderungen an die Energietransparenz vor, aber die Standards werden erst ab August 2028 verbindlich sein. Der europäische Digital Omnibus — als „Reduzierung des Verwaltungsaufwands” präsentiert — hat es geschafft, die Anwendung der Hochrisiko-Bestimmungen bis Dezember 2027 zu verzögern und die Energiemetriken an den Rand zu drängen.

In den USA ist die Lage noch schlechter: mehr als 300 Gesetzesvorschläge auf Ebene der Bundesstaaten zu KI und kein Bundesgesetz. Der Plan „America’s AI Action Plan” priorisiert kommerzielle und militärische Wettbewerbsfähigkeit, nicht Umweltauswirkungen.

Während die europäische Regulierung sich verzögert und die amerikanische nicht existiert, operieren die Unternehmen in einem perfekten Vakuum: ohne Messpflicht und ohne Konsequenzen dafür, es nicht zu tun.


Anreiz 3: ESG-Risiko

Weltweit werden mehr als 30 Billionen Dollar nach ESG-Kriterien (Environmental, Social, Governance) verwaltet. Ratingagenturen wie MSCI und Sustainalytics bewerten Technologieunternehmen bereits nach ihren Emissionen.

Die Veröffentlichung detaillierter Verbrauchsdaten pro Dienst würde KI-Unternehmen einer Überprüfung aussetzen, die sie lieber vermeiden:

  • Google räumte ein, dass seine Gesamtemissionen zwischen 2019 und 2023 um 48% gestiegen sind, schreibt aber einen großen Teil der marktbasierten Bilanzierung zu, die Zertifikate für saubere Energie verwendet.

  • Microsoft gab einen Anstieg von 23,4% der Emissionen seit 2020 zu, wobei 97% auf Scope 3 konzentriert sind — die Lieferkette und die Nutzung ihrer Produkte.

  • OpenAI erhielt eine Bewertung von 23 von 100 im Umweltindex von DitchCarbon.

Würden die Anbieter die tatsächlichen Wh pro Anfrage, pro Bild, pro generiertem Video veröffentlichen, würde das Narrativ der „grünen KI” innerhalb von Wochen zusammenbrechen. Und damit die Bewertung von Unternehmen, die börsennotiert sind oder an die Börse streben.


Anreiz 4: Kontrolle des Narrativs

Die Branche hat von anderen Sektoren gelernt: Sobald ein sichtbares Verbrauchslabel existiert, vergleicht der Verbraucher. Und der Vergleich verändert das Kaufverhalten.

Stell dir vor, jedes Mal wenn du ein Bild mit Midjourney generierst, würdest du sehen: „Dieses Bild hat 3,2 Wh verbraucht — das entspricht einer LED-Lampe, die 19 Minuten lang leuchtet.” Oder wenn du ein Video mit Runway generierst: „Dieser 10-Sekunden-Clip hat 260 Wh verbraucht — das entspricht 18 Smartphone-Aufladungen.”

Die Analogie zu Kalorien ist exakt. Als die Lebensmittelindustrie gezwungen wurde, Kalorien zu kennzeichnen, änderte sich die Zusammensetzung der Lebensmittel nicht sofort. Aber es änderte sich, was die Menschen zu kaufen wählten. Und das veränderte, was die Hersteller produzierten.

KI braucht ihr Kalorienlabel. Und die Unternehmen wissen das.


Anreiz 5: Ungünstige Vergleiche

Wenn alle Daten veröffentlichen würden, wäre klar, wer effizient ist und wer nicht. Und der Unterschied ist nicht marginal.

Die vorhandenen Daten zeigen bereits brutale Disparitäten:

  • Gemini 2.5 Flash-Lite kann eine Textanfrage mit 0,05-0,12 Wh beantworten
  • GPT-5.4 mit aktivem Reasoning verbraucht 4-18 Wh für dieselbe Aufgabe
  • DeepSeek-V3.2 arbeitet dank seiner MoE-Architektur mit 0,08-0,18 Wh

Der Unterschied zwischen dem effizientesten und dem am wenigsten effizienten Modell für gleichwertige Aufgaben kann x100 oder mehr betragen. Die Veröffentlichung dieser Daten würde die weniger effizienten Anbieter zwingen, ihre Preise zu rechtfertigen — oder sich zu verbessern.

DeepSeek hat bewiesen, dass man ein wettbewerbsfähiges Modell für $0,028 pro Million Token anbieten kann. Wenn zusätzlich veröffentlicht würde, dass es nur einen Bruchteil der Energie seiner Konkurrenten verbraucht, wäre der Wettbewerbsdruck für diejenigen, die x50 mehr verlangen, untragbar.


Anreiz 6: Rechtliche Haftung für Scope-3-Emissionen

Dies ist der Anreiz, der den Rechtsabteilungen am meisten Sorgen bereitet. Die europäische Richtlinie CSRD (Corporate Sustainability Reporting Directive) verpflichtet Unternehmen, Scope-3-Emissionen zu berichten — jene, die in ihrer Wertschöpfungskette entstehen, einschließlich der Dienstleistungen, die sie einkaufen.

Wenn ein europäisches Unternehmen ChatGPT für seinen täglichen Betrieb nutzt und OpenAI veröffentlichen würde, wie viele Wh jede Anfrage verbraucht, müsste dieses Unternehmen diesen Verbrauch in seinen Nachhaltigkeitsbericht aufnehmen. Und wenn dieser Verbrauch erheblich ausfällt, gäbe es Druck, nach effizienteren Alternativen zu suchen.

Die KI-Anbieter wissen das. Die Veröffentlichung von Verbrauchsdaten würde eine Kaskade rechtlicher Verantwortung entlang der gesamten Wertschöpfungskette auslösen. Es ist bequemer, das Vakuum aufrechtzuerhalten.


Der Fall Memphis: Intransparenz mit realen Konsequenzen

Wenn die wirtschaftlichen Anreize abstrakt erscheinen, ist Memphis der konkrete Fall.

xAI — das KI-Unternehmen von Elon Musk — errichtete seinen Campus Colossus in Memphis, Tennessee, mit 35 Gasturbinen, die ohne die erforderlichen Umweltgenehmigungen betrieben werden. Das Ergebnis:

  • 1.200-2.000 Tonnen NOx Emissionen pro Jahr
  • 1 Million Gallonen Wasser Verbrauch pro Tag
  • $30-44 Millionen geschätzte jährliche Gesundheitsschäden für die Gemeinde Boxtown
  • Die NAACP und das Southern Environmental Law Center haben Klage eingereicht

Die EPA intervenierte im Januar 2026, aber die Turbinen laufen weiter. Die betroffene Gemeinde ist überwiegend afroamerikanisch und einkommensschwach.

Energetische Intransparenz ist nicht nur ein Datenproblem. Es ist ein Problem der Umweltgerechtigkeit. Wenn es keine Transparenz gibt, zahlen diejenigen die Konsequenzen, die am wenigsten in der Lage sind, Rechenschaft einzufordern.


Google hat bewiesen, dass es möglich ist

Es lohnt sich, es zu wiederholen: Google veröffentlichte seinen Wert von 0,24 Wh pro medianer Gemini-Anfrage. Mit überprüfbarer Methodik, in einem öffentlichen Paper, mit replizierbaren Daten.

Das Unternehmen verlor keinen Marktanteil. Es verlor keine Investoren. Es löste keine Regulierungskrise aus.

Was es bewies, ist, dass Transparenz machbar ist und dass das Argument, die Veröffentlichung von Daten würde dem Geschäft schaden, falsch ist. Was schadet, ist die Intransparenz — denn sie untergräbt das Vertrauen und verzögert eine Regulierung, die ohnehin kommen wird.

Der Rest der Branche kann dasselbe tun. Er entscheidet sich, es nicht zu tun.


Was kann ich tun?

  • Wenn du Nutzer bist: Wähle Anbieter, die Verbrauchsdaten veröffentlichen. Google und die Open-Source-Modelle, die von Hugging Face gemessen werden, sind heute die transparentesten Optionen. Wenn du intransparente Dienste nutzt, tue es im Bewusstsein, dass du eine Menge Energie verbrauchst, von der niemand will, dass du sie kennst.

  • Wenn du ein Unternehmen leitest: Deine Verpflichtung unter CSRD umfasst Scope 3. Fordere von deinen KI-Anbietern ein Datenblatt zum Energieverbrauch pro Dienst. Wenn sie es dir nicht geben, dokumentiere es — es wird bei deinem ESG-Audit relevant sein.

  • Wenn du Entwickler bist: Priorisiere Modelle mit öffentlichen Effizienzdaten. Verwende Flash/Mini/Lite für Routineaufgaben. Jeder unnötige Aufruf eines Frontier-Modells ist ein ungerechtfertigter Energiekostenfaktor, den du nicht messen kannst.

  • Wenn du in der Regulierung arbeitest: Artikel 40 des EU AI Act ist ein Anfang, aber 2028 ist zu spät. Die Messtechnologie existiert heute. Was fehlt, ist politischer Wille — und der Druck von 890 Lobbyisten, die daran arbeiten, dass dieser Wille nicht entsteht.

Quellen

Verwandte

AISHA weiter erkunden

Nächster Schritt

Keine Neuigkeit verpassen.

Abonnieren Sie den redaktionellen Newsletter von AISHA, um über neue Beiträge, Berichte und Tools auf dem Laufenden zu bleiben.

Zum Newsletter