Rico Grimm hier
Solar exponentiell – Warum so viele Schätzungen daneben liegen
Wer sich verschätzt: Thinktanks, internationale Organisationen und Behörden veröffentlichen regelmäßig Schätzungen zum Zubau verschiedener Energieformen. Die Schätzungen zum Zubau von Solarkraft und immer öfter auch von Batteriespeichern liegen dabei fast immer daneben.
Quelle: The Economist
Die vermutlich bekannteste Energiegrafik des Jahres zeigt das Ausmaß der Schätzfehler. Die gelben Linien zeigen die Prognosen der Internationalen Energieagentur (IEA) und die schwarzen den tatsächlichen Zubau:
Die westliche Welt gründete die IEA, um nach der Ölkrise in den 1970er Jahren diesen Markt besser zu verstehen. Ihr Fachgebiet waren lange Zeit vor allem fossile Energien.
Aber auch private, auf die Energiewelt spezialisierte Beratungsunternehmen verschätzen sich. Im Januar schrieb Wood MacKenzie, dass „ab 2024 die Branche offiziell den Wendepunkt überschritten hat, gekennzeichnet durch ein langsameres Wachstumsmuster“.
Sie schätzten damals, dass die Welt im Jahr 2024 353 GW Solarleistung zubaut. Tatsächlich werden es knapp 600 GW.
Eine Erklärung für die unrealistischen Prognosen
Richtig gut erklären konnte ich mir die offensichtlichen Fehlannahmen selbst nie.
In den Beratungsunternehmen, Thinktanks und Behörden arbeiten fähige Menschen. Sie mussten doch sehen, dass sie beständig daneben liegen und ihre Modelle anpassen, oder? Gleichzeitig ist es nicht plausibel, allen Analysten zu unterstellen, dass sie sich wegen ihrer Geschichte und Sozialisierung im Zweifel auf Seiten der Fossilen irrten. Einige Institutionen haben einen Öl- und Gasbias, aber mit Sicherheit nicht alle gleichzeitig und in jedem Jahr.
Die Ursache liegt tiefer, wie Nathanial Bullard, Gründer eines Energieanalysestartups schreibt:
Es liegt daran, dass [die Analysten] keine Vorhersagen auf die Weise treffen, wie wir denken, dass sie es tun. Menschen verwechseln oft zwei unterschiedliche Arten der Prognose, die jeweils ihre eigene Logik, Eingaben und Zwecke haben.
Die eine Art der Prognose ähnele dem Wetterbericht, so Bullard. Echte, aus der Realität gewonnene Daten liefern das Gerüst, um eine detaillierte Vorhersage für die nähere Zukunft zu treffen. Im Solarmarkt können solche Daten etwa die Auftragseingänge in den Vorfeldindustrien für Polysilizium, Lagerbestände und Preisänderungen sein.
Die andere Art allerdings ist keine Vorhersage, wie es der Wetterbericht ist, sondern eine Projektion. Sie richtet sich auf die ferne Zukunft und ist in begründeten, plausiblen Annahmen über den Markt verankert. „Statt einfach nur aktuelle Trends zu verlängern, versucht [sie], die zugrunde liegenden Kräfte und Mechanismen zu identifizieren, die den Wandel vorantreiben“, schreibt Bullard.
Die Schätzungen liegen also daneben, weil die Analysten kurzfristige Marktdaten verwenden, um langfristige Trends und Mechanismen abzubilden. Es ist ein bisschen so, als würde man durch einen Blick in den Kühlschrank das Gewicht einer Person in zwei Jahren vorhersagen wollen.
Die kurzfristigen Vorhersagen sind trotzdem nützlich: Firmen, die ein neues Solarmodul bepreisen wollen, müssen wissen, wo der Markt aktuell steht. Wie viele Solarparks in sieben Jahren eröffnet werden, kann der Firma dabei egal sein.
Noch einen Schritt näher: Was die Analysten in ihre Modelle aufnehmen müssten
Wer nur auf Lagerbestände, Produktionszahlen und Auftragseingänge schaut, übersieht eine Entwicklung, die sich im Inneren der globalen Solarproduktionskette abspielt und abgespielt hat.
Die Lernrate für Solarzellen ist deutlich, schnell und zügig gestiegen. Das bedeutetet, dass es umso billiger wird, bessere Solarzellen zu produzieren, je mehr wir davon produzieren. Jede neue Zelle macht die nachfolgenden Zellen ein bisschen billiger.
Gleichzeitig fiel es den Analysten schwer, politische Unterstützung in ihren Modellen zu verarbeiten. Welchen zukünftigen Einfluss hat den etwa eine Einspeisevergütung in Spanien auf den globalen Zubau? Das ist wirklich eine vertrackte Frage, schließlich fehlen auch Erfahrungswerte.
Wer hätte im Jahr 2000 gewettet, dass Deutschlands Solarbestand sich wegen des Erneuerbaren-Energie-Gesetzes in den folgenden 16 Jahren vervierhundertfacht?
Zuletzt, hier liegt eine gewisse Ironie, überschätzten viele Analysten chronisch, wie billig und praktikabel alternative Technologien im Energiemarkt werden können. Atomkraftwerke und CO₂-Abscheidung nennt ein Forscherteam um Felix Creutzig von der TU Berlin in einer hervorragenden Studie zum Thema als Beispiele. Die Logik dahinter: Energieformen stehen im Wettbewerb miteinander. Wird eine althergebrachte Technologie billiger, könnte sie der neuen Technologie weiterhin Konkurrenz machen.
Was das für den Speicherausbau bedeutet
Das Ganze ist mehr als eine interessante Geschichtsstunde. Welches Potenzial einer Technologie zugetraut wird, entscheidet darüber, wie wir unser Energiesystem designen.
Zurzeit zeigt der Ausbau von Großspeichern im Netz ähnlich Eigenschaften wie der frühe Solarausbau. Zuletzt etwa zeigten sich die Übertragungsnetzbetreiber von der schieren Zahl an Anschlussbegehren für Netzspeicher überrascht. 161 GW sind in der Pipeline.
Und analog zu den Prognosen, die Atomkraft und Carbon-Capture-And-Storage (CCS) ein hohes Potenzial zubilligten und die Solarkraft relativ gesehen herabstuften, könnten wir heute den Fehler machen, Gaskraftwerke mit CCS bzw. Wasserstoffkraftwerke künstlich billig zu rechnen und dafür den Speicherausbau auszubremsen.
Die Bundesregierung setzt auf Gas- bzw. Wasserstoffkraftwerke als Notreserve in ihrem Kapazitätsmarkt. Das tut sie, obwohl grüner Wasserstoff teuer und rar ist und für CCS sogar die gesetzlichen Grundlagen fehlen.
Die Geschichte der falschen Solarprognosen zeigt uns aber: Speicher stehen mit ihren hohen Lernraten eine größere Rolle zu.
mehr lesen von Rico Grimm hier
Keine Kommentare:
Kommentar veröffentlichen