Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

Ein Strommarkt für die Energiewende

Das Diskussionspapier des Bundesministeriums für Wirtschaft und Energie – Grünbuch – ist gerade erschienen und kann kostenlos unter Grünbuch heruntergeladen werden. Warum das Ding nun ausgerechnet Grünbuch heißt, mag der Minister Gabriel wissen: Vielleicht soll es ja Assoziationen zum Grünen Buch eines bereits verjagten sozialistischen Potentaten aus Nordafrika wecken. Zumindest an Komik und Absurdität steht es ihm kaum nach. Es ist ebenfalls der Versuch, eine ideologische Kopfgeburt durch schwülstige Worte rechtfertigen zu wollen.

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert:

Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen.

Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition „gute Energie“. Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte… Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den „Treibhausgasemissionen“ wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur „richtig“ interpretieren können.

Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke.

Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt „innerlich schon immer dagegen waren“ oder gleich besser „von allem nichts gewusst haben“ wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die „Energiewende“ und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird:

Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab.

Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt. Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das „Stück Papier“ an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von „Marktsignalen“ erzählt, die von der Börse ausgehen. Wenn von der Strombörse „Marktsignale“ ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlich über die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.

Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros:

Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen. 

Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat:

Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden.

Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.

Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse:

In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind.

Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein:

Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete.

Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters – und in seinem damaligen Lebensabschnitt Bundeskanzlers – Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals – und inzwischen wieder – von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem „badischen Atomkonzern“, der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den „Atomausstieg“ verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die „Klimakatastrophe“. Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als „Wendeminister“: Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?

Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon „Atomausstieg“ zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort „Strommarktliberalisierung“ getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.

Manche Sätze sind von beängstigender Klarheit:

Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten.

Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das „Marktbereinigung“, in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.

Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen:

2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt.

Die damals stillgelegten Kernkraftwerke, waren die „alten und kleinen“. Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz:

Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten.

Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan „Die Sonne schickt keine Rechnung“ ein bescheidenes Vermögen gemacht hat.

Hier ist es wieder, das übliche ideologische Geschwafel:

Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt.

Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf – also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne „Erneuerbare“ gar nicht vorhandener Regelungsbedarf.

Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt:

Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren.

Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.

Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten:

Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet.

Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der „Erneuerbaren“. Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der „Erneuerbaren“. Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.

Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift

Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit.,

zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland – und man ist ja weltmännisch – der 7. Januar 2014 in USA. Sätze wie

… eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken.

lassen – zumindest bei Genossen – sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die „Energiewende“ zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an „Erneuerbaren“ verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.

Noch toller ist das Beispiel aus den USA:

Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden.

So ist das nun mal, wie das Windrad Wind braucht, brauchen die „flexiblen und klimafreundlichen“ Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität – die nur wenige Stunden im Jahr gebraucht wird – finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!

In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln:

Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen.

Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten – sonst die ärgsten Feinde aufrechter Sozialdemokraten – können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter:

Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden.

Der dümmliche Werbeslogan „Die Sonne schickt keine Rechnung“ wird auf Ministerebene „zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie“ umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er „effizient und sicher in das System integriert“. Mein absoluter Lieblingssatz folgt erst kurz danach:

Mein absoluter Lieblingssatz folgt erst kurz danach:

Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen.

Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der „Hauptstadt der DDR“ wären vor Rührung die Tränen gekommen bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen:

Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden.

Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).

Manche Aussagen sind schlicht dummdreist:

Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien).

Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll:

Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken.

Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter:

Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient.

Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung – sprich die Abschaltung der Anlagen bei Überproduktion.

So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können:

Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein.

Man will sich das Abschalten als „negative Regelleistung“ vergüten lassen – hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt:

Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken.

Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich „geregelt“ eingespeist werden soll? Der „Biostrom“ würde damit noch teurer. Die „Schwachwindturbinen“ und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird:

Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können.

Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös:

Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden.

Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?

Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist:

Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften.

Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter – aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder:

Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus.

Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.

Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd „Stromautobahnen“ begründet:

Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden.

Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen – hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der „Energiewende“, für die wir Bürger zahlen müssen.

Ebenso irrsinnig und rein ideologisch begründet ist die Annahme:

Der Stromhandel unterstellt ein Netz ohne Engpässe.

Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.

Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert:

Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden.

Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke – was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?

Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft:

Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann.

Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere „Energieexperten“ noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt:

Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden.

Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn eine Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.

Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt:

Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone.

Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage:

Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen.

Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger – gemeint sind ja wohl eher Windmüller und Sonnenfarmer – reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen?

Geradezu schizophren sind die folgenden Sätze:

Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern.

Also die stochastische (zufällige) Erzeugung durch „Erneuerbare“wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!

Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden.

Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von „Marktsignalen“ wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen – Flaute und Dunkelheit zählen nicht dazu – sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.

Hinkley Point C

Der Aufreger der Woche, ist der geplante Neubau zweier Reaktoren als Ersatz für das Kernkraftwerk Hinkley Point. Für die einen ist es der lang ersehnte Neubeginn, für andere ein Sündenfall der europäischen Subventionswirtschaft. Vor allem ist es jedoch ein hoch komplexer Vorgang, für den man etwas mehr Zeit benötigt als in den „Qualitätsmedien“ zur Verfügung steht.

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. „Strom-Markt-Liberalisierung“ in Europa. Traditionell gab es Gebietsmonopole, in denen „Energieversorger“ tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der „Liberalisierung“ sollte elektrische Energie – wie andere Wirtschaftsgüter auch – zwischen Erzeugern und Verbrauchern gehandelt werden. Eine „Strombörse“ sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles „Marktversagen“ in der Form einer von Menschen verursachen „Klimakatastrophe“ konstruiert. Früher gab es eine „Aufsichtsbehörde“ mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der „Gesellschaftsveränderer“ magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen „Anti-Atomkraft-Bewegung“ vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine „Gesellschaftsveränderung“. Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der „Strom-Markt-Liberalisierung“ heraus zu halten. Letztendlich wurde auch er „privatisiert“. Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die „Alternativenergien“ massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die „Klimakatastrophe“ erschaffen. Der einst erträumte Weg über „flexible und umweltfreundliche Gaskraftwerke“ ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem „Einspeisevorrang“ für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen – wenn der Wind einmal zufällig kräftig weht – wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das „Kapazitätsmärkte“, in GB „Contracts for Difference CfD“. Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den „Erneuerbaren“ abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der „Energiewende“ über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein „Kapazitätsmarkt“ wäre nicht notwendig oder würde sich von selbst ergeben – ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum „relevanten Anschlußpunkt“ den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie „Netzparität“, sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die „Über-Nacht-Kosten“. Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 34 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für „Atommüll“ und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten „strike price“ von 92,50 Pfund pro MWh sind.

Es ging hier um ein „Beihilfeverfahren“, in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen „Subventionskürzung“ bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren – weil staatlich verursachten – Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß – wie immer – der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine – freilich rein theoretische – Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal „Kapazitätsmärkte“ können dagegen etwas ausrichten.

Beim „strike price“ wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht „beihilfekonform“ und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will – eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei „Spitzenlast“ in der Dunkel-Flaute voll mitnehmen. „Kapazitätsmärkte“ lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser „freie Handel“ nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist – klassisch, wie eine Preisgleitklausel – mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der „strike price“ angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die „hauseigene Gewerkschaft der EDF“ wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel – und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark London Array – Paradebeispiel deutscher Energieversorger – hat eine Grundfläche von etwa 100 km2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Kohle, Gas, Öl, Kernenergie? – Teil 2

Neben den fossilen Energieträgern wird auch in der Zukunft weltweit die Kernenergie einen steigenden Anteil übernehmen. Wem das als eine gewagte Aussage erscheint, sollte dringend weiterlesen, damit er nicht eines Tages überrascht wird.

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von „Energieeffizienz“ ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein „Gutmensch“ in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen „VW-Käfer“ auf den Motor mit Katalysator, vom „hohen Schornstein“ auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.

Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an „Strahlengefahr“ denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der „Atomstromverbraucher“ wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.

Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. „Red book“, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

  • Wieviel Kernkraftwerke sind in Betrieb,
  • welche Reaktortypen werden eingesetzt,
  • welche Anreicherungsverfahren zu welchen Betriebskosten und
  • wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im „Red book“ geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?

Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über U235 einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel. pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen U235 und U238 wird die Konzentration von U235 im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von U235erhöht hat, hat er sich natürlich im „Abfallstrom“ entsprechend verringert. Das „tails assay“, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% U235.. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).

Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine „Wiederanreicherung“ könnte man fast 500.000 to „Natururan“ erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% U235 etwa 420.000 to künstlich hergestelltes „Natururan“ und einen neuen „Abfallstrom“ von 1.080.000 to tails assay mit 0,14% U235.. Man sieht also, der Begriff „Abfall“ ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement „abgebrannt“ ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.

Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen „Endlager“ (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium „erbrütet“. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das „abgebrannte Uran“ immer noch einen etwas höheren Gehalt (rund 0,9%) an U235.als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.

Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.

Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat „Atommüll“ – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig „weniger gefährlich“ zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von über 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.

Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael. aus (siehe oben), die ein Leichtwasserreaktor „statistisch“ verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, „Schnelle Brüter“ etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.

Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die „besseren Modelle“ auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.

Netzentwicklungsplan 2015

– die Vollendung der Planwirtschaft?

Die Übertragungsnetzbetreiber haben den Szenariorahmen 2014 als Grundlage für die Netzentwicklungspläne 2015 veröffentlicht. Alle sind zur Diskussion aufgerufen. Nicht ganz unwichtig, da dieser Plan zur ersten Überarbeitung des Bundesbedarfsplans durch den Bundesgesetzgeber führt.

Wie es sich für eine anständige Planwirtschaft gehört, muß der Deutsche Bundestag alle drei Jahre einen neuen „Bundesbedarfsplan“ verabschieden. Wesentlicher Teil des Bundesbedarfsplans ist eine Liste künftiger Höchstspannungsleitungen. Wer es noch nicht ganz verstanden hat: Es gehört zur ehrenvollen Aufgabe unserer Bundestagsabgeordneten zu entscheiden, wo, welche Höchstspannungsleitung gebaut wird. Da natürlich keiner unserer Abgeordneten so richtig sattelfest in Elektrotechnik sein dürfte, läßt man sich diesen Plan über die Bundesnetzagentur vorlegen. Man braucht dann nur noch mit ja oder nein abstimmen und dafür ist bekanntermaßen keinerlei (Fach)wissen nötig. Nun gibt es aber ein gewisses Restrisiko, in der Form des nächsten Wahltermins. Deshalb bezahlt man eine ganze Scharr von Hofnarren, auf die man gegebenenfalls alles abschieben kann. Die wollen aber natürlich auch nicht ganz allein im Regen stehen und lassen sich deshalb Vorgaben von den Politikern machen. Damit hat man den perfekten Regelkreis der organisierten Verantwortungslosigkeit erschaffen.

Fragt doch mal die Maus!

Nachts ist es dunkel. In Deutschland ist es besonders im Winter ganz schön lange dunkel. Es weht auch oft gar kein Wind – dummerweise gerade auch im Winter, wenn es kalt und dunkel ist. Das hat man immer und immer wieder, so gemessen! Die Natur ist einfach gemein, die will einfach nicht auf die guten Onkel und Tanten mit grüner Gesinnung hören. Weil die Natur nun so ist, wie sie ist, braucht man zu 100 % eine Absicherung durch konventionelle Kraftwerke. Speicher, die den Stromverbrauch von Deutschland für mehrerer Tage speichern könnten, gibt es nicht. Wird es auch wahrscheinlich nie geben. Ganz zu schweigen, von den Kosten und der Umweltbelastung.

Nicht weniger schlimm, ist es aber, wenn der Wind mal kräftig weht und die Sonne scheint. Dann wird plötzlich viel mehr Strom produziert, als wir überhaupt in Deutschland verbrauchen können. Dann müssen wir jedes mal unseren Nachbarn richtig Geld bezahlen, damit sie für uns den Stromabfall entsorgen. Und genau dafür, brauchen wir die vielen neuen Stromleitungen, die so schön in unsere Landschaft passen. Ist doch super, oder? Bezahlen dürfen wir auch gleich doppelt, nicht nur für die vielen Stromleitungen, sondern auch für Produktionskosten an die Windmüller und die schlauen Sonnenmännchen. Unser zuständiger Minister, der „Sigi Pop“ sagt zwar, daß uns unsere Nachbarn für bekloppt halten, aber das kann uns doch egal sein, da stehen wir einfach drüber. So, liebe Abgeordneten, eigentlich wisst ihr jetzt alles, was ihr für die Abstimmung braucht. Seit mal ehrlich, wenn euch das mit dem Euro auch mal einer so einfach erklärt hätte….

Das Verfahren

Die Politik macht eine Vorgabe wieviel elektrische Energie in der Zukunft erzeugt werden soll. Dafür ermitteln die Übertragungsnetzbetreiber ein Leitungssystem, welches diese Vorgabe erfüllen könnte. Abschließend verabschiedet der Bundestag ein Gesetz, in dem diese Höchstspannungsleitungen festgeschrieben werden.

Eigentlich sollte der Unterschied zwischen einer rechnerischen und einer realen Größe jedem Politiker geläufig sein. Addiert man beispielsweise alle Einkommen und teilt diese Summe durch die Anzahl der Einwohner, erhält man den Mittelwert des Pro-Kopf-Einkommens. Das sagt aber nichts darüber aus, wieviel Kleinrentner und Millionäre es gibt! Gibt man nun den prozentualen Anteil an „Erneuerbaren“ vor (konkret 40 bis 45% in 10 und 55 bis 60% in 20 Jahren), ergibt das noch lange keine Einsparung an fossilen Energien. Am anschaulichsten läßt sich dies am Beispiel der Sonnenkollektoren erklären: Nachts ist es dunkel. Will man nun einen bestimmten Anteil des verbrauchten Stroms durch Sonnenenergie gewinnen, müßte man diesen Anteil notgedrungen ausschließlich am Tage produzieren. Rechnerisch erscheint das – zumindest in Grenzen – möglich, real ist es jedoch ohne Speicher physikalisch unmöglich. Wenn man keine Speicher hat, muß man die volle Leistung durch konventionelle Kraftwerke bereit halten. In der Realität ist die Sache aber noch ungünstiger. Der Wind weht relativ selten bzw. überwiegend schwach und die Sonne scheint noch weitaus seltener mit der Leistung auf dem Typenschild. Jedenfalls kann nicht einmal der Mix aus „Erneuerbaren“ mit einer Energieeffizienz von 40 % aufwarten. Die Physik und die Meßwerte (z. B. Energiestatistik von Deutschland) sprechen eine eindeutige Sprache. Warum soll aber diese einfache Erkenntnis eine solche Tragweite haben?

In einem Stromnetz muß zu jedem Zeitpunkt ein Gleichgewicht zwischen erzeugter und verbrauchter Leistung bestehen. Die absolute Obergrenze die man theoretisch einspeisen könnte, ist also die momentan verbrauchte Leistung. Technisch, ist die mögliche Leistung noch wesentlich geringer. Es gibt nur zwei Möglichkeiten mit diesem Problem umzugehen: Entweder man regelt die „Erneuerbaren“ ab, was ihre ohnehin schon geringe Energieeffizienz weiter verschlechtern würde und ihre Kosten in schwindelerregende Höhen treiben würde oder man vergrößert das Netz. Um es noch einmal mit anderen Worten ganz deutlich zu sagen: Der einzige Grund für den geplanten Netzausbau ist, den Abfallstrom aus den Regionen mit Überproduktion abzutransportieren. Nur diesem einzigen Zweck dient der ganze Zirkus. Würde man zu dem alten Grundsatz zurückkehren, Strom dort zu produzieren, wo man ihn auch braucht, würde man auch keine zusätzlichen Höchstspannungstrassen brauchen.

Dem ganzen Ansatz, das Problem von nicht benötigter Leistung durch einen Netzausbau lösen zu wollen, ist ohnehin nur eine kurze Lebensdauer vergönnt. Er wird genau so lange funktionieren, wie unsere Nachbarländer gewillt sind, unseren Stromabfall aufzunehmen. Ein guter Indikator sind die zu entrichtenden Entsorgungsgebühren – auch negative Börsenpreise genannt. Spätestens, wenn die Entsorgungsgebühren höher als die Vergütung (Einspeisevorrang) für die Windmüller und Sonnenmännchen sind, wird man deren Anlagen abregeln. Bin gespannt, wann die ersten (staatlich geförderten) Verschrottungsprämien für Windräder und Sonnenkollektoren eingeführt werden. Mit an Sicherheit grenzender Wahrscheinlichkeit lange bevor ein Anteil von 50% (produzierte Energie, also MWh und nicht nur installierte Leistung MW) Wind und Sonne an der Stromerzeugung erreicht ist.

Die Standortfrage

Einfach eine Stromleitung irgendwo hin zu bauen, nützt auch nichts. Es sollte schon ein Kraftwerk in der Nähe sein. Damit ergeben sich zwei Probleme, die sich auch noch gegenseitig beeinflussen. Einerseits muß man Voraussagen, wo, welche konventionellen Kraftwerke stehen und andererseits wo die „Erneuerbaren“ gebaut werden. Wenn sich die Standorte nicht decken – was wahrscheinlich ist – braucht man auch noch doppelte Leitungen. Außerdem sind die Leitungen für die „Erneuerbaren“ sehr viel kostspieliger, weil sie wegen deren geringen Effizienz ebenfalls nur schlecht ausgelastet sein können.

Konventionelle Kraftwerke

Es ist politisch gefordert, konventionelle Kraftwerke abzuschalten. Außerdem gibt es auch noch unterschiedlich „politisch korrekte Kraftwerke“: Kernkraft, Braunkohle, Steinkohle Erdgas usw.

Inzwischen hat es sich rum gesprochen, daß auch ein Kraftwerk mindestens seine Kosten (Kapital, Brennstoff etc.) einnehmen können muß (Strompreise). Spätestens, wenn die Brennstoffkosten die Stromvergütung übersteigt, ist es an der Zeit, das Kraftwerk abzuschalten. Leider, richten sich gerade die Brennstoffpreise nicht nach den Idealen der Politiker. Auch die planwirtschaftlichen Ideen einer „Brennstabsteuer“ und einer „CO2.-Abgabe“ waren bisher nicht besonders hilfreich.

Wie lösen nun unsere „Szenario-Bastler“ das Problem? Jedes Kraftwerk bekommt eine Lebensdauer zugewiesen. Modelltechnisch eine elegante Lösung. Nur bitte, was soll die Lebensdauer eines Kraftwerks sein? Die technische Lebensdauer eines Kraftwerks ist theoretisch unendlich, da man immer wieder reparieren und modernisieren kann. Es gibt nur eine wirtschaftliche Lebensdauer, die freilich viel schwerer zu definieren ist. In ihr schlummert jede Menge politischer Willkür! In des Wortes Bedeutung, kann jede Flutwelle im fernen Asien das politisch erzwungene aus bedeuten. Die „klimafreundlichen“ und „flexiblen“ Gaskraftwerke können in den wirtschaftlichen Ruin getrieben werden, wenn ein Diktator in Moskau mit dem falschen Bein aufsteht. Ausgerechnet Braunkohle und Kernenergie haben den geringsten Brennstoffpreis und bieten die höchste Versorgungssicherheit – oder ist genau das der Grund, warum sie so bekämpft werden?

Also, liebe Politiker, sagt ihr uns Ingenieuren mal, welche Kraftwerke ihr haben wollt. Wir sagen euch dann, was ihr dafür für Mittel in eurem Haushalt bereitstellen müsst. Ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger sein. Eine Regierung, die sich anmaßt über Stromleitungen zu entscheiden, wird doch wohl auch noch sagen können, welche Kraftwerke wohin sollen. Das ging doch in der DDR auch ganz gut und 40 Jahre muß doch keiner von euch mehr im Amt bleiben. Wir bringen auch an jedem Kraftwerk eine Bronzetafel mit euren Namen an.

Die Rolle der Energiekombinate

Aber unsere Energiekombinate sind keinen Deut besser. Anstatt der Öffentlichkeit mal klaren Wein einzuschenken, hängen sie an den Lippen irgendwelcher Politiker und verzapfen lieber dämliche Werbekampagnen. Mit Unternehmertum hat das schon lange nichts mehr zu tun. Vielleicht ist aber auch das bewusstes handeln, um ein Gesellschaftssystem zu diskreditieren und letztendlich zu zerstören. Mein Mitleid für Massenentlassungen und sinkende Dividenden hält sich jedenfalls immer mehr in Grenzen.

Wer das für übertrieben hält, soll mir mal erklären, warum man in der Netzstudie von einem Abnehmen der Kraftwerkskapazität und dem zukünftigen Strombezug aus dem Ausland ausgeht.

Die Rolle Europas

Das wäre nach meinem Verständnis von Demokratie, eine Debatte die ins Parlament gehört: Wollen wir in Deutschland noch elektrische Energie selbstbestimmt produzieren oder zukünftig nur noch abhängig aus dem Ausland beziehen? Bundespolitiker, die ernsthaft über den Verlauf von Stromleitungen abstimmen wollen, sollten vielleicht besser mal über ihr Selbstverständnis als Bundestagsabgeordnete nachdenken. Im Szenario wird ein zunehmender Stromhandel als gewünscht vorausgesetzt. Angeblich hat der nur Vorteile. Was soll ein „europäischer Stromhandel“ eigentlich sein? Selbstverständlich liegen die Verbrauchsschwerpunkte von Antwerpen und Rotterdam nahe am rheinischen Braunkohlerevier und die tschechischen Kernkraftwerke fast in Sichtweite von Bayern. Aber wollen wir wirklich polnischen Kohlenstrom nach Spanien transportieren und griechischen Sonnenstrom nach Dänemark? Wie soll man die putzigen Diagramme über „Simulationen“ von ganz Europa interpretieren? „Referenzzeitpunkt Januar 19.00“: Um 19.00 Uhr (wahrer) Ortszeit ist es in ganz Europa schon ganz schön dunkel im Januar! Gerade im Januar gibt es ausgeprägte Hochdruckwetterlagen, die zur Flaute in ganz Zentraleuropa führen. Müssen dann beispielsweise die französischen Kernkraftwerke Deutschland versorgen oder dürfen sie ihre eigene Bevölkerung bevorzugen? Wäre es nicht fair, wenn die Franzosen als Ausgleich für die „Strahlenbelastung“ weiter arbeiten dürften und abends eine warme Wohnung vorfänden? Die Deutschen könnten sich ja zum warm tanzen um ihre Windmühlen versammeln.

Wer selbst nichts produziert, hat auch nur noch geringen Einfluß auf die Produktionsweise. Wer keine „Chlorhühnchen“ will, muß halt selber Hühner nach seinen Vorstellungen produzieren, sonst muß gegessen werden, was auf den Tisch kommt – oder man verzichtet gleich ganz aufs Essen.

Prognosen des Stromverbrauches

Prognosen sind Vorhersagen, bei denen man Nachfrage und Angebot vorhersagen muß, die sich aber auch noch gegenseitig beeinflussen. Das macht das Funktionieren einer jeden Planwirtschaft prinzipiell unmöglich. Das Szenario macht es sich nun besonders einfach, indem es die Nachfrage in den nächsten zwanzig Jahren als wesentlich konstant annimmt (mit 600 TWh Jahresenergieverbrauch bei 86 GW Spitzenlast). Man geht lediglich von den politischen Vorgaben der jährlichen Ausbauraten an „Erneuerbaren“ aus. Schon der konventionelle Kraftwerkspark soll sich daraus ergeben, wird angenommen.

Das Angebot in Form von Strompreis und Verfügbarkeit bestimmt aber schon mittelfristig ganz entscheidend die Nachfrage: Je mehr die Strompreise steigen, je mehr Betriebe werden in Deutschland keine Ersatz- und Neuinvestitionen mehr tätigen. Der Stromverbrauch der Industrie wird im Rhythmus der Betriebsschließungen sinken. Aber auch die Sektoren Handel und Handwerk sind betroffen. Zwar ist der Verbrauch der Privathaushalte sehr unelastisch – da hilft auch kein Glühbirnenverbot, keine Zwangsabschaltung von Kaffeemaschinen und keine Staubsaugerattrappen – aber der geringer werdende Konsum wirkt indirekt: Den Euro für die Stromrechnung kann man nicht noch einmal zum Becker tragen, der selbst seine Preise ständig wegen der steigenden Energiekosten erhöhen muß. Konsequenz: Man kauft halt weniger Kuchen. Öko-Sozialismus ist eine Abwärtsspirale, die im Moment noch langsam zunimmt, aber immer enger wird.

Fazit

Dieses Verfahren ist eine einzige Farce. Wenn Politiker über Stromleitungen entscheiden wollen, soll man ihnen eine Karte und ein paar Filzstifte geben. Jeder Abgeordnete kann dann „seine Lieblingsleitung“ einzeichnen. Er muß dann allerdings auch die alleinige Verantwortung dafür übernehmen. Einfach populistisch eine – zudem auch noch völlig unrealistische – Bandbreite vorgeben (40 bis 45% Anteil in zehn Jahren), geht nicht. So einfach, kann man sich nicht aus der Verantwortung für die wirtschaftliche Entwicklung einer ganzen Nation stehlen. Die Kritik trifft aber nicht nur die Politiker allein. Die Übertragungsnetzbetreiber und Energieversorger müssen endlich ihre Verantwortung als Unternehmer übernehmen. Immer nur aus Bequemlichkeit an den Lippen der Politiker kleben und möglichst in vorauseilendem Gehorsam jeden Wunsch erfüllen, ist auf Dauer tödlich. Am Ende ist das Kapital der Aktionäre verbrannt und die Arbeitsplätze der Arbeitnehmer vernichtet. Vielleicht ist aber gerade das, der Zweck der „Energiewende“.

Energie als Druckmittel

In den letzten Tagen spitzt sich in den Medien immer mehr die Diskussion um ein „Wirtschaftsembargo“ gegen Russland zu. Neben der grundsätzlichen Frage zum Sinn von Wirtschaftsblockaden ist dabei der Zentrale Punkt die „Energieabhängigkeit“. Es lohnt sich daher, sich etwas näher mit dieser Frage zu beschäftigen. Mag es für manchen nützlich sein, um die wahrscheinlichen Maßnahmen und deren Konsequenzen besser abschätzen zu können.

Energie als Handelsware

Prinzipiell sind alle Energieträger ganz normale Handelsgüter. Sie liegen in unterschiedlichen Formen vor: Als Rohstoffe (Erdöl, Kohle, Uran usw.), als Halbfertigprodukte (Diesel, Benzin, „Erdgas“ etc.) und als spezielle Endprodukte (Wechselstrom 50 Hz, Super Benzin, usw.). Analog z. B. zu Kupferbarren, Kupferdraht und einer Spule. Die simple Tatsache, daß Energieträger nicht gleich Energieträger ist, ist bereits eine sehr wichtige Erkenntnis. Je spezieller der Stoff ist, je schwieriger ist er zu ersetzen und je enger werden die möglichen Bezugsquellen. Ein Motor, der für Dieselkraftstoff gebaut ist, braucht auch Dieselkraftstoff. Selbst wenn Benzin im Überfluß vorhanden ist, nützt dies dem Betreiber gar nichts. Anders sieht es z. B. in der Elektrizitätswirtschaft aus. Besitzt man – wie in Deutschland – noch einen Kraftwerkspark aus Steinkohle-, Braunkohle- Gas- und Kernkraftwerken etc., sieht die Lage völlig anders aus. Selbst wenn ein Brennstoff nahezu vollständig ausfällt, muß dies noch lange nicht zu Einschränkung führen. Geht man noch eine Ebene höher, ergibt sich noch mehr Flexibilität. Verringert sich z. B. das Angebot an Erdgas, kann man bewußt den Verbrauch in Kraftwerken einstellen um genug Heizgas zur Verfügung zu haben. Ein ganz normaler Vorgang, wie er jeden Winter üblich ist. Es gibt sogar Kraftwerke, die für mehrere Brennstoffe geeignet sind. Da der Anteil vom Erdgas am Primärenergieverbrauch in Deutschland nur rund 21 % beträgt und allein der Lagervorrat etwa 1/6 des Jahresverbrauches beträgt, braucht keine Panik vor einem „Erdgasboykott“ zu bestehen. Da Russland ohnehin nur etwa ⅓ des Verbrauches liefert, könnten sie gern ihre Lieferungen vollständig einstellen. Deswegen würde hier keine Wohnung kalt bleiben oder eine Fabrik stillstehen. Selbst die Auswirkungen auf die Erdgaspreise dürften gering bleiben, weil viele Verbraucher (vor allem Kraftwerke) auf andere Energieträger ausweichen könnten bzw. andere Lieferanten gern die russischen Marktanteile übernehmen würden.

Der Faktor Zeit

Die Frage, ob man einen Energieträger durch einen anderen ersetzen kann, ist nicht so entscheidend, wie die Zeitdauer die hierfür erforderlich ist. Wobei die Zeitdauer weniger technisch bedingt, als eine Frage der Kosten ist. Besonders unflexibel sind Gaspipelines. Bis man neue Leitungen verlegt hat oder einen angeschlossenen Verbraucher umgestellt hat, können Jahre vergehen. Geht man auf die volkswirtschaftliche Ebene, wird man eher in Jahrzehnten denken müssen. Ein Beispiel hierfür, ist der massive Ausbau der Kernkraftwerke als Ersatz für Ölkraftwerke infolge der sog. Ölkriesen (1973 und 1976).

Für kurzfristige Versorgungslücken ist die Lagerung von Brennstoff ein probates Mittel. Auch hier ist Erdgas die technisch schwierigste und damit kostspieligste Lösung. Brennstäbe für Kernkraftwerke nehmen nur wenig Platz ein und ein Kernkraftwerk läuft ohnehin viele Monate, bis eine Nachladung nötig wird. Steinkohle hat auch eine recht hohe Energiedichte und ist relativ einfach zu lagern. Es war nicht zufällig im alten West-Berlin der Brennstoff der Wahl zur Absicherung gegen „Berlin-Blockaden“.

Ein weiterer wichtiger Aspekt sind Transportwege und Transportmittel. Öltanker und Massengutfrachter kann man noch auf hoher See umleiten. Bei der heute weltweiten Verteilung von Öl und Kohle ist der Lieferboykott eines Landes oder einer Gruppe von Ländern (OPEC) ein völlig stumpfes Schwert. Im Gegenteil, man weitet diesen Zustand auch immer weiter auf Erdgas aus. Überall auf der Welt entstehen Anlagen zur Verflüssigung und Rückvergasung von Erdgas. Der neuste Trend dabei ist, solche Anlagen komplett auf Spezialschiffen zu installieren, die gegebenenfalls auch noch flexibel verlagert werden können. Nicht zuletzt Russland, hat diesen Trend schon vor der aktuellen Krise durch seine Preispolitik und seine Lieferunterbrechungen an die Ukraine enorm beschleunigt. Nur Deutschland hat konsequent auf Pipelines nach Russland gesetzt. All unsere Nachbarn haben bereits Flüssiggasterminals in Betrieb oder im Bau. Es geht halt nichts über wahre Männerfreundschaften, nicht wahr, Gerhard und Vladimir?

Der Faktor Geographie

Energieträger sind – mit Ausnahme von Uran und Thorium – Massengüter. Transportmittel der Wahl, ist deshalb das Schiff. Pipelinenetze lohnen sich wegen der enormen Kapitalkosten nur in Verbrauchsschwerpunkten oder bei sehr großen Feldern. Zumindest übergangsweise, dient auch die Eisenbahn als Transportmittel. Rußland ist zur Zeit (noch) der größte Ölproduzent vor den USA und Saudi Arabien. Anders als diese beiden, verfügt es aber über keine bedeutenden Häfen. Die längste Zeit des Jahres liegen seine Küsten und Flüsse unter einem Eispanzer. Für Rußland sind seine Pipelines in den Westen lebenswichtige Adern. Selbst mit seinem Eisenbahnnetz (Breitspur) hat es sich bewußt vom Rest der Welt abgegrenzt. Verglichen z. B. mit dem Iran, eine fatale Situation bei einem Abnahmeboykott.

Der Faktor Wirtschaft

Russland ist kein Industrieland, sondern spielt eher in der Liga von Nigeria, Venezuela etc. Geschätzt zwischen 70 bis 90 % aller Staatseinnahmen stammen aus dem Export von Öl und Gas. Es gibt praktisch keine russischen Produkte, die auf dem Weltmarkt verkäuflich sind. Die Situation ist noch desolater, als in der ehemaligen „DDR“. Die konnte wenigstens einen Teil ihrer Erzeugnisse über Dumpingpreise auf dem Weltmarkt verschleudern um an Devisen zu gelangen. Selbst der einstige Exportschlager Waffen, ist wegen seiner erwiesenen schlechten Qualität, immer unverkäuflicher. Klassische Importeure sind entweder bereits untergegangen (Irak, Lybien, etc.) oder wenden sich mit grausen ab (Indien, Vietnam usw.).

Rußland hat seine „fetten Jahre“ vergeudet. Während im kommunistischen Bruderland China eine Auto-, Computer- und Mobilfunkfabrik nach der nächsten gebaut wurde, hat man sich in der „Putinkratie“ lieber Fußballvereine im Ausland gekauft. Die Angst vor und die Verachtung für das eigene Volk, scheint unvergleichlich höher. Selbst in den Staaten der Arabischen Halbinsel hat man schon vor Jahrzehnten realisiert, daß die Öleinnahmen mal nicht mehr so sprudeln werden und man deshalb einen Sprung in die industriealisierte Welt schaffen muß. Gerade, wenn man die dort – praktisch in wenigen Jahrzehnten aus dem Wüstensand heraus – geschaffene Infrastruktur und Industrie betrachtet, kann man die ganze Erbärmlichkeit der russischen Oberschicht ermessen.

Was dies für die internationalen Energiemärkte bedeuten könnte

Die Selbstisolation durch militärische Bedrohung der Nachbarn, erinnert an das Verhalten von Potentaten in Entwicklungsländern kurz vor deren Untergang. Wenn Putin nicht einlenkt, wird man ihn stoppen müssen. Er täuscht sich gewaltig, wenn er glaubt, er könne Teile Europas in den gleichen Abgrund, wie Syrien stürzen. Gerade sein Syrienabenteuer wird ihm in der nächsten Zeit auf die Füße fallen. Er hat sich bei allen Staaten – die zufällig zu den größten Gas- und Ölproduzenten zählen – äußerst unbeliebt gemacht. Für die dürfte es alles andere als ein Zufall sein, daß gerade die muslimischen Tataren auf der Krim am meisten unter seiner „Ukrainepolitik“ leiden. Es könnte sein, daß dies der berühmte Tropfen ist, der das Fass zum überlaufen bringt. Zumindest in Saudi Arabien ist die Erinnerung an die „brüderliche Waffenhilfe der Sowjets“ in Afghanistan und Putins Vorgehen in Tschetschenien noch sehr lebendig.

Wenn Putin nicht einlenkt, wird man ihn wirtschaftlich unter Druck setzen (müssen). Das kann sehr schnell und sehr schmerzhaft geschehen, ohne daß man überhaupt wirtschaftliche Sanktionen beschließen muß. Man muß nur die russischen Preise für Energieträger unterbieten. Jeder Kontrakt, der Rußland vollkommen verloren geht, reißt ein tiefes Loch, jeder gesenkte Preis, ein etwas kleineres Loch, in die Kassen des Kreml. Jeder Verfall des Rubel verteuert darüber hinaus die lebenswichtigen Importe. Ein faktisches Entwicklungsland wie Rußland, hat dem nichts entgegen zu setzen. Eigentlich sollte gerade Rußland aus dem Kollaps des Sowjetreichs seine Lehren gezogen haben: Als es glaubte, die Welt mit Waffengewalt beherrschen zu können (Einmarsch in das sozialistische Bruderland Afghanistan) nahm Ronald Reagen die Herausforderung an und erschuf den „Krieg der Sterne“. Putin mag als guter Schachspieler gelten, aber die USA sind immer noch die Nation der Poker-Spieler. Putin wird noch lernen müssen, wenn man kein gutes Blatt in den Händen hält und nichts in der Tasche hat, sollte man besser nicht, die wirklich großen Jungs reizen.

Kohle

Die russische Kohleindustrie ist durch und durch marode. Das gilt auch und gerade für das Revier im Osten der Ukraine. Die Produktionskosten sind teilweise so hoch, daß jetzt schon mit Verlusten produziert wird. Demgegenüber hat allein die USA schier unerschöpfliche Kohlenmengen verfügbar. Dies betrifft sogar die Transport- und Hafenkapazitäten. Es ist ein leichtes, den Vertrieb zu intensivieren und sich um jeden russischen Kunden zu bemühen. Man muß nur jeweils etwas unter den russischen Preisen anbieten. Dies wird nicht einmal an den Weltmärkten zu Verwerfungen führen. Der Exportanteil Russlands ist einfach zu gering. Für Russland andererseits, ist jede nicht verkaufte Schiffsladung ein Problem.

Öl

Russland, USA und Saudi Arabien sind die drei größten Ölförderländer. Die USA werden in den nächsten Jahren zur absoluten Nummer eins aufsteigen. Schon jetzt liegen die Preise in den USA (WTI) rund zehn Dollar unter den Preisen in Europa (Brent). Es schwelt schon lange ein Konflikt um die Aufhebung des Exportverbotes. Ein denkbarer Kompromiß, wäre eine Aufhebung für „befreundete Nationen“ in Europa. Geschieht das, rächt sich die Vernachlässigung der russischen Transportkapazitäten. Die USA können zusammen mit Saudi Arabien die Ölpreise in den klassischen Abnehmerländern Russlands in beliebige Tiefen treiben. Dies gilt vor allem für die hochwertigen Rohöl-Qualitäten. Zusätzlich noch ein bischen Konjunkturabschwächung in China und der russische Staatshaushalt gerät aus den Fugen.

Erdgas

Russland besitzt nach wie vor die größten konventionellen Erdgasreserven. Danach folgen Qatar und Iran. Alle drei sind tief im Syrienkonflikt verstrickt. Alle drei aus dem gleichen Grund, wenn auch auf verschiedenen Seiten. Syrien ist das potentielle Transitland für Erdgas aus dem Golf-Gebiet. Rußland schürt mit allen Mitteln den Krieg, um einen geplanten Ausbau des Pipelinenetzes aus Süd-Irak zu verhindern. Ist das Gas erstmal im Irak angekommen, ist der Anschluß an die südeuropäischen Netze nicht mehr weit. Qatar kann die gemeinsamen Gasfelder mit Iran weiterhin günstig ausbeuten, solange dem Iran mangels Transportkapazität der Absatzmarkt fehlt. Iran verfügt genauso wenig wie Russland über die Technologie für eine LNG-Kette. Iran bekommt keine Unterstützung solange es an einer Atombombe bastelt. Russland kann sich (noch) mit Importen der Anlagentechnik aus dem Westen im bescheidenen Maße behelfen.

Allein in den USA befinden sich zwanzig Anlagen zur Verflüssigung und anschließendem Export in der Genehmigung. Der Weltmarkt für Erdgas wird sich in den nächsten Jahren völlig verändern. Deutliches Zeichen sind die Verwerfungen in den Preisen. In Europa sind die Preise derzeit etwa doppelt so hoch, wie in den USA. In Asien sogar drei bis vier mal so hoch. Hauptursache in Asien sind die enormen Importe durch Japan als Ersatz für die abgeschalteten Kernkraftwerke. Sobald Japan wieder seine Kernkraftwerke in Betrieb nimmt – was technisch innerhalb weniger Wochen möglich wäre – werden die Erdgaspreise in Asien mangels Nachfrage deutlich sinken. Es bietet sich dann an, diese Ströme nach Europa umzuleiten. Ausgerechnet die Golfstaaten verfügen über die größten Verflüssigungsanlagen und Transportflotten. Ganz schlecht für Putin, wenn er weiterhin den Krieg in Syrien schüren will und die muslimischen Krim-Tataren erneut vertreiben will. Putin wird sich mit den Gaspreisen zufrieden geben müssen, die ihm die USA und die arabische Welt zugestehen werden. Ein Ausweichen auf andere Kunden ist praktisch nicht möglich. Pipelines lassen sich im Gegensatz zu Tankerflotten zwar abschalten, nicht aber umleiten.

Fazit

Energie ist immer auch Politik. Eine Tatsache, die nach den Erfahrungen der 1970er Jahre mit den sog. „Ölkrisen“ gern wieder verdrängt wurde. In den vergangenen Jahrzehnten gehörte es für jeden Linken (Schröder, Fischer etc.) zu den festen Glaubensgrundsätzen, daß die USA nur „Kriege wegen Öl“ führen. Stets von Schule bis Medien in diesem Glauben geschult, hat man in Deutschland einfach nicht wahrnehmen wollen, welche Veränderungen (gerade) durch Präsident Bush in den USA stattgefunden haben. In einer gigantischen Kraftanstrengung wurde das gesamte Öl- und Gasgeschäft praktisch neu erfunden.

Heute, gilt mehr denn je, der „Fluch der Rohstoffe“. Länder, die über billige Energievorkommen verfügen, aber nicht verstehen, etwas vernünftiges mit den daraus resultierenden Devisenströmen an zu fangen, drohen durch zu viel Geld weiter zu verarmen. Nigeria, Venezuela und Russland sind hierfür typische Beispiele.

Länder, die durchaus energieautark sein könnten (Deutschland z. B. gehört zu den zehn Ländern mit den größten Kohlevorkommen weltweit), können es sich erlauben, „hochwertige Waren“ gegen „billigere Energie“ (volkswirtschaftlich) gewinnbringend zu tauschen. Man – meint zumindest – sogar auf neuere Fördermethoden verzichten zu können (sog. Fracking-Verbot in Deutschland und Frankreich).

Stellvertretend für die Energieversorgung (im Sinne von Energiepolitik) des 21. Jahrhunderts ist die Kernenergie: Der Brennstoff Uran ist überall, preiswert und in beliebigen Mengen erhältlich. Er ist einfach zu lagern. Kernkraftwerke können über Jahre mit einer Brennstoffladung betrieben werden. Die „Kunst“ besteht in der Beherrschung der Technik. Die Ersatzteile, das Fachpersonal und der allgemeine industrielle Hintergrund bestimmen die Versorgungssicherheit. Insofern dürfte sich Rußland durch seine Abenteuer in der Ukraine auch aus diesem Geschäftsbereich selbst herauskatapultiert haben.

Wende der „Energiewende“?

Die „Energiewende“ scheint unwiederbringlich ihren Zenit überschritten zu haben. Um so hektischer und peinlicher werden die Rettungsvorschläge. Immer heftiger wird der „Ausstieg aus dem Ausstieg“ dementiert.

Der dreidimensionale Schraubstock der Strompreise

Langsam dämmert es immer mehr Menschen in Deutschland, daß sie durch die ständig steigenden Strompreise mehrfach ausgequetscht werden:

  1. Jedes mal, wenn die Stromrechnung wieder etwas höher ausgefallen ist, geht ein Stück vom Kuchen des eigenen Einkommens verloren. Den Euro, den man an seinen Energieversorger bezahlt hat, kann man nicht noch einmal ausgeben. Nicht für Urlaub usw. – nein, auch nicht für die Anschaffung eines neuen Kühlschrankes mit Energie-Spar-Aufkleber! Mag das Stück vom Kuchen manchem auch klein erscheinen, so ist das sehr relativ: Bei Rentnern, Studenten, Arbeitslosen etc., ist der Kuchen des Familieneinkommens meist recht klein. Strompreise sind sozialpolitisch die Brotpreise von heute! Last euch das gesagt sein, liebe Genossinnen und Genossen von der SPD!
  2. Jedes Unternehmen benötigt elektrische Energie! Die Ausgaben für „Strom“ sind genau so Kosten, wie Material und Löhne und müssen damit über die Preise an die Kunden weiter gegeben werden. Hier zahlen wir zum zweiten Mal! Selbst „ökologisch wertvolle Betriebe“ sind davon nicht ausgenommen: So macht allein die „EEG-Abgabe“ bei den Berliner Verkehrsbetrieben 20 Millionen Euro pro Jahr – Kosten oder Nicht-Kosten – aus. Wie war das doch noch mal, liebe Grün-Alternativen? Sollten wir nicht mehr mit der Bahn fahren? Wegen „Klima“ und so?
  3. Kosten sind Kosten. Steigen die Energiekosten, müssen andere Ausgaben gesenkt werden. Das werdet ihr spätestens bei den nächsten Tarifverhandlungen noch lernen, liebe Gewerkschaftsfunktionäre. Vielleicht auch nicht mehr, weil eure Betriebe bereits dicht gemacht haben. Die Goldader, die jedes Unternehmen angeblich im Keller hat, von der ihr nur ein größeres Stück abschlagen müsst, war nur ein Märchen. Sonst hättet ihr das ja auch schon längst gemacht, gelle?

Um es noch einmal klar und deutlich in einem Satz zu sagen: Steigende Energiepreise bedeuten höhere Ausgaben bei steigenden Preisen und sinkenden Einkommen. Wer das Gegenteil behauptet, lügt! Mögen die Lügen auch in noch so wohlklingende Worte verpackt sein.

Der klassische Verlauf

Es ist immer der gleiche Ablauf, wenn sich Politiker anmaßen, die Gesellschaft zu verändern. Egal, ob über „Bauherrenmodelle“, „Filmfonds“, „Abschreibungsmodelle für Containerschiffe“ oder eben das „EEG“. Am Anfang steht eine Vision von einem angeblichen Mangel. Flugs nimmt die Politik einen Haufen fremdes Geld – besser gesagt unser aller Geld – in die Hand und verteilt dieses um. Am unbeliebtesten ist dabei der Einsatz von Haushaltsmitteln – schließlich hat man ja noch eine Menge anderer toller Ideen. Früher waren sog. „Sonderabschreibungen“ ein probates Mittel die Gier zu befriedigen. Leider wurde von den Investoren meist übersehen, daß der Staat nur Steuern stundet, nicht aber verschenkt. Das ökosozialistische Ei des Kolumbus war die Schaffung eines Schattenhaushaltes in der Form des „EEG“ durch „Rot/Grün“. Allen Modellen gemeinsam, ist die Gier und Unwissenheit potentieller Investoren.

Aus letzterem Grund ist der zeitliche Ablauf immer gleich: Sobald das Gesetz verabschiedet ist, schlagen die Profis aus den Banken etc. zu. Sie machen tatsächlich Gewinne. Nach einer gewissen Zeit jedoch, sind die besten Grundstücke usw. vergeben. Gleichzeitig steigen durch die erhöhte Nachfrage die Preise der Hersteller. Jetzt schlägt die Stunde des (halbseidenen) Vertriebs. Profis, wie Banken, steigen aus und verscherbeln ihre Investitionen mit Gewinn an die Kleinanleger. Jetzt werden die Laien skalpiert. Selbst diese Phase geht bei Wind, Sonne und Bioenergie langsam zu Ende. Der letzte Akt beginnt.

Unternehmen, die sich die Sache in ihrer Gier bedenkenlos schön gerechnet haben, gehen Pleite. Die Investoren verlieren nicht nur ihr Geld, sondern leiten eine Abwärtsspirale ein: Ihre Objekte kommen nun auf den Markt und erzielen nur noch reale Preise, die meist deutlich unter den Herstellungskosten liegen. Die Verwerter stehen bereit. Wie schnell die Preise bei Zwangsversteigerungen purzeln, kennt man z. B. von den „Bauherrenmodellen“ nach der Wende. Dies betrifft aber nicht nur diese gescheiterten Investoren. Plötzlich machen neue Preise die Runde. Über Nacht ist kein Investor mehr bereit, die überhöhten Preise zu bezahlen. Es entsteht schlagartig ein enormer Kostendruck auf der Herstellerseite. Der größte Teil der Hersteller wird in den nächsten Jahren vom Markt verschwinden. Ganz so, wie die aufgeblähte Bauindustrie nach der Wende.

Interessant ist, wie die eigentlichen Täter, die Politiker reagieren. Sie schreien unverzüglich: Haltet den Dieb! Nicht etwa die „Energiewende“ ist schuld, sondern es müssen schärfere Kapitalmarktkontrollen zum Schutz der Anleger her. Man erblödet sich nicht, Jahrzehnte alte Finanzinstrumente (Genußscheine) in Verruf zu bringen. Ganz so, als würde sich ein Schnapsfabrikant hinstellen und die Flaschenhersteller dafür verantwortlich machen, daß sie an den bedauernswerten Alkoholikern schuld tragen.

Die Milderung des Anstiegs oder die Quadratur des Kreises

Eigentlich ist die Sache ganz einfach: Entweder man gibt die Menge elektrischer Energie zu einem bestimmten Zeitpunkt vor und kann sich dann die erforderliche Anzahl Apparaturen und die dafür notwendigen finanziellen Mittel ausrechnen oder man gibt den Zahlungsstrom vor und kann sich ausrechnen, wieviel Strom man dafür erhält. Beides gleichzeitig geht nicht, weil beides streng voneinander abhängt. Soll keiner nachher wieder sagen, man hätte ja nichts davon gewusst oder eigentlich wäre eine „Energiewende“ ja ne tolle Sache gewesen.

Der neuerdings propagierte sanfte Ausbau, hat allerdings seine Logik. Es ist die Logik des Machterhalts. Würde man eingestehen, daß die „Energiewende“ Unsinn ist, würde man die „systemrelevante“ Frage nach der Allwissenheit der Politik stellen. Wenn man einmal zugibt, daß der Kaiser nackend ist, ist die Nomenklatura am Ende. Deshalb muß weiter gelten: Die Partei hat immer recht. Jedenfalls so lange, bis die Mehrheit des Volkes nicht mehr bereit ist, dieses Spiel mit zu spielen. Dann ist wieder einmal „Wendezeit“.

Mancher Politiker bekommt langsam Ohrensausen. Wer noch einen Rest von „Kontakt zum Volk“ hat, merkt den wachsenden Zorn über steigende Strompreise. Wenn jetzt auch noch die Angst vor dem Verlust des Arbeitsplatzes hinzukommt, könnte die Sache eng werden.

Der Popanz von den bösen Kapitalisten, die ihren Anteil an der „Ökostromumlage“ nicht zahlen wollen, kann nur bei besonders einfältigen oder gläubigen Menschen verfangen. Menschen, die etwas aus der Geschichte gelernt haben, sehen die Gefahr der „Ulbrichtfalle“ aufziehen: Je mehr Unternehmen ihre Standorte ins Ausland verlagern, um so mehr lukrative Arbeitsplätze gehen verloren. Den Unternehmen werden wieder die Menschen in Richtung Freiheit und Wohlstand folgen. Wie soll der Ökosozialismus reagieren? Mauer und Schießbefehl im Internetzeitalter?

Wie panisch die Reaktion der Politiker wird, zeigt der Plan, auch auf die sog. Eigenstromerzeugung die „EEG-Umlage“ zu erheben. Bisher war doch die Kraft-Wärme-Kopplung ein Bestandteil der „Energiewende“. Unternehmen, die „energieeffizient“ waren, haben sich solche Anlagen gebaut. Oft genug, am Rande der Wirtschaftlichkeit. Jetzt sollen sie mit der „EEG-Umlage“ dafür bestraft werden. Natürlich mit einem etwas geringeren Satz. Hier wird wieder einmal unverhohlen gezeigt, daß es gar nicht um Umweltschutz geht, sondern nur darum, „die Belastbarkeit der Unternehmen zu testen“. Klassenkampf in Reinkultur. Die gleichen Funktionäre, die immer von dem notwendigen Investitionsschutz säuseln (wenn es um die Photovoltaik auf dem Dach der eigenen Klientel geht), gehen mit Eigentumsrechten bei Kraftwerken locker um – egal ob es sich um Kernkraftwerke oder fossile Anlagen handelt. Langsam, aber sicher, entwickelt sich Deutschland in der Eigentumsfrage immer mehr zur Bananenrepublik. Das Kapital ist aber bekanntermaßen scheu und ängstlich. Deshalb verfällt man immer mehr auf eine „Bürgerbeteiligung“. Zu was es führt, wenn sich Banken wegen des unvertretbar hohen Risikos zurückziehen (müssen), sieht man gerade am Fall Prokon.

Die Bedeutung von Leistung und Energie

Leistung (kW) ist leider nicht gleich Energie (kWh). Entscheidend bei der Berechnung der erzeugten Energie aus der Nennleistung einer Anlage (kW) ist die Zeitdauer (h), in der die Leistung des Typenschilds wirksam ist. In Deutschland beträgt diese Zeitspanne bei Photovoltaik deutlich unter 1000 Stunden pro Jahr und bei Windmühlen deutlich unter 3000 Stunden pro Jahr. Will man nun eine bestimmte Menge elektrischer Energie (z. B. 50 % oder gar 100 % des gesamten Stromverbrauches in einem bestimmten Jahr) erzeugen, muß man diesen Wert (kWh/a) durch die „Vollbenutzungsstunden“ (h/a) des entsprechenden Verfahrens teilen. Man erhält die Leistung (kW), die mindestens installiert werden muß. Da z. B. die Sonne nur recht selten scheint (nachts ist es dunkel, an vielen Tagen trübe) erhält man sehr große (rechnerische) Leistungen die installiert werden müssen. Dieser Zusammenhang ist trivial, aber ausschlaggebend für das zwingende Scheitern einer Energieversorgung ausschließlich durch „Erneuerbare Energien“. Die Sache hat nämlich zwei Harken:

  1. Wenn die Natur keine, dem momentanen Bedarf entsprechende Erzeugung (Nacht, Flaute etc.) zuläßt, muß die elektrische Leistung über konventionelle Kraftwerke bereitgestellt werden. Hierzu zählen auch alle großtechnischen Speichersysteme, da dort die Rückwandlung immer über konventionelle Verfahren führen muß (Wasserkraft, Turbinen etc.).
  2. Wenn der Wind mal richtig weht oder ein strahlend blauer Himmel vorhanden ist, ist die erzeugte Leistung sehr schnell und sehr oft größer als die gerade im Netz verbrauchte Leistung. Physikalisch gibt es nur drei Möglichkeiten, dem entgegen zu treten: Man schaltet (teilweise) Windmühlen oder Sonnenkollektoren ab, entsorgt den Überschuß in benachbarte Netze oder erhöht künstlich den Verbrauch (Speicher). Es lohnt sich, diese drei Möglichkeiten etwas näher zu hinterfragen.

Immer, wenn man gezwungen ist, Anlagen wegen Überproduktion abzuschalten, wird das für den Stromkunden sehr teuer. Die entsprechende Anlage produziert noch weniger Strom und muß diesen deshalb noch teurer verkaufen um ihre Investitions- und Betriebskosten abdecken zu können. Deshalb hat die Politik den Abnahmezwang eingeführt. Die Kosten werden bewußt auf die Verbraucher abgewälzt, um die Produzenten zu schonen. Man könnte auch sagen, weil sich die „Vollbenutzungsstunden“ (h/a) verringern, muß man zusätzliche „Schattenanlagen“ errichten, um die angestrebte Energieausbeute zu erreichen. Physikalisch betrachtet funktioniert das nicht einmal, da man zu jedem Zeitpunkt Produktion und Verbrauch im Gleichgewicht halten muß! Aus diesem Grund hat sich die Politik für den zweiten Weg entschieden. Wenn man etwas nicht gebrauchen kann, nennt man es Abfall. Um Abfall zu entsorgen, muß man immer eine Gebühr entrichten. Dies geschieht an der Strombörse: Die gewaltsame Abnahme geschieht über den Preis. Der Strompreis für den „Alternativstrom“ wird stets so niedrig angesetzt, daß er gerade noch einen Käufer findet. Ist die Energie für niemanden mehr etwas wert, muß die Entsorgung sogar bezahlt werden (negative Strompreise an der Börse). Ganz genau so, wie bei der Müllverbrennungsanlage, wo man für die Dienstleistung der Abfallbeseitigung auch eine Gebühr entrichten muß. Der dritte Weg ist uns dadurch bisher erspart geblieben: Man baut zusätzliche Stromverbraucher (z. B. zur Erzeugung von synthetischem Erdgas) und produziert damit sehr teuer ein Produkt, welches ohnehin im Überfluß vorhanden und billig zu kaufen ist. Jedenfalls erheblich billiger, als elektrische Energie! Dieses System verkauft man als „Speichertechnologie“, weil man anschließend dieses Erdgas wiederum unter erheblichen Verlusten in Gaskraftwerken verfeuert, die man dringend für die Zeiten der Flaute und Dunkelheit benötigt. Hat es je in der Menschheitsgeschichte eine einfältigere Idee gegeben? Wenn das jemanden an etwas erinnert; richtig, an die Fleischversorgung durch Kleintierhaltung mittels der Verfütterung von subventioniertem Brot im (realexistierenden) Sozialismus.

Wenn man etwas unter den Gestehungskosten verkauft, nennt man das gemeinhin Dumping. Genau das, geschieht täglich an der Strombörse. Es ist nur eine Frage der Zeit, wie lange sich das unsere europäischen Nachbarn noch gefallen lassen. Mit jeder Windmühle und jedem Sonnenkollektor, die zusätzlich in Betrieb gehen, wird dieses Dumping größer. Die Differenz zwischen Erzeugungskosten und erzielbarem Preis nennt man „EEG-Umlage“. Die ungekrönte Königin der Schlangenölverkäufer Frau Professor Claudia Kemfert sieht das natürlich ganz anders. In einem Interview vom 27.1.14 in der Zeitschrift Cicero antwortet sie auf die Frage nach einer Umstellung der Ökostrom-Umlage in ihrem Sinne:

„Die EEG-Umlage hat sich bewährt. Schon jetzt sinken die Erzeugungskosten für erneuerbare Energien. Trotzdem sollte man die Ausnahmen für energieintensive Industrien endlich auf ein vernünftiges Maß vermindern – allerdings nur für Unternehmen, die wirklich energieintensiv sind und im internationalen Wettbewerb stehen. Im Gegenzug sollte man die Umlage an Gegenmaßnahmen koppeln, wie die Verbesserung der Energieeffizienz. Außerdem muss der Börsenpreis stabilisiert werden: Würde nämlich der niedrigere Börsenpreis für die Erneuerbaren an die Verbraucher weitergegeben, könnte der Strompreis schon heute stabil bleiben, wenn nicht sogar sinken. Dazu könnte man überschüssige Stromkapazitäten aus dem Markt nehmen und den CO2-Preis deutlich erhöhen.“

Selten dürfte es einem Professor gelungen sein, soviel Unsinn in nur einem Absatz von sich zu geben. Selbst wenn die Erzeugungskosten (Ausgaben für Kredite, Personal, Wartung, Betriebsmittel etc.) sinken – was sich erst noch zeigen muß – hat das keinen Einfluß auf den Preis. Ein Preis bildet sich aus dem Zusammenspiel von Angebot und Nachfrage. Immer, wenn mehr angeboten wird als gebraucht wird, sinkt im Handel der Preis. Wenn man sein verderbliches Gemüse überhaupt nicht an den Mann bringen kann, muß man für die Beseitigung auch noch Entsorgungskosten bezahlen – an der Strombörse „negative Preise“ genannt. Die Differenz zwischen den Gestehungskosten und dem (erzielbaren) Preis am Markt, nennt man Verlust. Die Verluste müssen aber irgendwie abgedeckt werden, da sonst die Windmüller und Sonnensammler in wenigen Wochen pleite wären. Damit genau das nicht passiert, wurde die „EEG-Umlage“ geschaffen: Sie legt diese Verluste auf die Verbraucher um. Die Strombörse ist ein hervorragender Anzeiger für das jeweilige Verhältnis von Stromproduktion zu Stromnachfrage – ausgedrückt in der Einheit Euro pro MWh. Nicht mehr, aber auch nicht weniger. Je weiter der Börsenpreis unter den Erzeugungskosten liegt, um so größer ist das Überangebot zu diesem Zeitpunkt. Es gibt überhaupt nichts weiter zu geben. Das System ist ja gerade für gleiche Strompreise geschaffen worden: Die tatsächlich erzielten Börsenpreise werden durch die „EEG-Umlage“ auf den Cent genau zu den staatlich garantierten Kosten ergänzt. Bisher mußten nur die konventionellen Kraftwerke ihre Verluste selbst tragen. Sie stellen deshalb (einer, nach dem anderen) einen Antrag auf Stilllegung. Die zuständige Behörde stellt dann ihre „Systemrelevanz“ fest (irgendeiner muß ja auch Strom bei Dunkelheit und Flaute liefern) und sie bekommen ihre Verluste ebenfalls durch eine (neue) Umlage für die Stromverbraucher ersetzt. Frau Kemfert wäre aber nicht Frau Kemfert, wenn sie nicht ein Interview mit etwas Klassenkampf aufpeppen würde und für „vernünftige“ Belastungen der Industrie plädieren würde. Ein richtig rausgehängter Klassenstandpunkt konnte in Deutschland schon immer mangelnde Fachkenntnisse kompensieren. Ist die Deutsche Bahn mit ihren ICE nun „wirklich energieintensiv“? Dafür steht sie aber nicht so „im internationalen Wettbewerb“, wie die Friseurmeisterin in Berlin (70 km von der polnischen Grenze, mit regem Busverkehr zum Polenmarkt mit billigen Zigaretten, billigerem Sprit und allerlei sonstigen Dienstleistungen). Dafür könnte die Bahn wieder durch die „Verbesserung der Energieeffizienz“ punkten, sie müßte einfach nur etwas langsamer fahren oder die Zugfolge ausdünnen. Im letzten Satz scheint sie doch noch die Kurve zu kriegen: „könnte man überschüssige Stromkapazitäten aus dem Markt nehmen“. Genau richtig, mit jeder Windmühle und jedem Sonnenkollektor die man verschrottet, senkt man sofort und unmittelbar den Strompreis für die Verbraucher!

Das Märchen von der immer billiger werdenden „Erneuerbaren Energie“

Der Slogan: „Die Sonne schickt keine Rechnung“ war nichts weiter, als ein Werbespruch für besonders schlichte Gemüter. Natürlich schickt die Sonne keine Rechnung. Genau so wenig, wie ein Kohlenflöz oder eine Ölquelle. Aber die Gerätschaften zum Einsammeln und Umformen kosten bei allen Energiearten Geld. Nicht der Wind, sondern die Windmühle verursacht die Kosten. Da aber, jede technische Anlage ständig repariert und einst auch erneuert werden muß, wird auch der Strom aus Wind und Sonne nie umsonst sein.

Weil von Anfang an die Herstellung elektrischer Energie aus Wind und Sonne sehr viel teurer war, hat man den Mythos irgendwelcher Lernkurven gepflegt. Selbstverständlich gibt es Lernkurven. Nur sind die – bei Windmühlen ganz offensichtlich – extrem flach. Windmühlen gibt es nämlich schon seit über 2000 Jahren. Ganz anders, als z. B. Computer.

Blieb noch die Möglichkeit, mit dem stets kleiner werdenden Abstand zu argumentieren, da ja die anderen Energieträger immer teurer würden. Warum sollten die aber immer teuerer werden, wenn es doch Lernkurven gibt? Logisch, weil die doch endlich sind. Ganz neben bei, ist die Lebensdauer unserer Sonne auch endlich. Eine solche Aussage ist also ohne die Angabe einer konkreten Lebensdauer völlig sinnlos. Flugs, ward die Theorie von peakcoal und später peakoil erschaffen. Man setzt einfach die bekannten Vorkommen als einzig und endlich an und kann damit ausrechnen, daß diese schon in „nächster Zeit“ erschöpft sind oder doch wenigstens deren Preise explodieren. Wäre vielleicht so gewesen, wenn es nicht den menschlichen Erfindergeist und den Kapitalismus geben würde. Wir haben heute die größten Vorkommen an Öl, Erdgas, Kohle, Uran usw. in der Menschheitsgeschichte, bei gleichzeitig größtem Verbrauch aller Zeiten. Die Primärenergiepreise (zumindest als Relativpreise) werden deshalb eher wieder sinken als steigen. Jedenfalls haben wir auf der Basis des heutigen Verbrauches und heutiger Relativpreise Vorräte für Jahrtausende.

Den Anhängern der Planwirtschaft blieb nichts anderes übrig, als ein neues „Marktversagen“ zu konstruieren: Die Klimakatastrophe durch die Freisetzung von CO2 war geboren. Gut und schön, man hätte unbestreitbar sehr viele fossile Energieträger, könnte die aber gar nicht nutzen, da man sonst das Klima kaputt machen würde. Es müßte daher – möglichst sofort – eine CO2.-freie Stromerzeugung her und da der Markt so etwas ja gar nicht regeln könne, muß der Staat lenkend eingreifen. Als wenn jemals die Planwirtschaft etwas anderes als Armut und Elend erzeugt hätte!

Es wird aber trotzdem für die Schlangenölverkäufer der Wind- und Sonnenindustrie immer schwieriger, den Leuten das Märchen von den billiger werdenden „Erneuerbaren“ zu verkaufen. Immer mehr Menschen erinnern sich daran, daß es nachts dunkel ist und manchmal tagelang der Wind kaum weht. Es muß also ein komplettes Backupsystem für diese Zeiten her. Egal ob mit Kohle, Erdgas, Kernenergie oder „Biomasse“ betrieben oder als Speicher bezeichnet. Zwei Systeme sind aber immer teurer, als nur ein System. Immer mehr (denkende) Menschen stellen sich daher die Frage, warum man krampfhaft versucht, unserem funktionierenden und (ehemals) kostengünstigen Stromversorgungssystem ein zweites – zu dem mit äußerst zweifelhafter Umweltbilanz – über zu stülpen.

Was hat das alles mit Kernenergie zu tun?

Erinnern wir uns an die Zeit unmittelbar nach dem Unglück in Fukushima. Die Kanzlerin wollte einen neuen Koalitionspartner. Nun, den hat sie inzwischen gefunden. Die FDP wollte die Grünen noch links überholen und warf all ihre Wahlversprechen über Bord. Nun, der Wähler hat das demokratisch gewürdigt und sie aus dem Bundestag gewählt. Alle deutschen „Qualitätsmedien“ haben gierig die Fieberträume der „Atomkraftgegner“ von „Millionen Toten und zehntausende Jahre unbewohnbar“ nachgeplappert. Nun, es hat immer noch keinen einzigen Toten durch die Strahlung gegeben. Die Aufräumarbeiten schreiten zielstrebig voran und die „Vertriebenen“ kehren langsam in ihre alte Wohngegend zurück. Kurz gesagt, das Unglück hat viel von seinem Schrecken verloren, den es für manche tatsächlich gehabt haben mag.

Deutschland ist das einzige Land auf der Welt, das aus der Kernenergie aussteigen will. Inzwischen sind zahlreiche Neubauten beschlossen. Wohlgemerkt nach Fukushima, hat Großbritannien den Neubau einer ganzen Flotte Kernkraftwerke beschlossen. Selbst Schweden – das Ausstiegsvorbild schlechthin – hat vor wenigen Wochen ein über zehn Jahre angelegtes Verfahren zur Bürgerbeteiligung zum Neubau neuer Kernkraftwerke eingeleitet. Nach Deutschland geh voran, wir folgen dir, sieht das alles gar nicht aus.

Wie ist nun die aktuelle Situation in Deutschland? Abgeschaltet wurden die älteren und kleineren Kernkraftwerke. Die Frage der Entschädigung für diese Enteignungen ist noch lange nicht durch. Die Streitsumme wird allgemein auf 15 Milliarden Euro geschätzt. Einmal Mütterrente, so zu sagen. Mögen sich deutsche Politiker auch auf ihre Kombinatsleiter und deren Stillhaltung verlassen: Vattenfall ist ein schwedischer Konzern und geht von Anfang an den Weg über die internationale Handelsgerichtsbarkeit. Die Konsequenzen einer internationalen Verurteilung wegen einer unrechtmäßigen, entschädigungslosen Enteignung, übersteigt offensichtlich das Vorstellungsvermögen deutscher Provinzpolitiker bei weitem.

Oder, man geht die Sache anders an. Erst in den nächsten Jahren wird der „Atomausstieg“ zu einem echten Problem, wenn nämlich die großen Blöcke in Süddeutschland vom Netz gehen sollen. Dann erst, werden die Strompreise richtig explodieren. Einerseits, weil die immer noch beträchtlichen Mengen „billigen Atomstroms“ aus der Mischkalkulation fallen und andererseits noch sehr kostspielige Maßnahmen für Netz und Regelung nötig sind. Gnade dem Unternehmen in Süddeutschland, dessen Lieferverträge in den nächsten Jahren erneuert werden müssen. Die immer wieder gern propagierten 5,6 bis 6,6 Cent pro kWh für Industriestrom sind nämlich nur die halbe Wahrheit. Hinzu kommt noch der Leistungspreis für die Bereitstellung. Grob gerechnet, ist der Anteil für Leistung und Energie jeweils die Hälfte der Stromrechnung. Die Eigenversorgung soll ja bald auch kein Ausweg mehr sein. Es wird jedenfalls spannend werden, einen SPD-Energieminister zwischen den Stühlen der Gewerkschaftsfunktionäre und dem linken Flügel seiner Partei schwitzen zu sehen.