Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für „Aktuelle Kamera“ und den „Schwarzen Kanal“ gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer „Unberechenbarkeit des POTUS (President Of The United States)“ geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos „Washington“ ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der „politischen Wissenschaften“. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar „Kulturschaffende“ oder gewalttätige „Antifanten“ könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der „American way of live“ wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der „Baulöwe“ ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen „Experten“ als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die „Energieexperten“ in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach „Wirtschaftswunder“ geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie „Peak Oil“, „Klimakatastrophe“ und dem Försterspruch von der „Nachhaltigkeit“, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom „peak oil“mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als „fracking“ bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen um mehrere hundert Prozent. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch „Klimaschutz“ auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff „clean coal“ benutzt. Darunter versteht man nicht einfach „saubere Kohle“, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum „Klimaschutz“, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den „Feinden Amerikas“ heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit „remember 9/11“ verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole „Make America Great Again“.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das „Reich des Bösen“ dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den „Krieg der Sterne“. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Könnte Deutschland die große Schweiz werden?

Die Bürger der Schweiz haben sich gegen eine vorzeitige Abschaltung ihrer Kernkraftwerke entschieden. Ein Anlass, einmal über die Verhältnisse in Deutschland (neu) nachzudenken.

Der Istzustand

Vielen Menschen in Deutschland ist gar nicht bewußt, daß immer noch acht Blöcke am Netz sind (Isar 2, Brokdorf, Philippsburg 2, Grohnde, Emsland, Neckarwestheim 2, Gundremmingen B und C) und in aller Stille reichlich zur Energieversorgung in Deutschland beitragen. Sie haben immerhin zusammen die stolze Leistung von 10.799 MWel. und produzieren damit durchschnittlich 86.595.052.800 kWh elektrische Energie jährlich. Wohl gemerkt, jedes Jahr, unabhängig davon, wie stark der Wind bläst oder die Sonne scheint. Halt Energie nach den Bedürfnissen der Menschen und nicht „auf Bezugsschein“ irgendwelcher Schlangenölverkäufer mit (meist) öko-sozialistischer Gesinnung. Ganz neben bei, tragen sie durch ihre gewaltigen Generatoren auch noch zur Netzstabilität bei. Wie wichtig und kostenträchtig allein dieser Aspekt ist, werden unsere Laiendarsteller erst merken, wenn diese Kraftwerke endgültig abgeschaltet sind.

Wieviel Volksvermögen vernichtet werden soll

Fangen wir mal mit dem letzten Aspekt an: Die Standorte zukünftiger Windparks und Photovoltaikanlagen können – wegen der geringen Energiedichte von Wind und Sonne – gar nicht den Kernkraftwerken entsprechen. Das vorhandene Stromnetz muß daher komplett umgebaut bzw. erweitert werden. In der Öffentlichkeit wird wohlweislich nur von den neuen „Stromautobahnen“ gesprochen, die den „Windstrom“ von Norddeutschland nach Süddeutschland transportieren sollen. Freilich sind bereits dafür Milliarden erforderlich. Kaum ein Wort über die Frequenzregelung und die Niedervolt Netze zum Einsammeln des flächigen Angebots (z. B. Sonnenkollektoren auf den Dächern).

Wir reden hier nicht von irgendwelchen „Schrottreaktoren“, sondern ausnahmslos von Kernkraftwerken, die erst zwischen 1984 und 1989 ans Netz gegangen sind. Für solche Kraftwerke geht man heute international von einer Betriebszeit von 60 bis 80 Jahren aus. Sie hätten also eine „Restlaufzeit“ bis in die zweite Hälfte dieses Jahrhunderts vor sich – wenn sie nicht in Deutschland, sondern bei unseren Nachbarn stehen würden! Warum nur, fällt mir an dieser Stelle, der alte Witz-über-die-Geisterfahrer ein?

Um es klar und deutlich zu sagen, sie verfügen über Sicherheitseinrichtungen, die heute noch international Spitze sind. Teilweise werden japanische und osteuropäische Kernkraftwerke gerade erst auf dieses Niveau nachgerüstet. Selbst noch im Bau befindliche Reaktoren in China und den Emiraten, sind keinesfalls sicherer. Das alles, obwohl es in Deutschland weder schwere Erdbeben noch Tsunamis gibt.

Wenn man als Wiederbeschaffungswert die Baukosten der koreanischen Reaktoren in den Vereinigten Emiraten ansetzt (4 x 1400 MW für 20 Milliarden US-Dollar), werden hier mal eben rund 35 Milliarden Euro verbrannt. Zugegeben eine grobe Abschätzung, aber wie war das noch mal mit dem Rentenniveau für die kommende Generation? Es ist ja offensichtlich nicht so, als wäre in diesem Land überhaupt kein Kapital mehr vorhanden oder anders: Der Kleinrentner soll auch noch durch überteuerten „Ökostrom“ zusätzlich bluten.

Der energetische Ersatz

Ein beliebter Vergleich der Schlangenölverkäufer ist immer die produzierte Energie. Lassen wir die Zahlen für sich sprechen: Im Jahr 2015 wurden insgesamt 86 TWh Windenergie erzeugt. Dazu waren 27.147 Windmühlen mit einer Gesamtleistung von 44,95 GW notwendig gewesen. Wollte man die acht verbliebenen Kernkraftwerke durch Windmühlen ersetzen, müßte man also noch einmal die gleiche Anzahl zusätzlich bauen. Besser kann man den Irrsinn nicht verdeutlichen. Schon allein unsere Vogelwelt könnte 20.000 zusätzliche Schredderanlagen nicht verkraften. Welche Wälder sollen noch gerodet werden?

Wollte man die gleiche Energie mit Photovoltaik erzeugen, müßte man über 82 GW zusätzlich installieren. Trotzdem wäre es weiterhin des Nachts dunkel.

Die Speicherfrage erübrigt sich, denn allen ökologischen Sturmgeschützen zum Trotz: Es gibt sie wirklich, die Dunkel-Flaute. Jawohl, besonders bei Hochdruck-Wetterlage im Winter weht tagelang kein Wind – auch großflächig nicht.

Andererseits wird es den berühmten Muttertag (8.5.2016) auch immer wieder geben: Sonnenschein mit Starkwind an einem verbrauchsarmen Sonntag, der die Entsorgungskosten an der Strombörse auf -130 EUR/MWh hochgetrieben hat. Wie hoch dürfte die Entsorgungsgebühr wohl sein, wenn der Ausbau noch einmal verdoppelt wird? Sind dann unsere Nachbarn überhaupt noch bereit, unseren „Strommüll“ für uns zu entsorgen? Ich glaube nicht. Zwangsweise Abschaltungen wären die Folge: Die Abwärtsspirale immer schlechter werdender Auslastung für die „Erneuerbaren“ wird immer steiler werden. Das Rennen nach der Fabel von Hase und Igel hat ja bereits längst begonnen. Dies sei allen Traumtänzern gesagt, die von einer Vollversorgung durch Wind und Sonne schwadronieren.

Der notwendige Ersatz

Wie gesagt, es gibt sie wirklich, die Dunkel-Flaute. Speicher in der erforderlichen Größe sind nicht vorhanden. Das seit Jahren erklingende Geraune von der „Wunderwaffe-der-Großspeicher“ wabert konsequenzlos durch die deutschen „Qualitätsmedien“. Physik läßt sich halt nicht durch den richtigen Klassenstandpunkt ersetzen. Es müssen deshalb neue Grundlastkraftwerke gebaut werden. Kurzfristig kann man elektrische Energie aus dem Ausland hinzukaufen – „Atomstrom“ und „Dreckstrom“ aus den östlichen Nachbarländern – bzw. vorhandene Mittellastkraftwerke im Dauerbetrieb verschleißen.

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Wahrscheinlicher ist der Ersatz durch Steinkohlekraftwerke. Um die 8 noch laufenden Kernkraftwerke zu ersetzen, wären etwa 14 Blöcke vom Typ Hamburg-Moorburg nötig. Die würden etwa 28 Millionen to Steinkohle pro Jahr fressen. Die müssen nicht nur im Ausland gekauft, sondern auch bis zu den Kraftwerken transportiert werden.

Will man wenigstens die Versorgungssicherheit erhalten, bleibt nur die eigene Braunkohle. Man müßte nur etwa 10 neue Braunkohleblöcke vom Typ BoA-Neurath bauen. Die würden allerdings über 84 Millionen to Braunkohle pro Jahr verbrauchen. Unsere Grünen würde das sicherlich freuen, man müßte die Braunkohleförderung nicht einmal um die Hälfte erhöhen. Wieviele schöne „Demos“ gegen neue Tagebaue könnte man veranstalten!

Politik

Das Wahljahr 2017 (Landtagswahl in NRW und Bundestagswahl) kommt immer näher. Zwischen März und Juli soll der geplante Wahnsinn mit der Abschaltung von Gundremmingen beginnen. Da in Deutschland das Regulativ einer Volksabstimmung (über lebenswichtige Fragen) fehlt, bleibt nur die Auseinandersetzung in einer Parteien-Demokratie. Parteitage und Walkämpfe bieten die Möglichkeit Parteien zu zwingen „Farbe zu bekennen“. Dies gelingt aber nur, wenn die Bürger auch (öffentlich und nachdrücklich) Fragen stellen. Gerade in Deutschland neigt man eher zu „Man-hat-doch-nichts-davon-gewußt“ oder „innerlich-war-man-auch-dagegen“. Zumindest der ersten Lebenslüge, soll dieser Artikel entgegenwirken.

Die Forderung an alle Parteien kann nur lauten: Schluß mit der Kapitalvernichtung durch Abschaltung moderner Kernkraftwerke. Bis 2022 ist es weder möglich geeignete Groß-Speicher zu erfinden, das Stromnetz völlig umzukrempeln, noch fossile Kraftwerke in der benötigten Stückzahl als Ersatz zu bauen. Nicht einmal die Verdoppelung der Windenergie in nur vier Jahren ist möglich – jedenfalls nicht ohne bürgerkriegsähnliche Zustände heraufzubeschwören. Parteien, die dies nicht einsehen wollen, sind schlicht nicht wählbar. In einer indirekten Demokratie, in der dem Bürger das Recht auf Entscheidungen – in überlebenswichtigen Fragen — abgesprochen wird, kann sich der Bürger nur an der Wahlurne wehren. Nichts tut den etablierten Parteien mehr weh, als der Mandatsverlust. Dies ist halt die Kehrseite der Allmachtsphantasien der „indirekten Demokraten“.

Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

Ein Strommarkt für die Energiewende

Das Diskussionspapier des Bundesministeriums für Wirtschaft und Energie – Grünbuch – ist gerade erschienen und kann kostenlos unter Grünbuch heruntergeladen werden. Warum das Ding nun ausgerechnet Grünbuch heißt, mag der Minister Gabriel wissen: Vielleicht soll es ja Assoziationen zum Grünen Buch eines bereits verjagten sozialistischen Potentaten aus Nordafrika wecken. Zumindest an Komik und Absurdität steht es ihm kaum nach. Es ist ebenfalls der Versuch, eine ideologische Kopfgeburt durch schwülstige Worte rechtfertigen zu wollen.

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert:

Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen.

Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition „gute Energie“. Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte… Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den „Treibhausgasemissionen“ wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur „richtig“ interpretieren können.

Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke.

Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt „innerlich schon immer dagegen waren“ oder gleich besser „von allem nichts gewusst haben“ wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die „Energiewende“ und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird:

Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab.

Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt. Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das „Stück Papier“ an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von „Marktsignalen“ erzählt, die von der Börse ausgehen. Wenn von der Strombörse „Marktsignale“ ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlich über die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.

Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros:

Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen. 

Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat:

Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden.

Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.

Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse:

In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind.

Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein:

Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete.

Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters – und in seinem damaligen Lebensabschnitt Bundeskanzlers – Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals – und inzwischen wieder – von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem „badischen Atomkonzern“, der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den „Atomausstieg“ verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die „Klimakatastrophe“. Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als „Wendeminister“: Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?

Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon „Atomausstieg“ zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort „Strommarktliberalisierung“ getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.

Manche Sätze sind von beängstigender Klarheit:

Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten.

Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das „Marktbereinigung“, in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.

Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen:

2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt.

Die damals stillgelegten Kernkraftwerke, waren die „alten und kleinen“. Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz:

Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten.

Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan „Die Sonne schickt keine Rechnung“ ein bescheidenes Vermögen gemacht hat.

Hier ist es wieder, das übliche ideologische Geschwafel:

Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt.

Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf – also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne „Erneuerbare“ gar nicht vorhandener Regelungsbedarf.

Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt:

Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren.

Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.

Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten:

Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet.

Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der „Erneuerbaren“. Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der „Erneuerbaren“. Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.

Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift

Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit.,

zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland – und man ist ja weltmännisch – der 7. Januar 2014 in USA. Sätze wie

… eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken.

lassen – zumindest bei Genossen – sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die „Energiewende“ zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an „Erneuerbaren“ verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.

Noch toller ist das Beispiel aus den USA:

Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden.

So ist das nun mal, wie das Windrad Wind braucht, brauchen die „flexiblen und klimafreundlichen“ Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität – die nur wenige Stunden im Jahr gebraucht wird – finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!

In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln:

Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen.

Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten – sonst die ärgsten Feinde aufrechter Sozialdemokraten – können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter:

Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden.

Der dümmliche Werbeslogan „Die Sonne schickt keine Rechnung“ wird auf Ministerebene „zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie“ umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er „effizient und sicher in das System integriert“. Mein absoluter Lieblingssatz folgt erst kurz danach:

Mein absoluter Lieblingssatz folgt erst kurz danach:

Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen.

Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der „Hauptstadt der DDR“ wären vor Rührung die Tränen gekommen bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen:

Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden.

Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).

Manche Aussagen sind schlicht dummdreist:

Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien).

Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll:

Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken.

Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter:

Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient.

Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung – sprich die Abschaltung der Anlagen bei Überproduktion.

So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können:

Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein.

Man will sich das Abschalten als „negative Regelleistung“ vergüten lassen – hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt:

Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken.

Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich „geregelt“ eingespeist werden soll? Der „Biostrom“ würde damit noch teurer. Die „Schwachwindturbinen“ und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird:

Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können.

Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös:

Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden.

Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?

Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist:

Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften.

Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter – aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder:

Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus.

Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.

Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd „Stromautobahnen“ begründet:

Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden.

Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen – hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der „Energiewende“, für die wir Bürger zahlen müssen.

Ebenso irrsinnig und rein ideologisch begründet ist die Annahme:

Der Stromhandel unterstellt ein Netz ohne Engpässe.

Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.

Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert:

Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden.

Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke – was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?

Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft:

Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann.

Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere „Energieexperten“ noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt:

Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden.

Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn eine Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.

Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt:

Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone.

Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage:

Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen.

Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger – gemeint sind ja wohl eher Windmüller und Sonnenfarmer – reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen?

Geradezu schizophren sind die folgenden Sätze:

Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern.

Also die stochastische (zufällige) Erzeugung durch „Erneuerbare“wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!

Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden.

Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von „Marktsignalen“ wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen – Flaute und Dunkelheit zählen nicht dazu – sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.

Hinkley Point C

Der Aufreger der Woche, ist der geplante Neubau zweier Reaktoren als Ersatz für das Kernkraftwerk Hinkley Point. Für die einen ist es der lang ersehnte Neubeginn, für andere ein Sündenfall der europäischen Subventionswirtschaft. Vor allem ist es jedoch ein hoch komplexer Vorgang, für den man etwas mehr Zeit benötigt als in den „Qualitätsmedien“ zur Verfügung steht.

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. „Strom-Markt-Liberalisierung“ in Europa. Traditionell gab es Gebietsmonopole, in denen „Energieversorger“ tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der „Liberalisierung“ sollte elektrische Energie – wie andere Wirtschaftsgüter auch – zwischen Erzeugern und Verbrauchern gehandelt werden. Eine „Strombörse“ sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles „Marktversagen“ in der Form einer von Menschen verursachen „Klimakatastrophe“ konstruiert. Früher gab es eine „Aufsichtsbehörde“ mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der „Gesellschaftsveränderer“ magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen „Anti-Atomkraft-Bewegung“ vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine „Gesellschaftsveränderung“. Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der „Strom-Markt-Liberalisierung“ heraus zu halten. Letztendlich wurde auch er „privatisiert“. Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die „Alternativenergien“ massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die „Klimakatastrophe“ erschaffen. Der einst erträumte Weg über „flexible und umweltfreundliche Gaskraftwerke“ ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem „Einspeisevorrang“ für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen – wenn der Wind einmal zufällig kräftig weht – wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das „Kapazitätsmärkte“, in GB „Contracts for Difference CfD“. Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den „Erneuerbaren“ abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der „Energiewende“ über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein „Kapazitätsmarkt“ wäre nicht notwendig oder würde sich von selbst ergeben – ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum „relevanten Anschlußpunkt“ den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie „Netzparität“, sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die „Über-Nacht-Kosten“. Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 34 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für „Atommüll“ und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten „strike price“ von 92,50 Pfund pro MWh sind.

Es ging hier um ein „Beihilfeverfahren“, in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen „Subventionskürzung“ bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren – weil staatlich verursachten – Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß – wie immer – der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine – freilich rein theoretische – Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal „Kapazitätsmärkte“ können dagegen etwas ausrichten.

Beim „strike price“ wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht „beihilfekonform“ und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will – eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei „Spitzenlast“ in der Dunkel-Flaute voll mitnehmen. „Kapazitätsmärkte“ lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser „freie Handel“ nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist – klassisch, wie eine Preisgleitklausel – mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der „strike price“ angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die „hauseigene Gewerkschaft der EDF“ wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel – und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark London Array – Paradebeispiel deutscher Energieversorger – hat eine Grundfläche von etwa 100 km2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Kohle, Gas, Öl, Kernenergie? – Teil 2

Neben den fossilen Energieträgern wird auch in der Zukunft weltweit die Kernenergie einen steigenden Anteil übernehmen. Wem das als eine gewagte Aussage erscheint, sollte dringend weiterlesen, damit er nicht eines Tages überrascht wird.

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von „Energieeffizienz“ ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein „Gutmensch“ in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen „VW-Käfer“ auf den Motor mit Katalysator, vom „hohen Schornstein“ auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.

Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an „Strahlengefahr“ denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der „Atomstromverbraucher“ wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.

Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. „Red book“, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

  • Wieviel Kernkraftwerke sind in Betrieb,
  • welche Reaktortypen werden eingesetzt,
  • welche Anreicherungsverfahren zu welchen Betriebskosten und
  • wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im „Red book“ geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?

Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über U235 einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel. pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen U235 und U238 wird die Konzentration von U235 im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von U235erhöht hat, hat er sich natürlich im „Abfallstrom“ entsprechend verringert. Das „tails assay“, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% U235.. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).

Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine „Wiederanreicherung“ könnte man fast 500.000 to „Natururan“ erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% U235 etwa 420.000 to künstlich hergestelltes „Natururan“ und einen neuen „Abfallstrom“ von 1.080.000 to tails assay mit 0,14% U235.. Man sieht also, der Begriff „Abfall“ ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement „abgebrannt“ ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.

Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen „Endlager“ (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium „erbrütet“. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das „abgebrannte Uran“ immer noch einen etwas höheren Gehalt (rund 0,9%) an U235.als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.

Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.

Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat „Atommüll“ – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig „weniger gefährlich“ zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von über 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.

Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael. aus (siehe oben), die ein Leichtwasserreaktor „statistisch“ verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, „Schnelle Brüter“ etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.

Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die „besseren Modelle“ auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.