Die Chinesen sind gelandet

Bisher etwas unbeachtet, beginnen die Chinesen den europäischen Markt für Kernkraftwerke zu erobern. Der erste Schritt ist mit dem Genehmigungsverfahren in Großbritannien eingeleitet.

Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/mgegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

Ende der „Energiewende“ in USA?

Trump arbeitet weiterhin konsequent seine Wahlversprechen ab und startet nach dem „Klimaausstieg“ einen Versuch zur Wiederherstellung eines funktionstüchtigen Stromnetzes. Mehr noch, es wird nebenbei auch noch eine Renaissance der Kernenergie eingeleitet.

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

Resilient Electricity

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Müssen alle KKW sofort abgeschaltete werden?

Am 1. März 2016 titelte REUTERS NRC-Ingenieure fordern Reparatur von Kernkraftwerken und am 4. März setzte HUFFPOST noch eins drauf: Gefährlicher Konstruktionsfehler droht die Flotte der KKW abzuschalten. Was verbirgt sich hinter diesen Tatarenmeldungen?

Public petition under section 2.206

Für einen solchen Vorgang läßt sich nur schwer eine deutsche Übersetzung finden, weil er uns kulturell eher fremd ist. In den USA geht man selbstverständlich davon aus, daß in allen Behörden Dienstwege außerordentlich verschlungen sind. Der normale Weg von unten bis oben ist nicht nur lang, sondern kann auch schnell in eine Sackgasse führen. Dies muß nicht einmal aus „Boshaftigkeit“ geschehen, sondern immer neue „Gesichtspunkte“ erzeugen auch immer neue Fragen. Deshalb gibt es in der amerikanischen Atomaufsicht – Nuclear Regulatory Commission (NRC) – eine Überholspur in der Form einer Petition.

Jeder Mitarbeiter – in diesem Fall war es eine Gruppe aus sieben Ingenieuren – kann eine (formalisierte) Stellungnahme abgeben. Diese muß dann innerhalb von 30 Tagen beantwortet werden. Das Besondere daran ist, daß diese Eingabe und die Antwort öffentlich sind. Es ist damit ein sehr scharfes Schwert in den Händen der „einfachen Mitarbeiter“. Gerade ausgewiesene Spezialisten mit anerkannten Fachkenntnissen, haben oft keine einflußreichen Positionen in der Hierarchie einer Behörde. Solch eine Petition wirbelt natürlich innen wie außen eine Menge Staub auf. Insofern wird sie nur bei schwerwiegenden Sicherheitsbedenken sinnvoll angewandt.

Um es gleich vorweg zu nehmen: Diese Gruppe hat nach eigenem Bekunden nie die Abschaltung aller Reaktoren in den USA im Sinn gehabt. Gleichwohl hat sie (begründete) Bedenken. Sie meint einer bedeutenden Sicherheitslücke auf die Spur gekommen zu sein und meint, daß nicht genug getan worden ist, um die Mängel zu beseitigen. Ungeduld und vorschnelles Handeln kann man ihnen sicherlich nicht unterstellen, da es sich um vier Jahre alte Vorkommnisse handelt.

Was war passiert?

Am 30.1.2012 war es im Kernkraftwerk Byron zu einer Schnellabschaltung gekommen. Ein solches Ereignis ist meldepflichtig und es setzt eine umfangreiche Untersuchung aller Ereignisse ein. Ziel ist es dabei immer, Schwachstellen herauszufinden, diese gegebenenfalls zu beseitigen und anderen Betreibern die Möglichkeit zu bieten daraus zu lernen.

Wie man bald herausfand, war die Ursache ein Bruch eines Isolators an der 345 kV Leitung des Kraftwerks. Der Isolator gehörte zu einer Serie, die falsch gebrannt worden war und somit in ihrem Kern starke Fehler aufwies. Inzwischen gab es einen Rückruf und die fehlerhafte Serie wurde ausgetauscht. Soweit nichts besonderes. Brüche von Isolatoren an Hochspannungsleitungen kommen immer mal wieder vor. Was macht die Angelegenheit aber trotzdem zu einem Sicherheitsproblem?

Dieser Isolator hat eine der drei Phasen gehalten, mit denen einer der Transformatoren zur Eigenversorgung des Kraftwerks verbunden war. Nun sind solche Anschlüsse wegen der erforderlichen Leistungen eher „Stangen“ als „Drähte“. Die Phase riß zwar ab, fiel aber nicht auf den Boden und löste somit keinen Kurzschluss aus. Die Sicherung löste nicht aus. Es gab auch kaum einen Spannungsunterschied zwischen den Phasen. Der Fehler wurde dadurch gar nicht bemerkt und es erfolgte keine automatische Umschaltung auf einen anderen Weg zur Energieversorgung.

Normalerweise ist ein solcher Vorfall nichts ernstes: Man schaltet die Komponente frei, setzt einen anderen Trafo zur Versorgung ein und repariert den Schaden schnellstmöglich. Allerdings muß man dafür den Leitungsbruch bemerken. Hier setzt die berechtigte Kritik ein. Die Unterzeichner der Petition haben systematisch alte Störfälle noch einmal untersucht und dabei festgestellt, daß so etwas bereits häufiger passiert ist. Teilweise wurden solche Fehler erst nach Tagen bei Kontrollgängen bemerkt oder erst infolge von Anfragen des Netzbetreibers „gesucht“. Diesem Problem wurde keine besondere Dringlichkeit beigemessen, da es durchweg nicht zu Schnellabschaltungen kam. Es war einfach nur ein typischer Schaden im nicht-nuklearen Teil des Kraftwerks.

Sicherheitsrelevant oder nicht?

Die Stromversorgung von außen, sollte bei einem Kernkraftwerk immer funktionieren. Deshalb wird sie auch ständig überwacht. Das Tückische an diesem Schadensbild ist jedoch, daß sie eben nicht unterbrochen, sondern nur gestört war. Wenn bei einer Drehstromversorgung nur eine Phase unterbrochen ist, fließt trotzdem noch weiterhin Strom, aber mit geringerer Spannung. Dies wurde von der Meßtechnik auch richtig erfaßt, aber von der Auswerte-Logik falsch interpretiert. Es wurde die Spannungsdifferenz zwischen den Phasen A und B gebildet (die in Ordnung war) und zwischen den Phasen B und C (die geringe Abweichungen hatte, weil Phase C abgerissen war, aber frei in der Luft hing). Wenn die Stromversorgung nicht richtig funktioniert, soll automatisch auf eine andere Strecke umgeschaltet werden oder die Notstromdiesel gestartet werden.

Die Schnellabschaltung ist sicherheitstechnisch der letzte Rat. Um den Reaktor zu schonen, sollte sie so selten wie möglich erfolgen. In der Sicherheitskette ist deshalb eine solche Spannungsüberwachung ein 2-von-2-Kriterium – nur wenn beide Differenzen eine bedeutende Abweichung ergeben, wird von einem schwerwiegenden Fehler ausgegangen. Wenn – wie in diesem Störfall – nur eine Differenzmessung abweicht (weil nur ein Kabel von dreien gebrochen war), wird eher ein Messfehler unterstellt. Die Umschaltung erfolgte später erst durch einen Mitarbeiter, der sich ca. 8 Minuten nach der Schnellabschaltung von der Funktionstüchtigkeit der Schaltanlage vor Ort überzeugte. Er löste die „Sicherung“ von Hand aus, nachdem er die abgerissene Leitung sah und damit seinen Verdacht für den Spannungsabfall bestätigt sah. Ein deutlicher Hinweis, warum man Kernkraftwerke nicht vollautomatisch betreibt!

Kleine Ursache, große Wirkung

Man hat in jedem Kraftwerk intern verschiedene Spannungsebenen um die großen Antriebsleistungen von Pumpen etc. überhaupt bereitstellen zu können. In Byron hingen zwei Hauptkühlmittelpumpen an der „Aussenversorgung“ und zwei an dem eigenen „Generatorsystem“. Zum Anlagenschutz hat jede Pumpe ihr eigenes Überwachungssystem, welches bei einer Überschreitung von Grenzwerten die Pumpe abschaltet. Die zwei Pumpen, die an der „Aussenversorgung“ hingen, haben die Spannungsunterschreitung und die Stromüberschreitung infolge der verlorenen Phase richtig erkannt und sich automatisch abgeschaltet. Die anderen zwei, die am „Generatorsystem“ hingen, waren davon nicht betroffen. Jetzt griff aber die Sicherheitskette ein: Ein Ausfall von zwei Hauptkühlmittelpumpen ist ein nicht zu überbrückendes Abschaltkriterium. Der SCRAM – die Schnellabschaltung – wird unweigerlich und unbeeinflußbar ausgelöst.

Durch die Schnellabschaltung ging die Dampfproduktion und damit die Eigenversorgung in die Knie. Man war damit noch abhängiger von der Außenversorgung. Der Spannungsabfall fraß sich weiter durchs Kraftwerk und setzte nacheinander weitere Großverbraucher außer Gefecht. Plötzlich befand man sich in einer Situation, ähnlich wie in Fukushima: Man hing nur noch von einer „Notkühlung“ über die Notstromdiesel ab. Hier hat zwar alles einwandfrei funktioniert und es sind keinerlei Schäden aufgetreten, aber eigentlich will man nicht so viele „Verteidigungslinien“ durchbrechen.

Die unterschiedlichen Interpretationen

Wie gesagt, der Vorfall liegt vier Jahre zurück. Passiert ist nichts. Das Kraftwerk konnte – nach den üblichen umfangreichen Überprüfungen – wieder angefahren werden. Inzwischen gibt es einige Kilogramm Fachaufsätze, die sich mit dem Problem beschäftigen. Zahlreiche Veranstaltungen sind durchgeführt worden.

Schnell und einfach geht in der (heutigen) Kerntechnik gar nichts mehr. Jede Maßnahme muß genauestens untersucht und kommentiert werden – letztendlich sogar von Juristen. Es gibt inzwischen sogar verschiedene technische Lösungsansätze für das Problem. Alle haben ihre Vor- und Nachteile. Man muß höllisch aufpassen, daß man durch Veränderungen an einer Stelle, nicht neue Probleme an anderer Stelle schafft.

Es geht bei der ganzen Angelegenheit weniger um Technik als um Juristerei. Inzwischen sind alle Kraftwerke und alle Hersteller informiert und arbeiten eng zusammen. Jedes Kernkraftwerk ist ein individuelles Produkt und erfordert damit auch eine spezielle Lösung des Problems. Jeder Einzelfall muß auf seine Auswirkungen bezüglich des Gesamtsystems hin überprüft werden. Eine sehr arbeitsintensive Angelegenheit. Letztendlich streitet man sich um die ewige Frage: Was soll automatisch geschehen und was macht der Mensch? Sollen solche Randbereiche wie ein einzelnes Kabel eines Hilfstransformators in automatische Sicherheitsketten eingearbeitet werden? Wird dadurch die Sicherheit erhöht oder gar verringert? Kann man oder soll man sogar – wegen der Beschäftigung mit solchen Problemen –. ganze Kraftwerksflotten stilllegen? Wie lange ist der angemessene Zeitraum, um eine etwaige Verbesserung umzusetzen?

Langsam bildet sich in der kerntechnischen Industrie ein absurd anmutender Drang nach Perfektionismus heraus. Die Abwägung von Risiko und Nutzen geht immer mehr zu Lasten des Nutzens. Was wäre, wenn man jedesmal gleich die Hauptmaschine abstellen würde, weil irgendwo im Maschinenraum ein Teil versagt? Unsere Küsten wären wahrscheinlich längst mit Schiffswracks (auch nuklearen!) gepflastert. Noch absurder wäre die ständige Forderung nach sofortiger Stilllegung der gesamten Flotte. Ganz offensichtlich geht es hier um ganz andere Dinge. Nur konsequente Aufklärung und Transparenz kann die Kerntechnik wieder auf ein Normalmaß zurückholen. Wie wäre es mit der Flugzeugindustrie als Vorbild? Dort wird auch nicht nach jedem Absturz – jedes mal – das gesamte System in Frage gestellt.

Gleichwohl ist das Vorgehen gewisser Presseorgane immer gleich: Man greift Jahre zurückliegende Ereignisse (erinnert sei nur an die Druckbehälter in Tihange und Doel) auf, die längst in der Fachwelt abgehakt, weil vollständig ausdiskutiert sind. Gierig werden einzelne, meist singuläre Ansichten aufgegriffen und daraus vermeintliche Skandale und Vertuschungen konstruiert. Dies alles, obwohl es im Internetzeitalter weniger Klicks bedarf, um sich zu informieren. Ist das Selbststudium zu anstrengend, könnte man ja mal ein paar Fachleute befragen. In wie weit man das noch als „schlampigen Journalismus“ oder schon als „Lügenpresse“ einordnet, muß jeder für sich selbst entscheiden.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Ein Strommarkt für die Energiewende

Das Diskussionspapier des Bundesministeriums für Wirtschaft und Energie – Grünbuch – ist gerade erschienen und kann kostenlos unter Grünbuch heruntergeladen werden. Warum das Ding nun ausgerechnet Grünbuch heißt, mag der Minister Gabriel wissen: Vielleicht soll es ja Assoziationen zum Grünen Buch eines bereits verjagten sozialistischen Potentaten aus Nordafrika wecken. Zumindest an Komik und Absurdität steht es ihm kaum nach. Es ist ebenfalls der Versuch, eine ideologische Kopfgeburt durch schwülstige Worte rechtfertigen zu wollen.

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert:

Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen.

Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition „gute Energie“. Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte… Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den „Treibhausgasemissionen“ wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur „richtig“ interpretieren können.

Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke.

Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt „innerlich schon immer dagegen waren“ oder gleich besser „von allem nichts gewusst haben“ wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die „Energiewende“ und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird:

Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab.

Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt. Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das „Stück Papier“ an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von „Marktsignalen“ erzählt, die von der Börse ausgehen. Wenn von der Strombörse „Marktsignale“ ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlich über die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.

Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros:

Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen. 

Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat:

Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden.

Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.

Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse:

In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind.

Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein:

Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete.

Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters – und in seinem damaligen Lebensabschnitt Bundeskanzlers – Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals – und inzwischen wieder – von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem „badischen Atomkonzern“, der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den „Atomausstieg“ verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die „Klimakatastrophe“. Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als „Wendeminister“: Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?

Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon „Atomausstieg“ zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort „Strommarktliberalisierung“ getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.

Manche Sätze sind von beängstigender Klarheit:

Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten.

Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das „Marktbereinigung“, in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.

Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen:

2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt.

Die damals stillgelegten Kernkraftwerke, waren die „alten und kleinen“. Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz:

Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten.

Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan „Die Sonne schickt keine Rechnung“ ein bescheidenes Vermögen gemacht hat.

Hier ist es wieder, das übliche ideologische Geschwafel:

Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt.

Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf – also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne „Erneuerbare“ gar nicht vorhandener Regelungsbedarf.

Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt:

Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren.

Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.

Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten:

Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet.

Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der „Erneuerbaren“. Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der „Erneuerbaren“. Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.

Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift

Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit.,

zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland – und man ist ja weltmännisch – der 7. Januar 2014 in USA. Sätze wie

… eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken.

lassen – zumindest bei Genossen – sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die „Energiewende“ zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an „Erneuerbaren“ verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.

Noch toller ist das Beispiel aus den USA:

Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden.

So ist das nun mal, wie das Windrad Wind braucht, brauchen die „flexiblen und klimafreundlichen“ Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität – die nur wenige Stunden im Jahr gebraucht wird – finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!

In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln:

Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen.

Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten – sonst die ärgsten Feinde aufrechter Sozialdemokraten – können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter:

Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden.

Der dümmliche Werbeslogan „Die Sonne schickt keine Rechnung“ wird auf Ministerebene „zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie“ umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er „effizient und sicher in das System integriert“. Mein absoluter Lieblingssatz folgt erst kurz danach:

Mein absoluter Lieblingssatz folgt erst kurz danach:

Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen.

Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der „Hauptstadt der DDR“ wären vor Rührung die Tränen gekommen bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen:

Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden.

Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).

Manche Aussagen sind schlicht dummdreist:

Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien).

Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll:

Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken.

Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter:

Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient.

Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung – sprich die Abschaltung der Anlagen bei Überproduktion.

So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können:

Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein.

Man will sich das Abschalten als „negative Regelleistung“ vergüten lassen – hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt:

Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken.

Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich „geregelt“ eingespeist werden soll? Der „Biostrom“ würde damit noch teurer. Die „Schwachwindturbinen“ und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird:

Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können.

Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös:

Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden.

Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?

Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist:

Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften.

Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter – aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder:

Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus.

Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.

Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd „Stromautobahnen“ begründet:

Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden.

Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen – hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der „Energiewende“, für die wir Bürger zahlen müssen.

Ebenso irrsinnig und rein ideologisch begründet ist die Annahme:

Der Stromhandel unterstellt ein Netz ohne Engpässe.

Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.

Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert:

Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden.

Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke – was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?

Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft:

Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann.

Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere „Energieexperten“ noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt:

Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden.

Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn eine Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.

Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt:

Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone.

Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage:

Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen.

Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger – gemeint sind ja wohl eher Windmüller und Sonnenfarmer – reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen?

Geradezu schizophren sind die folgenden Sätze:

Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern.

Also die stochastische (zufällige) Erzeugung durch „Erneuerbare“wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!

Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden.

Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von „Marktsignalen“ wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen – Flaute und Dunkelheit zählen nicht dazu – sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.

Energie als Druckmittel

In den letzten Tagen spitzt sich in den Medien immer mehr die Diskussion um ein „Wirtschaftsembargo“ gegen Russland zu. Neben der grundsätzlichen Frage zum Sinn von Wirtschaftsblockaden ist dabei der Zentrale Punkt die „Energieabhängigkeit“. Es lohnt sich daher, sich etwas näher mit dieser Frage zu beschäftigen. Mag es für manchen nützlich sein, um die wahrscheinlichen Maßnahmen und deren Konsequenzen besser abschätzen zu können.

Energie als Handelsware

Prinzipiell sind alle Energieträger ganz normale Handelsgüter. Sie liegen in unterschiedlichen Formen vor: Als Rohstoffe (Erdöl, Kohle, Uran usw.), als Halbfertigprodukte (Diesel, Benzin, „Erdgas“ etc.) und als spezielle Endprodukte (Wechselstrom 50 Hz, Super Benzin, usw.). Analog z. B. zu Kupferbarren, Kupferdraht und einer Spule. Die simple Tatsache, daß Energieträger nicht gleich Energieträger ist, ist bereits eine sehr wichtige Erkenntnis. Je spezieller der Stoff ist, je schwieriger ist er zu ersetzen und je enger werden die möglichen Bezugsquellen. Ein Motor, der für Dieselkraftstoff gebaut ist, braucht auch Dieselkraftstoff. Selbst wenn Benzin im Überfluß vorhanden ist, nützt dies dem Betreiber gar nichts. Anders sieht es z. B. in der Elektrizitätswirtschaft aus. Besitzt man – wie in Deutschland – noch einen Kraftwerkspark aus Steinkohle-, Braunkohle- Gas- und Kernkraftwerken etc., sieht die Lage völlig anders aus. Selbst wenn ein Brennstoff nahezu vollständig ausfällt, muß dies noch lange nicht zu Einschränkung führen. Geht man noch eine Ebene höher, ergibt sich noch mehr Flexibilität. Verringert sich z. B. das Angebot an Erdgas, kann man bewußt den Verbrauch in Kraftwerken einstellen um genug Heizgas zur Verfügung zu haben. Ein ganz normaler Vorgang, wie er jeden Winter üblich ist. Es gibt sogar Kraftwerke, die für mehrere Brennstoffe geeignet sind. Da der Anteil vom Erdgas am Primärenergieverbrauch in Deutschland nur rund 21 % beträgt und allein der Lagervorrat etwa 1/6 des Jahresverbrauches beträgt, braucht keine Panik vor einem „Erdgasboykott“ zu bestehen. Da Russland ohnehin nur etwa ⅓ des Verbrauches liefert, könnten sie gern ihre Lieferungen vollständig einstellen. Deswegen würde hier keine Wohnung kalt bleiben oder eine Fabrik stillstehen. Selbst die Auswirkungen auf die Erdgaspreise dürften gering bleiben, weil viele Verbraucher (vor allem Kraftwerke) auf andere Energieträger ausweichen könnten bzw. andere Lieferanten gern die russischen Marktanteile übernehmen würden.

Der Faktor Zeit

Die Frage, ob man einen Energieträger durch einen anderen ersetzen kann, ist nicht so entscheidend, wie die Zeitdauer die hierfür erforderlich ist. Wobei die Zeitdauer weniger technisch bedingt, als eine Frage der Kosten ist. Besonders unflexibel sind Gaspipelines. Bis man neue Leitungen verlegt hat oder einen angeschlossenen Verbraucher umgestellt hat, können Jahre vergehen. Geht man auf die volkswirtschaftliche Ebene, wird man eher in Jahrzehnten denken müssen. Ein Beispiel hierfür, ist der massive Ausbau der Kernkraftwerke als Ersatz für Ölkraftwerke infolge der sog. Ölkriesen (1973 und 1976).

Für kurzfristige Versorgungslücken ist die Lagerung von Brennstoff ein probates Mittel. Auch hier ist Erdgas die technisch schwierigste und damit kostspieligste Lösung. Brennstäbe für Kernkraftwerke nehmen nur wenig Platz ein und ein Kernkraftwerk läuft ohnehin viele Monate, bis eine Nachladung nötig wird. Steinkohle hat auch eine recht hohe Energiedichte und ist relativ einfach zu lagern. Es war nicht zufällig im alten West-Berlin der Brennstoff der Wahl zur Absicherung gegen „Berlin-Blockaden“.

Ein weiterer wichtiger Aspekt sind Transportwege und Transportmittel. Öltanker und Massengutfrachter kann man noch auf hoher See umleiten. Bei der heute weltweiten Verteilung von Öl und Kohle ist der Lieferboykott eines Landes oder einer Gruppe von Ländern (OPEC) ein völlig stumpfes Schwert. Im Gegenteil, man weitet diesen Zustand auch immer weiter auf Erdgas aus. Überall auf der Welt entstehen Anlagen zur Verflüssigung und Rückvergasung von Erdgas. Der neuste Trend dabei ist, solche Anlagen komplett auf Spezialschiffen zu installieren, die gegebenenfalls auch noch flexibel verlagert werden können. Nicht zuletzt Russland, hat diesen Trend schon vor der aktuellen Krise durch seine Preispolitik und seine Lieferunterbrechungen an die Ukraine enorm beschleunigt. Nur Deutschland hat konsequent auf Pipelines nach Russland gesetzt. All unsere Nachbarn haben bereits Flüssiggasterminals in Betrieb oder im Bau. Es geht halt nichts über wahre Männerfreundschaften, nicht wahr, Gerhard und Vladimir?

Der Faktor Geographie

Energieträger sind – mit Ausnahme von Uran und Thorium – Massengüter. Transportmittel der Wahl, ist deshalb das Schiff. Pipelinenetze lohnen sich wegen der enormen Kapitalkosten nur in Verbrauchsschwerpunkten oder bei sehr großen Feldern. Zumindest übergangsweise, dient auch die Eisenbahn als Transportmittel. Rußland ist zur Zeit (noch) der größte Ölproduzent vor den USA und Saudi Arabien. Anders als diese beiden, verfügt es aber über keine bedeutenden Häfen. Die längste Zeit des Jahres liegen seine Küsten und Flüsse unter einem Eispanzer. Für Rußland sind seine Pipelines in den Westen lebenswichtige Adern. Selbst mit seinem Eisenbahnnetz (Breitspur) hat es sich bewußt vom Rest der Welt abgegrenzt. Verglichen z. B. mit dem Iran, eine fatale Situation bei einem Abnahmeboykott.

Der Faktor Wirtschaft

Russland ist kein Industrieland, sondern spielt eher in der Liga von Nigeria, Venezuela etc. Geschätzt zwischen 70 bis 90 % aller Staatseinnahmen stammen aus dem Export von Öl und Gas. Es gibt praktisch keine russischen Produkte, die auf dem Weltmarkt verkäuflich sind. Die Situation ist noch desolater, als in der ehemaligen „DDR“. Die konnte wenigstens einen Teil ihrer Erzeugnisse über Dumpingpreise auf dem Weltmarkt verschleudern um an Devisen zu gelangen. Selbst der einstige Exportschlager Waffen, ist wegen seiner erwiesenen schlechten Qualität, immer unverkäuflicher. Klassische Importeure sind entweder bereits untergegangen (Irak, Lybien, etc.) oder wenden sich mit grausen ab (Indien, Vietnam usw.).

Rußland hat seine „fetten Jahre“ vergeudet. Während im kommunistischen Bruderland China eine Auto-, Computer- und Mobilfunkfabrik nach der nächsten gebaut wurde, hat man sich in der „Putinkratie“ lieber Fußballvereine im Ausland gekauft. Die Angst vor und die Verachtung für das eigene Volk, scheint unvergleichlich höher. Selbst in den Staaten der Arabischen Halbinsel hat man schon vor Jahrzehnten realisiert, daß die Öleinnahmen mal nicht mehr so sprudeln werden und man deshalb einen Sprung in die industriealisierte Welt schaffen muß. Gerade, wenn man die dort – praktisch in wenigen Jahrzehnten aus dem Wüstensand heraus – geschaffene Infrastruktur und Industrie betrachtet, kann man die ganze Erbärmlichkeit der russischen Oberschicht ermessen.

Was dies für die internationalen Energiemärkte bedeuten könnte

Die Selbstisolation durch militärische Bedrohung der Nachbarn, erinnert an das Verhalten von Potentaten in Entwicklungsländern kurz vor deren Untergang. Wenn Putin nicht einlenkt, wird man ihn stoppen müssen. Er täuscht sich gewaltig, wenn er glaubt, er könne Teile Europas in den gleichen Abgrund, wie Syrien stürzen. Gerade sein Syrienabenteuer wird ihm in der nächsten Zeit auf die Füße fallen. Er hat sich bei allen Staaten – die zufällig zu den größten Gas- und Ölproduzenten zählen – äußerst unbeliebt gemacht. Für die dürfte es alles andere als ein Zufall sein, daß gerade die muslimischen Tataren auf der Krim am meisten unter seiner „Ukrainepolitik“ leiden. Es könnte sein, daß dies der berühmte Tropfen ist, der das Fass zum überlaufen bringt. Zumindest in Saudi Arabien ist die Erinnerung an die „brüderliche Waffenhilfe der Sowjets“ in Afghanistan und Putins Vorgehen in Tschetschenien noch sehr lebendig.

Wenn Putin nicht einlenkt, wird man ihn wirtschaftlich unter Druck setzen (müssen). Das kann sehr schnell und sehr schmerzhaft geschehen, ohne daß man überhaupt wirtschaftliche Sanktionen beschließen muß. Man muß nur die russischen Preise für Energieträger unterbieten. Jeder Kontrakt, der Rußland vollkommen verloren geht, reißt ein tiefes Loch, jeder gesenkte Preis, ein etwas kleineres Loch, in die Kassen des Kreml. Jeder Verfall des Rubel verteuert darüber hinaus die lebenswichtigen Importe. Ein faktisches Entwicklungsland wie Rußland, hat dem nichts entgegen zu setzen. Eigentlich sollte gerade Rußland aus dem Kollaps des Sowjetreichs seine Lehren gezogen haben: Als es glaubte, die Welt mit Waffengewalt beherrschen zu können (Einmarsch in das sozialistische Bruderland Afghanistan) nahm Ronald Reagen die Herausforderung an und erschuf den „Krieg der Sterne“. Putin mag als guter Schachspieler gelten, aber die USA sind immer noch die Nation der Poker-Spieler. Putin wird noch lernen müssen, wenn man kein gutes Blatt in den Händen hält und nichts in der Tasche hat, sollte man besser nicht, die wirklich großen Jungs reizen.

Kohle

Die russische Kohleindustrie ist durch und durch marode. Das gilt auch und gerade für das Revier im Osten der Ukraine. Die Produktionskosten sind teilweise so hoch, daß jetzt schon mit Verlusten produziert wird. Demgegenüber hat allein die USA schier unerschöpfliche Kohlenmengen verfügbar. Dies betrifft sogar die Transport- und Hafenkapazitäten. Es ist ein leichtes, den Vertrieb zu intensivieren und sich um jeden russischen Kunden zu bemühen. Man muß nur jeweils etwas unter den russischen Preisen anbieten. Dies wird nicht einmal an den Weltmärkten zu Verwerfungen führen. Der Exportanteil Russlands ist einfach zu gering. Für Russland andererseits, ist jede nicht verkaufte Schiffsladung ein Problem.

Öl

Russland, USA und Saudi Arabien sind die drei größten Ölförderländer. Die USA werden in den nächsten Jahren zur absoluten Nummer eins aufsteigen. Schon jetzt liegen die Preise in den USA (WTI) rund zehn Dollar unter den Preisen in Europa (Brent). Es schwelt schon lange ein Konflikt um die Aufhebung des Exportverbotes. Ein denkbarer Kompromiß, wäre eine Aufhebung für „befreundete Nationen“ in Europa. Geschieht das, rächt sich die Vernachlässigung der russischen Transportkapazitäten. Die USA können zusammen mit Saudi Arabien die Ölpreise in den klassischen Abnehmerländern Russlands in beliebige Tiefen treiben. Dies gilt vor allem für die hochwertigen Rohöl-Qualitäten. Zusätzlich noch ein bischen Konjunkturabschwächung in China und der russische Staatshaushalt gerät aus den Fugen.

Erdgas

Russland besitzt nach wie vor die größten konventionellen Erdgasreserven. Danach folgen Qatar und Iran. Alle drei sind tief im Syrienkonflikt verstrickt. Alle drei aus dem gleichen Grund, wenn auch auf verschiedenen Seiten. Syrien ist das potentielle Transitland für Erdgas aus dem Golf-Gebiet. Rußland schürt mit allen Mitteln den Krieg, um einen geplanten Ausbau des Pipelinenetzes aus Süd-Irak zu verhindern. Ist das Gas erstmal im Irak angekommen, ist der Anschluß an die südeuropäischen Netze nicht mehr weit. Qatar kann die gemeinsamen Gasfelder mit Iran weiterhin günstig ausbeuten, solange dem Iran mangels Transportkapazität der Absatzmarkt fehlt. Iran verfügt genauso wenig wie Russland über die Technologie für eine LNG-Kette. Iran bekommt keine Unterstützung solange es an einer Atombombe bastelt. Russland kann sich (noch) mit Importen der Anlagentechnik aus dem Westen im bescheidenen Maße behelfen.

Allein in den USA befinden sich zwanzig Anlagen zur Verflüssigung und anschließendem Export in der Genehmigung. Der Weltmarkt für Erdgas wird sich in den nächsten Jahren völlig verändern. Deutliches Zeichen sind die Verwerfungen in den Preisen. In Europa sind die Preise derzeit etwa doppelt so hoch, wie in den USA. In Asien sogar drei bis vier mal so hoch. Hauptursache in Asien sind die enormen Importe durch Japan als Ersatz für die abgeschalteten Kernkraftwerke. Sobald Japan wieder seine Kernkraftwerke in Betrieb nimmt – was technisch innerhalb weniger Wochen möglich wäre – werden die Erdgaspreise in Asien mangels Nachfrage deutlich sinken. Es bietet sich dann an, diese Ströme nach Europa umzuleiten. Ausgerechnet die Golfstaaten verfügen über die größten Verflüssigungsanlagen und Transportflotten. Ganz schlecht für Putin, wenn er weiterhin den Krieg in Syrien schüren will und die muslimischen Krim-Tataren erneut vertreiben will. Putin wird sich mit den Gaspreisen zufrieden geben müssen, die ihm die USA und die arabische Welt zugestehen werden. Ein Ausweichen auf andere Kunden ist praktisch nicht möglich. Pipelines lassen sich im Gegensatz zu Tankerflotten zwar abschalten, nicht aber umleiten.

Fazit

Energie ist immer auch Politik. Eine Tatsache, die nach den Erfahrungen der 1970er Jahre mit den sog. „Ölkrisen“ gern wieder verdrängt wurde. In den vergangenen Jahrzehnten gehörte es für jeden Linken (Schröder, Fischer etc.) zu den festen Glaubensgrundsätzen, daß die USA nur „Kriege wegen Öl“ führen. Stets von Schule bis Medien in diesem Glauben geschult, hat man in Deutschland einfach nicht wahrnehmen wollen, welche Veränderungen (gerade) durch Präsident Bush in den USA stattgefunden haben. In einer gigantischen Kraftanstrengung wurde das gesamte Öl- und Gasgeschäft praktisch neu erfunden.

Heute, gilt mehr denn je, der „Fluch der Rohstoffe“. Länder, die über billige Energievorkommen verfügen, aber nicht verstehen, etwas vernünftiges mit den daraus resultierenden Devisenströmen an zu fangen, drohen durch zu viel Geld weiter zu verarmen. Nigeria, Venezuela und Russland sind hierfür typische Beispiele.

Länder, die durchaus energieautark sein könnten (Deutschland z. B. gehört zu den zehn Ländern mit den größten Kohlevorkommen weltweit), können es sich erlauben, „hochwertige Waren“ gegen „billigere Energie“ (volkswirtschaftlich) gewinnbringend zu tauschen. Man – meint zumindest – sogar auf neuere Fördermethoden verzichten zu können (sog. Fracking-Verbot in Deutschland und Frankreich).

Stellvertretend für die Energieversorgung (im Sinne von Energiepolitik) des 21. Jahrhunderts ist die Kernenergie: Der Brennstoff Uran ist überall, preiswert und in beliebigen Mengen erhältlich. Er ist einfach zu lagern. Kernkraftwerke können über Jahre mit einer Brennstoffladung betrieben werden. Die „Kunst“ besteht in der Beherrschung der Technik. Die Ersatzteile, das Fachpersonal und der allgemeine industrielle Hintergrund bestimmen die Versorgungssicherheit. Insofern dürfte sich Rußland durch seine Abenteuer in der Ukraine auch aus diesem Geschäftsbereich selbst herauskatapultiert haben.

Stromautobahn oder Schmalspurbahn?

Stück für Stück kommt nun auch die Wahrheit über den „Netzausbau“ ans Licht. Die ersten Bürgerproteste und Reaktionen der Lokalpolitiker gehen durch die Presse. Ein neues, aufregendes Kapitel der „Energiewende“ beginnt.

Versorgung oder Entsorgung?

Zuerst sollte man einmal den Sinn und Zweck dieser neuen Hochspannungs-Gleichstrom-Übertragung (HGÜ) hinterfragen: Dient sie der Versorgung von Süddeutschland mit elektrischer Energie oder vielmehr der Entsorgung norddeutscher Küsten vom Abfallstrom? Durchaus zwei völlig verschiedene Ansätze, die noch zahlreiche Juristen beschäftigen werden. Noch funktioniert die Stromversorgung in Bayern, nicht zuletzt wegen der hohen Eigenerzeugung der lokalen Kernkraftwerke (Isar2, Grafenrheinfeld, Gundremmingen mit zusammen 5.257 MWel.). Jedenfalls ist noch kein Blackout eingetreten. Diese Gefahr soll erst durch deren Abschaltung heraufbeschworen werden, damit die Anhänger der Planwirtschaft richtig zuschlagen können. Apropos Richtung: Selbst, wenn man gegen die vorhandenen Kernkraftwerke ist, könnte man diese durch konventionelle Kraftwerke oder Stromimporte aus dem benachbarten Ausland ersetzen. Will man partout keine eigenen Kraftwerke (Arbeitsplätze und Steuereinnahmen), könnte man sie leicht und schnell „hinter der Grenze“ bauen. Die Lage ist also alles andere als alternativlos – jedenfalls für Bayern.

Schauen wir uns deshalb etwas näher den Anfang dieser Stromtrasse an. Wenn dort der Wind mal richtig weht – das heißt nicht zu schwach und auch wieder nicht zu stark – versinkt Norddeutschland in elektrischer Energie. Selbstverständlich gehört es zur unternehmerischen Freiheit, ein Solarium in der Sahara zu errichten. Nur gehört zum Unternehmer auch das Risiko tragen zu müssen. Eine Tatsache, die bei deutschen Energieversorgern längst verdrängt worden ist. Wenn man nach der Fertigstellung feststellt, daß die Kunden nicht Schlange stehen, weil die Wüste zu gering bevölkert ist, kann man dafür nicht Menschen in einer Entfernung von über tausend Kilometern verantwortlich machen. Fairerweise muß man unseren Kombinatsleitern zubilligen, daß sie die Windmühlen nicht als leuchtende Köder für die zahlreicheren Fische einsetzen wollten. Jedenfalls haben sie sich die erforderliche Bauzeit für die Anschlüsse an die Küste von uns Stromkunden fürstlich vergüten lassen. An der Küste treffen nun diese Windmühlen auf zahlreiche „Windparks“, die dort unter tatkräftiger Förderung lokaler Politiker aus dem Boden gestampft wurden – alles wegen der „grünen Arbeitsplätze“ – denn sonst ist da nicht viel los! Wohin aber nun mit dem Abfallstrom, den man selbst gar nicht verbrauchen kann und den auch sonst keiner haben will, weil einfach viel zu teuer? Ab ins reiche Bayern als eine weitere Variante des Länderausgleich, könnte man meinen.

Kernenergie versus Wind

Die neue Stromtrasse soll bei den Kernkraftwerken enden. Es ist durchaus sinnvoll, die dort vorhandenen Stromleitungen weiter zu nutzen. In erster Linie geht es jedoch darum, den Eindruck zu erwecken, man ersetze den „Atomstrom“ durch „Erneuerbare Energien“. Physikalisch ist das natürlich unmöglich: Man kann konventionelle Kraftwerke nicht durch Windenergie ersetzen, da der Windstrom so zufällig wie das Wetter ist! Wirtschaftlich ist es unsinnig, da man (selbst bei Windparks in der Nordsee) mehr als die vierfache Leistung benötigt, um die gleiche Energie erzeugen zu können. Die bayrischen Kernkraftwerke haben eine Arbeitsverfügbarkeit von durchweg 90 %, während die Windenergie in Ost- und Nordsee auf gerade mal 20 % kommt. Wohlgemerkt, das sind die tatsächlich gemessenen Werte und nicht irgendwelche Phantasiewerte der Schlangenölverkäufer. Da es auch auf hoher See mehrtägige Flauten und Orkane gibt, kommt man nicht umhin, die Kernkraftwerke trotzdem durch fossile Kraftwerke zu ersetzen. An dieser Stelle wird es noch einmal deutlich: Die neuen Stromtrassen können nicht zu einer sicheren und unterbrechungsfreien Stromversorgung von Bayern dienen. Sie dienen lediglich zur Verteilung von Stromabfall aus Norddeutschland. Bisher gibt es nicht einmal „überzählige Kraftwerke“ in Norddeutschland, die die bayrischen Kernkraftwerke ersetzen könnten: Weht kein Wind an der Küste, brauchen die ihre Kohlekraftwerke selber, um die Großräume von Hamburg, Bremen und Berlin ausreichend mit Strom zu versorgen.

Ein Solitaire ist kein Stromnetz

Besonders aberwitzig ist, eine Hochspannungs-Gleichstrom-Übertragung (HGÜ) bauen zu wollen. Gleichstrom und Drehstrom sind physikalisch verschieden und lassen sich nicht einfach mischen! Man muß den erzeugten Drehstrom erst aufwendig in Gleichstrom umwandeln und später wieder zurück wandeln. Beides ist mit Verlusten behaftet und erfordert sehr kapitalintensive Anlagen. Wirtschaftlich lohnt sich das nur, bei sehr großen Entfernungen durch dünn besiedelte Regionen. Man kann nämlich nirgendwo unterwegs Strom abzweigen, um ihn in lokale Netze einzuspeisen. Der Gleichstrom müßte erst wieder in Wechselstrom gewandelt werden. Die Bezeichnung „Stromautobahn“ ist bewußt irreführend. Auf einer Autobahn kann man mit jedem Kraftfahrzeug mit dem man im sonstigen Straßennetz fahren kann, ebenfalls fahren. In Berlin sogar einmal im Jahr mit dem Fahrrad. Die Bezeichnung „Schmalspurtrasse“ wäre treffender. Genauso, wie man mit keinem Normalspurwaggon auf einer Schmalspur fahren kann und erst alles aufwendig (zweimal) umladen muß. Eine solche HGÜ-Trasse bleibt ewig ein Fremdkörper im vorhandenen (europaweiten) Stromnetz.

Wäre das Stromnetz in Deutschland in der Lage, auch ohne die Kernkraftwerke in Süddeutschland die Versorgungssicherheit aufrecht zu halten, bräuchte man keine zusätzlichen Stromleitungen. Andererseits bringt eine einzelne HGÜ-Trasse fast nichts für die Bayrische Versorgungssicherheit. Fällt nämlich diese einzelne Leitung (Eisregen, Sturm, Unfälle, Terrorismus etc.) aus, müßte das vorhandene Netz die Versorgung sicher übernehmen können. Ein Widerspruch in sich! Es ist die alt bekannte Salamitaktik, die hier angewendet werden soll. Erst mal eine Milliarde versprechen, aus denen dann ohnehin drei werden und dann das bereits vergrabene Geld als Begründung für weitere notwendige Kosten nehmen. Michel, wann lernst du endlich dazu!

Die Kosten

Die Kosten sind immens. Um die Regeln für Netzwerke (z. B. N-1) einhalten zu können, wird man noch mehrere HGÜ-Trassen durch Deutschland schlagen müssen. Das ist halt der Preis, den man für eine zentrale Versorgung zahlen muß. Schon unsere Großväter haben aus gutem Grund, viele Kraftwerke möglichst nah am Verbraucher gebaut. Wir können aber gerne die Fehler anderer Kontinente nachmachen.

Interessant wird sich die Finanzierung gestalten. Bei einer Stromtrasse für Windkraft, muß man von einer sehr geringen Auslastung (unter 20%) ausgehen. Dies treibt die Kosten pro transportierter kWh in Schwindel erregende Höhen. Hinzu kommt ein enormes wirtschaftliches Risiko. Bei der einseitigen Ausrichtung auf Windparks in der Nordsee, ist dies kaum zu kalkulieren. Wer kann garantieren, daß dieses tote Pferd von einer uns noch völlig unbekannten Regierung in 10 oder 20 Jahren noch geritten wird? Wer vermag heute voraus zu sagen, in welche Höhen der Strompreis in Deutschland durch die Laiendarsteller und Schlangenölverkäufer noch getrieben wird? Wo liegt die Schmerzgrenze, die zumindest von der Wirtschaft nicht mehr getragen werden kann? Was hätte das für Konsequenzen, da nicht einmal unsere Nachbarn gewillt sind, diesen Irrweg nach zu machen? Was es für eine Volkswirtschaft bedeutet, wenn Milliardenkredite bei Immobilien platzen, zeigen übrigens Spanien und Irland eindrucksvoll (dort war es ein durch die Politik erzeugter Bauboom bei Wohnungen).

Die tolle Idee einer Bürgerbeteiligung dürfte sich schon vor dem Start in Luft aufgelöst haben. Der Bürger hat dank Prokon gelernt, was es bedeutet, wenn das Risiko der Windkraft von Banken als zu hoch eingeschätzt wird. Es war – wie immer – ein sicheres Zeichen für ein totes Geschäftsmodell, aus dem nichts mehr herauszuholen ist.

Ein möglicher Ausweg

Man macht endlich Schluß mit dieser „Energiewende“, an deren Ende nicht nur die Zerstörung unserer Volkswirtschaft und Natur steht, sondern unserer gesamten Gesellschaft. Sind die Lehren aus der „DDR“ schon so schnell vergessen? Diesmal wird es kein Beitrittsgebiet geben. Diesmal, wird die Suppe bis zum letzten Tropfen selbst ausgelöffelt.

Wenn die Bayern ihre Kernkraftwerke nicht mehr mögen, sollten sie sich selbst um Ersatz kümmern. Wer Kernkraftwerke generell ablehnt, muß sich entsprechende Kohlekraftwerke als Ersatz bauen. Wer als Entscheidungsträger nicht durchsetzungsfähig ist, sollte neue Kraftwerke gleich hinter der Grenze bauen. In Polen und Tschechien sind (gut bezahlte) Arbeitsplätze noch heiß begehrt.

Der „Netzausbau“ ist nach den Sonnenkollektoren und den Windparks auf hoher See, die dritte Schnapsidee. Jetzt soll auch noch unser funktionierendes und robustes Stromnetz auf dem Altar der Planwirtschaft geopfert werden. Nach zweimal Sozialismus, sollten wir uns endlich mal eine „Irrtumskultur“ zulegen und diesmal rechtzeitig vor dem Zusammenbruch aufhören, unseren (Alb)Träumen nachzujagen.

SMR Teil 3 – Innovative Reaktoren

Es gibt inzwischen unzählige Reaktorentwürfe. Es gehört praktisch zum guten Ton einer jeden Forschungsstätte sich mit einer neuen Studie zu schmücken. Je nach Mitteln und Background, reichen (meist) auch Variationen bekannter Prinzipien aus.

Es ist daher sinnvoll, auch bei der Betrachtung „kleiner“ Reaktoren (SMR) den potentiellen Markt nicht außer acht zu lassen. Die Domäne der Kernenergie ist und bleibt die Erzeugung elektrischer Energie. Dies liegt einerseits an der universellen Verwendbarkeit von „Strom“ und andererseits an Gewicht und Volumen eines Kernreaktors. Die Untergrenze für den technisch/wirtschaftlichen Einsatz ist ein Schiff.

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die „Endlichkeit“ von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

  • Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.
  • Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der „kleinen“ Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach „hohen Temperaturen“ hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit „billiger“ Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. „Schnelle Brüter“.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden.

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel.eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet.

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth. komplett und fertig mit Brennstoff beladen auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in „netzfähigen Strom“ erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines „Schulbusses“ hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften wäre selbst ohne Wiederaufbereitung, der „Atommüll“ um 80% geringer als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein „Energieversorger“ mietet sich quasi für 30 Jahre eine „Stromerzeugungseinheit“ und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine „Atommüllprobleme“…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als „Starter“ rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem „unendlichen“ Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer „schneller“ Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor mit einer thermischen Leistung von 840 MWth und 311 MWel. Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel. zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf „schnelle“ Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten „abgebrannten“ Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel. produziert über ein ganzes Jahr – kann man „irgendwo“ lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B~4 C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

  1. Über einen Bypass der Turbine durch den normalen Dampfkreislauf des Kraftwerks.
  2. Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.
  3. Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das „obere Stockwerk“ des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos „an die Luft können“, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was „Atomkraftgegner“ als „Atommüll“ bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit „Bomben-Plutonium“ aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem „Atommüll“ aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt „zwischenlagert“. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth. haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines „schnellen“ Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

  • Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.
  • Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.
  • Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

  • Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall „(lokale) Unterkühlung“ mit entsprechenden Konsequenzen für das Genehmigungsverfahren.
  • Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.
  • Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.
  • Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).
  • Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.
  • Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis – auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren –. dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den „Atomkraftgegnern“ werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC-100 und wer weiß noch, welche sonst alle….

 

 

SMR Teil 1 – nur eine neue Mode?

Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht

In letzter Zeit wird wieder verstärkt über „kleine, bausteinförmig aufgebaute Kernkraftwerke“ diskutiert. Wie immer, wenn es ums Geld geht, war der Auslöser ein Förderungsprogramm des Department of Energy (DoE) in den USA. Hersteller konnten sich um einen hälftigen Zuschuss zu den Kosten für das notwendige Genehmigungsverfahren bewerben. Der Gewinner bekommt vom amerikanischen Staat fünf Jahre lang die Kosten des Genehmigungsverfahrens und die hierfür notwendigen Entwicklungs- und Markteinführungskosten anteilig ersetzt. Es gibt die Förderung nur, wenn das Kraftwerk bis 2022 fertig ist (es handelt sich also um kein Forschungs- und Entwicklungsprogramm) und man muß sich zusammen mit einem Bauherrn bewerben.

Sieger der ersten Runde war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Eine sehr konservative Entscheidung: Babcock & Wilcox hat bereits alle Reaktoren der US Kriegsschiffe gebaut und besitzt deshalb jahrzehntelange Erfahrung im Bau kleiner (militärischer) Reaktoren. Bechtel ist einer der größten internationalen Ingenieurfirmen mit dem Schwerpunkt großer Bau- und Infrastrukturprojekte. Tennessee Valley Authority ist ein öffentliches Energieversorgungsunternehmen. Wie groß die Fördersumme letztendlich sein wird, steht noch nicht fest. Die in der Öffentlichkeit verbreiteten 452 Millionen US-Dollar beziehen sich auf das gesamte Programm und nicht jeden Hersteller. Insofern war die Entscheidung für den Kandidaten, mit dem am weitesten gediehenen Konzept, folgerichtig.

Die Wirtschaftlichkeit

An dieser Stelle soll nicht auf den Preis für eine kWh elektrischer Energie eingegangen werden, da in diesem frühen Stadium noch keine ausreichend genauen Daten öffentlich zugänglich sind und es rein spekulativ wäre. Es sollen viel mehr ein paar qualitative Überlegungen angestellt werden.

Man geht von deutlich unter einer Milliarde US-Dollar pro SMR aus. Auch, wenn man nur eine Stückzahl von 100 Stück annimmt, ergibt das den stolzen Umsatz von 100 Milliarden. Dies entspricht in etwa dem „Modellwert“ in der Flugzeugindustrie. Damit wird sofort klar, daß das keine Hinterhof-Industrie werden kann. Der Weltmarkt wird unter einigen wenigen Konsortien von der Größenordnung Boing oder Airbus unter sich aufgeteilt werden! Wer zu lange wartet, hat praktisch keine Chance mehr, in diesen Markt einzusteigen. Ob Europa jemals noch ein Konsortium wie Airbus schmieden kann, ist mehr als fraglich. Die Energieindustrie wird wohl nur noch von den USA und China bestimmt werden.

Es ergeben sich auch ganz neue Herausforderungen für die Finanzindustrie durch die Verlagerung des Risikos vom Besteller zum Hersteller. Bisher mußte ein Energieversorger das volle Risiko allein übernehmen. Es sei hier nur das Risiko einer nicht termingerechten Fertigstellung und das Zinsänderungsrisiko während einer Bauzeit von zehn Jahren erwähnt. Zukünftig wird es einen Festpreis und kurze Bauzeiten geben. Die Investition kann schnell wieder zurückfließen. Daraus erklärt sich der Gedanke, ein Kernkraftwerk heutiger Größenordnung zukünftig aus bis zu einem Dutzend einzelner Anlagen zusammen zu setzen. Sobald der erste Reaktor in Betrieb geht, beginnt der Kapitalrückfluss. Man spielt plötzlich in der Liga der Gaskraftwerke!

Damit stellt sich aber die alles entscheidende Frage: Wer ist bereit, das finanzielle Risiko zu tragen? China hat sich durch den Bau von 28 Kernkraftwerken eine bedeutende Zulieferindustrie aufgebaut. Auch die USA verfügen über eine solche. Das Risiko auf verschiedene Schultern zu verteilen, ist ein probates Mittel. Europa müßte sich unter – wahrscheinlich französisch-britischer Führung – mächtig sputen, um den Anschluß nicht zu verlieren. Im Moment sieht es eher so aus, als wenn Frankreich, Großbritannien und die USA gleichermaßen um die Gunst von China buhlen.

Um es noch einmal in aller Deutlichkeit zu sagen: Europa fehlt es nicht an technischen Möglichkeiten und an Finanzkraft, sondern am politischen Willen. Es ist das klassische Henne-Ei-Problem: Ohne ausreichende Bestellungen, ist keiner bereit, in Fertigungsanlagen zu investieren. Wer aber, sollte diesen Mut aufbringen, ausgerechnet in Deutschland, wo es keinen Schutz des Eigentums mehr gibt, wo eine Hand voll Politiker nach einem Tsunami im fernen Japan, mit einem Federstrich, Milliarden vernichten können und die breite Masse dazu auch noch Beifall klatscht?

Fertigung in einer Fabrik

Bisher wurden Kernreaktoren mit immer mehr Leistung gebaut. Inzwischen wurde beim EPR von Areva fast die 1700 MWel erreicht. Man macht damit Kernkraftwerke und ihre Komponenten selbst zu einem Nischenprodukt. Nur wenige Stromnetze können so große Blockgrößen überhaupt verkraften. Andererseits wird der Kreis der Zulieferer immer kleiner. Es gibt weltweit nur eine Handvoll Stahlwerke, die überhaupt das Rohmaterial in der erforderlichen Qualität liefern können. Hinzu kommen immer weniger Schmieden, die solch große Reaktordruckgefäße, Turbinenwellen, Schaufeln etc. bearbeiten können. Je kleiner die Stückzahlen und der Kreis der Anbieter wird, um so teurer das Produkt.

Es macht aber wenig Sinn, kleine Reaktoren als verkleinertes Abbild bisheriger Typen bauen zu wollen. Dies dürfte im Gegenteil zu einem Kostenanstieg führen. Will man kostengünstige SMR bauen, muß die gesamte Konstruktion neu durchdacht werden. Man muß praktisch mit dem weißen Blatt von vorne beginnen. Typisches Beispiel ist die Integration bei einem Druckwasserreaktor: Bei der konventionellen Bauweise ist jede Baugruppe (Druckgefäß, Dampferzeuger, Umwälzpumpen, Druckhalter) für sich so groß, daß sie isoliert gefertigt und transportiert werden muß und erst am Aufstellungsort durch Rohrleitungen miteinander verbunden werden kann. Damit wird ein erheblicher Arbeits- und Prüfaufwand auf die Baustelle verlegt. Stundensätze auf Baustellen sind aber wegen ihrer Nebenkosten stets um ein vielfaches höher, als in Fabriken. Gelingt es, alle Baugruppen in das Druckgefäß zu integrieren, entfallen alle notwendigen Montagearbeiten auf der Baustelle, weil ein bereits fertiger und geprüfter „Reaktor“ dort angeliefert wird. Bauteile, die es gar nicht gibt (z. B. Rohrleitungen zwischen Reaktordruckgefäß und Dampferzeugern) müssen auch nicht ständig gewartet und wiederholt geprüft werden, was auch noch die Betriebskosten erheblich senkt.

Wenn alle Bauteile wieder „kleiner“ werden, erweitert sich auch automatisch der potentielle Herstellerkreis. Die Lieferanten können ihre Fertigungsanlagen wieder besser auslasten, da sie nicht so speziell sein müssen. Es ist wieder möglich, eine nationale Fertigung mit akzeptablen Lieferzeiten zu unterhalten.

Durch die Fertigung von Bauteilen in geschlossenen Hallen ist man vor Witterungseinflüssen (oder schlicht Dreck) geschützt, was die Kosten und das Ausschussrisiko senkt. Eine Serienfertigung führt durch den Einsatz von Vorrichtungen und die Umlage von Konstruktions- und Entwicklungskosten etc. zu geringeren Kosten. Die Standardisierung senkt Schulungskosten und erhöht die Qualität.

In der Automobilindustrie ist die Teilung in Markenhersteller und Zulieferindustrie üblich. Gelingt es Bauteile für Kernkraftwerke zu standardisieren, kann sich auch eine kerntechnische Zulieferindustrie etablieren. Ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken ist dem erforderlichen „nuclear grade“ geschuldet. Es ist kein Einzelfall, daß ein und das selbe Teil für Kernkraftwerke durch diesen Status (Dokumentation, Zulassung etc.) oft ein Vielfaches des „handelsüblichen“ kostet. Ein wesentlicher Schritt für den Erfolg, ist dabei die klare Trennung in „sicherheitsrelevante“ und „sonstige“ Teile. Eine Vorfertigung und komplette Prüfung von Baugruppen kann dabei entscheidend sein. Wird beispielsweise das Notkühlsystem komplett passiv ausgelegt – also (fast) keine elektrische Energie benötigt – können die kompletten Schaltanlagen usw. in den Zustand „normales Kraftwerk“ entlassen werden.

Was ist die richtige Größe?

Die Bandbreite der elektrischen Leistung von SMR geht etwa von 40 bis 300 MWel. Die übliche Definition von „klein“ leitet sich von der Baugröße der Zentraleinheit ab. Sie sollte noch in einem Stück transportierbar sein. Dies ist eine sehr relative Definition, die sich beständig nach oben ausweitet. Es werden heute immer größere Einheiten (Ölindustrie, Schiffbau usw.) auch über Kontinente transportiert. Der Grundgedanke bei dieser Definition bleibt aber die Zusammenfassung eines „kompletten“ Reaktors in nur einem Teil und die Funktionsprüfung vor der Auslieferung, in einer Fabrik.

Sinnvoller erscheint die Definition nach Anwendung. Grundsätzlich sind Insellösungen und die Integration in vorhandene Netze unterscheidbar. Besonders abgelegene Regionen erfordern einen erheblichen Aufwand und laufende Kosten für die Energieversorgung. Auf diese Anwendung zielt beispielsweise das russische Konzept eines schwimmenden Kernkraftwerks. Die beiden je 40 MWel Reaktoren sollen nach Chuktoa in Ost-Sibirien geschleppt werden und dort Bergwerke versorgen. Sehr großes Interesse existiert auch im kanadischen Ölsandgebiet. Ein klassischer Anwender war früher auch das US-Militär. Es besitzt wieder ein verstärktes Interesse, abgelegene Militärstützpunkte durch SMR zu versorgen. Langfristig fallen in diese Kategorie auch Chemieparks und Raffinerien.

Kernkraftwerke unterliegen – wie alle anderen Kraftwerke auch – prinzipiell einer Kostendegression und Wirkungsgradverbesserung mit steigender Leistung. Es ist deshalb bei allen Kraftwerkstypen eine ständige Vergrößerung der Blockleistungen feststellbar. Heute wird die maximale Leistung hauptsächlich durch das Netz bestimmt. Man kann die Grundregel für Neuinvestitionen (stark vereinfacht) etwa so angeben:

  • Baue jeden Block so groß, wie es das Netz erlaubt. Das Netz muß Schnellabschaltungen oder Ausfälle vertragen können.
  • Baue von diesen Blöcken auf einem Gelände so viel, wie du kannst. Wieviel Ausfall kann das Netz bei einem Ausfall einer Übertragungsleitung verkraften? Wie kann die Brennstoffversorgung am Standort gewährleistet werden (Erdgaspipeline, Eisenbahnanschluss, eigener Hafen etc.)? Wie groß ist das Kühlwasserangebot und wie sind die Randbedingungen bezüglich des Umweltschutzes?

Aus den vorgenannten Überlegungen ergeben sich heute international Blockgrößen von 200 bis 800 MWel, bei zwei bis acht Blöcken an einem Standort.

Wie groß der potentielle Markt ist, sieht man allein an der Situation in den USA. Dort müssen wegen verschärfter Bestimmungen zur Luftverschmutzung (Mercury and Air Toxic Standards (MATS) und Cross-State Air Pollution Rule (CSDAPR)) bis 2016 rund 34 GWel Kohlekraftwerke vom Netz genommen werden. Neue Kohlekraftwerke dürfen praktisch nicht mehr gebaut werden. Die Umstellung auf Erdgas kann wegen der erforderlichen Gasmengen und des daraus resultierenden Nachfragedrucks nur eine Übergangslösung sein. Da die „alten Kohlekraftwerke“ relativ klein sind, würde ein Ersatz nur durch „große“ Kernkraftwerke einen erheblichen Umbau der Netzstruktur erforderlich machen. Eine schmerzliche Erfahrung, wie teuer Zentralisierung ist, macht gerade Deutschland mit seinem Programm „Nordseewind für Süddeutschland“. Insofern brauchen SMR auch nur mit „kleinen“ Kohlekraftwerken (100 bis 500 MWel) konkurrieren, die der gleichen Kostendegression unterliegen.

Das Sicherheitskonzept

Bei der Markteinführung von SMR gibt es kaum technische, aber dafür um so größere administrative Probleme. Aus diesem Grund rechtfertigt sich auch das staatliche Förderprogramm in den USA. Die Regierung schreibt zwingend eine Zulassung und Überwachung durch die NRC vor. Dieses Verfahren muß vollständig durch die Hersteller und Betreiber bezahlt werden. Die Kosten sind aber nicht nur (mit dem jedem Genehmigungsantrag innewohnenden) Risiko des Nichterfolges versehen, sie sind auch in der Höhe unkalkulierbar. Die Prüfung erfolgt in Stundenlohnarbeit, zu Stundensätzen von knapp 300 US-Dollar! In diesem System begründet sich ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken. Die NRC hat stets – nicht ganz uneigennützig – ein offenes Ohr für Kritik an der Sicherheit von Kernkraftwerken. Mögen die Einwände auch noch so absurd sein. Als „gute Behörde“ kann sie stets „Bürgernähe“ demonstrieren, da die Kosten durch andere getragen werden müssen, aber immer den eigenen Stellenkegel vergrößern. Dieses System gerät erst in letzter Zeit in das Licht der Öffentlichkeit, nachdem man erstaunt feststellt, um wieviel billiger und schneller beispielsweise in China gebaut werden kann. Nur mit geringeren Löhnen, läßt sich das jedenfalls nicht allein erklären.

Die „Massenproduktion“ von SMR erfordert völlig neue Sicherheitskonzepte. Auf die technischen Unterschiede wird in den weiteren Teilen noch ausführlich eingegangen werden. Die Frage ist eher, welches Niveau man als Bezugswert setzt. Einem überzeugten „Atomkraftgegner“ wird nie ein Kraftwerk sicher genug sein! Im Gegenteil ist die ständige Kostentreiberei ein zentrales „Kampfmittel“. Allerdings wird durch die Erfolge von China und Korea das Märchen von der „ach so teuren Atomkraft“ immer schwerer verkaufbar. Selbst in einem tiefgläubigen Land wie Deutschland, muß man daher immer mehr auf andere Strategien (z. B. angeblich ungelöste „Entsorgung“) ausweichen. Sollte man jedoch das heute erreichte Sicherheitsniveau als Grenzwert setzen, lassen sich bei den meisten SMR-Konzepten bedeutende Kostenvorteile erreichen. Es ist nicht auszuschließen, daß das – außerhalb Deutschlands – so gesehen wird. Andererseits kann man durch zusätzliche Sicherheitsmaßnahmen die Auswirkungen auf das Umfeld auch bei schwersten Störfällen so stark begrenzen, daß ein Einsatz innerhalb des Stadtgebiets z. B. zur Fernwärmeversorgung akzeptabel wird. Könnte sogar sein, daß SMR in Städten mit starker Luftverschmutzung hoch willkommen sind.

Es gibt aber durchaus einige offene Fragen. Je mehr Standorte es gibt, um so aufwendiger ist die Organisation eines lückenlosen Überwachung- und Bewachungssystems. Heute hat jedes US-Kernkraftwerk zwischen 400 und 700 Festangestellte. Allein die „eigene Privatarme“ umfaßt durchschnittlich 120 Mann. Für jeden Reaktor gibt es ständig zwei – vom Energieversorger zu bezahlende – NRC-Kontrolleure.

International sind Abkommen zu treffen, die sich über die gegenseitige Anerkennung von Zulassungen und Prüfungen verständigen. Es macht keinen Sinn, wenn jedes Land von neuem das gesamte Genehmigungsverfahren noch einmal wiederholt. Bisher gilt eine NRC-Zulassung international als „gold standard“. Es würde sich lohnen, wenn die Kerntechnik sich hierbei an der internationalen Luftfahrt orientiert. Ebenfalls ein Bereich mit sehr hohen Sicherheitsanforderungen.

Nach allgemeiner Auffassung sollten die Lieferketten in „nuclear“ und „non nuclear“ unterteilt betrachtet werden. Die Lieferketten für alle sicherheitstechnisch bedeutenden Teile (Brennelemente, Dampferzeuger, Kühlmittelpumpen usw.) müssen schon sehr früh in der Genehmigungsphase stehen, da ihre Entwürfe unmittelbar mit der Sicherheit verbunden sind. Die Zulieferer müssen sehr eng mit dem eigentlichen Kraftwerkshersteller verknüpft werden. Es ergibt sich ein ähnliches Geschäftsmodell, wie in der Automobilindustrie. Dort werden die Zulieferer mit ihrem speziellen Wissen und Erfahrungen möglichst früh und eng in den Entwicklungsprozess einbezogen. Diese Lieferketten sollten für die Bauartzulassung (vorübergehend) festgeschrieben werden. Es sollten Bauteile gebaut und eingehend geprüft werden. Während dieses Prozesses sind alle Produktionsschritte und Prüfverfahren genau zu dokumentieren, um den Herstellerkreis später ausweiten zu können. Alle sonstigen Bestandteile des Kraftwerks können im Industriestandard und nach lokalen Gegebenheiten unmittelbar nach der jeweiligen Auftragsvergabe vergeben werden.

Hinweis

Dieser erste Teil beschäftigt sich mehr mit den grundsätzlichen Eigenheiten sog. „Small Modular“ Reaktoren. Die Betonung liegt hier auf der energiewirtschaftlichen Betrachtung. Es folgt ein zweiter Teil, der sich näher mit der Technik von SMR in der Bauweise als Leichtwasserreaktor beschäftigt. Ein dritter Teil wird auf die ebenfalls im Bewerbungsverfahren befindlichen schnellen Reaktoren eingehen.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….