Westinghouse eVinci Microreactor

Tote leben länger. Westinghouse ist schon öfter verkauft worden oder pleite gegangen, aber immer wieder wie Phönix aus der Asche auferstanden. Westinghouse hat 1957 weltweit den ersten Druckwasserreaktor (Shippingport, 60 MWel) gebaut und ist am Bau des AP1000 (Druckwasserreaktor der III. Generation, vier bereits in China in Betrieb.) in den USA erstickt. Inzwischen unter dem neuen Eigentümer Brookfield erfolgreich restrukturiert.

Ohne Zweifel zählt Westinghouse zu den besonders innovativen Unternehmen auf dem Gebiet der Kerntechnik. Deswegen verwundert es auch nicht, daß sie sich mit ihrem „eVinci“ weltweit an die Spitze der Entwicklung sogenannter „Mikro-Reaktoren“ setzen. Dabei handelt es sich um „Kleinst-Kernkraftwerke“ im Leistungsbereich einiger hundert Kilowatt bis zu etwa 25 Megawatt elektrischer Leistung. Gemeinsam ist dieser Klasse, daß sie vollständig (in Serie) in einer Fabrik gefertigt werden und komplett auf einem LKW (etwa in einem Container) ausgeliefert werden sollen. Man zielt damit auf einen völlig neuen Markt: Das Kernkraftwerk nicht mehr als Milliarden teueres Großkraftwerk, sondern als dezentrales „Block-Heiz-Kraftwerk“. Ironischerweise ist diese Entwicklung erst durch die wetterabhängige Erzeugung mit Wind und Sonne so richtig angefacht worden. Die einstigen Vorteile des guten alten Stromnetzes – Versorgungssicherheit bei günstigen Kosten – drohen durch die „Regenerativen Energien“ systematisch zerstört zu werden. Will man nicht zurück ins Mittelalter, sind also schnellstens neue Lösungen gefragt.

Das Konstruktionsprinzip

Will man direkt in die Städte oder Industrieanlagen (Raffinerien, Chemieparks etc.) ist die maximale Leistung auf einige zehn Megawatt begrenzt. Diese Kernkraftwerke müssen für einen Inselbetrieb ausgelegt sein: Ohne ein Netz in Betrieb zu nehmen (Schwarzstart), nahezu unterbrechungsfrei laufen (kein Brennelementewechsel), äußerst robust auf Lastschwankungen reagieren können und nicht zuletzt – „sicher sein“.

Bei allen schweren Störfällen – Three Mile Island, Tschernobyl, Fukushima – war der Verlust des Kühlmittels (Wasser) ausschlaggebend. Während des Unfallgeschehens kamen noch Reaktionen des Kühlmittels mit den Reaktorwerkstoffen hinzu: Die Bildung von Wasserstoff und die anschließende Knallgas-Explosion führte z. B. in Fukushima erst zur Freisetzung von radioaktiven Stoffen. Es ist damit logisch, daß der gesamte Kühlwasserkreislauf besondere Sorgfalt bei jeder Wiederholungsprüfung erfordert (Zeitdauer und Kosten) und all seine Bauteile den Kostentreiber „nuclear grade“ erfüllen müssen. Hinzu kommt, daß insbesondere bei Druckwasserreaktoren erhebliche Druckverluste auftreten, die durch Pumpen mit großer Antriebsleistung ersetzt werden müssen. Ein Ausfall der Stromversorgung, wie z. B. in Fukushima durch die gewaltige Flutwelle, ergibt damit sofort ein ernsthaftes Sicherheitsproblem. Könnte man das Kühlmittel Wasser ersetzen und darüberhinaus noch ein rein passives „Umwälzverfahren“ anwenden, ergebe sich sofort ein Quantensprung in der Sicherheitstechnik.

Seit Anbeginn der Kernkrafttechnik hat man Natrium als Kühlmittel verwendet. Neben seinen herausragenden thermodynamischen Eigenschaften, besitzt es auch hervorragende neutronenphysikalische Eigenschaften. Allerdings war früher die Marschrichtung eine völlig andere: Man wollte sogenannte „Schnelle Brüter“ bauen, die aus Uran-238 mehr leicht spaltbares Plutonium-239 erzeugen, als sie während ihres Betriebs verbrauchen. Ursache war die falsche Annahme, daß die Vorräte an (wirtschaftlich) gewinnbarem Natururan nur sehr klein wären. Heute schwimmen wir weltweit nicht nur in Natururan, sondern auch bereits in Plutonium. Im Gegenteil, das Plutonium wird als „Endlager-Risiko“ und damit Handikap der Kernenergie betrachtet.

Strebt man einen „Schnellen Brüter“ an, muß dieser ein möglichst großes Volumen haben (Ausfluß von Neutronen) und daraus ergibt sich automatisch eine große Leistung. Schon muß man wieder die gleichen Sicherheitsprobleme wie bei einem Druckwasserreaktor lösen und stets im Griff behalten: Großes Kühlmittelvolumen, das auch noch zum Abtransport der Wärme ständig (aktiv) umgepumpt werden muß und unter keinen Umständen verloren gehen darf. Will man jedoch nur einen Reaktor (relativ) kleiner Leistung bauen, kann man diese Probleme geschickt umschiffen.

Wärmerohe als Kühlmedium

Beim eVinci wird der Wärmetransport vom festen Kern zum Arbeitsgas durch Wärmerohre (heat pipes) bewerkstelligt. Wärmerohre sind (dünne) Metallrohre mit einem Docht versehen, die teilweise mit einer Flüssigkeit gefüllt sind und anschließend gasdicht verschweißt werden. Das mit Flüssigkeit gefüllte Ende steckt in der Wärmequelle (Reaktorkern) und das mit Dampf gefüllte Ende in der Wärmesenke (Arbeitsgas). Die Flüssigkeit im Rohr wird nun kontinuierlich verdampft, breitet sich im Rohr aus und kondensiert am gekühlten Ende. Dort bildet sich ein Flüssigkeitsfilm, der durch die Kapillarwirkung im Docht wieder zum heißen Ende zurück strömt. Das Wärmerohr ist also stets mit Sattdampf gefüllt und besitzt dadurch annähernd die gleiche Temperatur an beiden Enden. Ist die Rohrwand dünn und besteht aus gut leitendem Material, können große Wärmeströme durch die Rohroberfläche übertragen werden. Das Wärmerohr kann immer nur in eine Richtung die Wärme transportieren, ist aber durch den „Docht“ nicht von der Lage abhängig.

Das Temperaturniveau hängt von der Flüssigkeit ab. Im eVinci sollen mit Natrium gefüllte Wärmerohre eingesetzt werden. Natrium hat einen Schmelzpunkt von ungefähr 98°C und einen Siedepunkt von 883°C bei Atmosphärendruck. Die übliche Bandbreite für mit Natrium gefüllte Wärmerohre beträgt etwa 600°C bis 1200°C. Strebt man eine „niedrige“ Temperatur von 600°C an, muß man im Wärmerohr einen sehr geringen Druck von etwa 0,06 bar einhalten. Die Kombination aus Temperatur und Druck ist keine besondere Herausforderung, da man sich damit noch im Bereich konventioneller Stähle bewegt.

Die Wärmerohre funktionieren vollständig passiv. Der einzige Antrieb ist die Wärmeproduktion im Kern – gleichgültig ob im Betrieb oder als Nachzerfallswärme nach einer Abschaltung. Da jedes einzelne Wärmerohr ein in sich geschlossener Kühlkreislauf ist, stellt ein Versagen einiger Rohre für den Reaktor kein großes Problem dar. Im Gegensatz zu einem kleinen Loch in einem Druckwasserreaktor, das bereits die Sicherheitskette auslösen muß.

Der Aufbau des Kerns

Der Kern besteht aus einem massiven Stahlblock, der mit ca. 2000 Längsbohrungen von etwa 1,5 m Länge versehen ist. In den Längsbohrungen stecken die Brennelemente und die Wärmerohre. Das Verhältnis zwischen „Brennstäben“ und Wärmerohren beträgt etwa 1:2. In der Fertigung dieses „durchlöcherten Stahlblocks“ liegt ein zentrales Fertigungsproblem des Reaktors. Mit einfachem Bohren wird es nicht gelingen, da die Wände zwischen den Bohrungen möglichst dünn sein sollten um eine gute Wärmeübertragung zu gewährleisten. Der Stahlblock gibt der ganzen Konstruktion Halt, Schutz und transportiert die Wärme gleichmäßig zu den Wärmerohren. Es kann also nichts auslaufen und es steht auch nichts unter Überdruck.

Allerdings fehlt hier noch der Moderator. Bei einem Druckwasserreaktor übernimmt das Wasser selbst die notwendige Abbremsung der Neutronen. Beim eVinci soll Zirkoniumhydrid (ZrH2) diese Aufgabe übernehmen. Wahrscheinlich auch als Legierung aus Uran, Zirkon und Wasserstoff. Für diese Legierungen existieren jahrzehntelange Betriebserfahrungen in den TRIGA-Forschungsreaktoren. Diese Brennstoffe besitzen ein ausgeprägtes Verhalten zur Selbstregulierung der Leistung (stark negativer Temperaturkoeffizient der Reaktivität): Erhöht sich die Brennstofftemperatur ungebührlich, bricht die Kettenreaktion praktisch sofort ein und infolge auch die Wärmeproduktion. Ein Schmelzen des Brennstoffs wird sicher verhindert.

Der Brennstoff

Als Brennelemente sollen die – auch hier schon näher beschriebenen – TRISO Elemente verwendet werden. Sie besitzen ausgezeichnete Eigenschaften bezüglich hoher Temperaturbeständigkeit und dem Rückhaltevermögen von Spaltprodukten. Erinnert sei nur an die zwanzigjährige Erfolgsgeschichte des Kugelhaufenreaktors in Jülich. Unzählige Versuche in Deutschland und China haben die „Walk-Away-Sicherheit“ nachgewiesen. Dieser Brennstoff kann auch nach schwersten Störfällen, wie z. B. in Fukushima, nicht schmelzen und damit größere Mengen radioaktiver Stoffe freisetzen.

Allerdings benötigt man bei solch kleinen Reaktoren höher angereichertes Uran als bei Leichtwasserreaktoren. Ferner wird hier das „Batterie-Konzept“ angestrebt. Man liefert den betriebsbereiten Reaktor, schließt ihn an und läßt ihn für mindestens zehn Jahre (nahezu) vollautomatisch und ohne Unterbrechung laufen. Quasi ein Blockheizkraftwerk ohne Tankstelle. Durch die Wahl der TRISO-Brennelemente ist man zukünftig sehr flexibel. Neben Uran (HALEU) sind auch Plutonium und Thorium einsetzbar. Nur die Brennstoffherstellung muß verändert werden.

Das Arbeitsmedium

Da bei dieser Konstruktion der Kern mit seiner Neutronenstrahlung durch die Wärmerohre physikalisch vom Arbeitsmedium CO2 getrennt ist, hat man stets ein „sauberes“ Arbeitsmedium. Man muß also nicht noch einen sekundären Dampf-Kreislauf wie z. B. beim Kugelhaufenreaktor (radioaktiver Staub durch Abrieb der Brennelemente) oder einem mit Natrium gekühlten Reaktor (Aktivierung des Natriums durch schnelle Neutronen) hinzufügen. Dies spart Bauvolumen, Bauteile (die Funktion des Zwischenwärmetauschers übernehmen die Wärmerohre) und letztendlich Kosten. Im Prinzip ist man damit in der Wahl des Arbeitsmediums völlig frei. Allerdings sollte man die „Drucklosigkeit“ dieses Reaktortyps nicht grundlos aufgeben. Druckdifferenz bei hoher Temperatur bedeutet automatisch Wandstärke und damit Gewicht. Der Vorteil des einfachen Transports könnte schnell verloren gehen.

Beim eVinci ist zur Stromproduktion eine Gasturbine mit CO2 als Arbeitsmedium vorgesehen. Mit CO2 als Betriebsstoff besitzt man in der Kerntechnik jahrzehntelange Erfahrung (z. B. die gasgekühlten Kernkraftwerke in Großbritannien). CO2 läßt sich aber auch sehr gut als Medium für eine Gasturbine einsetzen. Man kommt damit mit wesentlich kleineren Arbeitsdrücken als bei Wasser aus. Die hohe angestrebte Betriebstemperatur von 600°C+ bei diesem Reaktor, erlaubt trotzdem akzeptable Wirkungsgrade. Noch wichtiger ist die Temperatur am kalten Ende des Turbinenaustritts: Eine Gasturbine arbeitete – anders als eine Dampfturbine – ohnehin mit so hohen Temperaturen, daß problemlos eine Kühlung mit Umgebungsluft möglich ist. Ein nicht zu unterschätzender Vorteil für alle „Wüstengebiete“ bzw. Flüsse, bei denen die zulässige Temperaturerhöhung bereits ausgereizt ist. Momentan ist der Einsatz von Turbinen mit überkritischem CO2 Kreisprozess geplant. Solche Turbinen gibt es bereits für diese Leistungsklasse. Ein weiterer Vorteil für die Beschränkung als „Mikroreaktor“. Des weiteren will man sich im ersten Schritt auf eine Temperatur von 600°C beschränken, sodaß man sich noch voll im Bereich konventioneller Kraftwerkstechnik bewegt.

Wieder ein Papierreaktor mehr?

Danach schaut es diesmal wahrlich nicht aus. Der eVinci besteht aus Komponenten, an denen bereits seit Jahrzehnten in den „National Laboratories“ geforscht und entwickelt wird. Das Gesamtkonzept mag revolutionär anmuten, die Grundlagen sind längst in aller Stille geschaffen worden. Deshalb ist der Terminplan auch sehr eng gestrickt. Fertigstellung eines Prototyps – noch ohne Kernbrennstoff – bis Ende 2020. An diesem „Modell“ sollen die Fertigungsverfahren ausprobiert werden und die Berechnungsverfahren etc. verifiziert werden. Inbetriebnahme eines Prototyps durch Westinghouse noch 2024. Bereitstellung von genehmigungsfähigen und lieferbaren Reaktoren für das Verteidigungsministerium bis 2026. In diesem Zusammenhang ist interessant, daß die kanadischen Genehmigungsbehörden ein paralleles Genehmigungsverfahren aufgenommen haben. Ziel dort ist die Versorgung abgelegener Minen mit Strom und Wärme. Es ergibt sich damit erstmalig die Situation, daß die Entwicklung eines „Prototypen“ – wie in guten alten Zeiten – in der Hand des Energieministeriums verbleibt. Parallel wird ein kommerzielles Genehmigungsverfahren von zwei nationalen Behörden gleichzeitig entwickelt. Konkurrenz belebt das Geschäft. Das bisher praktizierte „Totprüfen“ durch immer neu erfundene Sicherheitsnachweise – in Stundenlohnarbeit versteht sich – scheint diesmal ausgeschlossen.

Betrachtet man die Ströme an Forschungsgelder innerhalb der Kerntechnik in den USA der letzten zwei Jahre, so wird der Stellenwert dieses Projekts deutlich. Dies betrifft sowohl die absolute Höhe, als vor allem den relativen Anteil. Große Summen fließen bereits in Fertigungsverfahren. So wird eine vollautomatische Fertigung für die Wärmerohre entwickelt. Diese soll die Produktionskosten auf unter ein Zehntel der bisherigen Kosten senken. Gleiches gilt für die Produktion von TRISO-Brennelementen und eine neue Anreicherungsanlage für HALEU. Erklärtes Ziel ist ein Kraftwerk für einen Preis unter 2000 US$/kW anzubieten. Ausdrücklich in Konkurrenz zu Erdgas-Kombikraftwerken. Diese Kraftwerke sollen innerhalb von 30 Tagen ab Auslieferung vor Ort einsetzbar sein. Sie sollen in Fabriken, ähnlich denen für Flugzeugtriebwerke, in Serie gefertigt werden.

Warum das alles?

Man mag es gut finden oder nicht. Mal wieder scheint der Krieg Vater aller technischen Entwicklungen zu sein. Das US-Militär befindet sich mitten im Umbruch. Weg von der jahrzehntelangen Jagd auf irgendwelche Taliban mit Kalaschnikows und am Ende der Träume von der „Friedensdividende“ aus dem Zusammenbruch der Sowjetunion. China wird immer aggressiver (Südchinesisches Meer) und Parallelen zum Japan der 1930er Jahre erscheinen immer beängstigender. Hinzu kommt der Potentat Putin mit seinen Eskapaden in Osteuropa und Syrien, der sich inzwischen als die beste Werbeabteilung der amerikanischen Rüstungsindustrie erweist. Man muß sein Geschwafel über seine Wunderwaffen nur wörtlich nehmen und schon hat man Vorlagen für neue Rüstungsprogramme. Im Rahmen der Umstrukturierung wird immer deutlicher, daß der nächste „große Krieg“ voll elektrisch wird: Immer mehr Radaranlagen, immer mehr Datenverkehr, immer mehr Computer und sogar Laser-Waffen. All dies erfordert immer mehr elektrische Leistung, möglichst nah an der Front. Diese Energieerzeugungsanlagen müssen aber ständig mit Treibstoff versorgt werden, was zusätzliche Kräfte bindet – besonders in den Weiten des Pazifiks. Ganz ähnlich ist die Entwicklung bei der Marine. Hinzu kommt dort die neuartige Bedrohung durch präzise Mittelstreckenraketen. Eine Antwort auf diese Bedrohung ist die Kombination aus klassischen Schiffen mit „Roboter-Schiffen“. Diese Schiffe machen aber nur Sinn, wenn sie – ohne Besatzung – quasi endlos über die Weltmeere ziehen können. Kernreaktoren bieten sich als Antrieb geradezu an, sind aber mit heutiger Technik nicht finanzierbar. Billige Mikroreaktoren wären eine Lösung.

Immer wenn sich Militärs etwas in den Kopf gesetzt haben, bekommen sie kurz über lang ihre Wünsche erfüllt. Ganz besonders, wenn in breiten Bevölkerungskreisen eine Angst vor einer konkreten Bedrohung vorhanden ist. Dann spielen Kosten keine Rolle mehr. In den USA ist es schon immer Tradition gewesen, neuartige militärische Entwicklungen möglichst schnell in die zivilen Märkte überzuführen (Spielekonsolen, GPS etc..). Geheimhaltung ist sowieso nur beschränkt möglich, aber große Stückzahlen senken die Kosten. In diesem Sinne, ist in der Tat mit dem schnellen Aufbau von „Reaktor-Fabriken“ zu rechnen. Dies paßt auch zum aktuellen Zeitgeist: Donald Trump ist mit dem Slogan angetreten, die Industriearbeitsplätze zurück zu holen. Er hat dabei sicherlich nicht an Nähereien für Hemden gedacht. Alle, die dies milde als „populistisch“ abgetan haben, könnte das Lachen bald vergehen.

Der Kampf gegen unsere Gesellschaft nimmt Fahrt auf

Pünktlich zum Klimazirkus in Kattowitz macht auch Brüssel wieder von sich reden: Ab 2030 (also in nur 12 Jahren!) soll für neue PKW und Kleintransporter (Handwerker aufgepaßt!) nur noch eine maximale Freisetzung von kapp 60 Gramm CO2 pro Kilometer erlaubt sein. Sie können gar nichts mit diesem Wert anfangen? Das genau, ist die Absicht. Je alltagsferner die Maßeinheit, um so besser für die Propaganda geeignet. Dies wußten schon die „Atomkraft-Gegner“. Übersetzen wir deshalb mal schleunigst diesen geplanten Grenzwert in Maßeinheiten, die jedem Autofahrer nur zu vertraut sind: 60 gr CO2 / km entspricht etwa einem Verbrauch von rund 2,5 Liter Benzin bzw. 2,3 Liter Diesel pro 100 km. Dämmert es jetzt, wohin die Reise gehen soll?

Damit sind Kraftfahrzeuge – wie wir sie heute kennen – gestorben! Nehmen wir mal als stellvertretendes Beispiel einen Golf-Diesel. Der Verbrauch bewegt sich seit dem ersten Modell bis bis zum heutigen Tage um die 6,5 Liter. Dies mag für Annalena und Svenja nur an den Konzernen liegen, aber weit gefehlt Mädels: Es gibt da etwas, was ihr besser nicht abgewählt hättet, das nennt sich Physik! In der Natur verläuft Aufwand und Nutzen immer in der Form von Exponentialfunktionen, die sich einem Grenzwert annähern. Der Volksmund sagte früher: Gott läßt keine Bäume in den Himmel wachsen! In diesem Fall ist der Grenzwert die Leistung (kW!), die man benötigt um ein Auto zu beschleunigen bzw. gegen die Widerstände in Bewegung zu halten. Jetzt kommt auch noch die Zeit (h) mit ins Spiel, die man benötigt um 100 km zurückzulegen. Mal relativ schnell (Autobahn) und mal im „Stop and Go“ (Stadtverkehr) mit ständiger „Kraftstoffvernichtung“ durchs Bremsen. Simsalabim haben wir die benötigte Bewegungs-Energie (kWh!). Nun ist aber Energie, nicht gleich Energie! Die benötigte Antriebsenergie muß erst noch im Fahrzeug (!) erzeugt werden. Diese liegt stets in chemischer Form vor. Gleichgültig ob als Benzin, Diesel, Akku, Wasserstoff oder sonst etwas. Für die Umwandlung setzt die Thermodynamik eindeutige und nicht überwindbare Grenzen. Heutige Verbrennungsmotoren sind nahezu ausgereizt.

Die Energiedichte

Jedes Kraftfahrzeug muß neben seinem Antrieb (Motor, Getriebe und notwendiges Zubehör) auch noch seinen ganzen Energievorrat mitführen. Dieses notwendige Eigengewicht treibt wiederum den Verbrauch selbst in die Höhe. Lange Rede, kurze Aussage: Ein Kraftfahrzeug mit etwa 2 Liter Verbrauch könnte nur ein moderner Trabant sein: Ein Auto mit nur vier Sitzen, aus Plastik und einer Höchstgeschwindigkeit von ca. 100 km/h. Immerhin ein Zugeständnis an die Handwerker, für die bisher ein Lastenfahrrad vorgesehen ist (Kein Witz! Der Rot-Rot-Grüne Berliner Senat fördert bereits Lastenfahrräder für Handwerker und Paketdienste). Wer noch die alte DDR kennt, weiß was alles möglich ist, wenn man nicht anders kann.

Genau das ist der Grund, warum Elektrofahrzeuge ein Flop waren, sind und immer sein werden. Man kann nicht oft genug daran erinnern, daß der erste Porsche einen Elektroantrieb (mit Nabenmotor!) hatte, weil es damals noch keine brauchbaren Verbrennungsmotoren gab. Als es diese gab, war das Konzept schlagartig mausetot. Im Krieg hatte man LKW mit Batterien und Oberleitungsbusse, weil der Treibstoff an der Front gebraucht wurde. Nach dem Krieg war der Spuk wieder vorbei. Die Sache ist eigentlich ganz einfach: Entweder man hat ein Fahrzeug mit geringer Reichweite (kleine Batterie) oder geringer Nutzlast.

Alle Schlaumeier, die nun einfach öfters laden wollen, tappen sofort in die nächste Falle: Die Betankung mit Benzin und Dieselkraftstoff dauert wegen deren hoher Energiedichte (rund 10 kWh/l) nur wenige Minuten. Wollte man gleiches mit elektrischer Energie machen, bräuchte man gewaltige Anschlussleistungen. Hochspannung am Straßenrand, in öffentlich zugänglichen Zapfsäulen?

Ähnliche Überlegungen gelten auch für alle Gase. Hier bleibt nur der Weg über Verflüssigung (LNG). Will man über verdichtete Gase gehen, braucht man große Verdichter (mehrere MW Antriebsleistung bei einer üblichen Autobahntankstelle) und senkt trotzdem die Reichweite auch noch weiter deutlich ab (zwangsläufige Erwärmung im Tank durch die Verdichtung). Wenn es Benzin und Diesel nicht geben würde, müßte man sie halt erfinden. Das das kein Scherz ist, kann man schon an den Kohlehydrieranlagen im Kriegsdeutschland und in Südafrika erkennen.

Mit Wind fahren?

Der größte Witz der Windindustrie ist, man könne doch mit ihrem Abfallstrom CO2 -frei fahren. Scheinbar überschreitet es die geistigen Fähigkeiten von „Ökos“ nachhaltig, den Unterschied zwischen Leistung und Energie zu begreifen. Es ist völlig unbedeutend, wie viel elektrische Energie mit Wind und Sonne erzeugt wird, vielmehr entscheidend ist, welche Leistung wann erzeugt wird. Am anschaulichsten ist es noch bei der Photovoltaik: Nachts ist es dunkel, also Stromproduktion gleich Null. Folglich könnte man damit kein einziges Fahrzeug nachts aufladen – mag die installierte Leistung (dank Subventionen) auch unendlich groß werden.

Ähnlich verhält es sich mit dem Wind. Bläst er tatsächlich mal und die Produktion übersteigt die verwertbare Leistung, hilft nur Abschalten. Man kann doch nicht wirklich glauben, daß sich jemand ein teures Elektroauto kauft um darauf zu warten, daß mal der Wind stark genug bläst. Noch abwegiger ist, die Autobatterien als Netzspeicher zu verwenden. Man stelle sich vor, man muß zur Arbeit, aber die Autobatterie ist leer – gleichgültig ob nicht genug Energie zum Laden vorhanden war oder das Netz mangels Wind noch zusätzlich gezapft hat.

Noch abwegiger ist die Schnapsidee, mit Wind und Sonne Gase herstellen zu wollen. Alle Verfahren sind sehr kapitalintensiv. Die Auslastung einer solchen Anlage ist aber noch deutlich geringer, als die des Windrades selbst. Es soll ja nur dessen „Überschuss-Strom“ eingelagert werden.

Die Stromversorgung

Wenn tatsächlich mehr als 2/3 aller Autos Elektroautos wären, müßten dafür gewaltige Mengen elektrischer Energie zusätzlich produziert werden und noch mehr Leistung (d. h. mehr Kraftwerke) bereitgestellt werden. Praktisch müßte für jedes Auto in der Nähe der eigenen Wohnung oder des Arbeitsplatzes eine Ladestation vorhanden sein. Dafür ist aber das vorhandene Stromnetz gar nicht ausgelegt. Es müßten gewaltige Investitionen in das Nieder- und Mittelspannungsnetz getätigt werden. Überwiegend in den bereits völlig dichten Städten (Erd- und Straßenbauarbeiten). Bei dem heutigen Zustand unseres Landes, eine Aufgabe für Jahrzehnte. Wer trägt dafür die Kosten? Doch wohl letztendlich der Autofahrer selbst.

An dieser Stelle erkennt man auch, wie durchtrieben der Begriff „Flottenverbrauch“ ist. Ein Hersteller der Golf-Klasse müßte für jedes produzierte Auto ein bis zwei Elektromobile verkaufen um den Flottenverbrauch (Elektroautos werden per Definition mit 0,0 COangesetzt, selbst wenn der Strom aus einem Kohlekraftwerk stammt. Alles klar???) zu erreichen. Woher sollen diese Käufer kommen? Für die meisten Familien, die sich höchstens ein Auto finanziell leisten können, dürfte ein Elektromobil völlig ungeeignet sein. Als Zweitwagen mit eigener Garage (Aufladung) oder Arbeitgeberparkplatz mag es ja noch gehen, aber für die Fahrt mit der Familie in den Urlaub?

Da hilft auch keine Mischkalkulation oder Strafzahlungen nach Brüssel. Elektroautos lassen sich nicht verkaufen, wahrscheinlich nicht einmal verschenken.

Gesellschaftliche Konsequenzen

Das Auto soll dem Bürger endgültig mies gemacht werden. Es steckt die allen Sozialisten gemeine Angst vor dem sich frei bewegenden Bürgern dahinter. Michel wird schon noch zu spüren bekommen, wie wahr der alte Slogan „Freie Fahrt für Freie Bürger“ einst war. Man stelle sich mal vor, nur die Hälfte der heutigen Autofahrer müssen auf das nicht vorhandene – bis völlig marode – öffentliche Verkehrssystem umsteigen. Was würden die Konsequenzen für die Vorstädte und ländlichen Räume sein? Nur noch Rentner und Transferleistungsempfänger oder Slums am Rande der Großstädte für die noch arbeitenden?

Der angepeilte Zeitraum von zwölf Jahren ist der ideale Zeitraum für eine „Verschleißstrategie a la DDR“. Man tätigt keine Neuinvestitionen mehr und reduziert Wartung und Instandhaltung um möglichst wenig Wertverlust am Ende zu haben. Parallel investiert man außerhalb dieser seltsamen EU. Die USA – und bald auch GB – stehen schon bereit. Die Europäer können sich dann ausländische Fahrzeuge kaufen oder es bleiben lassen. Wer der Politik auf dem Leim geht – wie einst die Energieversorger mit Energiewende und „Atomausstieg“ – wird untergehen. Jeder in Elektroautos investierte Euro ist zum Fenster rausgeschmissen. Jeder, der jünger als ca. 55 Jahre ist und in der Automobilindustrie oder bei den einschlägigen Zulieferern arbeitet, sollte seine persönliche Lebensplanung dringend überdenken – entweder rechtzeitig den Beruf wechseln oder mit der Industrie ins Ausland gehen. Mit „sozialverträglich“ – wie bei Stahlarbeitern und Steinkohlebergbau, die übrigens hart dafür kämpfen mußten – ist nicht mehr. Dafür ist die Dimension viel zu groß. Rezession ist, wenn dein Nachbar arbeitslos wird, Depression ist, wenn du selbst deinen Arbeitsplatz verlierst.

Kernkraft und Arbeit

Kernkraftwerke erzeugen nicht nur elektrische Energie, sondern bieten auch — meist überdurchschnittlich bezahlte — Arbeitsplätze. Dies ist der breiten Öffentlichkeit nicht so bewußt, weshalb viele „Ökos“ kopfschüttelnd vor Bürgern stehen, die sich für den Erhalt „ihres Reaktors“ (z. B. Fessenheim) einsetzen oder sich gar um ein „atomares Endlager“ (Schweden, Finnland) bewerben. Es erscheint daher sinnvoll, dieser Frage mal etwas näher nachzugehen.

Wo sind die Arbeitsplätze?

Weltweit gibt es verschiedenste Studien zu dieser Fragestellung. Die Beantwortung ist nicht ganz einfach. Irgendwie muß man in komplexen und zudem noch international verknüpften Volkswirtschaft, die unzähligen Arbeitsverhältnisse aufdröseln. Um eine Systematik in die Angelegenheit zu bringen, unterscheidet man grundsätzlich drei Bereiche:

  • Direkte Arbeitsplätze sind noch am leichtesten zu erfassen. Das sind die unmittelbar in einem Kernkraftwerk tätigen Menschen oder die auf der Baustelle beim Neubau oder Abriss arbeiten. Analoges gilt für die Herstellung von Brennelementen oder die Lagerung und Behandlung von Abfällen.
  • Indirekte Arbeitsplätze. Hier wird die Sache schon komplizierter und undurchsichtiger: Beim Bau eines Kernkraftwerkes werden z. B. große Mengen Zement und Betonstahl benötigt. Dies sind handelsübliche Produkte. Die Hersteller arbeiten deshalb nicht nur für Kernkraftwerke. In der Praxis ist es damit gar nicht so einfach, die für ein bestimmtes Objekt notwendigen indirekten oder zugelieferten Arbeitsstunden zu ermitteln.
  • Induzierte Arbeitsplätze. Das sind die Arbeitsplätze, die ganz besonders die Gemeinden am Standort einer kerntechnischen Anlage interessieren. Die Menschen, die in einem Kernkraftwerk arbeiten, geben einen großen Teil ihres Einkommens auch vor Ort aus: Sie kaufen in den lokalen Geschäften ein, bauen sich ein Häuschen oder wohnen im Hotel, wenn sie als Monteure im Kraftwerk (zeitweise) beschäftigt sind. Diese „Kaufkraft“ schafft zusätzliche Arbeitsplätze, die nur über Statistiken umzurechnen sind — ein breites Betätigungsfeld für Volkswirtschaftler.

All diese Arbeitsplätze fallen lokal, regional, national und international an. Wo sie anfallen, hängt vor allem vom Entwicklungsstand einer Volkswirtschaft ab. In Deutschland konnte man einst alles von der letzten Schraube bis zur kompletten Dampfturbine „zu Hause“ kaufen. In Rußland oder China ist das durchaus heute noch nicht der Fall. Viele Komponenten müssen noch im Ausland zugekauft oder zumindest gegen Lizenzgebühren „nachgebaut“ werden. Dies gilt natürlich auch in umgekehrter Richtung: Baut man keine Kernkraftwerke mehr, muß man sich nicht wundern, warum beispielsweise der eigene Turbinenbau verschwindet. Diese Tatsache haben viele Gewerkschaftsfunktionäre und Kombinatsleiter in Deutschland offensichtlich völlig unterschätzt.

Man kann all diese Zusammenhänge in herrliche Computermodelle stecken und tolle Bilder — für welchen Zweck auch immer — damit erzeugen. Wie so oft im Leben, hilft einem aber eine einfache qualitative Überlegung weiter: Die Kosten des einen — und Kernkraftwerke sind bekanntlich richtig teuer — sind immer auch der Umsatz der anderen. Dies ist ein maßgeblicher Grund, warum z. B. Großbritannien massiv neue Kernkraftwerke bauen will. Wohlstand fällt nicht vom Himmel. Auch die schicke Bibliothek, das Schwimmbad und letztendlich sogar der „Biobäcker“ müssen erstmal finanziert werden. Wie man sieht, sind schon viele „Dörfler“ weiter und sehen ein Kernkraftwerk deshalb nicht (mehr) als Bedrohung, sondern als Chance zur Entwicklung.

Das Zeitdauer-Problem

Bei Kernkraftwerken unterscheidet man vier Lebensphasen: Bau, Betrieb, Rückbau und Endlagerung. Die Bauzeit wird international in die zwei Phasen „Baustellenvorbereitung“ und „Errichtung“ (ab dem ersten Beton für die Grundplatte bis zur Übergabe) mit jeweils fünf Jahren angesetzt. Die Betriebszeit mit 50 Jahren. Der Rückbau ebenfalls in zwei Phasen von je fünf Jahren (nuklearer Teil und konventioneller Abriß). Für die Endlagerung 40 Jahre (Zwischenlagerung, Verpackung und sicherer Einschluß der Abfälle). Dies sind Mittelwerte, die sich aus der bisherigen weltweiten Erfahrung gebildet haben. Im Einzelfall können sich erhebliche Abweichungen ergeben. Zukünftig sind Veränderungen angesagt: So wird bei der Betriebsdauer für neue Kraftwerke bereits von 60 bis 80 Jahren ausgegangen. Entsprechend würden sich die Zahlen für die Beschäftigten verschieben.

Der Praktiker liebt Kennzahlen, mit deren Hilfe er grobe Überschlagsrechnungen ausführen kann. Dies wird — im Zeitalter der Computermodelle — (zumindest) für Plausibilitätskontrollen immer wichtiger. So wird z. B. im „Kleingedruckten“ für die direkte Beschäftigung eine Fehlerbandbreite von ± 10%, bei der indirekten Beschäftigung von ± 20% und bei der induzierten Beschäftigung von ± 30% angegeben. Ganz schlimm wird es, wenn Politiker Vergleichsstudien für unterschiedliche Energiesysteme in Auftrag geben. Solche „Vergleichsabschätzungen“ weisen aus Erfahrung Abweichungen von ± 50% auf.

Diese Bandbreiten sind nicht verwunderlich. Beruhen doch alle Daten auf Statistiken aus der Vergangenheit. Neben Fehlern bei der Datenerfassung ergeben sich immer Veränderungen aus technologischen Gründen über so lange Zeiträume (10+50+10+40=110 Jahre). Ganz besonders mit Vorsicht zu genießen, sind die Daten zu den induzierten Arbeitsplätzen. Hier erfolgt die Verknüpfung mit den direkten und indirekten Arbeitsplätzen über das Einkommen bzw. die Preise. Wer aber wieviel, für was, in einer Gesellschaft ausgibt, ist äußerst variabel. Bei so langen Betrachtungszeiträumen sind sogar Systembrüche (z. B. DDR in BRD) nicht auszuschließen.

Ein paar Anhaltswerte

Die USA betreiben über 100 Reaktoren, haben bereits mehrere abgerissen und verfügen vor allen Dingen über einen kompletten Brennstoffkreislauf, vom Uranbergwerk bis zur Endlagerung. Sie verfügen damit über ausreichend Daten. Allerdings ist dabei der Zeitraum von mehreren Jahrzehnten (Technologiesprünge, Inflationsraten usw.) zu beachten. Um die Werte für Überschlagsrechnungen besser handhabbar zu machen, wurden sie als Mannjahre pro 1000 MWel (MJ) normiert. Mannjahre ist dabei ein in der Industrie geläufiger Begriff: Es werden eigentlich die angefallenen Arbeitsstunden registriert und anschließend durch die zulässigen Jahresarbeitszeiten (Feiertage, Urlaub etc.) geteilt. Auf die Bauzeit entfallen 12 000 MJ, auf den Betrieb 30 000 MJ, auf den Rückbau 5000 MJ und auf die „Endlagerung“ 3000 MJ. In der Summe also 50 000 MJ an direkt angestellten Arbeitskräften. Hinzu kommen noch einmal die gleiche Anzahl in der Zulieferindustrie. Insgesamt sind damit 100 000 Mannjahre pro GWel über den Lebenszyklus eines Kernkraftwerks in den USA nötig. Diese induzieren noch weitere Arbeitsplätze, sodaß die Statistiker auf über 400 Millionen Arbeitsstunden für jeden Reaktor (mit 1000 MWel ) in der Volkswirtschaft kommen.

Statistische Auswertungen in Korea und Frankreich kommen zu ähnlichen Ergebnissen. So sind für den Bau von Reaktoren der II. Generation in Frankreich 26 600 MJ, in Korea 28 300 MJ und in den USA 24 473 Mannjahre auf den Baustellen und in der Zulieferindustrie pro installiertem GWel angefallen. Wen wundert es da, daß in Frankreich und den USA kaum jemand auf den „Industriezweig Kerntechnik“ verzichten mag? Ganz im Gegenteil: Man will in beiden Ländern neue Kernkraftwerke bauen.

Noch ein weiterer Gesichtspunkt mag verdeutlichen, warum in immer mehr Gemeinden in den USA inzwischen Bürgerinitiativen für den Weiterbetrieb „ihres“ Kernkraftwerks kämpfen: Im Jahr 2013 arbeiteten 62 170 Angestellte in den 104 Kernkraftwerken in den USA. Das macht im Mittel 598 Beschäftigte pro Kraftwerk (Bandbreite zwischen 400 bis 700) mit einem Durchschnittseinkommen von 95 000 US$ pro Jahr (von der Küchenfee bis über den Direktor gemittelt). Neben den Steuerausfällen reißt der Kaufkraftverlust eine Gemeinde nach der Abschaltung schnell in den wirtschaftlichen Abgrund.

Wenn man schon mal mit Zahlenspielereien beschäftigt ist, kann man auch ruhig mal die Betrachtungen andersherum anstellen: Ein Leichtwasserreaktor benötigt etwa 185 to Natururan jährlich (pro 1000 MWel ) für seine Stromerzeugung. Wenn man die Weltdaten (384 GW und 65 000 Minenarbeiter) nimmt, ergibt das etwa 170 Angestellte im Uranbergbau und weitere 100 Angestellte in der Brennstoffherstellung (Konversion, Anreicherung und Brennelementfertigung). Jedenfalls unter 300 Angestellte für die gesamte Brennstoffversorgung. Man vergleiche diese Produktivität mal mit der Förderung und dem Transport von Steinkohle für den Betrieb eines gleich großen Kohlekraftwerks. Auch hier wieder eine Antwort, warum China, Indien — und selbst die USA — gar nicht auf Kohlekraftwerke verzichten können. Geschehe die Umstellung etwa innerhalb nur eines Jahrzehntes, wären die sozialen Verwerfungen unvorstellbar.

Oder noch einmal die Zahlen von weiter oben andersherum: Für die Erzeugung von 4000 KWh elektrischer Energie in einem Kernkraftwerk — die auch noch jederzeit auf Wunsch verfügbar sind — benötigt man nur etwa eine Arbeitsstunde über den gesamten Lebenszyklus gerechnet. Auch dies eine Antwort, warum die Energiewende nur ein Hirngespinst sein kann.

Schlusswort

Wer bisher immer noch glaubt, die „Anti-Atom-Bewegung“ besteht aus verhuschten Theaterwissenschaftlerinnen, die ganz, ganz viel Angst vor Strahlung haben oder sonstigen Menschen, die sich echt dolle Sorgen um die Welt und die Wale machen, ist ein Narr. Überwiegend handelt es sich bei den Verantwortlichen in den einschlägigen Parteien um marxistisch geschulte Kader, die sich ganz bewußt die Kernenergie als Angriffsobjekt auf diese Gesellschaftsordnung ausgesucht haben. Erst Ausstieg aus der Kernenergie, dann Ausstieg aus der Kohle und parallel Angriff auf die Autoindustrie. Verbündet mit Schlangenölverkäufern, die sich auf Kosten von Kleinrentnern und Kleinverdienern .(ständig steigende Stromrechnungen und gesperrte Anschlüsse!) gierig die Taschen füllen. Getreu dem Grundsatz aller Sozialisten: Erst mal die Probleme schaffen, die man anschließend vorgibt zu lösen. Von Venezuela lernen, heißt Untergang lernen. Dunkle Aussichten für Michel, es sei denn, er kriegt doch noch die Kurve an der Wahlurne.

Grundgesetz und Kernenergie

Vor einigen Tagen hat mir ein Leser eine Unterrichtung durch die Bundesregierung mit der Bitte um eine Stellungnahme zum Kapitel Kernenergie zugeschickt. Hierbei handelt es sich um ein Sondergutachten des Sachverständigenrates für Umweltfragen: Wege zur 100 % erneuerbaren Stromversorgung vom 18. Februar 2011. Warum nun eine so olle Kammelle aus der Zeit der Koalition von CDU/CSU und FDP? Geschichtlich von Bedeutung ist die Tatsache, daß das Unglück von Fukushima erst am 11. März 2011 stattfand. Also erst einen Monat nach dem Druck dieses Gutachtens. Ganz offensichtlich ein willkommener Anlaß für den schon lange geplanten und gewünschten Ausstieg aus der Kernenergie. Wohlgemerkt, maßgeblich mit geplant und umgesetzt durch die FDP (17. Wahlperiode vom 27.10.09 – 22.10.13).

Es gibt aber noch einen aktuelleren Grund: Immer mehr Bürger fragen sich, ob die Energiewende überhaupt mit dem Artikel 20a unseres Grundgesetzes vereinbar ist:

„Der Staat schützt auch in Verantwortung für die künftigen Generationen die natürlichen Lebensgrundlagen und die Tiere im Rahmen der verfassungsmäßigen Ordnung durch die Gesetzgebung und nach Maßgabe von Gesetz und Recht durch die vollziehende Gewalt und die Rechtsprechung„.

Genau darum geht es nämlich in dem Sondergutachten. Es soll die Energiewende als zwingend durch das Grundgesetz vorgeschriebenes Staatsziel legitimieren. Es ist sicherlich kein Zufall, da gerade die FDP eine Partei mit überdurchschnittlich hohem Anteil an Juristen ist. Man hat dieses „Gutachten“ — nach der immer noch bewährten Methode — bei besonders linientreuen Scharlatanen in Auftrag gegeben. Das Verzeichnis der Personen spricht Bände: Ausgesucht keine einschlägige Berufsausbildung oder fachliche Qualifikation auf dem Gebiet der „Stromversorgung“, dafür aber ideologisch um so gefestigter. Fachkenntnisse — oder gar andere Ansichten — hätten die Auftragsarbeit sicherlich nur behindert und das schon im Titel geforderte Ergebnis vielleicht sogar gefährdet. Politik in Deutschland des 21. Jahrhunderts. Ähnlichkeiten mit Staat und Papsttum des Mittelalters sind sicherlich rein zufällig.

Kurzfassung für Entscheidungsträger

Früher nannte man einen solch zeitsparenden Überblick noch „Minister-Seite“. Heute braucht Politiker*in über fünf Seiten „Fakten“ und bunte Bilder um in einer Talkshow sitzen zu können oder gar den Qualitätsmedien Fachkunde vorspielen zu können. Für das Durchwinken eines Gesetzes ist nicht einmal das nötig, denn da folgt man immer schön dem Beschluss der eigenen Fraktion — damit kann man sicher nichts verkehrt machen. Um die Sache noch einmal für den letzen Hinterbänkler zu verdichten, lautet gleich der erste Satz:

„Die Klimapolitik steht vor der Herausforderung, dass die Treibhausgasemissionen der Industrieländer um 80 bis 95 % reduziert werden müssen, um eine als gefährlich angesehene globale Temperaturerhöhung von über 2°Celsius gegenüber dem vorindustriellen Niveau zu vermeiden“.

Alles klar? Es geht also um die Weltrettung. Dass dieser Satz gleich mehrfach Blödsinn ist — selbst in dieser Studie — erfährt man erst beim vollständigen lesen der fast 400 Seiten. Aber welcher Parlamentarier hat schon so viel Zeit. Da ist es doch besser, man zeigt ihm gleich wo die Mehrheiten sitzen:

„In Deutschland besteht ein weitgehender Konsens, dass eine nachhaltige Entwicklung des Energiebereichs langfristig eine möglichst vollständig auf regenerativen Energieträgern basierende Elektrizitätsversorgung erfordert.“

Das versteht er. Ist zwar auch bloß eine Sprechblase — die zudem auch noch mehr als diskussionswürdig ist — aber Mainstream ist immer gut für die Wiederwahl. Was aber, wenn Volksvertreter*in gerade keine Lesebrille auf hat? Deshalb die alles entscheidende und beruhigende Aussage noch einmal im Fettdruck:

„100 % Vollversorgung mit Strom aus erneuerbaren Energien ist möglich, sicher und bezahlbar.

Basta! Wie ein anderer Bundeskanzler und heutiger Vertreter für Russengas immer zu meckernden Parteimitgliedern zu sagen pflegte. Gleichnamigem Kanzler und seinem „Kellner“, dem Diplom-Sozialwirt Jürgen Trittin, ist übrigens die Besetzung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit mit solch großen Denkern und Forschern zu verdanken. Vorgänger dieses Ministers war übrigens eine gewisse Angela Merkel. Sage keiner, es gäbe keine Kontinuität in diesem Sachgebiet. Man ist aber fair genug, selbst in dieser Kurzfassung, noch eine Duftmarke seiner politischen Gesinnung zu hinterlassen:

„Die Einsparung von Strom kann als die wichtigste Brückentechnologie auf dem Weg zur regenerativen Vollversorgung betrachtet werden. Die Bundesregierung sollte daher ein absolutes Verbrauchsziel für den Stromverbrauch setzen. Ein geeignetes Instrument zur deutlichen Stärkung der Marktanreize für ein solches Ziel könnte die Einführung von Stromkundenkonten sein.“

Nur zur Erinnerung: Koalitionspartner war die FDP. Der Austausch der Sprache im Orwellschen Sinne findet nicht erst seit heute statt: Hier wird aus „planwirtschaftlichem Bezugssytem der staatlichen Mangelwirtschaft“ flugs „Marktanreize durch Stromkundenkonten“ gemacht. Frau Claudia Kemfert — die unvergleichliche Denkerin des DIW — hätte es nicht besser sagen können. Freilich hätte sie als ausgewiesene Artistin des Denglish lieber vom „Smart Grid“ und „Smart Meter“ geschwärmt.

Nachhaltigkeitsbewertung verschiedener Optionen der Energieerzeugung: Kernenergie

Jetzt ist eine kunstvolle Pirouette gefragt. Sie erinnern sich noch an den ersten Satz der Kurzfassung? Vielleicht sollten sie noch mal das Zitat weiter oben genau lesen, damit sie auch in den vollen Genuß der geistigen Verrenkungen kommen. Es geht um nichts weniger als die Errettung vor dem bösen CO2. Oh Schreck, jetzt taucht auf Seite 46 des Gutachtens eine Tabelle über „Gesamte durchschnittliche Treibhausgas-Emissionen von Stromerzeugungsoptionen“ auf. Ihre Einheit ist „Emissionen in g/kWhel CO2 Äquivalente“. Spitzenreiter sind die bösen Braunkohle-Kraftwerke, die auch noch die Stromnetze verstopfen, mit sagenhaften 1153. Aber selbst die „AKW mit Uran aus Russland“ geben nur 63 her. Nur dreimal so viel wie die ideologisch guten Windparks mit 23 und nur gut die Hälfte von den ebenfalls ideologisch einwandfreien „Solarzelle (multikristallin)“ mit 101. Wohlgemerkt, diese Tabelle ist nicht von der bösen „Atomlobby“ erschaffen, sondern vom Öko-Institut errechnet, der Glaubenskongregation aller „Umweltschützer und Atomkraftgegner“. Auch deshalb muß man an dieser Stelle zu dem glasklaren Schluß kommen:

„Stromerzeugung aus Kernenergie ist weniger schädlich für das globale Klima als die Kohleverstromung; die im Lebenszyklus auftretenden Treibhausgasemissionen pro erzeugter Kilowattstunde liegen in der Größenordnung von denen erneuerbarer Energien. Dennoch ist die Kernenergie aus mehreren Gründen, insbesondere aufgrund der Entsorgungsproblematik und der Risiken beim Betrieb, als nicht nachhaltig einzustufen.“

Wow! So geht also Wissenschaft heute. Wenn die selbst errechneten Zahlen nicht zum eigenen Weltbild passen, werden sie einfach durch „Argumente“ ersetzt. Der Auftritt der Tochter des „Solarpapstes“ Hermann-Scheer (SPD) Dr. Nina Scheer (SPD) im Bundestag war also doch kein Ausreißer.

Es gibt also zwei „Argumente“: „Entsorgungsproblematik“ und „Risiken beim Betrieb“, die die Kernenergie aus dem Kreis der „CO2 armen“ Technologien ausschließen. Dabei muß wieder einmal die Förster-Weisheit von der „Nachhaltigkeit“ herhalten. Dieses Wort besitzt für jeden Gutdenker die gleiche Zauberkraft wie „Neo-Liberal, Kasino-Kapitalismus etc.“. Man weiß sofort, auf welcher Seite man zu stehen hat.

Der geneigte Leser wird jetzt vielleicht ein paar Argumente erwarten, aber weit gefehlt.

Endlagerung

Dieses Unterkapitel nimmt in diesem „Sondergutachten“ weniger als eine halbe Seite ein. Der einzige Inhalt zur Begründung besteht aus dem Satz:

„Starke Radioaktivität, hohe chemische Toxizität, lang anhaltende Wärmeproduktion und die durch Korrosion und mikrobielle Vorgänge hervorgerufene Gasbildung stellen hohe Anforderungen an das Rückhaltevermögen der Barriereelemente.“

Raten sie mal, was als Quelle für den „weltweiten“ Stand der Forschung zu diesem Komplex angegeben wird? Der Sachverständigenrat für Umweltfragen (SRU 2000). Das ist die Steigerung des Echoraumes, das selbstverliebte Eigenzitat. Von unfreiwilliger Komik ist der sich direkt anschließende Satz:

„Eine Bewertung der langfristigen Sicherheit von Endlagerstandorten muss sich notwendigerweise auf Annahmen und Modellrechnungen stützen. Die Ergebnisse solcher Untersuchungen sind mit umso größeren Unsicherheiten behaftet, je weiter die betrachteten Zeitpunkte in der Zukunft liegen.“

Hoppla! Wie hieß es noch im ersten Satz der Kurzfassung für Entscheidungsträgerglobale Temperaturerhöhung von über 2°Celsius“. Was auch immer eine „globale Temperaturerhöhung“ sein soll, jedenfalls wird diese ebenfalls durch mit Annahmen gefütterte Modellrechnungen bestimmt. Allerdings mit einem kleinen, aber gewichtigen Unterschied: Kein einziges „Klimamodell“ ist in der Lage, die „Klimaverläufe“ der Vergangenheit auch nur annähernd nachzubilden. Demgegenüber stellen die Rechenprogramme der Geologen ihre Brauchbarkeit nahezu täglich unter Beweis: Sonst hätten wir längst kein Öl und kein Erdgas mehr zur Verfügung.

Die letzten zwei Sätze dieses Kapitels geben in einem Zirkelschluss noch einmal den Auftrag wieder:

„Somit ist nicht auszuschließen, dass die Lebensgrundlagen kommender Generationen durch heute eingelagerten radioaktiven Abfall in katastrophalem Ausmaß beschädigt werden. Die Kernenergie ist damit im Sinne der Generationengerechtigkeit und der Risikovorsorge als nicht nachhaltig einzustufen.“

Wenn man — ich bin ausdrücklich kein Jurist — die vorhergehenden Kapitel über den Artikel 20a GG in diesem Sondergutachten gelesen hat, soll damit wohl suggeriert werden, daß die Kernenergie gegen das Grundgesetz verstößt.

Störfallrisiko

Es ist ja nicht so, daß die Kerntechnik keine Erfahrungen mit Störfällen und Unglücken hätte. Sie ist der am stärksten überwachte und durch Vorschriften reglementierte Industriezweig weltweit. Spätestens nach der Katastrophe von Tschernobyl wissen wir, daß die Propaganda der Angstindustrie „Millionen-Tote, für-zehntausende-Jahre-unbewohnbar“ einfach nur ein Märchen ist. Was bitte, ist denn noch denkbar, als ein Reaktor der explodiert, brennt und fast seine ganze Radioaktivität wie ein Vulkan ausspeit? Selbst mehrere Reaktoren wie in Fukushima stellen kein Sicherheitsrisiko für die Bevölkerung dar. Auch an unseren Gutachtern sind diese Tatsachen sicherlich nicht ganz spurlos vorbeigegangen. Sie beschließen dieses Kapitel deshalb lieber etwas schwammig:

„Die Charakterisierung des Risikos mit einer bestimmbaren und niedrigen Eintrittswahrscheinlichkeit sowie einem bestimmbaren und großen Schadensausmaß ist daher nicht mehr zeitgemäß. Vielmehr sind weder die Eintrittswahrscheinlichkeiten noch die möglichen Schadenswirkungen genau bestimmbar. Das Kernenergierisiko ist außerdem gekennzeichnet durch hohe Persistenz, Ubiquität und Irreversibilität“.

Wieder ist die Quelle dieser Aussage der eigene Echoraum: Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU 1998). Aber der Bildungshorizont unserer Gutachter geht natürlich noch viel weiter — man Beachte auch die Quellenangaben in diesem wörtlichen Zitat:

„Das Prinzip der Nachhaltigkeit erfordert Priorität für die Vermeidung solcher Risiken. Wenn die Möglichkeit katastrophaler Auswirkungen existiert, stößt die wissenschaftliche Bewertung der Risiken und Kosten an Grenzen – formale Kosten-Nutzen-Rechnungen sind in einem solchen Fall keine adäquate Grundlage für Abwägungsentscheidungen (vgl. Paul Krugman im New York Times Magazin vom 7. April 2010). Stattdessen muss die Vermeidung von Großrisiken auch bei sehr geringen Eintrittswahrscheinlichkeiten als Nachhaltigkeitskriterium Vorrang haben (Tz. 27). Für die Stromerzeugung sind demnach Technologien vorzuziehen, die technisch realisierbar, wirtschaftlich vertretbar, aber mit deutlich geringeren Sicherheitsrisiken verbunden sind.“

Welche Technologien wohl damit gemeint sind? Etwa die wetterabhängigen Umweltenergien Wind und Sonne? Wo sind die technisch realisierten Speicher gebaut worden? Wie hoch die Kosten für diesen Unsinn sind, kann jeder selbst aus seiner eigenen Stromrechnung nachvollziehen.

Umwelt- und Gesundheitsbelastungen durch den Uranabbau

Allseits bekannt ist ja, daß Deutschland sich immer sehr um fremde Länder sorgt. Neuerdings wollen wir ja sogar Fluchtursachen beseitigen:

„Viele Uranabbaugebiete liegen in Entwicklungsländern und auf dem Gebiet indigener Völker. Die Einhaltung sozialer und Umweltstandards, etwa ein angemessener Schutz der Minenarbeiter, kann für importierte Uranbrennstoffe nur schwer kontrolliert werden.“

Die Generatoren der Windmühlen und die Photovoltaik benötigen große Mengen exotischer Materialien. Wie hoch war doch noch mal der Mindestlohn im Kongo? Wie sah noch mal der Umweltschutz bei der Gewinnung seltener Erden in China aus? Wo wird der Abfall aus der Produktion beseitigt? Auch Windmühlen und Sonnenkollektoren haben nur eine endliche Lebensdauer. Fragen über Fragen…

Verbrauch nicht-erneuerbarer Ressourcen

Man scheut aber auch in dieser Unterrichtung durch die Bundesregierung nicht vor dreisten und dummen Lügen zurück:

„Kernenergie kann aufgrund der Endlichkeit der Ressourcen für Kernbrennstoffe bestenfalls als Übergangstechnologie genutzt werden. Die gängigen Schätzungen gehen davon aus, dass die bekannten Uranreserven die weltweite Versorgung noch für einige Jahrzehnte sicherstellen können…. Insgesamt ist angesichts der begrenzten Uranvorkommen auch der Verbrauch dieser nicht-erneuerbaren Ressource ein Kriterium, das bei der Nachhaltigkeitsbewertung dieser Option berücksichtigt werden muss.“

Kernbrennstoffe werden aus Uran, Plutonium und Thorium hergestellt. Auf der Basis der heutigen weltweiten Energienachfrage ist Uran und Thorium in der Erdkruste und den Weltmeeren für mindestens Zehntausende von Jahren vorhanden. Bestenfalls liegt hier der ewige „Peak-Irrtum“ vor. Die gewinnbaren Rohstoffvorkommen hängen immer von den erzielbaren Preisen und der sich ständig weiter entwickelnden Technik ab. Wegen der außerordentlich hohen Energiefreisetzung bei der Kernspaltung ist die Grenze fast beliebig nach oben ausweitbar.

Abgesehen davon, gilt die Försterweisheit von der Nachhaltigkeit nur dann, wenn man auch tatsächlich den Wald erhalten will. Hätten unsere Vorfahren so gehandelt, müßten wir heute noch auf den Bäumen leben. Niemand kann aber die Zukunft vorhersagen. Deshalb ist das Schonen von Ressourcen bestenfalls anmaßend und zeugt von eindimensionalem Denken oder wie weiland ein Ölminister bemerkte: Die Steinzeit ist nicht aus Mangel an Steinen zu ihrem Ende gekommen.

Kosten

Der Schlußsatz des etwa dreiseitigen Kapitels zur Bewertung der Kernenergie lautet:

„Insgesamt besteht bei der Kernenergie große Unsicherheit hinsichtlich der Kostenentwicklung sowie eine große potenzielle Diskrepanz zwischen den gesellschaftlichen Kosten und den Kosten für die Betreiber. Dass die Kosten langfristig sinken werden, kann als unwahrscheinlich betrachtet werden.“

Kosten sind Kosten. Immer wenn von „externen Kosten“ oder „gesellschaftlichen Kosten“ die Rede ist, versuchen irgendwelche Vulgärmarxisten ein „Marktversagen“ zu konstruieren um ihre unpopulären gesellschaftlichen Vorstellungen durchzudrücken.

Abschließende Betrachtung

Es ist schon so eine Sache mit unserem Grundgesetz: Es wächst und wächst. Teilweise hat es einen bemerkenswerten Detaillierungsgrad erreicht. So hat sich sogar der Tierschutz mit einem eigenen Paragraphen eingeschlichen. Es war sicherlich einfach, für die „niedlichen Welpen“ eine erforderliche Mehrheit zu finden. Wer möchte schon in seinem Wahlkreis als Tierquäler verdächtigt werden. Die meisten Parlamentarier haben wahrscheinlich gar nicht gemerkt, daß es sich dabei um ein Trojanisches Pferd gehandelt hat. Denn viel bedeutender ist die erste Hälfte des Satzes über die Lebensgrundlagen. Der Duden sagt zur Bedeutung des Wortes: Materielle Grundlage, Voraussetzung des Lebens.

Das Gutachten spricht von „abiotischen Elementen wie Luft, Wasser, Böden und auch das Klima“. Was ist mit Flora und Fauna oder mit etwas eher ästhetischem wie Landschaft oder gar den Menschen und ihrem Naturrecht nach Glück zu streben? Das Gutachten geht noch weiter, man schwadroniert von der Lebensgrundlage kommender Generationen, von Generationengerechtigkeit und Risikovorsorge. Am besten gefällt mir die Generationengerechtigkeit als Staatsziel. Ich dachte bisher, die Parlamentarier hätten sich im Zusammenhang mit der Rentenfrage bereits daran abgearbeitet. Man verzeih mir als einfachem Ingenieur, daß ich mir wenig unter einer „generationengerechten Stromversorgung“ vorstellen kann.

Je länger ich mich mit diesem Machwerk beschäftigt habe, komme ich zu dem Schluß, daß es hier nur um die Durchsetzung einer ganz bestimmten — allenfalls laienhaften — Vorstellung über eine Energieversorgung geht. Wenn nicht sogar um schlimmeres. Vordergründig geht es um den „Atomausstieg“, längerfristig um die „große Transformation“. Wohin eigentlich genau: Bloß in Maos „Großen Sprung“ oder gleich in die steinzeitkommunistischen Utopien des „Bruder Nummer Eins“?

Robuste Kraftwerke für robuste Netze

Für eine robuste Stromversorgung („Grid Resilience“) unter den erschwerten Bedingungen von Wind- und Sonnenenergie ergeben sich auch besondere Anforderungen an die Kraftwerke. Wind und Sonneneinstrahlung sind Wetterphänomene und damit nicht vom Menschen beeinflußbar. Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

Robuste Lastfolge

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

Abwehr äußerer Einflüsse

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

Sicherer Inselbetrieb

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

Unendliche Notkühlung

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

Schwarzstartfähigkeit

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Die Robustheit eines Stromnetzes

In den USA hat die ideologisch bedingte („Klimakatastrophe“) Subventionierung von Wind- und Sonnenkraftwerken zu ähnlichen Problemen wie in Deutschland geführt: Immer mehr konventionelle Kraftwerke arbeiten mit Verlusten und drohen deshalb mit Schließung. Präsident Trump hat versucht dem mit verschiedenen Erlassen entgegen zu wirken. Inzwischen gibt es in verschiedenen Bundesstaaten ebenfalls konkrete Maßnahmen, insbesondere um die Schließung von Kernkraftwerken zu verhindern. Es hat der bekannte planwirtschaftliche Teufelskreis eingesetzt: Die Verzerrung des Marktes durch Subventionen wird mit weiteren Subventionen an anderer Stelle bekämpft. Das Ergebnis sind allgemein steigende Kosten, die zu überhöhten Preisen und letztendlich zum Schaden der Gesellschaft wirken.

Das neue Modewort „Resilience

Der Begriff „Resilience“ kommt eigentlich aus den Gesellschaftswissenschaften. Man versteht darunter die Fähigkeit eines technischen Systems oder einer Gesellschaft Veränderungen oder zerstörerischen Ereignissen zu widerstehen, indem es die negativen Einflüsse dämpft (absorptive capability), sich selbst verändert und anpasst (adaptive capability) oder letztendlich durch eine Wiederherstellung (restorative capability). Es wird deshalb hier das Wort „Robustheit“ als Übertragung ins Deutsche verwendet.

Um dem ganzen einen wissenschaftlichen Anstrich zu verleihen, wird gern ein Bild gezeichnet, welches als „System Resilience Curve (SRC)“ bezeichnet wird. Darunter versteht man die bauchige Kurve der „Performance“ über der Zeit. Dem gewöhnlichen Ingenieur sei dringend empfohlen, sich mit diesem neuen Wieselwort vertraut zu machen, da es nur eine Frage der Zeit sein kann, bis es zum Standardrepertoire eines jeden Dampfplauderers gehört. Es werden üblicherweise vier Phasen definiert:

  1. Zum Zeitpunkt t1 tritt eine Störung auf. Bis zum Zeitpunkt t2 kämpft das System mit dieser Störung. Man bezeichnet diese Phase noch als Normalbetrieb, solange die Auswirkungen auf die „Performance“ noch im Rahmen der Toleranzen bleiben.
  2. Zum Zeitpunkt t2 beginnt der teilweise Zusammenbruch des Systems. Gegenmaßnahmen zur Stabilisierung werden ergriffen und die „Performance“ erreicht zum Zeitpunkt t4 ihren Tiefpunkt.
  3. Ab dem Zeitpunkt t4 beginnt die Wiederherstellung des Systems im Notbetrieb, die zum Zeitpunkt t5 abgeschlossen ist. Die „Performance“ erreicht aber nicht wieder den Wert im Normalbetrieb.
  4. Ab dem Zeitpunkt t4 beginnt die Reparaturphase bis zum Zeitpunkt t5 an dem ein neuer Normalbetrieb erreicht wird.

So theoretisch, so schön und gut. Nur, dem Techniker dürstet es immer nach konkreten Zahlenwerten und genauen Definitionen. Mit Geschwurbel kann man zwar in den Gesellschaftswissenschaften hervorragend Geld und Anerkennung verdienen, aber in der realen Welt bringt man damit keine Maschine zum Laufen — geschweige ein so komplexes System wie ein Stromnetz. Zumal Experimente nur sehr eingeschränkt möglich sind: Es wären Operationen am „offenen Herzen einer Gesellschaft“.

Was bitte, ist die .„Performance“ eines Stromnetzes?

In einer Marktwirtschaft sollte man immer zuerst nach den Anforderungen der Kunden fragen. Der Kunde — das sind wir alle selbst — will zu jedem Zeitpunkt, an jeder Steckdose, seine georderte Leistung haben. Er will selbst und frei entscheiden, wann er das Licht oder seinen Computer einschaltet oder was sonst er mit elektrischer Energie alles machen will. Für uns seit Jahrzehnten eine Selbstverständlichkeit. Vielleicht zu selbstverständlich, als das wir die heraufziehenden Gefahren „Der-schönen-neuen-Welt“ des Öko-Sozialismus noch wahrnehmen.

Wir sollen uns an einen Systemwechsel gewöhnen: Zukünftig geht es nicht mehr um die Interessen der Kunden, sondern ausschließlich um die Interessen der Lieferanten. Aus dem Kunden wird ein lästiger „Strom-Bittsteller“, dessen einzige Aufgabe noch darin besteht, mit seiner ständig steigenden Stromrechnung diejenigen zu mästen, die besonders gut und gerne von diesem Land leben — die Sonnen- und Windbarone.

In der guten alten Zeit, in der noch die Energieversorgung im Vordergrund stand, war die Aufgabenstellung einfach und klar definiert: Priorität hatte stets die Stabilität des Netzes. Auch die Verantwortung war über die Gebietsmonopole eindeutig geregelt. Jeder Versorger hatte von der Erzeugung (Kraftwerke) über den Transport (Netz) bis zur Abrechnung (Zähler usw.) alles bereitzustellen. Robustheit war so selbstverständlich, daß niemand darüber reden mußte. Die Bewertung der Performance war einfach: Wie oft und für wie lange ist die Stromversorgung in einem Gebiet ausgefallen?

Alles eine Frage der Verantwortlichkeit

Ein klassisches Energieversorgungs-Unternehmen mußte selbst entscheiden, in welchen Kraftwerkspark (Kohle-, Kernkraft-, Gaskraftwerke etc.) in welcher Zusammensetzung (Optimierung der Erzeugungskosten) es investierte. Welche Kraftwerke es in Betrieb hatte, welche in Reserve, wann Wartungsarbeiten, wann Modernisierungen etc. durchgeführt wurden. In der Praxis oft schwierig zu beantwortende Fragen, aber durch entsprechend große Stäbe an Ingenieuren handhabbar. Ein über alle Kulturkreise und sogar Gesellschaftssysteme erfolgreiches Modell.

Eine alte Volksweisheit besagt: Wenn es dem Esel zu wohl geht, geht er aufs Eis tanzen. Die „Große Transformation“ zurück ins Mittelalter ward erschaffen: Plötzlich wurde die Technik zwangsweise durch die vom Menschen nicht bestimmbare Kraft des Wetters ersetzt. Absurderweise auch noch mit der Begründung, genau diese Naturgewalt dadurch beeinflussen zu können und zu müssen („Klimakatastrophe“). Da kein Energieversorgungsunternehmen so blöd war, sich weiterhin für ein robustes Stromnetz verantwortlich machen zu lassen, aber die Stellhebel ausschließlich dem „Wettergott“ zu überlassen (100% Wind und Sonne), mußte die „Strommarktliberalisierung“ erschaffen werden. Eine herrliche Wortschöpfung um den verbrannten Begriff „Planwirtschaft“ zu vermeiden. Die Vorgehensweise ist und bleibt immer gleich: Zerschlage erstmal das funktionierende System und bilde möglichst viele Einheiten (Energieerzeugung, Netzgesellschaft etc.) mit möglichst gegensätzlichen und unterschiedlichen Interessen — auch als Teile und Herrsche bekannt. Damit die Sache beschleunigt wird, sorge für möglichst viele „Schlangenölverkäufer“ (EE-Gesetz) und Agitprop-Einheiten (Greenpeace, Klimainstitute usw.). [Einschub: Warum fällt mir an dieser Stelle bloß eine Paraderolle mit Mario Adorf ein: Ich sch… dich zu mit Geld.] In diesem Punkt unterscheidet sich der „Öko-Sozialismus“ von seinen eher armen Vorgängern. Man hat in diesem (noch) erfolgreichen System einfach mehr Geld anderer Leute — auch Steuern und Abgaben genannt — zur Verfügung.

Wofür dient die SRC wirklich?

Bisher hat man einfach den Bedarf gedeckt. Störungen für das Stromnetz haben sich aus technischen Fehlern (Kraftwerk, Trafo etc.), aus höherer Gewalt (Bagger) und zum geringeren Maße durch das Wetter (Sturm, Vereisung, Blitzschlag etc.) ergeben. Alles sehr gut beherrschbar, weil man stets selbst die Hoheit über die Produktion und Verteilung besessen hat. Man hat sich fast immer und ausschließlich in der ersten Phase des Normalbetriebes bewegt. Die Öffentlichkeit hat meist nichts von etwaigen Schwierigkeiten mitbekommen. Stromausfällen gab es — wenn überhaupt — nur lokal und kurzfristig.

Nun hat man — nicht aus Not, sondern nur aus ideologischen Gründen — die Erzeugung in die Hand des „Wettergottes“ übergeben. Dort geht aber die Bandbreite der Stromproduktion von nahezu Null (Dunkelflaute) bis zur maximalen installierten Leistung, die manchmal höher als der Gesamtbedarf sein kann. Mit zunehmendem Ausbau in Europa werden die notwendigen Abschaltungen immer weiter zunehmen. Wirtschaftlich eine sich selbst verstärkende Katastrophe. Mit jeder notwendigen Zwangsabschaltung wird die — ohnehin geringe — Arbeitsausnutzung (Strommenge, die die entsprechenden Anlagen pro Jahr produzieren) geringer und die Kosten der erzeugten Kilowattstunden steigen dadurch entsprechend an. Noch einmal in einem kurzen Merksatz zusammengefaßt: Je mehr Windmühlen und Sonnenkollektoren in Betrieb gehen, um so teurer werden die damit erzeugten Kilowattstunden! Ganz im Gegensatz zur geltenden Propaganda, die von immer weiter sinkenden Preisen faselt. Jeder Investor, der sich heute noch mit dem Gedanken trägt in Wind und Sonne zu gehen, sollte diesen Zusammenhang beherzigen. Ist der Redeschwall und die Zahlenakrobatik der Schlangenölverkäufer auch noch so verführerisch.

In diesem Zusammenhang ist die Einbeziehung des Wirtschaftsraumes Europa nicht zu vernachlässigen. Je weiter auch dort der Ausbau von „regenerativen Energien“ fortschreitet, um so mehr werden die Entsorgungsgebühren (negative Strompreise an den Börsen) ansteigen. Die von den Stromkunden in Deutschland bezahlten Entsorgungsgebühren machen die Preise für den Windstrom in unseren Nachbarländern immer weiter kaputt und erhöhen damit die dort fälligen Subventionen. Auch das, eine weitere Todesspirale für die „regenerativen Energien“. Die alte Propagandalüge „irgendwo-weht immer-der Wind“ ist längst als solche enttarnt. Was Meteorologen schon immer wußten, daß Großwetterlagen nicht an den nationalen Grenzen halt machen, ist heute bereits in den Übertragungsnetzen meßbar: Die Produktion von Windenergie in den zentraleuropäischen Staaten verläuft bemerkenswert synchron.

Wenn also der Wettergott die Produktion übernimmt, muß man von tagelangen und großräumigen Flauten ausgehen. Speicher in dieser Größe gibt es nicht. Wenn man zudem in der kurzen Zeit, in der der Wind genug weht und die Sonne scheint (Arbeitsausnutzung <15% in der Summe beider), nicht nur die aktuelle Nachfrage abdecken muß, sondern auch noch die zu speichernde Energie einschließlich der Verluste (mindestens 50%) produzieren muß, benötigt man gigantische installierte Leistungen. Dabei muß man auch noch beachten, daß die Vollbenutzungsstunden der Wandlungsanlagen (Batterien, Power to Gas oder was auch immer) und Übertragungsnetze ebenfalls sehr gering ausfallen müssen (Produktion minus Nachfrage), was bei den ohnehin sehr hohen Investitionskosten für Speicher- und Übertragungssysteme zu gigantischen spezifischen Kapitalkosten (€/kWh) führt.

Die Antwort liegt in Phase 2 der SRC

Jeder Fachmann weiß, daß bei immer weniger konventionellen Kraftwerken am Netz, zukünftig der Punkt 2 der SRC-Kurve immer häufiger zu dem Ergebnis führt, daß Störungen eben nicht mehr ausgeregelt werden können. Störungen sind zukünftig nicht mehr nur technische Fehler im System, sondern vielmehr auch noch die Launen des Wettergottes. Wenn erst einmal kein „Kohlestrom mehr die Netze verstopft“ und die Kernkraftwerke abgeschaltet sind, bleibt nur noch der Abwurf von Verbrauchern. Dieser muß in Sekundenschnelle erfolgen, sonst bricht — gemäß den Kirchhoffschen Regeln — das gesamte Netz großflächig (Europaweit?) zusammen.

Unsere Fachpersonen an den Schaltstellen der großen Transformation haben natürlich auch darauf eine Antwort: Man schwadroniert vom „Smart Grid“ und von „Smart Metering“. Dahinter verbirgt sich nichts anderes, als der elektronische Bezugsschein der Mangelwirtschaft. Auch die fanatischsten „Transformatoren“ sehen durchaus das Problem von großflächigen Stromabschaltungen. Deshalb wollen sie gemäß Dringlichkeit abstellen. Wer im Dunkeln sitzen muß, entscheidet wohl der örtliche Parteisekretär oder schlicht der Geldbeutel. Der dumme Michel wird schon zahlen, wenn er unbedingt die Sportschau sehen will oder sein Gefriergut retten muß. In Afrika überleben die Menschen schließlich auch irgendwie.

Wenn nun der Wind wieder richtig weht und der Tag nach einer langen Winternacht anbricht, kann man langsam in die Phase 3 übergehen. Es ist nämlich gar nicht so einfach ein Netz wieder zu stabilisieren. Man kann dann schrittweise die Notstromaggregate in den Krankenhäusern, Unternehmen usw. abstellen und die Verbraucher wieder aufs Netz schalten. Wie die „Performance“ aussieht, wird sich zeigen. Als letztes kommt dann mit Phase 4 die Beseitigung der entstandenen Schäden im Netz.

Ausblick

Der nächste Artikel wird sich mit den Konsequenzen für die Kernkraftwerke in dieser neuen Welt befassen. Mit Sicherheit wird es noch eine jahrelange Übergangszeit geben, bis man mit dem Spuk der „Regenerativen Energien“ wieder Schluß macht. Es gilt diese Zeit möglichst elegant aus zu sitzen.

Die Chinesen sind gelandet

Bisher etwas unbeachtet, beginnen die Chinesen den europäischen Markt für Kernkraftwerke zu erobern. Der erste Schritt ist mit dem Genehmigungsverfahren in Großbritannien eingeleitet.

Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/mgegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

Ende der „Energiewende“ in USA?

Trump arbeitet weiterhin konsequent seine Wahlversprechen ab und startet nach dem „Klimaausstieg“ einen Versuch zur Wiederherstellung eines funktionstüchtigen Stromnetzes. Mehr noch, es wird nebenbei auch noch eine Renaissance der Kernenergie eingeleitet.

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

Resilient Electricity

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Müssen alle KKW sofort abgeschaltete werden?

Am 1. März 2016 titelte REUTERS NRC-Ingenieure fordern Reparatur von Kernkraftwerken und am 4. März setzte HUFFPOST noch eins drauf: Gefährlicher Konstruktionsfehler droht die Flotte der KKW abzuschalten. Was verbirgt sich hinter diesen Tatarenmeldungen?

Public petition under section 2.206

Für einen solchen Vorgang läßt sich nur schwer eine deutsche Übersetzung finden, weil er uns kulturell eher fremd ist. In den USA geht man selbstverständlich davon aus, daß in allen Behörden Dienstwege außerordentlich verschlungen sind. Der normale Weg von unten bis oben ist nicht nur lang, sondern kann auch schnell in eine Sackgasse führen. Dies muß nicht einmal aus „Boshaftigkeit“ geschehen, sondern immer neue „Gesichtspunkte“ erzeugen auch immer neue Fragen. Deshalb gibt es in der amerikanischen Atomaufsicht – Nuclear Regulatory Commission (NRC) – eine Überholspur in der Form einer Petition.

Jeder Mitarbeiter – in diesem Fall war es eine Gruppe aus sieben Ingenieuren – kann eine (formalisierte) Stellungnahme abgeben. Diese muß dann innerhalb von 30 Tagen beantwortet werden. Das Besondere daran ist, daß diese Eingabe und die Antwort öffentlich sind. Es ist damit ein sehr scharfes Schwert in den Händen der „einfachen Mitarbeiter“. Gerade ausgewiesene Spezialisten mit anerkannten Fachkenntnissen, haben oft keine einflußreichen Positionen in der Hierarchie einer Behörde. Solch eine Petition wirbelt natürlich innen wie außen eine Menge Staub auf. Insofern wird sie nur bei schwerwiegenden Sicherheitsbedenken sinnvoll angewandt.

Um es gleich vorweg zu nehmen: Diese Gruppe hat nach eigenem Bekunden nie die Abschaltung aller Reaktoren in den USA im Sinn gehabt. Gleichwohl hat sie (begründete) Bedenken. Sie meint einer bedeutenden Sicherheitslücke auf die Spur gekommen zu sein und meint, daß nicht genug getan worden ist, um die Mängel zu beseitigen. Ungeduld und vorschnelles Handeln kann man ihnen sicherlich nicht unterstellen, da es sich um vier Jahre alte Vorkommnisse handelt.

Was war passiert?

Am 30.1.2012 war es im Kernkraftwerk Byron zu einer Schnellabschaltung gekommen. Ein solches Ereignis ist meldepflichtig und es setzt eine umfangreiche Untersuchung aller Ereignisse ein. Ziel ist es dabei immer, Schwachstellen herauszufinden, diese gegebenenfalls zu beseitigen und anderen Betreibern die Möglichkeit zu bieten daraus zu lernen.

Wie man bald herausfand, war die Ursache ein Bruch eines Isolators an der 345 kV Leitung des Kraftwerks. Der Isolator gehörte zu einer Serie, die falsch gebrannt worden war und somit in ihrem Kern starke Fehler aufwies. Inzwischen gab es einen Rückruf und die fehlerhafte Serie wurde ausgetauscht. Soweit nichts besonderes. Brüche von Isolatoren an Hochspannungsleitungen kommen immer mal wieder vor. Was macht die Angelegenheit aber trotzdem zu einem Sicherheitsproblem?

Dieser Isolator hat eine der drei Phasen gehalten, mit denen einer der Transformatoren zur Eigenversorgung des Kraftwerks verbunden war. Nun sind solche Anschlüsse wegen der erforderlichen Leistungen eher „Stangen“ als „Drähte“. Die Phase riß zwar ab, fiel aber nicht auf den Boden und löste somit keinen Kurzschluss aus. Die Sicherung löste nicht aus. Es gab auch kaum einen Spannungsunterschied zwischen den Phasen. Der Fehler wurde dadurch gar nicht bemerkt und es erfolgte keine automatische Umschaltung auf einen anderen Weg zur Energieversorgung.

Normalerweise ist ein solcher Vorfall nichts ernstes: Man schaltet die Komponente frei, setzt einen anderen Trafo zur Versorgung ein und repariert den Schaden schnellstmöglich. Allerdings muß man dafür den Leitungsbruch bemerken. Hier setzt die berechtigte Kritik ein. Die Unterzeichner der Petition haben systematisch alte Störfälle noch einmal untersucht und dabei festgestellt, daß so etwas bereits häufiger passiert ist. Teilweise wurden solche Fehler erst nach Tagen bei Kontrollgängen bemerkt oder erst infolge von Anfragen des Netzbetreibers „gesucht“. Diesem Problem wurde keine besondere Dringlichkeit beigemessen, da es durchweg nicht zu Schnellabschaltungen kam. Es war einfach nur ein typischer Schaden im nicht-nuklearen Teil des Kraftwerks.

Sicherheitsrelevant oder nicht?

Die Stromversorgung von außen, sollte bei einem Kernkraftwerk immer funktionieren. Deshalb wird sie auch ständig überwacht. Das Tückische an diesem Schadensbild ist jedoch, daß sie eben nicht unterbrochen, sondern nur gestört war. Wenn bei einer Drehstromversorgung nur eine Phase unterbrochen ist, fließt trotzdem noch weiterhin Strom, aber mit geringerer Spannung. Dies wurde von der Meßtechnik auch richtig erfaßt, aber von der Auswerte-Logik falsch interpretiert. Es wurde die Spannungsdifferenz zwischen den Phasen A und B gebildet (die in Ordnung war) und zwischen den Phasen B und C (die geringe Abweichungen hatte, weil Phase C abgerissen war, aber frei in der Luft hing). Wenn die Stromversorgung nicht richtig funktioniert, soll automatisch auf eine andere Strecke umgeschaltet werden oder die Notstromdiesel gestartet werden.

Die Schnellabschaltung ist sicherheitstechnisch der letzte Rat. Um den Reaktor zu schonen, sollte sie so selten wie möglich erfolgen. In der Sicherheitskette ist deshalb eine solche Spannungsüberwachung ein 2-von-2-Kriterium – nur wenn beide Differenzen eine bedeutende Abweichung ergeben, wird von einem schwerwiegenden Fehler ausgegangen. Wenn – wie in diesem Störfall – nur eine Differenzmessung abweicht (weil nur ein Kabel von dreien gebrochen war), wird eher ein Messfehler unterstellt. Die Umschaltung erfolgte später erst durch einen Mitarbeiter, der sich ca. 8 Minuten nach der Schnellabschaltung von der Funktionstüchtigkeit der Schaltanlage vor Ort überzeugte. Er löste die „Sicherung“ von Hand aus, nachdem er die abgerissene Leitung sah und damit seinen Verdacht für den Spannungsabfall bestätigt sah. Ein deutlicher Hinweis, warum man Kernkraftwerke nicht vollautomatisch betreibt!

Kleine Ursache, große Wirkung

Man hat in jedem Kraftwerk intern verschiedene Spannungsebenen um die großen Antriebsleistungen von Pumpen etc. überhaupt bereitstellen zu können. In Byron hingen zwei Hauptkühlmittelpumpen an der „Aussenversorgung“ und zwei an dem eigenen „Generatorsystem“. Zum Anlagenschutz hat jede Pumpe ihr eigenes Überwachungssystem, welches bei einer Überschreitung von Grenzwerten die Pumpe abschaltet. Die zwei Pumpen, die an der „Aussenversorgung“ hingen, haben die Spannungsunterschreitung und die Stromüberschreitung infolge der verlorenen Phase richtig erkannt und sich automatisch abgeschaltet. Die anderen zwei, die am „Generatorsystem“ hingen, waren davon nicht betroffen. Jetzt griff aber die Sicherheitskette ein: Ein Ausfall von zwei Hauptkühlmittelpumpen ist ein nicht zu überbrückendes Abschaltkriterium. Der SCRAM – die Schnellabschaltung – wird unweigerlich und unbeeinflußbar ausgelöst.

Durch die Schnellabschaltung ging die Dampfproduktion und damit die Eigenversorgung in die Knie. Man war damit noch abhängiger von der Außenversorgung. Der Spannungsabfall fraß sich weiter durchs Kraftwerk und setzte nacheinander weitere Großverbraucher außer Gefecht. Plötzlich befand man sich in einer Situation, ähnlich wie in Fukushima: Man hing nur noch von einer „Notkühlung“ über die Notstromdiesel ab. Hier hat zwar alles einwandfrei funktioniert und es sind keinerlei Schäden aufgetreten, aber eigentlich will man nicht so viele „Verteidigungslinien“ durchbrechen.

Die unterschiedlichen Interpretationen

Wie gesagt, der Vorfall liegt vier Jahre zurück. Passiert ist nichts. Das Kraftwerk konnte – nach den üblichen umfangreichen Überprüfungen – wieder angefahren werden. Inzwischen gibt es einige Kilogramm Fachaufsätze, die sich mit dem Problem beschäftigen. Zahlreiche Veranstaltungen sind durchgeführt worden.

Schnell und einfach geht in der (heutigen) Kerntechnik gar nichts mehr. Jede Maßnahme muß genauestens untersucht und kommentiert werden – letztendlich sogar von Juristen. Es gibt inzwischen sogar verschiedene technische Lösungsansätze für das Problem. Alle haben ihre Vor- und Nachteile. Man muß höllisch aufpassen, daß man durch Veränderungen an einer Stelle, nicht neue Probleme an anderer Stelle schafft.

Es geht bei der ganzen Angelegenheit weniger um Technik als um Juristerei. Inzwischen sind alle Kraftwerke und alle Hersteller informiert und arbeiten eng zusammen. Jedes Kernkraftwerk ist ein individuelles Produkt und erfordert damit auch eine spezielle Lösung des Problems. Jeder Einzelfall muß auf seine Auswirkungen bezüglich des Gesamtsystems hin überprüft werden. Eine sehr arbeitsintensive Angelegenheit. Letztendlich streitet man sich um die ewige Frage: Was soll automatisch geschehen und was macht der Mensch? Sollen solche Randbereiche wie ein einzelnes Kabel eines Hilfstransformators in automatische Sicherheitsketten eingearbeitet werden? Wird dadurch die Sicherheit erhöht oder gar verringert? Kann man oder soll man sogar – wegen der Beschäftigung mit solchen Problemen –. ganze Kraftwerksflotten stilllegen? Wie lange ist der angemessene Zeitraum, um eine etwaige Verbesserung umzusetzen?

Langsam bildet sich in der kerntechnischen Industrie ein absurd anmutender Drang nach Perfektionismus heraus. Die Abwägung von Risiko und Nutzen geht immer mehr zu Lasten des Nutzens. Was wäre, wenn man jedesmal gleich die Hauptmaschine abstellen würde, weil irgendwo im Maschinenraum ein Teil versagt? Unsere Küsten wären wahrscheinlich längst mit Schiffswracks (auch nuklearen!) gepflastert. Noch absurder wäre die ständige Forderung nach sofortiger Stilllegung der gesamten Flotte. Ganz offensichtlich geht es hier um ganz andere Dinge. Nur konsequente Aufklärung und Transparenz kann die Kerntechnik wieder auf ein Normalmaß zurückholen. Wie wäre es mit der Flugzeugindustrie als Vorbild? Dort wird auch nicht nach jedem Absturz – jedes mal – das gesamte System in Frage gestellt.

Gleichwohl ist das Vorgehen gewisser Presseorgane immer gleich: Man greift Jahre zurückliegende Ereignisse (erinnert sei nur an die Druckbehälter in Tihange und Doel) auf, die längst in der Fachwelt abgehakt, weil vollständig ausdiskutiert sind. Gierig werden einzelne, meist singuläre Ansichten aufgegriffen und daraus vermeintliche Skandale und Vertuschungen konstruiert. Dies alles, obwohl es im Internetzeitalter weniger Klicks bedarf, um sich zu informieren. Ist das Selbststudium zu anstrengend, könnte man ja mal ein paar Fachleute befragen. In wie weit man das noch als „schlampigen Journalismus“ oder schon als „Lügenpresse“ einordnet, muß jeder für sich selbst entscheiden.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.