Robuste Kraftwerke für robuste Netze

Für eine robuste Stromversorgung („Grid Resilience“) unter den erschwerten Bedingungen von Wind- und Sonnenenergie ergeben sich auch besondere Anforderungen an die Kraftwerke. Wind und Sonneneinstrahlung sind Wetterphänomene und damit nicht vom Menschen beeinflußbar. Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

Robuste Lastfolge

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

Abwehr äußerer Einflüsse

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

Sicherer Inselbetrieb

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

Unendliche Notkühlung

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

Schwarzstartfähigkeit

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Thorcon – neue Reaktoren aus/mit Indonesien?

Das US-Unternehmen Thorcon will Salzbadreaktoren in Indonesien bauen.

Indonesien

Für ein besseres Verständnis, erscheinen ein paar Worte über die Energiesituation in Indonesien angebracht. Indonesien besteht aus über 17000 Inseln und ist mit 253 Millionen Einwohnern (Stand 2014) das viertgrößte Land der Erde. Als Schwellenland hat es einen rasanten Anstieg des Primärenergieverbrauches zu verzeichnen. In der Dekade zwischen 2003 und 2013 um 43%. Die Hauptenergieträger sind Öl, Kohle und Erdgas. Indonesien ist seit 1885 ein Ölförderland. Inzwischen ist die Nachfrage durch Bevölkerungs- und Wirtschaftswachstum so stark gestiegen, daß es seit etwa 2003 Nettoölimporteur ist.

Es besitzt auch große Erdgasvorkommen (Platz 13 in der Weltrangliste, Platz 2 in Asien) und ist immer noch Nettoexporteur. Der Verbrauchsanstieg ist aber so groß, daß es neuerdings sogar Erdgas als LNG aus den USA importiert (20 Jahresvertrag mit Cheniere). Hinzu kommt die ungleiche Verteilung im Inselreich.

Eigentlich ist Indonesien Kohlenland mit über 500 Millionen Tonnen jährlich. Davon werden rund 80% exportiert (weltweit größter Exporteur nach Masse). Trotzdem beträgt der Inlandsverbrauch rund 80 Millionen Tonnen mit stark steigender Tendenz wegen des Zubaues von Kohlekraftwerken.

In Indonesien sind erst 84% der Bevölkerung überhaupt an das Stromnetz angeschlossen. Bei bisher erst 51 GWel installierter Leistung (88% fossil, davon 50% Kohle) ist das Netz chronisch überlastet. Die häufigen Zwangsabschaltungen sind eine enorme Belastung für Bevölkerung und Industrie.

Traurige Berühmtheit erlangte Indonesien durch die Brandrodung des Regenwaldes zur Anpflanzung gigantischer Palmölplantagen. Auch hier wieder ökosozialistische Wahnvorstellungen als entscheidende Triebkraft: Biokraftstoffe und Holzschnitzel zur „Klimarettung“ und gegen „Peakoil“.

Indonesiens Weg in die Kernenergie

Langfristig kommt Indonesien als bevölkerungsreiches Schwellenland – genauso wie China und Indien – nicht ohne eine Nutzung der Kernenergie aus. Man will aber offensichtlich einen etwas anderen Weg gehen: Nicht der schnelle Einstieg durch den Kauf fertiger Kraftwerke steht im Vordergrund, sondern der Aufbau einer eigenen kerntechnischen Industrie. Konsequent setzt man auf die Entwicklung „neuer“ Kernreaktoren. Dies ist zwar mit einem erheblichen Risiko verbunden, erlaubt aber eine konsequente Anpassung an lokale Verhältnisse und vermeidet hohe Lizenzgebühren. Für ein Inselreich bieten sich kleine Reaktoren (SMR) an, bevorzugt als schwimmende Einheiten.

Eine Entwicklungsschiene ist ein gasgekühlter Hochtemperaturreaktor mit Uran als TRISO Kugelhaufen. Der Prototyp RDE (Reaktor Daya Eksperimental) soll eine Leistung von 10 MWel haben, die später auf bis zu 100 MWel erweitert werden soll. Diese SMR (Small Modular Reactor) sind besonders für die „kleineren“ Inseln des Archipels vorgesehen. Noch dieses Jahr soll ein detaillierter Konstruktionsplan durch ein Konsortium aus Universitäten und privaten Unternehmen einer internationalen Kommission der IAEA zur Begutachtung vorgelegt werden. Grundlage für eine endgültige Entscheidung und die Finanzierung.

Schon 2015 hat die US-Firma Martingale (jetzt ThorCon International) mit einem staatlichen indonesischen Konsortium PT Industry Nuklir Indonesia (INUKI) ein Abkommen zum Bau eines Flüssigsalzreaktors abgeschlossen. Angeblich soll schon 2019 mit dem Bau begonnen werden und das erste Kraftwerk 2025 in Betrieb gehen.

Das ThorConIsle-Konzept

Der Guru der Flüssigsalzreaktoren Robert Hargraves verkündet in seinem neuesten Prospekt vollmundig, daß sein Kraftwerk weniger Investitionen als ein Kohlekraftwerk erfordern würde. Allerdings erinnert das schön bebilderte Verkaufsprospekt an einschlägige Exponate von Bauträgern: Alles schön, keine Probleme, super günstig, daher sofort kaufen.

Das Grundkonzept ist von den Russen abgekupfert: Man baut ein Schiff ohne Antrieb um zwei Reaktoren (plus dem nötigem Zubehör) herum. Alles etwas größer und schöner, versteht sich. Nur mit dem Unterschied, daß das russische Modell nach langer Bauzeit endlich schwimmt. Kein Supertanker – nur 2 x 35 MWel anstelle von 2 x 256 MWel – und „nur“ mit auf Eisbrechern erprobten Reaktoren, anstelle von frisch erfundenen Thorium-Flüssigsalz-Reaktoren. Schön wenn ein solches Kraftwerk mal gebaut wird, aber ganz gewiss nicht bis 2025 und dazu noch billiger als ein Kohlekraftwerk.

Die Idee Kernkraftwerke als Schiffe in Serie zu bauen, ist sicherlich für ein Inselreich verlockend. Nur ist eben ein Kernkraftwerk kein Supertanker (Schuhkarton ), sondern randvoll mit Technik. Insofern können die Baukosten nicht einfach übertragen werden.. Ein Schiff bleibt ein Schiff: Die Korrosionsprobleme im tropischen Meer sind gewaltig und erfordern erhöhte Betriebskosten. Ein Schiff kann auch keine „Betonburg“ (Terrorismus, Flugzeugabsturz etc.) sein. Ganz so einfach, wie im Prospekt, dürfte es nicht gehen: Man kippt einfach die Zwischenräume voll Beton und erhält so einen tollen Bunker. Wer z. B. das Genehmigungsverfahren für den AP-1000 (Sandwich aus Stahlplatten und Beton) verfolgt hat, ahnt, wie Genehmigungsbehörden ticken.

Alle Komponenten sollen zwischen 150 und 500 to schwer sein und sich sogar während des Betriebs auswechseln lassen. Auch hier scheint es mehr um Wunschdenken zu gehen.

Der Reaktor

Bei dem Reaktor handelt sich um eine Kanne, in der der eigentliche Reaktorbehälter (gen. Pot), die Umwälzpumpen und die Wärmetauscher untergebracht sind. Die Kanne wiegt knapp 400 to, wovon etwa 43 to auf die Salzfüllung entfallen. Dieses Gebilde soll spätesten nach acht Jahren komplett ausgebaut und mit einem Spezialschiff zur Wiederaufbereitung geschickt werden. Nach acht Jahren ist das Salz so voller Spaltprodukten, daß es nicht mehr weiter im Kraftwerk eingesetzt werden kann. Vor dem Transport soll es vier Jahre lagern, bis die Strahlung auf akzeptable Werte abgeklungen ist. Jeder Block hat deshalb zwei Kannen.

Die Kanne ist das Neuartige an diesem Konzept: Man tauscht nicht regelmäßig Brennstoff aus, sondern der eigentliche Reaktor ist eine „Batterie“, die komplett gewechselt wird. Vorteil dabei ist, daß man erforderliche Inspektionen und Reparaturen in einer Spezialfabrik durchführen kann. Der gesamte nukleare Teil („der strahlt.“) befindet sich in dieser Kanne. Alle anderen Komponenten sind „konventionell“. Mal sehen, was der Genehmigungsbehörde dazu alles einfällt….

Allerdings stellt das Batterieprinzip alle bisher geltenden Lehrmeinungen über Thorium-Reaktoren auf den Kopf:

  • Bisher ging man von einer kontinuierlichen Wiederaufbereitung aus. Man wollte das Spaltproduktinventar stets gering halten. So hätte man es bei einem schweren Störfall automatisch nur mit geringen Mengen zu tun.
  • Je mehr Neutronengifte – und im Sinne einer selbsterhaltenden Kettenreaktion ist schon Thorium selbst ein starker Parasit – vorhanden sind und je länger die Wechselintervalle sein sollen, um so mehr spaltbares Uran muß man am Anfang zugeben. Dieses muß auch noch möglichst hoch angereichert sein (hier geplant 19,7 %).

Das Salz

Als Brennstoff soll ein NaF – BeF2 – ThF4 – UF4 (mit 76 – 12 – 10,2 – 1,8 mol%) Salz verwendet werden. Es soll ganz tolle Lösungseigenschaften haben, die alle „gefährlichen“ Spaltprodukte zurückhalten. An dieser Stelle fällt mir immer der alte Chemikerwitz ein: Ruft der Professor überglücklich, ich habe endlich das ultimative Lösungsmittel gefunden. Antwortet der Laborant trocken, Glückwunsch und wo soll ich es jetzt hinein füllen? Bei einem solchen Salz ist das leider mehr als ein blöder Witz. Zumal hier auch noch mit Temperaturen von über 700 °C gearbeitet werden soll. Mit Schiffbaustahl (Kostenangaben) wird sich da leider gar nichts ausrichten lassen.

Beryllium und auch Berylliumfluorid sind sehr giftig und werden als krebserregend eingestuft. Wenn Beryllium ein Neutron einfängt, bildet es Helium und setzt dabei zwei Neutronen frei. Es wirkt dabei sowohl als Moderator, wie auch als Neutronenvervielfacher. Fluor und Fluorwasserstoff sind gasförmig und sehr giftig. Fluor ist äußerst reaktionsfreudig und geht mit fast allen Elementen stabile chemische Verbindungen ein. Mit Wasserstoff reagiert es letztendlich zu Flußsäure, die sogar Glas ätzt. Jede Kernspaltung zerstört auch die chemische Verbindung und neue chemische Elemente in Form der Spaltprodukte entstehen. Man hat es deshalb stets auch mit elementarem Fluor zu tun, der auch gern mit dem Strukturmaterial reagieren kann. Da Fluoride sehr reaktionsfreudig sind, reagieren sie natürlich auch wieder mit dem größten Teil der Spaltprodukte und binden diese sicher ein. Es gibt aber zwei Ausnahmen: Edelmetalle und Edelgase. Die Edelmetalle lagern sich innerhalb der Anlage ab und führen zu „Verschmutzungen“, die man regelmäßig und aufwendig wird entfernen müssen (Die Batterie doch komplett auf den Müll?). Die Edelgase müssen (eigentlich) durch Helium ständig aus dem Salz herausgespült werden.

Der immer wieder gern gehörte Hinweis aus der Salzbad-Scene auf den legendären MSRE-Reaktor, hilft in diesem Sinne leider auch nicht weiter: Er hat nur 1,5 Voll-Lastjahre (1966 bis 1969) gelaufen.

Das Sicherheitskonzept

Der Reaktor stellt sich immer selbstständig ab, wirbt ThorCon. Zwar ist dies durchaus kein Alleinstellungsmerkmal eines Flüssigsalzreaktors, aber trotzdem eine feine Sache. Locker mit „Walkaway Safe“ umschrieben. Es ist kein Hexenwerk, eine Kettenreaktion durch Überhitzung (Verkleinerung des makroskopischen Einfangquerschnittes) aus sich selbst heraus zusammenbrechen zu lassen, es bleibt aber immer noch die Nachzerfallswärme (Fukushima und Harrisburg): Sie muß entsprechend schnell abgeführt werden, sonst schmilzt der Reaktor. Auch hier gilt natürlich, je mehr Spaltprodukte im Reaktor enthalten sind (Batterie gegen kontinuierliche Aufbereitung), um so größer ist das Problem.

Die Konstrukteure von Flüssigsalzreaktoren gehen nun davon aus, daß das Salz unter allen denkbaren Umständen und überall im Reaktor schön fließfähig bleibt. Im Ernstfall läuft es dann problemlos in einen gekühlten Tank aus. Dazu denkt man sich an geeigneter Stelle einen Pfropfen als Verschluß, der während des Normalbetriebs durch permanente Kühlung erzeugt wird. Unterbricht man im Notfall die Kühlung, schmelzt das flüssige Salz den Pfropfen auf und gibt so den Weg frei. Der Nottank soll aus vielen Röhren bestehen, die über ihre Oberflächen die Wärme gegen eine Kühlwand abstrahlen. Die Wand wird mit Wasser gefüllt, welches verdampfen kann und sich in Kühltürmen auf Deck wieder niederschlägt. Das Kondensat läuft dann in die Hohlwand zurück.

Schlussbetrachtung

Indonesien muß wie jedes andere Schwellenland in die Kerntechnik einsteigen. Nicht nur zur Energiegewinnung, sondern auch um Anschluß an moderne Industriestaaten zu gewinnen. Kerntechnik ist neben Luft- und Raumfahrt die Schlüsseltechnologie schlechthin. In keiner anderen Branche kommen so viele Technologien mit ihren jeweiligen Spitzenleistungen zusammen. Insofern ist es nur konsequent, möglichst frühzeitig in die internationale Entwicklung „neuer“ Reaktortechnologien einzusteigen. Schon die Zusammenarbeit mit Spitzenuniversitäten und Hochtechnologieunternehmen stellt einen unschätzbaren Wert für die eigene Ausbildungslandschaft dar. Selbst wenn diese jungen Ingenieure später nicht in der Kerntechnik tätig werden, werden sie mit Sicherheit zu den gefragten Spitzenkräften in ihrer Heimat zählen. Keine „Entwicklungshilfe“, die „angepasste Technologie“ für die „große Transformation“ verbreiten will, wird auch nur ansatzweise vergleichbares hervorbringen. Technik – und damit die Gesellschaft –entwickelt sich halt immer nur durch machen weiter und nicht in irgendwelchen geisteswissenschaftlichen Seminaren.

Ölsand, die nächste Ölquelle in den USA?

In diesem Jahr hat die Ölförderung in den USA erstmalig seit 1970 wieder 10 Millionen Faß pro Tag erreicht.

Peak Oil

Kann sich noch jemand erinnern, wie vor einigen Jahren die Anhänger der Mangelwirtschaft das baldige Ende des Ölzeitalters vorausgesagt haben? Man glaubte endlich ein Marktversagen gefunden zu haben, was die Wiedereinführung der Planwirtschaft ermöglichte. Ein seit nunmehr 200 Jahren anhaltender Irrtum. Wieder einmal hat ein Mangel – ausgedrückt in steigenden Preisen – den menschlichen Erfindergeist frei gesetzt. In diesem Fall war es die Entwicklung des „fracking“, die erst gigantische Mengen Erdgas und anschließend Erdöl zugänglich machte.

Ganz nebenbei kann man an dieser Entwicklung auch die unterschiedliche Gesellschaftsauffassung sehen: In den USA ist Erfinden und Tüfteln immer noch eine angesehene Tätigkeit. Solange man nicht gegen Gesetze verstößt, kann man seiner Phantasie freien Lauf lassen. Man findet auch relativ leicht Geldgeber, weil „Profit machen“ nichts anrüchiges ist, sondern im Gegenteil ein verbrieftes Recht für den, der wirtschaftliche Risiken eingeht. Niemand erwartet dabei eine Erfolgsgarantie, weil Chance und Risiko des Misserfolges immer die zwei Seiten derselben Medaille sind.

Ganz anders in Deutschland: Kaum war der Ruf „fracking“ als neu erschlossene Energiequelle erschallt, haben sich sofort die einschlägigen Kostgänger dieser Gesellschaft aus Politik und Medien zusammengerottet. In altbekannter Manier wurden jegliche Chancen sofort vehement geleugnet und dafür apokalyptische Gefahren beschworen. Die willfährigen Volksbeglücker aller etablierten Parteien haben sofort jede Entwicklung per Gesetz im Keim zu ersticken verstanden. Die gleichen Pharisäer, die – wenn es um ihre eigene Klientel geht – schamlos Wälder roden lassen und jeglichen Artenschutz leugnen, damit ihre Reichskrafttürme wie Pilze aus dem Boden schießen können.

Wurde Präsident Trump hier politisch korrekt belächelt wenn er davon sprach, er wolle die Industriearbeitsplätze zurückholen, dämmert es mittlerweile auch jedem GEZ-Nachrichtenvorleser wo die Reise hingeht: Erst billige Energie im Überfluß, anschließend drastische Steuersenkungen und nun auch noch die Forderung nach „fairem Handel – von jedem wirtschaftsunkundigen gern als Protektionismus verunglimpft. Bald können deutsche Politiker sicherlich wieder die Schließung eines Stahlwerks oder die Verlagerung von Dieselmotoren etc. bejubeln – ist doch toll für den „Klimaschutz“.

Die Ölsände der USA

Wer so naiv war zu glauben, die USA hätten bald ihr Pulver verschossen, steht nun vor der nächsten Phase: Nach unkonventionellem Gas und Öl kommen jetzt die Ölsände hinzu. Die USA verfügen über mindestens 30 Milliarden Faß Öläquivalent. Davon befinden sich rund 50% im Uinta-Basin im nordöstlichen Utah. Leicht abbaubar, weil oberflächennah und dazu noch sehr schwefelarm. Im Dreieck von Utah, Colorado und Wyoming liegen wohl 1200 Milliarden Faß Rohöläquivalent.

Was sind Ölsände?

Ölsände – auch Teersände genannt – sind natürliche Umweltkatastrophen in grauer Vorzeit. Irgendwann sind Öllagerstätten bis an die Oberfläche durchgebrochen. Die leicht flüchtigen Bestandteile des Erdöls sind verdunstet und es ist Bitumen zurückgeblieben. Man unterscheidet zwei Typen: „water wet“ und „oil wet“. Der erste Typ ist von den kanadischen Ölsand Lagerstätten in Alberta bekannt. Bei ihm sind die Sandkörner von einer dünnen Wasserschicht umgeben auf der wiederum der Bitumen sitzt. Das Gewinnungsverfahren ist seit den 1920er Jahren bekannt: Der Sand wird in 80 °C heißem Wasser gewaschen, wodurch sich das Bitumen vom Sand ablöst. Durch einblasen von Luft bildet sich ein ölhaltiger Schaum, der aufschwimmt. Dieser Schaum ist das Rohprodukt. Es besteht zu etwa 60% aus Öl, 30% Wasser und 10% Feststoffen. Nach dessen Aufbereitung geht das Abwasser mit allen Chemikalien und Feststoffen in riesige Absetzbecken. Eine ziemliche Umweltbelastung. Anschließend muß das Bitumen noch zu synthetischem Rohöl verarbeitet werden, bis es auf dem Ölmarkt zu verkaufen ist. Eine ziemlich energieaufwendige Angelegenheit. Das ganze erfordert gigantische Anlagen mit einem immensen Kapitalaufwand.

Die Ölsände in Utah sind vom Typ „oil wet“, der sich nicht mit dem vor beschriebenen Verfahren verarbeiten läßt. Die Sandkörner sind direkt vom Öl umkleidet. Deshalb ist das Bitumen nicht mit Wasser abwaschbar. Es mußte ein geeignetes Lösungsmittel gefunden werden. Auch hier haben wieder mittelständische Unternehmen – nicht die großen Ölkonzerne – jahrzehntelang getüftelt und entwickelt. Es wurden (patentierte) Lösungen auf der Basis von Diesel, Propan und Gas-Kondensaten gefunden. Der Trick dabei ist, daß es sich um azeotrope (gleiche Zusammensetzung in der flüssigen und dampfförmigen Phase) Gemische handelt, die sich bei geringer Temperatur von 70 bis 75 °C durch einfache Destillation wieder von dem aufgelösten Bitumen trennen lassen. So erhält man einerseits ein reines Produkt und kann 99,9% des Lösungsmittels im Kreislauf laufen lassen (keine Abwasser-Seen!). Der Ölsand wird bei etwa 60 °C mit dem Lösungsmittel gewaschen. Der Sand ist anschließend so „sauber“, daß er problemlos auf Halde gelagert oder sogar als Baustoff verkauft werden kann. Ein energiesparendes und umweltfreundliche Verfahren.

Die Produktionskosten werden mit lediglich 22 $/barrel angegeben. Man muß etwa 1 to Ölsand zur Gewinnung eines barrel Öl verarbeiten. Das ist bei den geologischen Verhältnissen in Utah kein Problem. Das Lösungsmittel ist zwar recht teuer (ca. 35 $ pro barrel), hängt aber ganz unmittelbar von den jeweils aktuellen Ölpreisen ab: Billiges Rohöl, billiger Einstandspreis für das Lösungsmittel und umgekehrt. Das macht die Produktionskosten (anders als beim „fracking“) sehr stabil gegenüber Ölpreisschwankungen. Die Ölsände lagern in einem alten Ölfördergebiet, d. h. die Infrastruktur für Transport und Verarbeitung ist bereits vorhanden. Das Öl ist mit 14 API-Graden zwar sehr zäh (schwimmt kaum noch auf dem Wasser), aber „süß“ (geringer Schwefelgehalt und damit mit geringem Energieaufwand zu verarbeiten). Gut in lokalen und Schweröl-Raffinerien an der Golfküste zu verarbeiten, was weitere Ölmengen (z. B. Leichtöle aus Texas) für den Export freistellt.

Der entscheidende Antrieb für eine schnelle Umsetzung dürften aber die geringen Kapitalkosten sein. Inzwischen ist man bei einer Anlagengröße von 5000 Faß pro Tag angekommen. Eine solche Anlage kostet angeblich nur 70 Millionen Dollar. Für die Ölindustrie ein Trinkgeld.

Die politischen Konsequenzen

Seit Trump die Hindernisse für eine gesteigerte Produktion an fossilen Energien systematisch aus dem Weg räumt, explodiert die Öl- und Gasförderung. Für sich genommen, schon ein enormer Wohlstandsgewinn in der Form von (gut bezahlten) Arbeitsplätzen und steigenden Staatseinnahmen (trotz oder gerade wegen der Steuersenkung).

Hinter den neuen Produktionsverfahren verbergen sich eine Menge neuer Technologien. Unkonventionelle Öl- und Gasvorkommen gibt es aber überall auf der Welt. Die Schätze warten nur darauf, gehoben zu werden. Die amerikanische Zulieferindustrie wird weiterhin wachsen und international marktbeherrschend bleiben.

Preiswerte Energie ist der Lebenssaft einer jeden Volkswirtschaft. In den USA treffen billige Rohstoffe auf eine hochentwickelte Industrie.. Eine einzigartige Kombination in der Weltwirtschaft. Ein Narr, wer glaubte, Trump wolle die Niedriglohngruppen aus China und Mexiko zurückholen. Die Stahlwerke und Aluminiumhütten die sich Trump vorstellt, sind nicht die Museumsbetriebe aus den Hinterhöfen Chinas, Indiens oder Russlands. Die internationalen Investoren sind ausdrücklich aufgerufen in den USA modernste Anlagen zu bauen. In der (hier ebenfalls ungeliebten) Chemieindustrie ist die Verlagerung bereits im Gange. Da bedurfte es noch nicht einmal Zölle und Steuersenkungen als Impuls.

Öl- und Gasexporte sind nicht nur volkswirtschaftlich sinnvoll: Ein Produkt mit weltweiter Nachfrage, welches gewaltige Summen in die eigenen Kassen spülen kann. Darüberhinaus besitzt es auch eine außerordentliche geostrategische Qualität.. Man kann „wohlgesonnene Nationen“ mit ausreichend und billiger Energie versorgen. Gleichzeitig kann man „unfreundlichen Nationen“ die Deviseneinnahmen beschneiden und damit deren Aufrüstung zurechtstutzen. Besonders die „Alt-68er“ in Deutschland werden umdenken müssen: Wenn die USA angeblich nur wegen Öl Krieg geführt haben, droht ziemlich schnell ein böses Erwachen. Trump hat schon in seinem Wahlkampf immer gesagt (auch da hat offensichtlich niemand zugehört!), die USA haben nur zwei Interessen im Mittleren Osten: Terrorbekämpfung und Beistand von Israel. Alles andere sei Aufgabe der Europäer. Ob da wohl noch die Verteidigungsausgaben ausreichen werden? Deutschland schlittert schon heute sehenden Auges immer tiefer in den Sumpf des Irak und Nordafrikas hinein.

Ende der „Energiewende“ in USA?

Trump arbeitet weiterhin konsequent seine Wahlversprechen ab und startet nach dem „Klimaausstieg“ einen Versuch zur Wiederherstellung eines funktionstüchtigen Stromnetzes. Mehr noch, es wird nebenbei auch noch eine Renaissance der Kernenergie eingeleitet.

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

Resilient Electricity

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für „Aktuelle Kamera“ und den „Schwarzen Kanal“ gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer „Unberechenbarkeit des POTUS (President Of The United States)“ geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos „Washington“ ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der „politischen Wissenschaften“. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar „Kulturschaffende“ oder gewalttätige „Antifanten“ könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der „American way of live“ wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der „Baulöwe“ ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen „Experten“ als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die „Energieexperten“ in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach „Wirtschaftswunder“ geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie „Peak Oil“, „Klimakatastrophe“ und dem Försterspruch von der „Nachhaltigkeit“, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom „peak oil“mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als „fracking“ bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen um mehrere hundert Prozent. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch „Klimaschutz“ auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff „clean coal“ benutzt. Darunter versteht man nicht einfach „saubere Kohle“, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum „Klimaschutz“, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den „Feinden Amerikas“ heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit „remember 9/11“ verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole „Make America Great Again“.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das „Reich des Bösen“ dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den „Krieg der Sterne“. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Könnte Deutschland die große Schweiz werden?

Die Bürger der Schweiz haben sich gegen eine vorzeitige Abschaltung ihrer Kernkraftwerke entschieden. Ein Anlass, einmal über die Verhältnisse in Deutschland (neu) nachzudenken.

Der Istzustand

Vielen Menschen in Deutschland ist gar nicht bewußt, daß immer noch acht Blöcke am Netz sind (Isar 2, Brokdorf, Philippsburg 2, Grohnde, Emsland, Neckarwestheim 2, Gundremmingen B und C) und in aller Stille reichlich zur Energieversorgung in Deutschland beitragen. Sie haben immerhin zusammen die stolze Leistung von 10.799 MWel. und produzieren damit durchschnittlich 86.595.052.800 kWh elektrische Energie jährlich. Wohl gemerkt, jedes Jahr, unabhängig davon, wie stark der Wind bläst oder die Sonne scheint. Halt Energie nach den Bedürfnissen der Menschen und nicht „auf Bezugsschein“ irgendwelcher Schlangenölverkäufer mit (meist) öko-sozialistischer Gesinnung. Ganz neben bei, tragen sie durch ihre gewaltigen Generatoren auch noch zur Netzstabilität bei. Wie wichtig und kostenträchtig allein dieser Aspekt ist, werden unsere Laiendarsteller erst merken, wenn diese Kraftwerke endgültig abgeschaltet sind.

Wieviel Volksvermögen vernichtet werden soll

Fangen wir mal mit dem letzten Aspekt an: Die Standorte zukünftiger Windparks und Photovoltaikanlagen können – wegen der geringen Energiedichte von Wind und Sonne – gar nicht den Kernkraftwerken entsprechen. Das vorhandene Stromnetz muß daher komplett umgebaut bzw. erweitert werden. In der Öffentlichkeit wird wohlweislich nur von den neuen „Stromautobahnen“ gesprochen, die den „Windstrom“ von Norddeutschland nach Süddeutschland transportieren sollen. Freilich sind bereits dafür Milliarden erforderlich. Kaum ein Wort über die Frequenzregelung und die Niedervolt Netze zum Einsammeln des flächigen Angebots (z. B. Sonnenkollektoren auf den Dächern).

Wir reden hier nicht von irgendwelchen „Schrottreaktoren“, sondern ausnahmslos von Kernkraftwerken, die erst zwischen 1984 und 1989 ans Netz gegangen sind. Für solche Kraftwerke geht man heute international von einer Betriebszeit von 60 bis 80 Jahren aus. Sie hätten also eine „Restlaufzeit“ bis in die zweite Hälfte dieses Jahrhunderts vor sich – wenn sie nicht in Deutschland, sondern bei unseren Nachbarn stehen würden! Warum nur, fällt mir an dieser Stelle, der alte Witz-über-die-Geisterfahrer ein?

Um es klar und deutlich zu sagen, sie verfügen über Sicherheitseinrichtungen, die heute noch international Spitze sind. Teilweise werden japanische und osteuropäische Kernkraftwerke gerade erst auf dieses Niveau nachgerüstet. Selbst noch im Bau befindliche Reaktoren in China und den Emiraten, sind keinesfalls sicherer. Das alles, obwohl es in Deutschland weder schwere Erdbeben noch Tsunamis gibt.

Wenn man als Wiederbeschaffungswert die Baukosten der koreanischen Reaktoren in den Vereinigten Emiraten ansetzt (4 x 1400 MW für 20 Milliarden US-Dollar), werden hier mal eben rund 35 Milliarden Euro verbrannt. Zugegeben eine grobe Abschätzung, aber wie war das noch mal mit dem Rentenniveau für die kommende Generation? Es ist ja offensichtlich nicht so, als wäre in diesem Land überhaupt kein Kapital mehr vorhanden oder anders: Der Kleinrentner soll auch noch durch überteuerten „Ökostrom“ zusätzlich bluten.

Der energetische Ersatz

Ein beliebter Vergleich der Schlangenölverkäufer ist immer die produzierte Energie. Lassen wir die Zahlen für sich sprechen: Im Jahr 2015 wurden insgesamt 86 TWh Windenergie erzeugt. Dazu waren 27.147 Windmühlen mit einer Gesamtleistung von 44,95 GW notwendig gewesen. Wollte man die acht verbliebenen Kernkraftwerke durch Windmühlen ersetzen, müßte man also noch einmal die gleiche Anzahl zusätzlich bauen. Besser kann man den Irrsinn nicht verdeutlichen. Schon allein unsere Vogelwelt könnte 20.000 zusätzliche Schredderanlagen nicht verkraften. Welche Wälder sollen noch gerodet werden?

Wollte man die gleiche Energie mit Photovoltaik erzeugen, müßte man über 82 GW zusätzlich installieren. Trotzdem wäre es weiterhin des Nachts dunkel.

Die Speicherfrage erübrigt sich, denn allen ökologischen Sturmgeschützen zum Trotz: Es gibt sie wirklich, die Dunkel-Flaute. Jawohl, besonders bei Hochdruck-Wetterlage im Winter weht tagelang kein Wind – auch großflächig nicht.

Andererseits wird es den berühmten Muttertag (8.5.2016) auch immer wieder geben: Sonnenschein mit Starkwind an einem verbrauchsarmen Sonntag, der die Entsorgungskosten an der Strombörse auf -130 EUR/MWh hochgetrieben hat. Wie hoch dürfte die Entsorgungsgebühr wohl sein, wenn der Ausbau noch einmal verdoppelt wird? Sind dann unsere Nachbarn überhaupt noch bereit, unseren „Strommüll“ für uns zu entsorgen? Ich glaube nicht. Zwangsweise Abschaltungen wären die Folge: Die Abwärtsspirale immer schlechter werdender Auslastung für die „Erneuerbaren“ wird immer steiler werden. Das Rennen nach der Fabel von Hase und Igel hat ja bereits längst begonnen. Dies sei allen Traumtänzern gesagt, die von einer Vollversorgung durch Wind und Sonne schwadronieren.

Der notwendige Ersatz

Wie gesagt, es gibt sie wirklich, die Dunkel-Flaute. Speicher in der erforderlichen Größe sind nicht vorhanden. Das seit Jahren erklingende Geraune von der „Wunderwaffe-der-Großspeicher“ wabert konsequenzlos durch die deutschen „Qualitätsmedien“. Physik läßt sich halt nicht durch den richtigen Klassenstandpunkt ersetzen. Es müssen deshalb neue Grundlastkraftwerke gebaut werden. Kurzfristig kann man elektrische Energie aus dem Ausland hinzukaufen – „Atomstrom“ und „Dreckstrom“ aus den östlichen Nachbarländern – bzw. vorhandene Mittellastkraftwerke im Dauerbetrieb verschleißen.

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Wahrscheinlicher ist der Ersatz durch Steinkohlekraftwerke. Um die 8 noch laufenden Kernkraftwerke zu ersetzen, wären etwa 14 Blöcke vom Typ Hamburg-Moorburg nötig. Die würden etwa 28 Millionen to Steinkohle pro Jahr fressen. Die müssen nicht nur im Ausland gekauft, sondern auch bis zu den Kraftwerken transportiert werden.

Will man wenigstens die Versorgungssicherheit erhalten, bleibt nur die eigene Braunkohle. Man müßte nur etwa 10 neue Braunkohleblöcke vom Typ BoA-Neurath bauen. Die würden allerdings über 84 Millionen to Braunkohle pro Jahr verbrauchen. Unsere Grünen würde das sicherlich freuen, man müßte die Braunkohleförderung nicht einmal um die Hälfte erhöhen. Wieviele schöne „Demos“ gegen neue Tagebaue könnte man veranstalten!

Politik

Das Wahljahr 2017 (Landtagswahl in NRW und Bundestagswahl) kommt immer näher. Zwischen März und Juli soll der geplante Wahnsinn mit der Abschaltung von Gundremmingen beginnen. Da in Deutschland das Regulativ einer Volksabstimmung (über lebenswichtige Fragen) fehlt, bleibt nur die Auseinandersetzung in einer Parteien-Demokratie. Parteitage und Walkämpfe bieten die Möglichkeit Parteien zu zwingen „Farbe zu bekennen“. Dies gelingt aber nur, wenn die Bürger auch (öffentlich und nachdrücklich) Fragen stellen. Gerade in Deutschland neigt man eher zu „Man-hat-doch-nichts-davon-gewußt“ oder „innerlich-war-man-auch-dagegen“. Zumindest der ersten Lebenslüge, soll dieser Artikel entgegenwirken.

Die Forderung an alle Parteien kann nur lauten: Schluß mit der Kapitalvernichtung durch Abschaltung moderner Kernkraftwerke. Bis 2022 ist es weder möglich geeignete Groß-Speicher zu erfinden, das Stromnetz völlig umzukrempeln, noch fossile Kraftwerke in der benötigten Stückzahl als Ersatz zu bauen. Nicht einmal die Verdoppelung der Windenergie in nur vier Jahren ist möglich – jedenfalls nicht ohne bürgerkriegsähnliche Zustände heraufzubeschwören. Parteien, die dies nicht einsehen wollen, sind schlicht nicht wählbar. In einer indirekten Demokratie, in der dem Bürger das Recht auf Entscheidungen – in überlebenswichtigen Fragen — abgesprochen wird, kann sich der Bürger nur an der Wahlurne wehren. Nichts tut den etablierten Parteien mehr weh, als der Mandatsverlust. Dies ist halt die Kehrseite der Allmachtsphantasien der „indirekten Demokraten“.

Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.