„Atommüll“ im Bohrloch

Für ein Tiefenlager als Endlager für hochaktiven Abfall gibt es zwei Möglichkeiten: Anlage eines kompletten Bergwerks oder Tief-Bohrungen. Bisher wurden Bergwerke (Finnland, Frankreich, Schweden, USA etc.) favorisiert. Im letzten Jahrzehnt hat aber die Bohrtechnik durch die Förderung von shale-oil und gas („fracking“) rasante Fortschritte gemacht. Man kann heute nicht nur einige tausend Meter senkrecht in die Tiefe bohren, sondern auch noch bis zu 5 km waagerecht. Dabei ist entscheidend, daß man die waagerechten Bohrungen bis auf etwa einen Meter zielgenau innerhalb einer Schicht ausführen kann. Damit ergeben sich völlig neue Aspekte für den Bau eines Endlagers.

Bergwerk oder Bohrfeld

Der klassische Weg ist die Anlage eines Bergwerkes. Bis man mit der Einlagerung beginnen kann, muß man tatsächlich ein komplettes Bergwerk mit allen zugehörigen Einbauten errichten. Entscheidender Faktor ist hierbei der Mensch: Bergleute müssen von der ersten Stunde bis zum endgültigen Verschluß – ein Zeitraum von rund 100 Jahren – in diesem Bergwerk arbeiten. Das erfordert einen enormen Aufwand für die Sicherheit und begrenzt die Tiefe: Es muß nicht nur eine mehrere Kilometer lange Rampe für den Transport der Abfallbehälter aufgefahren werden, sondern zusätzlich noch Schachtanlagen für die Belüftung und den Personentransport. Für all die aufwendige Technik müssen im Berg komplette Werkstätten, Sozialräume etc. eingerichtet und betrieben werden. Ein enormer Kostenfaktor. Abschließend müssen alle Einbauten und Installationen (Kabel, Rohrleitungen usw.) wieder zurückgebaut werden und alle Hohlräume sorgfältig verfüllt und abgedichtet werden. Bei einem konventionellen Bergwerk holt man nur die wertvollen Dinge raus und läßt das Bergwerk absaufen und langsam in sich zusammenfallen. Genau das geht bei einem Endlager nicht. Hier muß der ursprüngliche Zustand des Gebirges möglichst gleichwertig wieder hergestellt werden – ist doch das Gestein die entscheidende Barriere eines Endlagers. Durch all diese bergmännischen Tätigkeiten wird die ursprüngliche Einlagerungsstätte erheblich verletzt. Dabei sind nicht nur die Hohlräume wieder zu verschließen, sondern auch die durch den Abbau gestörten Randzonen entsprechend abzudichten.

Legt man ein Bohrfeld an, muß zu keinem Zeitpunkt irgendein Mensch unter Tage arbeiten. Alle Bau-, Einlagerungs- und Verfüllarbeiten werden ausschließlich von der Oberfläche aus ausgeführt. Die Arbeiten gehen abschnittsweise vor sich. Sobald eine Bohrung fertiggestellt ist, kann sie befüllt werden und (wunschgemäß sofort) wieder fachgerecht verschlossen werden. Für jede Bohrung sind nur einige Monate erforderlich und anschließend ist sofort der Endlagerzustand erreicht. Dies bedeutet eine enorme Flexibilität. Man muß nicht mehr ein zentrales Endlager betreiben, in dem alle radioaktiven Abfälle eingelagert werden, sondern kann mehrere spezielle Lagerstätten einrichten. Dies könnte auch eine bessere Akzeptanz bei der Bevölkerung bedeuten. Es gibt nicht mehr eine Region, die sich als „Atomklo“ der Nation verstehen muß, sondern viele Endlager sind möglich. Der Nutzen von einem Kernkraftwerk kann besser mit den (vermeintlichen) Nachteilen eines Endlagers ausgeglichen werden. Insbesondere durch horizontale Bohrungen werden ganz neue Gebiete für die Endlagerung gewonnen. Für ein Bergwerk braucht man eine möglichst dicke Schicht (z. B. Salzstock). Für horizontale Bohrungen reichen sehr dünne Schichten (Abweichungen von weniger als einem Meter bei der Bohrung) aus. Ein stark geschichteter Untergrund kann sogar von Vorteil sein, wie man von den Gaslagerstätten weiß. Einzelne Schichten im Untergrund sind oft so dicht, daß sie nicht einmal unter Druck stehendes Erdgas durchlassen. Ein gewaltiger Vorteil für ein Endlager.

Senkrecht oder horizontal?

Die Idee „Atommüll“ in tiefe Bohrungen zu versenken ist nicht neu. So hat man in den USA versuchsweise Bohrungen bis 5000 m Tiefe ausgeführt. In den unteren 1 bis 2 km sollten dann Kanister mit „Atommüll“ endgelagert werden. Hier galt das Prinzip: Je tiefer, je sicherer, denn Tiefe schützt vor durchgehenden Rissen und es verbleibt nur noch die (langsame) Diffusion zum Transport. Der „Atommüll“ sollte also mindestens drei Kilometer unter der Erdoberfläche gelagert sein. Bei dieser Bauart stehen die Kanister übereinander, was zu einer entsprechenden Belastung für den untersten Kanister führt. Gemildert kann dies werden, indem man mehrere Pfropfen in die Bohrung einbaut, auf denen jeweils ein separater Turm steht. Dies verkürzt aber die nutzbare Länge entsprechend und erhöht die Baukosten. Nachteilig ist auch bei einem Wassereintritt, daß die radioaktiven Stoffe – angetrieben durch den Auftrieb durch die Wärmeentwicklung – bevorzugt in der Bohrung und ihrer Störzone nach oben steigen wollen. Es ist also eine besonders sorgfältige Wiederverfüllung nötig, damit auch langfristig keine radioaktiven Stoffe in Grundwasser führende Schichten gelangen.

Bei einer horizontalen Lagerung ist der Auftrieb naturbedingt wesentlich kleiner, da die Wärmeentwicklung eher flächig auftritt. Technisch arbeitet man dem Auftrieb entgegen, indem man den horizontalen Teil leicht ansteigend ausführt. Flüssigkeiten und Gase haben dadurch die Tendenz sich entgegen der Hauptbohrung zu bewegen. Bei einer solchen Anlage spielt Wasser in der Einlagerungszone eine geringe Rolle. Anders als bei einem Bergwerk muß es gar nicht abgepumpt werden und es werden somit nicht die Strukturen gestört. Es muß lediglich gewährleistet sein, daß es oberhalb ausreichende Sperrschichten gibt, die einen Austausch mit oberflächennahen Grundwasserschichten verhindern. Wie lange dieses Wasser schon keinen Kontakt mehr mit der Oberfläche hatte, kann man leicht über eine Isotopenanalyse ermitteln. So stammen beispielsweise die Wässer in den Ölfeldern von Texas (permian) überwiegend aus dem gleichen Meer, in dem auch die öl- und gasbildenden Organismen gelebt haben – sie sind Millionen Jahre alt. Genau die Schichten, die auch das Öl und Gas gefangen gehalten haben, haben auch sie von der Oberfläche fern gehalten. Ein weiterer Vorteil dieser alten Wässer ist, daß sie längst mit Mineralien gesättigt sind und keinen Sauerstoff mehr enthalten – sie können deshalb nur sehr schlecht den „Atommüll“ auflösen bzw. die Behälter korrodieren.

Die Konstruktion eines horizontalen Lagers

Der Bau eines solchen Endlagers vollzieht sich in drei Schritten: Im ersten Schritt wird eine ganz konventionelle Bohrung bis in die gewünschte Tiefe (mindestens so tief wie die geplanten Bergwerke) niedergebracht. Ist sie fertig gebohrt, wird sie komplett mit einem Stahlrohr ausgekleidet, welches einzementiert wird. Der Spezialzement verbindet das Rohr fest mit dem umgebenden Gestein und festigt die durch das Bohrgerät beschädigte Randzone (jeweils ungefähr einen halben Bohrungsdurchmesser um das Loch). Ab diesem Moment hat man also eine stabile senkrechte Rohrleitung nach unten. Im zweiten Schritt wird der Bogen als Übergang von der Senkrechten in die Horizontale gebohrt. Dies geschieht mit einem Winkel von etwa 0,25° pro Meter (300 bis 600 Höhenmeter zwischen Senkrecht und Waagerecht). Wie stark die Krümmung sein darf, hängt wesentlich von der Länge der „Müllbehälter“ ab. Schließlich sollen diese Behälter später ohne Belastung – wie ein Sattelzug auf einer Straße – um die Ecke gefahren werden. Will man z. B. komplette Brennelemente (in Deutschland z. B. ist eine Wiederaufbereitung politisch ausgeschlossen) einlagern, hat ein solcher Kanister eine Länge von knapp 5 m und wiegt rund 500 kg. Ist auch dieser Teil fertig gebohrt, wird er ebenfalls durchgehend bis zur Erdoberfläche verrohrt. Im senkrechten Teil besteht die Konstruktion nun aus zwei zentrischen Rohren, deren Zwischenraum ebenfalls zementiert wird. Im dritten Schritt wird die horizontale Bohrung ausgeführt. Man realisiert heute im Ölgeschäft bis zu 5 km lange Strecken. Wie lang eine Bohrung sein kann hängt maßgeblich von der Beschaffenheit der Schicht ab, in die die Endlagerung erfolgen soll. Dieser Teil wird nun ebenfalls verrohrt, was zur Folge hat, daß im senkrechten Teil nun drei Rohre ineinander gesteckt sind.

Die „Abfallbehälter“ bestehen aus Rohren mit einer Wandstärke von etwa 1 cm aus „Alloy 625“ (einem rostfreien Edelstahl, aus dem z. B. auch Rohre in Kernkraftwerken gefertigt werden). Hohlräume in den Behältern werden ausgefüllt und diese anschließend gasdicht verschweißt. Solche „Stangen“ – typische Durchmesser 23 bis 33 cm – sind außerordentlich stabil. Bis diese Behälter „durchgerostet“ sind, vergehen mindestens 50 000 Jahre. Ein Zeitraum, in dem fast alle Spaltprodukte bereits zerfallen sind. Erst dann müßte das Gestein seine Aufgabe als weitere Barriere erfüllen. Die Rohre zur Auskleidung der Bohrlöcher haben eine Lebensdauer von mehreren hundert Jahren.

Aus der Ölindustrie kennt man zahlreiche Verfahren, wie man solche Bohrungen befahren kann. Das Ein- und Ausbringen von Messgeräten, Kameras, Werkzeugen usw. ist Routine. Es gibt sogar Spezialfirmen, die abgebrochene oder verklemmte Bohrgestänge wieder aus einem Bohrloch fischen können. Die „Abfallbehälter“ werden wahrscheinlich mit einem elektrisch angetriebenen Traktor, an einem Stahlseil hängend, in die Rohre gedrückt bzw. wieder herausgezogen. Die Lagerung ist also für (mindestens) Jahrzehnte rückholbar. Auch dies eine politische Forderung, die eigentlich im Widerspruch zu einem Endlager steht.

Alle Arbeiten werden also von der Erdoberfläche aus ausgeführt. Einzige Besonderheit ist eine Abschirmung gegen die Strahlung während der Versenkung des „Atommülls“. In der Ölförderung ist es üblich, von einer kleinen Baustelle aus, mehrere Löcher zu bohren. Teilweise sogar mehrere Schichten übereinander zu erschließen. So könnte man auch ein recht großes Lagerfeld für viele Tonnen Abfall anlegen. Auch der oberirdische Platzbedarf wäre somit sehr viel kleiner als für ein vergleichbares Bergwerk.

Was könnte man einlagern?

Wie oben schon erwähnt, könnte man ganze Brennelemente ohne weitere Bearbeitung einlagern. Dies dürfte – wegen der enormen Rohstoffverschwendung – die Ausnahme sein. Viel eher wird man die verglasten Spaltprodukte mit den minoren Aktinoiden nach einer Wiederaufbereitung (französischer Weg) in solche Behälter gießen. Es sind aber auch andere Wege darstellbar. So fällt man in den USA in den militärischen Aufbereitungsanlagen Strontium und Cäsium (Halbwertszeit etwa 30 Jahre) aus der Spaltproduktlösung aus. So erhält man eine relativ große Menge kurzlebigen Abfall und eine relativ geringe Menge langlebigere Spaltprodukte. Diese Cäsium- und Strontium-Kapseln werden getrennt gelagert. Man kann hierfür einen besonders geeigneten Lagerort finden. Dampferzeuger aus Kernkraftwerken werden heute schon in Spezialfabriken zerlegt und dekontaminiert. Übrig bleibt eine große Menge handelsüblicher Schrott zu Wiederverwendung und ein kleiner Block eingeschmolzenen radioaktiven Materials. Diesen Abfall könnte man auch in die „Abfallbehälter“ gießen und endlagern. Heute wird es immer mehr üblich, kontaminierte Stoffe (Schutzkleidung etc.) vorher einzuäschern und nur noch das kleine Volumen der Asche zu lagern. Genauso könnte man belastete Filterharze in „Abfallbehälter“ umfüllen. Alles nur eine Frage der Kosten und des politischen Willens.

Key Information File (KIF) – ein neuer Gag?

Das KIF soll in Kurzform ein Endlager beschreiben, damit auch in einer Million Jahren die dann lebenden Erdbewohner vor dem tödlichen „Atommüll“ gewarnt werden. Ein weiteres Beispiel dafür, wie die Kerntechnik sich selbst Schwierigkeiten und Kosten bereitet in dem sie bereitwillig über jedes Stöckchen springt, das ihnen „Atomkraftgegner“ hinhalten.

Wohl gemerkt, es geht hier gar nicht um eine möglichst genaue Dokumentation des Bauwerks und aller eingelagerten Stoffe, sondern eine für Dumme jeglicher Kultur.

Am Anfang steht die Lüge

Will man verstehen, wie man auf solch eine Schnapsidee kommen kann, muß man die geniale Propaganda der „Anti-Atomkraft-Bewegung“ verstehen. Am Anfang steht die Behauptung, daß schon ein einzelnes radioaktives Atom durch seine Strahlung beim Zerfall Krebs erzeugen könnte. Man muß gar keine Kenntnisse über die Funktion von Zellen und die Entstehung von Krebs haben, um zu erkennen, daß dies natürlich blanker Unsinn ist. Wäre dem so, gäbe es uns überhaupt nicht, denn wir sind ständig ionisierender Strahlung ausgesetzt. Ja, wir strahlen sogar selbst, z. B. durch die natürlichen radioaktiven Stoffe in unseren Knochen.

Während des Kalten Krieges kam noch ein Zauberwort hinzu: Plutonium. An den Lagerfeuern von Gorleben erzählte man sich schaurige Gruselgeschichten über diesen geheimnisvollen – und sogar von bösen Menschen künstlich hergestellten – Stoff. Nur wenige Gramm von diesem Teufelszeug sollten ausreichen, um die ganze Menschheit zu vergiften. Auch dies totaler Blödsinn, wurden doch bei den oberirdischen Kernwaffentests zig Tonnen davon in der Atmosphäre verteilt. Zumindest bei allen in den 1950er und 1960er Jahren geborenen Kindern konnte man Plutonium in deren Milchzähnen nachweisen. Viele von denen sind heute mopsfidele Rentner auf Kreuzfahrt und erfreuen sich einer wachsenden Enkelschar.

Glaubt man diesen Unsinn und verweigert strikt den Grundsatz, daß stets die Dosis das Gift macht, kommt man schnell zu dem Schluß, daß man ein Endlager für Atommüll über „geologische Zeiträume“ von der Biosphäre fern halten müßte. Kerntechniker waren da schon immer etwas pragmatischer. Ein beliebter Vergleich war schon immer der mit Natururan, aus dem der Brennstoff ursprünglich hergestellt wurde. Wenn der „Atommüll“ wieder auf die Werte des Natururans abgeklungen ist, kann man ihn überschlägig als ungefährlich einordnen. Schließlich hat der Mensch schon so lange es ihn gibt, mit und auf Uran gelebt. Selbst wenn man nun verbrauchte Brennelemente komplett verbuddelt – was man nicht tun sollte – beträgt dieser Zeitraum etwa 500 000 Jahre. Immer noch ganz schön lang, aber sicherlich ein Zeitraum, den Geologen sehr genau beurteilen können. Behält man weiterhin im Auge, daß radioaktiver Zerfall immer exponentiell verläuft (Am Anfang zerfällt immer sehr viel mehr Material als am Ende) und man mehrere hundert Meter unter der Erdoberfläche lagert, kommt man in recht kurzer Zeit auf „ungefährliche“ Werte für Mensch, Pflanzen und Tiere. Ganz davon abgesehen, daß eine Wiederaufbereitung sowohl die Abfallmenge als auch deren Gefährdungspotential um Größenordnungen verringert. Aus dem Endlagerproblem könnte man leicht ein technisches Problem machen. Allerdings wäre damit der „Anti-Atomkraft-Bewegung“ ihr schlagkräftigstes Argument entzogen.

Das seltsame Menschenbild

„Grüne“ sind ja dafür bekannt, daß sie Menschen eher als unmündige Kinder betrachten, die man – zu deren eigenem Nutzen versteht sich – gängeln und bevormunden muß. Deshalb muß man diese „hilflosen Wesen“ auch durch Bilder, Piktogramme, Landschaftsmarken etc. vor den Gefahren eines Endlagers warnen. Dabei geht man selbstverständlich von einer beständigen Verblödung kommender Generationen aus. Selbst wenn man den Theorien über den großen Bevölkerungsaustausch anhängt und davon ausgeht, daß in wenigen Generationen nur noch Ziegenhirten und Kameltreiber die Landschaft durchstreifen, kann das auch weltweit gelten? Kann die Menschheit tatsächlich jegliches Wissen über Physik und Chemie vollständig verlieren? Selbst Außerirdische könnten mit Sicherheit ein Periodensystem der Elemente lesen, auch wenn bei ihnen die Elemente völlig andere Namen hätten. Auf solch abstruse Gedanken können wohl nur Personen kommen, denen selbst jegliche Grundkenntnisse in den Naturwissenschaften fehlen.

Besonders paradox ist aber die Vorstellung, daß irgendwelche Horden auf dem Niveau von Frühmenschen ausgerechnet Bergbau betreiben können und wollen. Warum sollten diese – mit ihrer dann auch primitiv gewordenen Technik – mehrere hundert Meter tief graben? Andersherum können Menschen die Rohstoffvorkommen suchen und Bergbau betreiben auch sofort menschengemachten „Atommüll“ erkennen. Außerdem ist ja ein wesentliches Kriterium bei der Standortsuche Formationen zu finden, die besonders wertlos sind. Niemand plant ein Endlager in einem Kohlenflöz oder einer Goldader, sondern in Salzstöcken, Granit usw. – alles Stoffe, die von geringem Handelswert sind und darüberhinaus im Überfluß vorhanden.

Zu guter Letzt noch die Vorstellung, daß der „Atommüll“ auf wundersame Weise zurück an die Oberfläche findet und der ahnungslose Biobauer in hundert Generationen damit sein Feld verseucht. Auch diese Vorstellung ist doppelter Unsinn: Man macht wirklich alles Mögliche, damit der „Atommüll“ an seinem Ort verbleibt. Man sollte schon etwas auf das Fachwissen der Geologen (Erdschichten, Wasserverhältnisse am Ort) und Techniker (Barrieren, chemischer Zustand z. B. Verglasung etc.) vertrauen. Doch selbst wenn all das nicht geholfen hätte, ist da noch der Faktor Zeit und die Bodenchemie: Es dauert so lange, daß die meisten der eingelagerten radioaktiven Stoffe bereits zerfallen sind bzw. in den tiefen Bodenschichten (weit unter dem Grundwasserspiegel) einfach hängen geblieben sind. Was oben ankommen kann, hat nicht einmal den Gehalt von (radioaktivem) Mineralwasser. Es gab in Hanford Tanks mit „Atommüll“, die ausgelaufen sind und deren Inhalt einfach im Boden versickerte. Auch nach Jahrzehnten ist davon nichts im wenige Kilometer entfernten Fluß angekommen. Selbst normaler Boden ist ein vortrefflicher Filter und Ionentauscher.

Die Ressourcenfrage

Seltsamerweise entstammen „Atomkraftgegner“ zumeist dem Milieu der „Grenzen des Wachstums“ (Club of Rome, Peakoiler etc.). Die gleiche Klientel, die glaubt in wenigen hundert Jahren sind alle Rohstoffe aufgebraucht, glaubt andererseits daran, daß man abgebrannte Brennelemente für hunderttausende Jahre einfach verbuddeln kann. Abgebrannte Brennelemente sind konzentrierte Energie. Jedes dafür geplante Endlager enthält mehr Energieschätze als die größte Kohlenmine. Unterstellt man, daß die technische Entwicklung sogar noch weiter geht (Roboter), werden diese Endlager in absehbarer Zeit zu Energieminen werden. Der Zeitpunkt ist erreicht, wenn die Hebung und Aufbereitung billiger ist, als der Betrieb irgendwelcher Uranminen geringer Konzentration.

Die Vorstellung von Endlagern (im Sinne von endgültig) ist ein reines Politikum: Politiker geben sich den Anstrich fürsorglicher Eltern, die ihren Kindern keine Abfälle – die in Wirklichkeit Rohstoffe sind – hinterlassen wollen. Gut gemeint, ist nicht immer gut gemacht. Je vermeintlich sicherer die Endlager gebaut sind, um so schwerer und kostspieliger wird es für unsere Nachfahren an die wertvollen Rohstoffe zu gelangen.

Damit sind wir an einem entscheidenden Punkt angelangt. Nicht alle Menschen sind einfach nur gutgläubig und/oder wohlmeinend. Mit Angst lassen sich herrlich Geschäfte machen und Macht ausüben. Es sind nicht nur die Handvoll Pensionäre, die ihren Altersruhesitz in Gorleben durch ein Bergwerk entwertet sehen. „Nicht in meinem Garten“ ist in unserer saturierten Gesellschaft längst zum Leitmotiv geworden. Der Strom kommt halt sowieso aus der Steckdose und der Lebensunterhalt aus der Staatskasse. Bestenfalls betreibt man ein wenig Selbstverwirklichung oder „gesellschaftliches Engagement“. Wer sich genug ausgelebt hat und nicht einmal eine Ausbildung durchgehalten hat, mit der er sich selbst ernähren könnte, flüchtet sich aus Berechnung in eine Partei – bevorzugt des linken und grünen Spektrums. Wer das nicht glaubt, lese mal die Lebensläufe unserer Parlamentarier. Mit was sollen sich aber die Nichtskönner hervortun? Richtig, mit der Verbreitung von Angst: Strahlentod, Klimakatastrophe usw. Damit treffen sie auf bereitwillige andere Nichtskönner, die „irgendwas mit Medien“ gemacht haben. Wer jemals länger in Afrika weilte, kennt die Macht des Voodoo. Angst wirkt auf ungebildete Menschen stärker und manipulativer als physische Gewalt. Die Seelenverwandtschaft der „Hüpfer gegen Klima“ mit sich in Rage tanzenden Kindersoldaten ist wesentlich enger, als mancher sich vorstellen mag.

Der größte Fehler der Kerntechnik war aber immer die Anbiederung an die „Atomkraftgegner“. Man hat nie offensiv die eigenen Positionen vertreten, sondern immer geglaubt, man könne durch Nachgeben die Gunst der Gegner gewinnen. Man hat – zumindest in Deutschland – nie verstanden, daß es nicht um Kritik an der Kerntechnik ging, sondern um den Ausstieg um jeden Preis. Der anderen Seite war jedes Mittel recht: Von den Lügen über die „Strahlengefahr“ bis hin zur Gewalt. Wer immer noch nicht wahr haben will, daß es nicht einfach nur um elektrische Energie ging, sondern um Gesellschaftsveränderung, der steht auch heute wieder staunend vor den Protesten gegen Kohlekraftwerke. Auch sie werden kurz über lang in Gewalt umschlagen, schließlich sind die gleichen Hetzer auch hier aktiv. Am Ende soll der Zusammenbruch dieser Gesellschaftsform stehen. Vorher wird nicht Ruhe gegeben. Die Hoffnung auf Einsicht in die technischen und naturwissenschaftlichen Notwendigkeiten einer funktionierenden Stromversorgung sind vergebens. Es geht um Revolution. Wenn in Deutschland gewisse Ideologien (Reichskrafttürme, vegetarische Ernährung, Biolandwirtschaft und Elektrofahrzeuge für das Volk ohne Raum) aus den dunkelsten Zeiten wieder allgemeingültig werden, wird es wieder in einer Katastrophe enden. Wie schnell der Zug schon fährt, zeigen die Sprüche vom „Vorangehen“ und „wir schaffen das“. Wieder hält sich Deutschland für das einzig wissende Volk. Unwillkürlich fällt einem der Witz von den Geisterfahrern ein. Aber das Bewußtsein die Welt retten zu können, hat schon mal aus Pimpfen fanatische Kämpfer gemacht. Wollt ihr den totalen (Klima)krieg?

Sinn einer Dokumentation

Selbstverständlich sollte jedes Endlager genau dokumentiert werden. Dies umfaßt die eingelagerten Stoffe, deren genauen Ort und die tatsächliche genaue bauliche Ausführung. Dies ist die bestmögliche Information für alle nachfolgenden Generationen. Früher ist man damit oft etwas spärlich und nachlässig umgegangen, wie z.B. die Diskussionen um die Asse und die praktischen Erfahrungen in den Rüstungsbetrieben zeigen. Diese Informationen sollten durchaus über Jahrhunderte erhalten bleiben – und wenn es eines Tages nur die Historiker interessiert. Sie sollten digital gespeichert werden (Platzbedarf) und in möglichst einfachen und genormten Formaten (z.B. pdf-files). Dies garantiert eine lange Lesbarkeit bzw. eine (wenn nötig) Umformung ohne Informationsverluste in Formate der Zukunft. Die Daten aller Endlager sollten in einer weltweiten cloud (Verschiedene Server (Serienfehler), an verschiedenen Orten (Katastrophenschutz), verbunden durch das Internet) unter der Verwaltung einer internationalen Institution gespeichert werden. Dieser Verbund könnte darüberhinaus auch zur Überwachung, dem Informationsaustausch bei etwaigen Problemen, der Weiterentwicklung und zur Vertrauensbildung dienen. Gerade die zivile Nutzung der Kernenergie verfügt bereits über eine enge und vertrauensvolle internationale Zusammenarbeit – über politische und kulturelle Grenzen hinweg. Was aber mit Sicherheit nicht gebraucht wird, ist irgendwelcher Hokuspokus der Angstindustrie.

Nachtrag

Wer sich für dieses Thema näher interessiert, dem sei der Bericht der NEA No. 7377 empfohlen. Im Anhang ab Seite 35 befinden sich einige – auch für den Laien gut verständliche – Zeichnungen und Tabellen dreier Endlager:

  1. Das Waste Isolation Pilot Plant in New Mexico, USA. Ein Endlager für alle möglichen nuklearen Abfälle aus der Rüstung in einem Salzstock in einer Tiefe von 655m. Es ist seit Jahren in Betrieb und soll voraussichtlich bis 2050 weiter befüllt werden. Dieses Endlager ist dem einst in Gorleben geplanten Endlager sehr ähnlich. Was in den USA funktioniert, darf in Deutschland nicht funktionieren, weil es eine Handvoll Politkommissare nicht will. Für diese Gestalten ein Sieg im Kampf gegen unsere Gesellschaft, weil man etliche Milliarden per Federstrich sinnlos verbrennen konnte.
  2. Das Endlager Forsmark in Schweden. Hier sollen komplette Brennelemente in einer Granitformation in etwa 500m Tiefe eingelagert werden. Dies dürfte uns auf Wunsch der grünen Sozialwirte und Theaterwissenschaftler mit ihrer unendlichen fachlichen Kompetenz .– mit Segnung der evangelischen Kirche – nun auch bevorstehen. Man könnte auch sagen, jedes Volk bekommt den Abfall, den es verdient.
  3. Das Centre de Stockage de la Manche in Frankreich. Es befindet sich in Digulleville, 20 km nordwestlich der Stadt Cherbourg-en-Cotentin. Es ist ein oberflächennahes Endlager für „α-freien Abfall“ aus der Wiederaufbereitung, der bis 1969 im Meer versenkt wurde. Dieser Abfall ist nach etwa 300 Jahren zerfallen.

Terrestrial Energy aus Kanada

Kanada gehört zu den führenden Ländern auf dem Gebiet der friedlichen Nutzung der Kernenergie: Sie entwickeln (Terrestrial etc.), bauen eigene Kernkraftwerke (Candu Baureihe von Schwerwasserreaktoren) und betreiben sie seit Jahrzehnten sehr erfolgreich (Anteil ≈15% an der Stromproduktion). Damit widerlegen sie gleich zwei Argumentationsketten der „Atomkraftgegner“:

  • Kanada zeigt, daß es keinen Zusammenhang zwischen der friedlichen Nutzung der Kernenergie und dem Streben nach Kernwaffen gibt. Man kann sehr wohl erfolgreich Kerntechnik ohne einschlägige Rüstungsindustrie betreiben. In der vollen Bandbreite von Grundlagen-Forschung, über Entwicklung, bis hin zur Produktion – wie einst auch in Deutschland.
  • Kanada ist nicht nur mit schier unerschöpflichen Vorkommen an fossilen Energien (Erdgas, Kohle und Öl), sondern auch mit sog. „Alternativenergien“ (Wasserkraft, Wind und Holz) reichlich gesegnet. Es wäre damit nahezu frei in seiner Entscheidung, welche Energieformen genutzt werden sollen. Diese Entscheidungsfreiheit haben Länder, wie Frankreich, Deutschland, Süd Korea oder Japan wegen ihrer eingeschränkten Ressourcen leider nicht. Kanada teilt aber mit vergleichbaren Ländern, wie Rußland oder Brasilien, den Nachteil schierer Ausdehnung. Beispielsweise befinden sich geeignete Flüsse nicht unbedingt in der Nähe der großen Städte, bzw. der Industriezentren.

Groß braucht klein

In Kanada zeigt sich diese Problematik sehr deutlich: In der Provinz Ontario wird mit 15 Candu-Reaktoren mehr als die Hälfte der dort verbrauchten elektrischen Energie erzeugt. Andererseits gibt es in vielen Städten im hohen Norden praktisch keine Alternative zu Diesel-Generatoren. Der Dieselkraftstoff muß überdies noch zu extremen Kosten dort hin transportiert werden. Kanada ist und bleibt aber auch ein „Rohstoffland“ mit zahlreichen abgelegenen Förderstätten für die eine Alternative gefunden werden muß. Eine Analyse ergab folgendes:

  • Ölsände: In 96 Anlagen wurde ein Bedarf an Heizdampf und elektrischer Energie für „Steam-Assisted Gravity Drainage“ festgestellt. Im Durchschnitt mit einer Leistung von 210 MWel pro Anlage plus Dampf.
  • Dampf für die Schwerindustrie: 85 Standorte der Chemieindustrie und Raffinerien mit einer Leistung von 25 bis 50 MWel plus Dampf.
  • Abgelegene Gemeinden und Bergwerke: 79 Standorte mit einem Leistungsbedarf von über 1 MWel plus erheblichem Wärmebedarf für die Nahwärmenetze. 24 Bergwerke ohne Netzanschluss.
  • Alte Kohlekraftwerke: 29 Blöcke an 17 Standorten mit einer durchschnittlichen Leistung von 343 MWel. Hier könnten (nur die) Kesselanlagen durch kleine Reaktoren ersetzt werden, wenn die sonstigen Anlagen noch in einem brauchbaren Zustand sind. Dies ergibt besonders kostengünstige Lösungen.

Es verwundert deshalb nicht, daß gegenwärtig 10 verschiedene Kleinreaktoren mit Leistungen zwischen 3 und 200 MWel zur Genehmigung bei den kanadischen Behörden eingereicht wurden. Es wird von der kanadischen Regierung angestrebt, etwa vier verschiedene Konzepte als Prototypen im nächsten Jahrzehnt zu errichten. Alle Reaktoren stammen aus privaten Unternehmen und sind überwiegend durch Risikokapital finanziert. Dies zeigt deutlich, welche Veränderungen die kerntechnische Industrie momentan durchläuft. Private Investoren wollen ihr Geld zurück und möglichst einen Gewinn oben drauf. Man kann also von der nötigen Ernsthaftigkeit und einem beschleunigten Arbeiten ausgehen – Zeit ist immer auch Geld. Es geht zur Zeit zu, wie in der Software-Branche. Allerdings darf man nicht aus den Augen verlieren, daß hier immer der Staat in Form der Genehmigungsbehörden ein ausschlaggebendes Wort mit zu reden hat!

Beschreibung des Reaktors

Bei dem Reaktor des kanadischen Unternehmens Terrestrial Energy handelt es sich um einen SMR (Small Modular Reactor) von der Bauart „Integral Molten Salt Reactor“, mit einer Wärmeleistung von 400 MWth (≈190 MWel).

Der gesamte Reaktor befindet sich in einem etwa 7 m hohen Stahlbehälter mit einem Durchmesser von etwa 3,5 m und einem Transportgewicht von 170 to. Das sind – verglichen mit den heutigen Komponenten von Druckwasserreaktoren – einfach zu transportierende und handhabbare Abmessungen. Solch ein Reaktor kann deshalb komplett in einer Fabrik (in Serie) angefertigt werden und erst anschließend zur Baustelle transportiert werden. Dort sind nur wenige Wochen bis Monate nötig, um die erforderlichen Anschlussarbeiten und die Inbetriebsetzung durchzuführen. Ein Vorteil gegenüber konventionellen Kernkraftwerken, der gar nicht zu überschätzen ist. Das wirtschaftliche Risiko (Baukosten, Finanzierungskosten und das Risiko eines Fremdstrombezuges) bewegt sich plötzlich in einer üblichen und allgemein akzeptierten (Lieferant ⟺ Kunde) Größenordnung.

Vorgeschichte

Vielen mag die angestrebte Inbetriebnahme des ersten Kraftwerks in der ersten Hälfte der 2020er-Jahren sehr unwahrscheinlich erscheinen. Es handelt sich hierbei aber keinesfalls um einen „Erfinder-Reaktor“, sondern eher um eine konsequente Weiterentwicklung. Man kann auf ein umfangreiches Forschungs- und Entwicklungsprogramm zu Salzschmelze-Reaktoren in den Jahrzehnten 1950 bis 1970 am Oak Ridge National Laboratory (ORNL) in den USA zurückgreifen. Es gipfelte im erfolgreichen Bau und Betrieb des Molten Salt Reactor Experiment (MSRE) und der Konstruktion des Small modular Advanced High Temperature Reactor (SmAHTR), der zur Produktion von Wasserstoff gedacht war. Allerdings sollte man auch nicht die notwendigen Arbeiten unterschätzen, die für die von der Genehmigungsbehörde geforderten Nachweise erforderlich sind. Weltweit sind diese Arbeiten bereits im Gange: Von Bestrahlungsexperimenten in den Niederlanden bis – man lese und staune – zur Forschung an Salzen in Karlsruhe (European Commission’s Joint Research Center).

Brennstoff und Kühlmittel

Salzbadreaktoren unterscheiden sich grundsätzlich von anderen Reaktortypen: Bei ihnen ist der Brennstoff auch gleichzeitig das Kühlmittel. Störfälle durch den Verlust des Kühlmittels – Fukushima und Harrisburg – sind ausgeschlossen. Es gibt auch keine Begrenzung durch den Wärmetransport innerhalb der Brennstäbe und durch die Brennstabhülle an das Kühlmittel. Der Brennstoff ist bereits während des Betriebs geschmolzen und im „Kühlmittel“ gelöst. Man verwendet hier die chemische Verbindung Uranfluorid. Dieses Salz wird in geringer Menge anderen Salzen, wie Natriumflourid, Berylliumfluorid bzw. Lithiumfluorid zugesetzt. Die genaue Zusammensetzung ist bisher nicht veröffentlicht. Sie richtet sich wesentlich nach der angestrebten Betriebstemperatur von 625 bis 700 °C. Die Salzmischung soll bei möglichst geringer Temperatur bereits schmelzen, aber andererseits muß sie auch langfristig im Betrieb möglichst chemisch stabil sein und bleiben. Das Salz ist bei diesem Reaktor sicherheitstechnisch das wesentliche (z. B. Korrosion) und kritische Bauteil.

Da das Salz im Laufe der Zeit durch die Spaltprodukte hoch radioaktiv wird, ist ein sekundärer Kreislauf mit dem gleichen Salz ohne Brennstoff vorgesehen. Die Wärmeübertragung findet durch Wärmetauscher innerhalb des eigentlichen Reaktorbehälters statt (Integrierte Bauweise). Die Druckverluste (ca. 5 bar) im Moderator und den Wärmeübertragern wird durch Pumpen innerhalb des Gefäßes überwunden. Die Wärmeübertrager sind redundant vorhanden, sodaß bei etwaigen Leckagen einzelne Übertrager einfach stillgelegt werden können.

Beladungsrhythmus

Man beschränkt sich bewußt auf die Verwendung von sehr gering angereichertem Uran für die Erstbeladung und auf Uran mit einer Anreicherung von etwa 4,75 % U235 als Ergänzung während des Betriebs. Damit verwendet man (erst einmal) handelsübliches Material. Prinzipiell ist auch Thorium und Plutonium einsetzbar. Bei solch geringer Anreicherung benötigt man zwingend einen Moderator. Es wird ein Block aus Reaktorgraphit im unteren Teil des Reaktorgefäßes verwendet, durch dessen Kanäle das Salz von unten nach oben strömt. Nur in diesen Kanälen findet die Kernspaltung statt.

Die ganze Einheit bleibt nur etwa sieben Jahre in Betrieb. Dann vollzieht sich ein „Brennstoffwechsel“ durch die Inbetriebnahme einer neuen Einheit in einem zweiten Silo. Die alte Anlage verbleibt in ihrem Silo, bis der wesentliche Teil ihrer Strahlung abgeklungen ist. Dieser Vorgang entspricht der Lagerung der Brennelemente im Lagerbecken eines Leichtwasserreaktors. Nach angemessener Zeit wird das Salz in spezielle Lagerbehälter umgepumpt und die restliche Einheit aus dem Silo herausgehoben und ebenfalls in das Zwischenlager auf dem Kraftwerksgelände gebracht:

  • Ziel ist ein Betrieb des Kraftwerks (theoretisch) ohne Unterbrechung.
  • Möglichst geringer Personalaufwand vor Ort, da (fast) keine Wartung und Inspektion nötig wird. Die Anlage wird zwar auf eine Lebensdauer von 60 Jahren ausgelegt, aber der „Reaktor“ nur sieben Jahre betrieben. Alle Arbeiten können wieder in einer Fabrik durchgeführt werden. Dort kann entschieden werden, was Schrott ist (Vorbereitung zur Endlagerung) oder wieder verwendet werden kann. Das Vorgehen erinnert an den guten, alten „Austauschmotor“ bei Kraftfahrzeugen.
  • Die alten Salze können in einer Wiederaufbereitungsanlage behandelt werden und die Spaltprodukte zur Endlagerung verarbeitet werden.

Salzschmelzen haben eine recht geringe Viskosität und lassen sich somit auch über längere Strecken gut pumpen. Wichtig ist hierbei, daß bereits den Reaktor ein „garantiert nicht strahlendes“ Salz verläßt (innen liegende Wärmeübertrager). Die Grenze des nuklearen Teils liegt somit am Rand des Silos. Der Charme eines solchen Reaktors liegt in seiner hohen Betriebstemperatur und seinem sehr geringen Betriebsdruck. Man kann mit relativ kleinem Aufwand noch einen einen dritten Kreislauf aus sogenanntem „Solarsalz“ anschließen. Damit gelangt man zu zwei völlig neuen Möglichkeiten:

  1. Man kann die Hochtemperaturwärme relativ einfach und kostengünstig über eine längere Leitung transportieren. Eine industrielle Nutzung wird damit möglich. Wohl kaum eine Industrie- oder Chemieanlage wird sich nach einem „Atomkraftwerk“ auf ihrem Gelände sehnen. Völlig anders dürfte sich die Situation darstellen, wenn die kerntechnische Anlage „deutlich“ neben dem eigenen Gelände steht und man nur Nutzwärme kauft.
  2. Durch die Verwendung von „Solarsalz“ – wie es heute beispielsweise bei Solarturmkraftwerken (manchen auch als Grill für Vögel bekannt) zur Stromproduktion in der Nacht eingesetzt wird. Eine vollständige zeitliche Entkopplung von Strom- und Wärmeproduktion wäre damit möglich. Der Reaktor könnte ständig mit voller Leistung gefahren werden und beim Einsatz einer Turbine mit „Übergröße“ hätte man ein perfektes Spitzenkraftwerk für die Regelung von „Flatterstrom“. Speicher mit geschmolzenem Salz haben nicht nur eine große Speicherkapazität (Phasenumwandlung), sondern weisen auch durch ihre Selbst-Isolierung (zuerst erstarrt eine Schicht an der Oberfläche), geringe Wärmeverluste über längere Zeiträume aus.

Notkühlung

Wenn tatsächlich eine Überhitzung eintritt, wirkt das passive Kühlungssystem. Der Reaktorbehälter steckt in einem weiteren Schutzbehälter. Dieser Schutzmantel entspricht dem Containment eines konventionellen Reaktors. Beide Behälter sind nicht isoliert. Steigt die Temperatur im inneren Behälter an, nimmt die Abstrahlung an den Schutzbehälter zu. Die Wärme wird durch Naturkonvektion über den Luftspalt zwischen Schutzbehälter und Silo abgeführt.

Reaktivitätskontrolle

Der Reaktor hat einen so starken negativen Temperaturkoeffizienten, daß er ohne Regelstäbe auskommt. Je höher die Temperatur der Salzschmelze wird – aus welchem Grund auch immer – um so weniger Kerne werden gespalten. Umgekehrt nimmt die Kernspaltung wieder automatisch zu, wenn mehr Wärme abgenommen wird. Es sind lediglich Abschaltstäbe für eine dauerhafte Abschaltung vorgesehen. Als weiteres passives Sicherheitssystem gibt es noch Kapseln die schmelzen und starke Neutronenabsorber frei setzen.

Konstruktionsvorgabe ist ein inhärent sicheres, walk-away sicheres Kernkraftwerk zu bauen. Alle treibenden Kräfte, die in einem Störfall radioaktive Materialien frei setzen können (Tschernobyl), werden vermieden. Deshalb werden alle unter hohem Druck stehende Komponenten (Wasser-Dampf-Kreislauf) vom Reaktor fern gehalten. Es muß für keine Druckentlastung gesorgt werden und kein Kühlwasser zum Reaktor gebracht werden.

Der Reaktor braucht überhaupt kein Notabschalt- oder Notstromsystem. Somit vereinfacht sich das Genehmigungsverfahren und die wiederkehrenden Sicherheitsprüfungen enorm. Alle Instrumentierungen und Steuerungselemente können konventionelle Produkte (Kostenreduktion) sein.

Schlussbemerkung

Das kanadische Genehmigungsverfahren ist vierstufig. Stufe 1 wurde bereits erfolgreich abgeschlossen. Man befindet sich nun in der zweiten Stufe. Der Zeitrahmen von etwa fünf Jahren bis zur Inbetriebnahme einer ersten Demonstrationsanlage scheint sehr ehrgeizig, wenn auch nicht unmöglich. Inzwischen sind alle namhaften kanadischen Ingenieurgesellschaften und die kerntechnische Industrie in das Projekt eingestiegen. Aus dem innovativen Startup mit rund 50 Beschäftigten ist eine schlagkräftige Armee mit zehntausenden Ingenieuren geworden. Es gibt praktisch kein Problem, für das keine erfahrenen Mitarbeiter zur Verfügung stehen. Wer schon mal mit kanadischen Unternehmen gearbeitet hat, kennt deren grundsätzlich optimistische und entschlossenen Rangehensweise. Wo deutsche Ingenieurzirkel in endlosen Sitzungen immer wieder neue Probleme erschaffen, probieren Kanadier einfach mal aus.

Westinghouse eVinci Microreactor

Tote leben länger. Westinghouse ist schon öfter verkauft worden oder pleite gegangen, aber immer wieder wie Phönix aus der Asche auferstanden. Westinghouse hat 1957 weltweit den ersten Druckwasserreaktor (Shippingport, 60 MWel) gebaut und ist am Bau des AP1000 (Druckwasserreaktor der III. Generation, vier bereits in China in Betrieb.) in den USA erstickt. Inzwischen unter dem neuen Eigentümer Brookfield erfolgreich restrukturiert.

Ohne Zweifel zählt Westinghouse zu den besonders innovativen Unternehmen auf dem Gebiet der Kerntechnik. Deswegen verwundert es auch nicht, daß sie sich mit ihrem „eVinci“ weltweit an die Spitze der Entwicklung sogenannter „Mikro-Reaktoren“ setzen. Dabei handelt es sich um „Kleinst-Kernkraftwerke“ im Leistungsbereich einiger hundert Kilowatt bis zu etwa 25 Megawatt elektrischer Leistung. Gemeinsam ist dieser Klasse, daß sie vollständig (in Serie) in einer Fabrik gefertigt werden und komplett auf einem LKW (etwa in einem Container) ausgeliefert werden sollen. Man zielt damit auf einen völlig neuen Markt: Das Kernkraftwerk nicht mehr als Milliarden teueres Großkraftwerk, sondern als dezentrales „Block-Heiz-Kraftwerk“. Ironischerweise ist diese Entwicklung erst durch die wetterabhängige Erzeugung mit Wind und Sonne so richtig angefacht worden. Die einstigen Vorteile des guten alten Stromnetzes – Versorgungssicherheit bei günstigen Kosten – drohen durch die „Regenerativen Energien“ systematisch zerstört zu werden. Will man nicht zurück ins Mittelalter, sind also schnellstens neue Lösungen gefragt.

Das Konstruktionsprinzip

Will man direkt in die Städte oder Industrieanlagen (Raffinerien, Chemieparks etc.) ist die maximale Leistung auf einige zehn Megawatt begrenzt. Diese Kernkraftwerke müssen für einen Inselbetrieb ausgelegt sein: Ohne ein Netz in Betrieb zu nehmen (Schwarzstart), nahezu unterbrechungsfrei laufen (kein Brennelementewechsel), äußerst robust auf Lastschwankungen reagieren können und nicht zuletzt – „sicher sein“.

Bei allen schweren Störfällen – Three Mile Island, Tschernobyl, Fukushima – war der Verlust des Kühlmittels (Wasser) ausschlaggebend. Während des Unfallgeschehens kamen noch Reaktionen des Kühlmittels mit den Reaktorwerkstoffen hinzu: Die Bildung von Wasserstoff und die anschließende Knallgas-Explosion führte z. B. in Fukushima erst zur Freisetzung von radioaktiven Stoffen. Es ist damit logisch, daß der gesamte Kühlwasserkreislauf besondere Sorgfalt bei jeder Wiederholungsprüfung erfordert (Zeitdauer und Kosten) und all seine Bauteile den Kostentreiber „nuclear grade“ erfüllen müssen. Hinzu kommt, daß insbesondere bei Druckwasserreaktoren erhebliche Druckverluste auftreten, die durch Pumpen mit großer Antriebsleistung ersetzt werden müssen. Ein Ausfall der Stromversorgung, wie z. B. in Fukushima durch die gewaltige Flutwelle, ergibt damit sofort ein ernsthaftes Sicherheitsproblem. Könnte man das Kühlmittel Wasser ersetzen und darüberhinaus noch ein rein passives „Umwälzverfahren“ anwenden, ergebe sich sofort ein Quantensprung in der Sicherheitstechnik.

Seit Anbeginn der Kernkrafttechnik hat man Natrium als Kühlmittel verwendet. Neben seinen herausragenden thermodynamischen Eigenschaften, besitzt es auch hervorragende neutronenphysikalische Eigenschaften. Allerdings war früher die Marschrichtung eine völlig andere: Man wollte sogenannte „Schnelle Brüter“ bauen, die aus Uran-238 mehr leicht spaltbares Plutonium-239 erzeugen, als sie während ihres Betriebs verbrauchen. Ursache war die falsche Annahme, daß die Vorräte an (wirtschaftlich) gewinnbarem Natururan nur sehr klein wären. Heute schwimmen wir weltweit nicht nur in Natururan, sondern auch bereits in Plutonium. Im Gegenteil, das Plutonium wird als „Endlager-Risiko“ und damit Handikap der Kernenergie betrachtet.

Strebt man einen „Schnellen Brüter“ an, muß dieser ein möglichst großes Volumen haben (Ausfluß von Neutronen) und daraus ergibt sich automatisch eine große Leistung. Schon muß man wieder die gleichen Sicherheitsprobleme wie bei einem Druckwasserreaktor lösen und stets im Griff behalten: Großes Kühlmittelvolumen, das auch noch zum Abtransport der Wärme ständig (aktiv) umgepumpt werden muß und unter keinen Umständen verloren gehen darf. Will man jedoch nur einen Reaktor (relativ) kleiner Leistung bauen, kann man diese Probleme geschickt umschiffen.

Wärmerohe als Kühlmedium

Beim eVinci wird der Wärmetransport vom festen Kern zum Arbeitsgas durch Wärmerohre (heat pipes) bewerkstelligt. Wärmerohre sind (dünne) Metallrohre mit einem Docht versehen, die teilweise mit einer Flüssigkeit gefüllt sind und anschließend gasdicht verschweißt werden. Das mit Flüssigkeit gefüllte Ende steckt in der Wärmequelle (Reaktorkern) und das mit Dampf gefüllte Ende in der Wärmesenke (Arbeitsgas). Die Flüssigkeit im Rohr wird nun kontinuierlich verdampft, breitet sich im Rohr aus und kondensiert am gekühlten Ende. Dort bildet sich ein Flüssigkeitsfilm, der durch die Kapillarwirkung im Docht wieder zum heißen Ende zurück strömt. Das Wärmerohr ist also stets mit Sattdampf gefüllt und besitzt dadurch annähernd die gleiche Temperatur an beiden Enden. Ist die Rohrwand dünn und besteht aus gut leitendem Material, können große Wärmeströme durch die Rohroberfläche übertragen werden. Das Wärmerohr kann immer nur in eine Richtung die Wärme transportieren, ist aber durch den „Docht“ nicht von der Lage abhängig.

Das Temperaturniveau hängt von der Flüssigkeit ab. Im eVinci sollen mit Natrium gefüllte Wärmerohre eingesetzt werden. Natrium hat einen Schmelzpunkt von ungefähr 98°C und einen Siedepunkt von 883°C bei Atmosphärendruck. Die übliche Bandbreite für mit Natrium gefüllte Wärmerohre beträgt etwa 600°C bis 1200°C. Strebt man eine „niedrige“ Temperatur von 600°C an, muß man im Wärmerohr einen sehr geringen Druck von etwa 0,06 bar einhalten. Die Kombination aus Temperatur und Druck ist keine besondere Herausforderung, da man sich damit noch im Bereich konventioneller Stähle bewegt.

Die Wärmerohre funktionieren vollständig passiv. Der einzige Antrieb ist die Wärmeproduktion im Kern – gleichgültig ob im Betrieb oder als Nachzerfallswärme nach einer Abschaltung. Da jedes einzelne Wärmerohr ein in sich geschlossener Kühlkreislauf ist, stellt ein Versagen einiger Rohre für den Reaktor kein großes Problem dar. Im Gegensatz zu einem kleinen Loch in einem Druckwasserreaktor, das bereits die Sicherheitskette auslösen muß.

Der Aufbau des Kerns

Der Kern besteht aus einem massiven Stahlblock, der mit ca. 2000 Längsbohrungen von etwa 1,5 m Länge versehen ist. In den Längsbohrungen stecken die Brennelemente und die Wärmerohre. Das Verhältnis zwischen „Brennstäben“ und Wärmerohren beträgt etwa 1:2. In der Fertigung dieses „durchlöcherten Stahlblocks“ liegt ein zentrales Fertigungsproblem des Reaktors. Mit einfachem Bohren wird es nicht gelingen, da die Wände zwischen den Bohrungen möglichst dünn sein sollten um eine gute Wärmeübertragung zu gewährleisten. Der Stahlblock gibt der ganzen Konstruktion Halt, Schutz und transportiert die Wärme gleichmäßig zu den Wärmerohren. Es kann also nichts auslaufen und es steht auch nichts unter Überdruck.

Allerdings fehlt hier noch der Moderator. Bei einem Druckwasserreaktor übernimmt das Wasser selbst die notwendige Abbremsung der Neutronen. Beim eVinci soll Zirkoniumhydrid (ZrH2) diese Aufgabe übernehmen. Wahrscheinlich auch als Legierung aus Uran, Zirkon und Wasserstoff. Für diese Legierungen existieren jahrzehntelange Betriebserfahrungen in den TRIGA-Forschungsreaktoren. Diese Brennstoffe besitzen ein ausgeprägtes Verhalten zur Selbstregulierung der Leistung (stark negativer Temperaturkoeffizient der Reaktivität): Erhöht sich die Brennstofftemperatur ungebührlich, bricht die Kettenreaktion praktisch sofort ein und infolge auch die Wärmeproduktion. Ein Schmelzen des Brennstoffs wird sicher verhindert.

Der Brennstoff

Als Brennelemente sollen die – auch hier schon näher beschriebenen – TRISO Elemente verwendet werden. Sie besitzen ausgezeichnete Eigenschaften bezüglich hoher Temperaturbeständigkeit und dem Rückhaltevermögen von Spaltprodukten. Erinnert sei nur an die zwanzigjährige Erfolgsgeschichte des Kugelhaufenreaktors in Jülich. Unzählige Versuche in Deutschland und China haben die „Walk-Away-Sicherheit“ nachgewiesen. Dieser Brennstoff kann auch nach schwersten Störfällen, wie z. B. in Fukushima, nicht schmelzen und damit größere Mengen radioaktiver Stoffe freisetzen.

Allerdings benötigt man bei solch kleinen Reaktoren höher angereichertes Uran als bei Leichtwasserreaktoren. Ferner wird hier das „Batterie-Konzept“ angestrebt. Man liefert den betriebsbereiten Reaktor, schließt ihn an und läßt ihn für mindestens zehn Jahre (nahezu) vollautomatisch und ohne Unterbrechung laufen. Quasi ein Blockheizkraftwerk ohne Tankstelle. Durch die Wahl der TRISO-Brennelemente ist man zukünftig sehr flexibel. Neben Uran (HALEU) sind auch Plutonium und Thorium einsetzbar. Nur die Brennstoffherstellung muß verändert werden.

Das Arbeitsmedium

Da bei dieser Konstruktion der Kern mit seiner Neutronenstrahlung durch die Wärmerohre physikalisch vom Arbeitsmedium CO2 getrennt ist, hat man stets ein „sauberes“ Arbeitsmedium. Man muß also nicht noch einen sekundären Dampf-Kreislauf wie z. B. beim Kugelhaufenreaktor (radioaktiver Staub durch Abrieb der Brennelemente) oder einem mit Natrium gekühlten Reaktor (Aktivierung des Natriums durch schnelle Neutronen) hinzufügen. Dies spart Bauvolumen, Bauteile (die Funktion des Zwischenwärmetauschers übernehmen die Wärmerohre) und letztendlich Kosten. Im Prinzip ist man damit in der Wahl des Arbeitsmediums völlig frei. Allerdings sollte man die „Drucklosigkeit“ dieses Reaktortyps nicht grundlos aufgeben. Druckdifferenz bei hoher Temperatur bedeutet automatisch Wandstärke und damit Gewicht. Der Vorteil des einfachen Transports könnte schnell verloren gehen.

Beim eVinci ist zur Stromproduktion eine Gasturbine mit CO2 als Arbeitsmedium vorgesehen. Mit CO2 als Betriebsstoff besitzt man in der Kerntechnik jahrzehntelange Erfahrung (z. B. die gasgekühlten Kernkraftwerke in Großbritannien). CO2 läßt sich aber auch sehr gut als Medium für eine Gasturbine einsetzen. Man kommt damit mit wesentlich kleineren Arbeitsdrücken als bei Wasser aus. Die hohe angestrebte Betriebstemperatur von 600°C+ bei diesem Reaktor, erlaubt trotzdem akzeptable Wirkungsgrade. Noch wichtiger ist die Temperatur am kalten Ende des Turbinenaustritts: Eine Gasturbine arbeitete – anders als eine Dampfturbine – ohnehin mit so hohen Temperaturen, daß problemlos eine Kühlung mit Umgebungsluft möglich ist. Ein nicht zu unterschätzender Vorteil für alle „Wüstengebiete“ bzw. Flüsse, bei denen die zulässige Temperaturerhöhung bereits ausgereizt ist. Momentan ist der Einsatz von Turbinen mit überkritischem CO2 Kreisprozess geplant. Solche Turbinen gibt es bereits für diese Leistungsklasse. Ein weiterer Vorteil für die Beschränkung als „Mikroreaktor“. Des weiteren will man sich im ersten Schritt auf eine Temperatur von 600°C beschränken, sodaß man sich noch voll im Bereich konventioneller Kraftwerkstechnik bewegt.

Wieder ein Papierreaktor mehr?

Danach schaut es diesmal wahrlich nicht aus. Der eVinci besteht aus Komponenten, an denen bereits seit Jahrzehnten in den „National Laboratories“ geforscht und entwickelt wird. Das Gesamtkonzept mag revolutionär anmuten, die Grundlagen sind längst in aller Stille geschaffen worden. Deshalb ist der Terminplan auch sehr eng gestrickt. Fertigstellung eines Prototyps – noch ohne Kernbrennstoff – bis Ende 2020. An diesem „Modell“ sollen die Fertigungsverfahren ausprobiert werden und die Berechnungsverfahren etc. verifiziert werden. Inbetriebnahme eines Prototyps durch Westinghouse noch 2024. Bereitstellung von genehmigungsfähigen und lieferbaren Reaktoren für das Verteidigungsministerium bis 2026. In diesem Zusammenhang ist interessant, daß die kanadischen Genehmigungsbehörden ein paralleles Genehmigungsverfahren aufgenommen haben. Ziel dort ist die Versorgung abgelegener Minen mit Strom und Wärme. Es ergibt sich damit erstmalig die Situation, daß die Entwicklung eines „Prototypen“ – wie in guten alten Zeiten – in der Hand des Energieministeriums verbleibt. Parallel wird ein kommerzielles Genehmigungsverfahren von zwei nationalen Behörden gleichzeitig entwickelt. Konkurrenz belebt das Geschäft. Das bisher praktizierte „Totprüfen“ durch immer neu erfundene Sicherheitsnachweise – in Stundenlohnarbeit versteht sich – scheint diesmal ausgeschlossen.

Betrachtet man die Ströme an Forschungsgelder innerhalb der Kerntechnik in den USA der letzten zwei Jahre, so wird der Stellenwert dieses Projekts deutlich. Dies betrifft sowohl die absolute Höhe, als vor allem den relativen Anteil. Große Summen fließen bereits in Fertigungsverfahren. So wird eine vollautomatische Fertigung für die Wärmerohre entwickelt. Diese soll die Produktionskosten auf unter ein Zehntel der bisherigen Kosten senken. Gleiches gilt für die Produktion von TRISO-Brennelementen und eine neue Anreicherungsanlage für HALEU. Erklärtes Ziel ist ein Kraftwerk für einen Preis unter 2000 US$/kW anzubieten. Ausdrücklich in Konkurrenz zu Erdgas-Kombikraftwerken. Diese Kraftwerke sollen innerhalb von 30 Tagen ab Auslieferung vor Ort einsetzbar sein. Sie sollen in Fabriken, ähnlich denen für Flugzeugtriebwerke, in Serie gefertigt werden.

Warum das alles?

Man mag es gut finden oder nicht. Mal wieder scheint der Krieg Vater aller technischen Entwicklungen zu sein. Das US-Militär befindet sich mitten im Umbruch. Weg von der jahrzehntelangen Jagd auf irgendwelche Taliban mit Kalaschnikows und am Ende der Träume von der „Friedensdividende“ aus dem Zusammenbruch der Sowjetunion. China wird immer aggressiver (Südchinesisches Meer) und Parallelen zum Japan der 1930er Jahre erscheinen immer beängstigender. Hinzu kommt der Potentat Putin mit seinen Eskapaden in Osteuropa und Syrien, der sich inzwischen als die beste Werbeabteilung der amerikanischen Rüstungsindustrie erweist. Man muß sein Geschwafel über seine Wunderwaffen nur wörtlich nehmen und schon hat man Vorlagen für neue Rüstungsprogramme. Im Rahmen der Umstrukturierung wird immer deutlicher, daß der nächste „große Krieg“ voll elektrisch wird: Immer mehr Radaranlagen, immer mehr Datenverkehr, immer mehr Computer und sogar Laser-Waffen. All dies erfordert immer mehr elektrische Leistung, möglichst nah an der Front. Diese Energieerzeugungsanlagen müssen aber ständig mit Treibstoff versorgt werden, was zusätzliche Kräfte bindet – besonders in den Weiten des Pazifiks. Ganz ähnlich ist die Entwicklung bei der Marine. Hinzu kommt dort die neuartige Bedrohung durch präzise Mittelstreckenraketen. Eine Antwort auf diese Bedrohung ist die Kombination aus klassischen Schiffen mit „Roboter-Schiffen“. Diese Schiffe machen aber nur Sinn, wenn sie – ohne Besatzung – quasi endlos über die Weltmeere ziehen können. Kernreaktoren bieten sich als Antrieb geradezu an, sind aber mit heutiger Technik nicht finanzierbar. Billige Mikroreaktoren wären eine Lösung.

Immer wenn sich Militärs etwas in den Kopf gesetzt haben, bekommen sie kurz über lang ihre Wünsche erfüllt. Ganz besonders, wenn in breiten Bevölkerungskreisen eine Angst vor einer konkreten Bedrohung vorhanden ist. Dann spielen Kosten keine Rolle mehr. In den USA ist es schon immer Tradition gewesen, neuartige militärische Entwicklungen möglichst schnell in die zivilen Märkte überzuführen (Spielekonsolen, GPS etc..). Geheimhaltung ist sowieso nur beschränkt möglich, aber große Stückzahlen senken die Kosten. In diesem Sinne, ist in der Tat mit dem schnellen Aufbau von „Reaktor-Fabriken“ zu rechnen. Dies paßt auch zum aktuellen Zeitgeist: Donald Trump ist mit dem Slogan angetreten, die Industriearbeitsplätze zurück zu holen. Er hat dabei sicherlich nicht an Nähereien für Hemden gedacht. Alle, die dies milde als „populistisch“ abgetan haben, könnte das Lachen bald vergehen.

NELA

Das Kunstwort NELA ist eine Abkürzung für den Nuclear Energy Leadership Act. Eine Anweisung des US-Senats („Länderkammer der USA“) an den Secretary of Energy („Energieminister“ ), die Ziele für die zukünftige friedliche Nutzung der Kernenergie in den USA aufzustellen, eine vielseitig verwendbare Quelle für schnelle Neutronen auf der Basis eines Kernreaktors zu bauen (VTR) und High-Assay-Uran (Anmerkung: Uran mit knapp unter 20% Anreicherung, HALEU) für Forschung, Entwicklung und den Bau eines fortschrittlichen Reaktors etc. bereit zu stellen.

Die Reaktion auf dieses Gesetz – z. B. durch den Milliardär Bill Gates – war geradezu euphorisch. Der ehemalige Mitbegründer von Microsoft hält Kernenergie für eine der wichtigsten Zukunftstechnologien und ist auch aktiv und mit eigenem Geld an der Förderung beteiligt. So soll in seine Gründung TerraPower LLC Nuclear Energy bereits über eine Milliarde US-Dollar Risikokapital geflossen sein. Er war auch nicht ganz unschuldig an dieser Gesetzgebung, da seine Ankündigung mit seinem Reaktortyp nach China abzuwandern, mächtig Staub aufgewirbelt hat – man muß nicht extra erwähnen, daß dieser Schachzug bei Donald Trump voll ins Schwarze getroffen hat.

Politische Auswirkungen

Mag auch im deutschen Staatsfernsehen immer wieder der Eindruck geschürt werden, die USA seinen vollkommen gespalten und stünden kurz vor einem Bürgerkrieg, so ist dieses Gesetz ausdrücklich von Demokraten und Republikanern gemeinsam eingebracht worden.

Es gibt aber noch einen weiteren Hinweis für eine in der Bevölkerung breit vorhandene Zustimmung. Im Senat ist jeder Bundesstaat – unabhängig von Größe und Bevölkerung – durch zwei Senatoren vertreten. Jeder Senator ist für sechs Jahre gewählt und die Wahlen finden zeitversetzt alle zwei Jahre statt. Anders als in Deutschland („Parteiendemokratie“), werden die Senatoren direkt durch die Einwohner ihres Bundesstaates gewählt. Sie besitzen daher einen hohen Bekanntheitsgrad und entsprechendes Ansehen – deshalb wird keiner ein Gesetz einbringen, das seine Wiederwahl gefährdet. Insofern wird die Standortsuche nur eine Formsache sein. Verzögerungen durch „Bürgerproteste“ sind nicht zu erwarten.

Inhalt der Anweisung

NELA beinhaltet eine Menge tiefgreifender Veränderungen für die zukünftige Entwicklung der friedlichen Nutzung der Kernenergie: Endlich scheint der Gegensatz von hohen Investitionen – bei später extrem geringen Betriebskosten – verstanden und als Besonderheit der Kerntechnik akzeptiert zu sein. Es soll eine Wiederbelebung der sog. „schnellen Reaktoren“ erfolgen, diesmal jedoch nicht wegen (falsch eingeschätzter) kleiner Uranreserven, sondern zur „Entschärfung“ der Atommüll-Problematik. Die Zeit ist dafür reif. Gibt es doch auch in den USA mehrere tausend Tonnen abgebrannter Brennelemente, die durch jahrzehntelange Lagerung bereits so stark abgeklungen sind, daß sie förmlich nach einer Wiederaufbereitung schreien.

(Section 2) Genehmigung von langfristigen Energielieferungsverträgen

In den USA sind Verträge zwischen Energieerzeugern und öffentlichen Versorgern über die PPA (Power Purchase Agreement) reglementiert. Zukünftig dürfen Verträge über eine Laufzeit von 40 Jahren (bisher 10 Jahre) für Kernkraftwerke abgeschlossen werden. Die Zahlungsströme über die Vertragslaufzeit sind eine wichtige Grundlage für eine Finanzierung durch Kreditgeber.

(Section 3) Langfristige Pilotverträge

Der Energieminister soll insbesondere mit dem Verteidigungsminister und dem Minister für die Heimatverteidigung langfristige Verträge zur Versorgung mit Kernenergie ausarbeiten. Ziel ist mindestens ein Vertrag mit einem kommerziellen Kernkraftwerk bis zum 31.12.2023.

Der Minister soll neuartige Reaktoren (first-of-a-kind ) und neue kerntechnische Verfahren besonders berücksichtigen, die eine zuverlässige und belastbare (Anmerkung: also ausdrücklich keine wetterabhängigen und an Rohrleitungen gebundene Systeme) Energieversorgung von besonders wichtigen Einrichtungen ermöglichen. Insbesondere für abgelegene Regionen (Anmerkung: Militärstützpunkte etc.) und bei Inselbetrieb geeignete Systeme.

Es sind unter diesen Umständen ausdrücklich höhere, als Marktpreise erlaubt.

(Section 4) Entwicklungsziele für fortschrittliche Kernreaktoren

Unter fortschrittliche Reaktoren werden auch Prototypen verstanden, die besondere Fortschritte zur jeweils neusten Generation aufweisen:

  • Zusätzliche inhärente Sicherheiten,
  • geringerwertige (Anmerkung: Im Sinne von Menge und Aktivität) Abfälle,
  • bessere Brennstoffausnutzung (Anmerkung: Weniger Natur-Uran),
  • größere Toleranz gegenüber Ausfall der Kühlung,
  • höhere Verfügbarkeit (Anmerkung: Brennelementewechsel etc.),
  • besserer Wirkungsgrad,
  • geringerer Verbrauch an Kühlwasser,
  • die Fähigkeit zur Erzeugung elektrischer Energie und Heizwärme,
  • Anpassung an wachsende Verbräuche durch einen modularen Aufbau,
  • flexible Leistungsbereitstellung zum Ausgleich zwischen dem Angebot an wetterabhängigen Energien und der Verbrauchernachfrage
  • und Fusionsreaktoren.

Es soll ein Projekt zur Demonstration durchgeführt werden. Darunter wird ein fortschrittlicher Reaktor verstanden, der

  • innerhalb eines Versorgungsgebietes als Kraftwerk eingesetzt wird,
  • oder in irgendeinem anderen Zusammenhang, der den kommerziellen Einsatz eines solchen Reaktors erlaubt, eingesetzt wird.

Zu diesem Zweck soll der Minister möglichst bald nach dem Inkrafttreten, die Forschung und Entwicklung von fortschrittlicher, bezahlbarer und sauberer Kernenergie im eigenen Land vorantreiben. Zu diesem Zweck soll die Eignung verschiedener fortschrittlicher Reaktortechnologien für eine Anwendung durch private Unternehmen nachgewiesen werden:

  • zur Gewinnung von emissionsfreier elektrischer Leistung bei einem Energiepreis von bis zu 60 $ pro Megawattstunde, gemittelt über die geplante Lebensdauer des Kraftwerks,
  • zur Versorgung durch Fernwärme, Wärme in industriellen Prozessen und zur Herstellung synthetischer Kraftstoffe,
  • als Backup (Anmerkung: Für „Flatterstrom“) oder beim Einsatz von betriebsnotwendigen Strom-Versorgungsanlagen (Anmerkung: Rechenzentren, militärische Anlagen etc.).

Entwicklungsziele für die (staatliche) Kernforschung sind in diesem Sinne Demonstrationsprojekte, die nicht durch private Unternehmen durchgeführt werden können, da diese nicht in der Lage oder willens sind, das erhebliche finanzielle Risiko der Forschung zu tragen. Es soll der Zugang von Privatunternehmen zu staatlichen Forschungseinrichtungen oder die Nutzung staatlicher Forschungsergebnisse erleichtert werden.

Der Minister soll bis zum 30.9.2028 mindestens in ein Abkommen mit mindestens vier verschiedenen fortschrittlichen Reaktoren eintreten. Der Minister soll in diesem Sinne verschiedene Verfahren zur primären Kühlung (Anmerkung: Metalle, Gas, Salzschmelzen etc.) aussuchen. Er sollte dabei anstreben, daß die Langzeitkosten für elektrische Energie und Wärme konkurrenzfähig sind. Die in die Auswahl einbezogenen Reaktortypen sind durch externe Gutachten zu überprüfen. Es sollen in Zusammenarbeit mit privaten Unternehmen geeignete Liegenschaften ermittelt werden. Es sind staatliche Stellen, die National Laboratories und „höhere Bildungseinrichtungen“ direkt anzusprechen. Neben traditionellen Abnehmern, wie z. B. Stromversorger, sind auch potentielle Anwender neuer Technologien, wie z. B die petrochemische Industrie, sowie die Entwickler fortschrittlicher Reaktoren einzubeziehen.

Der Minister soll sicherstellen, daß er die Forschung auf Schlüsselgebieten der Kernenergie erleichtert, die Erkenntnisse über den gesamten Entwicklungsprozess, die Sicherheitstests und das Genehmigungsverfahren umsetzt. Aufgelegte Forschungsprogramme sollten Wert darauf legen, daß sie Lösungen für die Strahlenbelastung (Anmerkung: Schnelle Neutronen sind fürs Material schädlicher als thermische) und korrodierende Kühlmittel (Anmerkung: z. B. Salzschmelzen) bereitstellen und für die Zulassung fortschrittlicher Brennstoffe (Anmerkung: z. B. metallische zur einfacheren Wiederaufbereitung) sorgen.

Herausforderungen bezüglich Modellierung und Simulation, die den Konstruktionsprozess und das Zulassungsverfahren beschleunigen können, sind zeitnah zu realisieren.

Zugehörige Technologien, wie z.B. elektro-chemische Verfahren oder Wiederaufbereitungsverfahren, die das Volumen der Abfälle und deren Halbwertszeiten verringern, sind entwickelt. Die Infrastruktur, wie z. B. die „versatile fast neutron source“ und Prüfstände für Salzschmelzen sind errichtet. Das Grundlagenwissen über die Physik und Chemie von anderen Kühlmitteln als Wasser, wurde vertieft. Um die Kosten für die Realisierung fortschrittlicher Kernreaktoren zu senken, wurden fortschrittliche Herstellungs- und Konstruktionsverfahren, sowie Materialien untersucht.

(Section 5) Strategische Planung für die Kernenergie

Nicht später als 180 Tage nach dem Inkrafttreten soll der Minister den Fachausschüssen von Senat und Parlament einen 10-Jahres-Plan für die Strategie der Umsetzung vorlegen.(Anmerkung: Bisher gibt es keine übergreifende Koordinierung der Forschung und Entwicklung. Kernforschung wird von verschiedensten Regierungsstellen mit jeweils eigener Zielsetzung betrieben.)

Mindestens im Zwei-Jahres-Turnus hat der Minister den einschlägigen Fachausschüssen von Senat und Parlament einen aktualisierten 10-Jahres-Plan vorzulegen. Die Abweichungen oder die nicht Erfüllung sind zu begründen. (Anmerkung: Damit soll erreicht werden, daß neueste Forschungsergebnisse – von wem auch immer – unmittelbar in die laufende Entwicklung neuartiger Reaktoren einfliessen können und so die Zeitdauer bis zur Markteinführung verkürzt wird.)

(Section 6) Vielseitig verwendbare Quelle schneller Neutronen auf der Basis eines Reaktors

Als „Schnelle Neutronen“ werden hier Neutronen mit einer Bewegungsenergie von über 100 Kiloelektronenvolt verstanden. Der Minister soll für diese Quelle verantwortlich sein und sie soll als öffentliche Einrichtung betrieben werden. (Anmerkung: Hinter dieser „Quelle“ verbirgt sich ein Reaktor auf der Basis des PRISM Konzepts von GE Hitachi. Aufträge wurden bereits erteilt und Mittel von bis zu 800 Milionen Dollar jährlich in den Haushalt eingestellt. Man rechnet mit Gesamtkosten von bis zu sechs Milliarden Dollar. Es wird also diesmal nicht gekleckert. Als „Forschungsreaktor“ unterliegt er auch nicht dem normalen Genehmigungsverfahren mit seiner bekannt langen Dauer – auch hier heißt es: Zurück in die Zukunft.)

Der VTR (Versatile Test Reactor) soll die öffentliche Forschung mit „schnellen Neutronen“ sicherstellen. (Anmerkung: Seit der Ausserbetriebsetzung des Halden-Reaktors in Norwegen ist selbst die Industrie bei Bestrahlungsexperimenten auf China und Rußland angewiesen – ein absolutes No Go für die nationale Sicherheit.) Der Minister soll gewährleisten, daß die Quelle die Bestrahlung mit dem schnellen Neutronenspektrum ermöglicht und für neuartige Forschungsanforderungen erweiterbar ist. Der Minister soll gewährleisten:

  • Die Fähigkeit Experimente und Materialtests unter hohen Temperaturen durchzuführen.
  • Hohe Flüsse von schnellen Neutronen, wie sie bisher an anderen Forschungseinrichtungen nicht möglich sind.
  • Eine optimale Basis für zukünftige Forscher zu schaffen.
  • Eine maximale Flexibilität bei der Bestrahlung und ein maximales Volumen zu schaffen, damit so viele Forschergruppen wie praktikabel, tätig sein können.
  • Möglichkeiten zur Bestrahlung von Neutronen mit einem geringeren Energiespektrum zu gewährleisten.
  • Verschiedene Kreisläufe für Tests mit verschiedenen Brennstoffen und Kühlmitteln.
  • Zusätzliche Einrichtungen zur Untersuchung der Eigenschaften vor und nach der Bestrahlung.
  • Geringe Kosten für den Betrieb und Unterhalt über die gesamte Lebenszeit.

Der Minister soll bis spätestens zum Ende des Jahres 2025 die Anlage in Betrieb nehmen. (Anmerkung: Make America Great Again. Dieses Programm ist nur mit dem Bau des ersten Atom U-Boots oder dem Apollo-Programm in seinem Ehrgeiz vergleichbar.)

(Section 7) Programm zur Sicherheit von fortgeschrittenem Brennstoff

Zur Unterstützung der Kernwaffenproduktion und der Schiffsreaktoren (der Marine) benötigen die USA einen vollständigen Brennstoffkreislauf für leicht- und hochangereichertes Uran: Uranminen, Konversion, Anreicherung und Brennstoffherstellung.

Viele Unternehmen in den USA benötigen den Zugang zu Uran mit einer Anreicherung von knapp unter 20%-U235 (HALEU) für:

  • Erste Brennstofftests
  • Betrieb von Demonstrationsreaktoren
  • Kommerzieller Betrieb von fortschrittlichen Reaktoren

Bis heute existiert keine Anlage zur Herstellung von Brennstoff mit einer Anreicherung von mehr als 5%-U235 in den USA. Ein gesunder kommerzieller Brennstoffkreislauf mit höherer Anreicherung wäre gut für die einschlägigen Bereiche der nationalen Sicherheit und für die fortschrittliche kerntechnische Industrie der USA. Durch die Bereitstellung von Uran mit einer Anreicherung von knapp bis unter 20% aus den Beständen für die Rüstung für erste Brennstofftests und einen Demonstrationsreaktor könnte

  • der Weg bis zur Markteinführung solcher Konzepte,
  • die Entwicklung eines Marktes für fortgeschrittene Reaktoren
  • und ein wachsender kommerzieller Brennstoffkreislauf

beschleunigt werden. (Anmerkung: Hier wird das „Henne-Ei“ Problem durch eine Öffnung der Schatulle der Rüstung durchbrochen. Ein Zeichen, daß es mit einer möglichst schnellen Umsetzung sehr ernst gemeint ist. Gleichzeitig wird mit der Verwendung von höher angereichertem Uran die Plutonium-Problematik geschickt umschifft. Auch diese Pragmatik, deutet auf den festen Willen zu einer schnellen Entwicklung hin.)

Der Minister soll nicht später als in einem Jahr nach Inkraftsetzung höher angereichertes Uran bereitstellen und Verträge für Verkauf, Weiterverkauf, Übertragung und Vermietung zur Verwendung in kommerziellen oder nicht kommerziellen Reaktoren ausarbeiten.

Jeder Mietvertrag sollte eine Klausel enthalten, daß der Brennstoff im Eigentum des Ministeriums verbleibt, einschließlich einer Endlagerung der radioaktiven Abfälle infolge der Bestrahlung, und einer Wiederaufbereitung.(Anmerkung: Bei einer Miete könnten also die vorhandenen (militärischen) Wiederaufbereitungsanlagen und das WIPP als (staatliches) Endlager genutzt werden. Dies dürfte Störungen durch die „Anti-Atombewegung“ nahezu unmöglich machen.)

Bis Ende 2022 hat der Minister zwei Tonnen (bezogen auf den Gehalt von U235) und bis Ende 2025 zehn Tonnen zur Verfügung zu stellen. Dieses Programm endet 2034 oder wenn genug Uran aus kommerziellen Quellen zur Verfügung steht.

(Section 8) Qualitätsoffensive für Universitäten

Das Parlament stellt fest, daß Kernkraftwerke in den USA Milliarden Dollar Auftragsvolumen erzeugen und zehntausenden Amerikanern gut bezahlte Arbeitsplätze geben; dies gilt insbesondere in den Standort-Gemeinden. Der Weltmarkt für kommerzielle Kernkraftwerke wird in der Dekade 2018–2028 (nach Angabe der Handelskammer) um 740 Milliarden Dollar wachsen. Die Teilnahme und (wieder gewonnene) Führerschaft auf diesem Markt kann zu entsprechenden Exporten führen. Den Einfluß auf die internationalen Standards für Sicherheit, Schutz und gegen Weiterverbreitung könnten über die Handelsbeziehungen aufrechterhalten und weiter ausgebaut werden. Dies erfordert umfangreiche Investitionen in fortschrittliche Kerntechnik. Um die Welt in die nächste Generation kommerzieller Kernreaktoren zu führen, muß die Industrie für fortschrittliche Kernenergie in einen Zustand beschleunigten Wachstums versetzt werden. Dazu müssen Kooperationen (public-private-partnerships) zwischen den öffentlichen Institutionen und der Privatwirtschaft geschaffen werden. Neue Reaktoren stellen besondere Anforderungen an die Genehmigungs- und Überwachungsinstitutionen. Dafür sind hoch qualifizierte Arbeitskräfte nötig. Die Universitäten sollen jährlich mindestens 600 Absolventen (undergraduate students) bzw. 500 Absolventen (graduate students) der Kerntechnik hervorbringen. Dies ist der Mindestbedarf um eine internationale Führung auf diesem Gebiet zu erlangen. (Anmerkung: Hinzu kommen noch die von der Marine selbst ausgebildeten und aus deren aktiven Dienst ausgeschiedenen.)

Um auf dem neusten Stand Forschung und Entwicklung betreiben zu können, sind zusätzlich Fachkräfte auf den Gebieten Rüstungskontrolle, Nuklearmedizin und fortschrittlicher Fertigungsverfahren etc. auszubilden. (Anmerkung: Wie gut, daß auf Grund der unendlichen Weisheit unserer Kanzlerin, Deutschland bald nur noch „Windmühlenbauer“ und „Batterien in Autos Einsetzer“ braucht. Angepaßte Technologie halt, für die, „die noch nicht so lange hier leben“.)

Abschließende Bemerkungen

Es scheint, der Riese USA ist erwacht. Inzwischen kommen rund zwei Drittel aller neuen Kernkraftwerke aus China und Rußland. Die USA sind nicht mehr lange der größte Produzent elektrischer Energie aus Kernenergie. Das bedeutet, die Führungsrolle geht verloren. Die Druckwasser-Technologie ist ausgereizt. Es ist absehbar, wann China und Rußland vollständig aus eigener Kraft Kernkraftwerke auf internationalem Niveau bauen können. China wegen seiner breiteren industriellen Basis sicherlich früher. Beide Länder drängen massiv auf die Märkte in Schwellenländern. Was sie technisch noch nicht leisten können, machen sie über den Preis wett.

Hinzu kommt der Schock über die beiden aus dem Ruder gelaufenen Baustellen Vogtle und Summers: Man kriegt einen selbst entwickelten Reaktor im eigenen Land nicht mehr termingerecht und zu den geplanten Kosten fertig. Für die kerntechnische Industrie hat das wie die Unglücke mit der Raumfähre auf die Raumfahrtindustrie gewirkt. Es war höchste Zeit sich neu zu erfinden. Aus dem „Raumgleiter“ wurde ein privat entwickelter „Bleistift“, der senkrecht auf einem Ponton im Meer zur Wiederverwendung landet. Inzwischen plant man die Reise zum Mars.

In der Kerntechnik kommt die Abkehr vom immer größer werden (Kostendegression), zum genauen Gegenteil hin. Anstatt immer mehr (erforderliche) Sicherheitssysteme, hin zu „inhärenter Sicherheit“. Zur Kostensenkung Serienfertigung in der Fabrik. Ganz nebenbei die Erschließung neuer Märkte durch diese Maßnahmen: Kleinere Stromnetze, Länder die gar nicht so viel Kapital für ein konventionelles Kernkraftwerk aufbringen können, Länder die nicht über die Infrastruktur für Betrieb und Wartung verfügen usw.

Hinzu kommt die größer werdende – oder zumindest so empfundene – Problematik des „Atommülls“. Ein Leichtwasserreaktor produziert zwar – gemessen an einem fossilen Kraftwerk – verschwindend geringe Mengen an Abfall, aber mit steigender Anzahl werden auch die abgebrannten Brennelemente spürbar. Die naßchemische Wiederaufbereitung mit anschließender erneuter Verwendung des Plutoniums in Leichtwasserreaktoren (Mischoxid) hat sich auch nicht als der Hit erwiesen. Will man das „Atommüllproblem“ besser in den Griff kriegen, ist der Übergang zu Reaktoren mit schnellem Neutronenspektrum nötig. Nur mit schnellen Neutronen kann man alle Uran- und Plutoniumkerne erfolgreich spalten. So wird aus abgebrannten Brennelementen wieder neuer Brennstoff. Das verringert den Einsatz des Brennstoffs für eine vorgegebene Menge elektrischer Energie mindestens um den Faktor 60. Weniger Brennstoff, weniger Abfall. Hinzu kommt aber noch ein zweiter Vorteil: Nicht nur weniger, sondern auch weniger langlebiger Abfall. Die übrig bleibenden Spaltprodukte stellen nur eine Strahlenquelle für Jahrzehnte oder wenige Jahrhunderte dar. Früher stand das „Brüten“, heute das „vollständig aufbrauchen“ im Vordergrund. Brütertechnologie wird auf absehbare Zeit – wenn überhaupt jemals – nicht gebraucht. Schon heute haben wir Plutonium im Überfluß und Uran und Thorium sowieso. Deshalb kann man auch bei dieser Reaktortechnologie von den „Gigawattmaschinen“ abschied nehmen und auf kleinere, inhärent sichere Einheiten übergehen. Diese sind „walk-away-safe“. Man kann einfach die Turbine abstellen und nach Hause gehen. Keine Science Fiction, sondern zig mal beim EBER II praktiziert. Das Kernkraftwerk zur Strom- und Wärmeversorgung mitten in der Stadt, alles andere als Utopie. Natürlich für das Zeitalter nach dem Zusammenbruch des Öko-Sozialismus, versteht sich.

Nord Stream oder LNG?

In den letzten Monaten wurde plötzlich die Erweiterung der Nord Stream Pipeline durch die Ostsee wieder neu diskutiert. Meist sehr oberflächlich auf dem Niveau Trump gegen Putin. Ist die Sache wirklich so einfach oder geht es um grundlegende Zusammenhänge?

Nord Stream

Diese Leitung soll jährlich 110 Milliarden Kubikmeter Erdgas aus Rußland unterhalb der Ostsee nach Deutschland transportieren. Dies ist der erste Streitpunkt: Sie umgeht damit die bisherigen Transportwege durch Drittländer. Diese Länder verlieren damit beträchtliche Transitgebühren und Dienstleistungen. Genau das ist ein Ziel der russischen Regierung: Sie will auch weiterhin über den Gashahn ihre Nachbarn disziplinieren können. Unvergessen sind die Liefereinschränkungen in die Ukraine in kalten Wintern. Diese Gefahr besteht heute so nicht mehr, da die „Pufferstaaten“ durchweg von Westen aus beliefert werden können.

Der Gasmann Schröder als ehemaliger Bundeskanzler und heutiger bester Freund und gut dotierter Günstling von Putin wird nicht müde zu betonen, welch zuverlässiger Handelspartner doch Rußland sei. Selbst im Kalten-Krieg sei immer Gas geliefert worden. Das ist zwar richtig, aber heute haben wir einen heißen Krieg in der Ost-Ukraine und gewaltsame Verschiebungen von Grenzen auf der Krim.

Das alles ficht echte deutsche Putin-Versteher nicht an. Um so geringer ist das deutsche Verständnis für den US-Steuerzahler: Dem geht es nämlich schon lange – nicht erst seit Trump Präsident geworden ist – mächtig gegen den Strich, daß sich Deutschland gern auf seine Kosten verteidigen läßt und gleichzeitig Russlands Aufrüstung auch noch mit den dafür dringend benötigten Devisen fördert. Die Politik unserer gelernten Agit-Prop-Sekretärin alles zu unterschreiben – ob Stickoxid Grenzwerte oder Zusagen zu Verteidigungsausgaben (2%-Kriterium) – wird nicht mehr lange gut gehen.

Die Energiewende

Deutschland steigt aus der Kernenergie aus, will möglichst schnell die Braunkohlekraftwerke abschalten und bereitet schon den Ausstieg aus der Steinkohle vor. Was bleibt, ist faktisch nur noch Erdgas als Primärenergieträger. Energiemix und Versorgungssicherheit war gestern.

Auch bildungsresistente Politiker sollten inzwischen verstanden haben, daß Wind Wetter ist. Entweder er weht oder er weht nicht. Da kann man so viele Windmühlen gegen bauen wie man will. Hier liegt nämlich genau die Crux: Wenn er weht, produzieren ganz viele Windmühlen ganz viel elektrische Leistung – demnächst mehr, als überhaupt verbraucht wird. Wenn er aber nicht weht, dann keine einzige. Noch mal in einfacher Sprache: Die mögliche Bandbreite bewegt sich zwischen Null Produktion (Windstille) und maximaler momentaner Nachfrage (durch alle Stromkunden zu einem Zeitpunkt). Die Natur läßt sich nicht durch Menschen steuern: Oft weht der Wind gerade besonders stark, wenn wenig elektrische Energie benötigt wird (Nachts, Sonntags) und umgekehrt.

Noch schlimmer geht es in unseren Breiten mit dem Sonnenlicht zu. Im Winter ist es bis zu 16 Stunden täglich dunkel. Deshalb ist es auch noch kalt und der Energiebedarf steigt stark an.

Ich kann die Einwände von Annalena und Anton schon hören: Wenn erstmal unsere Führerin ihre Wunderwaffe Speicher hat, ist auch der Endsieg in der Energiewende sicher. Hat sie aber nicht und wird sie auch auf absehbare Zeit nicht kriegen. So einfach, aber auch so grausam, ist die Natur.

Die besondere Rolle des Erdgases

Kohle, Kernenergie und Öl sind leicht transportierbar und einfach zu speichern. Erdgas als Gas aber nicht. Kohle und Kernenergie sind besonders preiswert, aber heute praktisch nur in Kraftwerken zur Stromproduktion einsetzbar. Mineralöl ist mit Abstand am flexibelsten einsetzbar und deshalb auf Grund der hohen Nachfrage am teuersten.

Nun stellen sie sich einfach mal vor, sie verfügen über riesige, schier unerschöpfliche Vorräte an Erdgas. Pech nur, sie sind völlig wertlos, weil weit von den Verbrauchszentren entfernt. Oft sogar Müll, wenn sie als Begleitgas der Ölförderung noch entsorgt werden müssen, was überdies meist sehr belastend für die Umwelt ist und deshalb schon in vielen Gebieten mit hohen Strafgebühren belegt ist. Glück, wenn ihre Förderanlagen in der Nähe von dicht besiedelten Wohngebieten liegen (z. B. „Hollandgas“, Niedersachsen etc.), dann können sie den Konkurrenten Heizöl über etwas günstigere Preise aus dem Markt drücken.

Die Achillesferse des Erdgases ist dessen Transport. Rohrleitungen und Verflüssigungsanlagen sind extrem kapitalintensiv. So soll allein Nord Stream zwischen 15 und 20 Milliarden Baukosten erfordern. Hinzu kommt noch der Energieverbrauch für den Transport, Transitgebühren, Wartung etc. Kein Mensch tätigt solche Investitionen für ein paar Kubikmeter oder will solche Anlagen nur ein paar Jahre nutzen. Die Transportkapazität von 110 Milliarden Kubikmeter pro Jahr (≈ 10,6 Bcf/d) entspricht einer Leistung von knapp 140 GWBrennstoff . Richtig erkannt, das ist eine ganze Menge. Mit der Wärmeversorgung von Einfamilienhäusern richtet man da wenig aus. Es muß also ein richtiger Absatz her.

Im Jahr 2017 betrug der Erdgasverbrauch in Deutschland 3230 PJ (897 TWhBrennstoff). Damit wurden neben Heizung und Industrie auch etwa 86 TWh elektrischer Energie erzeugt. Die Stromerzeugung aus Kernenergie betrug 76 TWh, aus Steinkohle 93 TWh und aus Braunkohle 148 TWh. Jetzt überschlagen wir mal den möglichen Erdgaseinsatz: Braunkohle- und Kernenergie- sind Grundlastkraftwerke. Man könnte sie durch modernste Gasturbinenkraftwerke mit Abhitzekesseln ersetzen. Es wird deshalb ein Wirkungsgrad von 60% angesetzt. Steinkohle übernimmt schon heute die Mittellast, d. h. Kraftwerke müssen dem Netz folgen und teilweise ganz abgeschaltet werden (Sonntags, Nacht). Dies würde den Erdgaskraftwerken nicht anders ergehen. Es wird für diese Betriebsweise ein Wirkungsgrad von 40% angesetzt. Macht also locker 606 TWhBrennstoff bzw. 2182 PJ zusätzlich. Der Erdgasverbrauch Deutschlands steigert sich auf 168%. Der Durchschnittspreis für Erdgas betrug in Deutschland 6,1 Cent pro kWh (2017). Davon entfielen 49,1% auf die Beschaffungskosten. Das sind also über 18 Milliarden zusätzliche Importkosten für Erdgas jährlich. Allerdings ohne Kohle und Kernenergie keine Versorgungssicherheit mehr – wenn Gas weg (aus welchen Gründen auch immer), auch Strom weg. Die gewaltigen Investitionskosten für neue Kraftwerke bezahlt selbstverständlich der Stromkunde. Die Investitionskosten für notwendige Gas-Infrastruktur der Gaskunde. Der wehrlose Haushaltskunde wird gleich zweimal zur Kasse gebeten. Bei einer steigenden Zahl von Kleinrentnern, prekär Beschäftigten und absehbaren Arbeitslosen (noch nicht integrierten Flüchtlingen, abgeschafften Autowerkern, eingeschränktem Konsum durch immer weniger frei verfügbare Einkommen etc.).

Bevor sich jetzt alle Blitzdenker zu Wort melden: Natürlich werden die „Regenerativen Energien“ weiter ausgebaut – dafür sorgen schon die Schlangenölverkäufer. Das ändert aber nichts an der Tatsache, daß wenn der Wind mal weht und die Sonne scheint, trifft das alle Anlagen. Man kann aber nicht mehr elektrische Leistung einspeisen als gerade verbraucht wird. Die Wunderwaffe Speicher gibt es nicht. Damit ändert sich aber auch nichts an der erforderlichen Leistung aus konventionellen Kraftwerken, da sich weder die Jahreszeiten noch das Wetter durch den Menschen beeinflussen lassen, auch nicht (wesentlich) die möglichen Betriebsstunden. Man kann die Lücke – vornehm ausgedrückt: Residuallast – nur über Erdgas abdecken. Eigentlich ganz einfach, könnten sogar die Annalenas verstehen, wenn sie denn wollten.

Aber noch einmal einen Schritt zurück. Wenn sie ihr Erdgas aus abgelegenen Weltgegenden zu den Verbrauchsschwerpunken (Kraftwerke) bringen wollen, wird das sehr teuer. Entweder ewig lange Pipelines oder Verflüssigungsanlagen mit entsprechender Transportkette. Sie können es drehen wie sie wollen, aber mit Kohle und Kernenergie können sie nicht konkurrieren. Da sie nicht billiger werden können, haben sie nur eine Chance: Sie müssen dafür sorgen, daß die anderen Energieformen teurer werden und/oder verunglimpft werden. Sie erfinden beispielsweise den „menschengemachten Klimawandel“. Sie fördern – ganz unverdächtig – massiv „regenerative Energien“ und sponsern ihre politischen Vertreter, weil sie (die offensichtlich nicht) genau wissen, daß mit Wetter-Energie gar keine zuverlässige Stromversorgung möglich ist. Gleichzeitig kehren sie ihren Nachteil in einen (vermeintlichen) Vorteil um: Der höchste Wasserstoffgehalt unter den Brennstoffen, der ihr Produkt zu einem schwer handhabbaren Gas macht, wird jetzt zum kleineren „CO2 Fußabdruck“ umgedeutet (Neudeutsch framing).

Trump’sche Energiewende

Für Trump ist Energieverbrauch nicht per se schlecht. Ganz im Gegenteil: „Billige“-Energie hebt den Lebensstandard. Für den Privatmann bedeutet eine kleinere Energierechnung mehr Geld für andere Dinge des Lebens übrig zu haben. Für die Industrie weniger Kosten und damit mehr Geld für Investitionen und Gehälter.

Er hat das gemacht, was Politiker machen können, er hat alle unsinnigen und hemmenden Vorschriften wieder abgeschafft. Achtung, Wähler aufgepaßt: Das ist jederzeit in einer Demokratie möglich. Es ist also sinnvoll, vor einer Wahl die unterschiedlichen Wahlprogramme zu studieren und den Politikern aufmerksam zuzuhören.

Von den Fesseln befreit, ist die Öl- und Gasindustrie in den USA förmlich explodiert. Die USA sind auf dem Weg größter Ölproduzent (noch vor Saudi Arabien und Rußland) der Welt zu werden. Kann sich noch jemand an „peak oil“, die andere sozialistische Erfindung zum „Marktversagen“ erinnern? Nach dieser verquasten Theorie müßten die Ölvorräte der USA längst erschöpft sein. Tatsache ist jedoch, daß der bisherige Förderrekord aus den 1970er Jahren gerade übertroffen wurde. Das Ergebnis ist eine steigende Beschäftigung bei steigenden Einkommen. Gerade auch bei Minderheiten – die Flut hebt bekanntlich alle Boote. Wirtschaftspolitik ist immer noch die wirksamste Sozialpolitik. Leider gilt das auch anders herum, wie man gerade im Energiewende-Deutschland beobachten kann.

Die USA schwimmen zur Zeit in Öl und Gas. Dies hat zu einem Preisverfall in den USA geführt. Eine ungesunde Entwicklung, die zur Senkung der Produktion mit umgekehrten Konsequenzen führen würde. So beträgt der Rohölpreis in den USA (West Texas Intermediate) rund 90% des Referenzpreises in Europa (Brent). Die Antwort darauf ist ein Ausbau der Häfen in Texas für Supertanker zum Export von Rohöl. Noch schlimmer ist die Situation beim Erdgas. Alles begann mit dem Shale Gas Boom (Appalachian region). Parallel kam die zunehmende Ölförderung aus der Bakken-Formation (North Dakota) und dem Permian Basin (Texas, New Mexico) hinzu. Dort fallen nämlich gewaltige Mengen als Begleitgas an. Das Ergebnis ist ein Referenzpreis (Henry Hub, März 2019) für Erdgas von rund 2,82 $/MMBtu (0,0865 Eurocent/kWh). Da dieser Preis sogar unter dem von Kesselkohle liegt, drängt das Erdgas zeitweise die Kohlekraftwerke aus dem Markt. Es ist aber gar nicht beabsichtigt auf Kohle oder Kernkraft zu verzichten (Versorgungssicherheit). Auch hier bleibt nur der Export als Ausweg. Es mag sich zwar paradox anhören, aber die hohen Weltmarktpreise ziehen die heimatlichen Erdgaspreise über die zusätzliche Nachfrage aus dem Export nach oben und sichern damit der heimischen Industrie auch langfristig günstige Rohstoff- und Energiepreise.

Der LNG-Boom

Die USA können ihr Erdgas über Rohrleitungen nur nach Kanada (ist selbst ein Nettoexporteur) und Mexiko exportieren. Also bleibt nur der Seeweg. Der Gesamtexport im Jahr 2018 betrug 9,9 Bcf/d. Damit sind die USA zum ersten Mal seit 60 Jahren zum Nettoexporteur geworden und der Bezug über Rohrleitungen ist seit 20 Jahren zum ersten Mal kleiner als die Lieferungen ins Ausland.

Der Ausbau der Verflüssigungsanlagen geht schnell voran. Im Jahr 2018 wurde noch ganzjährig durchschnittlich 3,1 Bcf/d (87,8 Millionen m3 pro Tag) Gas verflüssigt. Dieses Jahr gehen noch weitere Anlagen in Sabine Pass, Corpus Christi, Cameron, Freeport und Elba Island in Betrieb. Damit dürfte sich die Kapazität auf etwa 9 Bcf/d (0,255 Milliarden m3 pro Tag) Gas erhöhen.

Hat man Erdgas verflüssigt (Liquefied Natural Gas, LNG), hat man einen Quantensprung in der Flexibilität erreicht: Man ist nicht mehr auf starre Rohrleitungen angewiesen, sondern kann es mit Tankern weltweit und sogar mit Tankwagen in die hintersten Ecken transportieren. Ebenso benötigt man keine aufwendigen und energieintensiven geologischen Speicher mehr um die Lastspitzen an kalten Tagen (Bedarf der Heizungen) ausgleichen zu können. Schon heute werden stationäre Tankanlagen für die Glättung solcher Spitzen eingesetzt. Je mehr sich LNG in der Fläche ausbreitet, um so mehr Schiffe und LKW können es dann als (billigen) Treibstoff nutzen. LNG hat rund 60% der Energiedichte von Dieselkraftstoff und etwa 70% von Benzin.

Der Weltmarkt für LNG wächst schnell. 2017 gab es bereits 19 exportierende und 40 importierende Länder. Die drei größten Exporteure waren Qatar (77.5 MT, Millionen to), Australia (55.6 MT) and Malaysia (26.9 MT) und die drei größten Importeure Japan (83.5 MT), China (39 MT) and South Korea (37.8 MT). Der Bedarf in China wird weiter steigen, da China dringend den Kohleverbrauch in Haushalten und Industrie senken muß. Der Verbrauch in Japan wird demgegenüber mit jedem Kernkraftwerk, das wieder in Betrieb geht, weiter sinken. Durch LNG werden sich analog zu Rohöl die Erdgaspreise weltweit angleichen. Ist das LNG erstmal im Tanker, kann es weltweit umdisponiert werden – immer in Richtung der lokal höchsten Preise. Dies gilt auch dann, wenn beispielsweise ein japanischer Gasversorger feste Verträge mit einer Laufzeit über zwei Jahrzehnte mit einem US-Anbieter hat. Gibt es z. B. ein günstigeres „Tages-Angebot“ aus Australien, kann er seine Ladung aus den USA umleiten. Im Ölgeschäft ist es nicht unüblich, daß ein Tanker auf seiner Reise mehrfach verkauft wird.

Der Erdgaspreis hat auch eine wichtige Konsequenz für die „Alternativen Energien“. Die maximal zulässigen Stromkosten aus Wind und Sonne entsprechen (über dem dicken Daumen) ungefähr dem doppelten Erdgaspreis. Das Gaskraftwerk hat feste Kosten für Personal und Kapitaldienst – ob es nun läuft oder nicht. Das einzige was es spart, wenn es durch Wind und Sonne aus dem Netz gedrängt wird, ist der verringerte Gasverbrauch. Für den Süden der USA ergibt das bei einem aktuellen Erdgaspreis von 2,75 $/MMBtu, weniger als 2 Eurocent für eine Kilowattstunde „Wetterstrom“. Viel Spaß bei der Arbeit, liebe Schlangenölverkäufer. Damit kein Mißverständnis entsteht, noch einmal mit anderen Worten: Deutlich unter zwei Cent pro kWh darf eure elektrische Energie in der Herstellung (ohne Subventionen!) nur kosten, sonst seit ihr sehr bald wieder vom Markt verschwunden. Mit Kohle und Kernenergie hofft ihr ja bald ohnehin nicht mehr konkurrieren zu müssen.

Rückbau kerntechnischer Anlagen

Weltweit sind über 450 Kernreaktoren in Betrieb und bereits 156 stillgelegt. Hinzu kommen noch zahlreiche Anreicherungsanlagen, Wiederaufbereitungsanlagen, Forschungseinrichtungen usw. Es ist daher mit einem starken Anstieg der Projekte zu rechnen: Über 250 Reaktoren sind älter als 30 Jahre und ab 2040 ist damit zu rechnen, daß der überwiegende Teil stillgelegt werden soll. Deshalb beschloß die Waste Management & Decommissioning Working Group of World Nuclear Association einen Bericht zu veröffentlichen, der die internationalen Erfahrungen weltweit nutzbar macht.

Vorbemerkungen

Damit man die Probleme richtig einordnen kann, sind vorab einige Begriffe zu erklären. Es wird hier bei stillgelegten Kernkraftwerken nicht „von strahlenden Atomruinen“ im Framing-Sprech der Zwangsgebühren-Medien gesprochen, weil es sich mitnichten um Ruinen handelt, sondern um weiterhin gepflegte, be- und überwachte technischen Anlagen. Ferner wird im Zusammenhang mit der Beseitigung das schöne deutsche Wort Rückbau verwendet, welches den Vorgang trefflich beschreibt: Es wird hier nämlich nicht mit Dynamit oder der Abrissbirne gearbeitet, sondern vorsichtig rückwärts wieder abgebaut.

Im Zusammenhang mit radioaktiven Stoffen muß sorgfältig zwischen Aktivierung und Kontaminierung unterschieden werden. Aktiviert werden können nur Stoffe, wenn sie Neutronen einfangen. Das kann deshalb nur in der Nähe des Kerns (Reaktoreinbauten, Steuerstäbe, Reaktordruckgefäß etc.) geschehen. Kontaminierung hingegen, ist lediglich eine Verschmutzung mit bereits vorhandenen radioaktiven Stoffen. Man kann solche Bauteile reinigen und damit aus „Atommüll“ ganz gewöhnlichen Abfall machen.

Von entscheidender Bedeutung ist auch der Faktor Zeit. Der radioaktive Zerfall geht immer nur in eine Richtung und ist durch nichts zu beeinflussen. Irgendwann ist jeder radioaktive Stoff verschwunden. Das Maß für diesen Zeitraum ist die Halbwertszeit. Nach zehn Halbwertszeiten kann man das Radionuklid als nicht mehr vorhanden (weniger als 1 Promille der Ausgangsmenge) betrachten. Für den Arbeitsschutz ist wichtig, daß je schneller ein Nuklid zerfällt, desto heftiger strahlt es. Es kann sich deshalb lohnen, mit dem Rückbau eine angemessene Zeit zu warten. Eine in Ländern mit viel Platz (USA, Rußland) durchaus bevorzugte Praxis. Dort hat man – um Überwachungskosten zu sparen und eine Gefährdung der Umwelt einzuschränken – Anlagenteile einfach in Gräben eingemörtelt. Eine endgültige Beseitigung – wenn überhaupt – ist erst in Jahrhunderten geplant.

Ebenso wichtig sind die Begriffe Verdünnung und Konzentration. Im Prinzip läßt sich jeder radioaktive Stoff durch Verdünnung biologisch „unschädlich“ machen. Die Dosis ist entscheidend. Demgegenüber ist die Propaganda von „Atomkraftgegnern“ – schon ein einzelnes Atom Plutonium kann Krebs auslösen – schlichtweg Unsinn. Gleichwohl gilt auch der andere Grundsatz, keine radioaktiven Stoffe unnötig in die Umwelt zu entlassen um z. B. Anreicherungen über die Nahrungskette zu vermeiden. Wie verbissen dieser Konflikt in der Praxis ausgetragen wird, kann man derzeit in Fukushima beobachten: Dort befinden sich große Abwassermengen in Tankanlagen, die bereits Trinkwasserqualität erreicht haben. Trotzdem scheut man sich diese in das Meer einzuleiten.

Die verschiedenen Abfallsorten

In der Kerntechnik unterteilt man die radioaktiven Abfälle grob in drei Klassen: Schwach aktiver Abfall (Very low-level waste, VLLW und Low-level waste, LLW), mittelaktiver Abfall (Intermediate-level waste, ILW) und hochaktiver Abfall (High-level waste, HLW). Diese Unterteilung beruht maßgeblich auf dem Arbeitsschutz. Mit schwach aktivem Abfall kann man ohne besonderen Schutz (man sollte jedoch stets die Inkorporation vermeiden, d. h. Mundschutz, Handschuhe etc. tragen oder sichere Gebinde verwenden) umgehen. Mittelaktiver Abfall erfordert eine zusätzliche Abschirmung, z. B. Betonabschirmung um ein Faß mit ILW. Hochaktiver Abfall erzeugt soviel Zerfallswärme, daß eine Kühlung erforderlich ist, da sonst der Abfall sich selbst physikalisch/chemisch zersetzen kann.

Eher ein Kuriosum ist die Klasse VLLW (Abfall von sehr geringer Aktivität). Hier sind schon eher Juristen als Strahlenschützer und Ingenieure am Werk. Es gibt in der Natur praktisch nichts, was nicht radioaktiv ist. Selbst jeder Mensch strahlt (etwa 8000 Bq) und gar nicht zu reden von Dünger, Baustoffen, Bohrschlämme, Aschen etc. In diese Kategorie fällt daher alles, was zwischen „strahlt gar nicht“ bis „schwach radioaktiv“ liegt, also eher in Verdacht steht, „Atommüll“ sein zu können. Solche Gegenstände (z. B. alte Armbanduhren und Meßgeräte mit selbstleuchtenden Ziffern) werden deshalb meist auf Sondermülldeponien entsorgt.

Der Arbeitsschutz ist aber nur ein Gesichtspunk. Würde man nur die Strahlung berücksichtigen, so wäre beispielsweise Plutonium lediglich schwach aktiver Abfall. Zweiter wesentlicher Faktor ist die „Lebensdauer“: Sie ist der Maßstab für eine Deponierung. Die „Lebensdauer“ bestimmt die Zeitdauer, in der die Deponie überwacht werden muß und dieses Gelände nicht frei nutzbar ist. Die Klassifizierung ist leider heute noch nicht international genormt, sondern ist von Land zu Land verschieden. In Frankreich definiert man pragmatisch den „α-freien-Abfall“ (α-Strahler sind besonders langlebig), der auf einfachen Deponien mit geringer Erdüberdeckung (Abschirmung gegen Strahlung) endgelagert wird. Nach 100 Jahren sollen solche Deponien sogar für die Bebauung mit Wohnungen wieder verwendet werden können. In Rußland nimmt man die β-Strahlung als Indikator (z. B. LLW mit bis zu 104 Bq/g). In den USA wird der schwach aktive Abfall noch in drei Klassen unterteilt. Hier zählt nicht nur die Gesamtaktivität, sondern es sind für bestimmte Nuklide noch spezielle Grenzwerte angegeben, die jeder für sich nicht überschritten werden dürfen. Ziel ist eine oberflächennahe Deponie (Klasse A) oder bestimmte geologische Erfordernisse und eine Mindestüberdeckung von mehreren Metern (Klasse B und C). Sie sollen nach 100 bis 500 Jahren wieder frei verfügbar – weil auf das Niveau der Hintergrundstrahlung abgeklungen – sein.

Wie absurd demgegenüber die Lage in Deutschland geworden ist, kann man an der Diskussion um die Asse erkennen: In diesem ehemaligen Kalibergwerk wurde weniger Radioaktivität eingelagert, als vorher in der Form von Kalisalz entnommen wurde. Der „Atommüll“ lagert nicht oberflächennah, sondern hunderte Meter darunter. Auf welcher Deponie sollte er denn anschließend sicherer gelagert werden? Wer trägt das Risiko für die Bergleute, die diese sinnlose Arbeit ausführen sollen? Grüße aus Absurdistan bzw. geht es bei der „notwendigen Rückholung“ um ganz andere Dinge.

Planung und Betrieb

Heute beginnt die Planung der Entsorgung bei kerntechnischen Anlagen bereits mit dem Entwurf. In den Anfangstagen der Kerntechnik war dies durchaus noch nicht der Fall. Dies führt heute zu einem erheblichen Aufwand bei „Altlasten“, verbunden mit extremen Kosten.

Die Planung – und damit der Strahlenschutz – beginnt schon mit der Materialauswahl. Heute werden Legierungen, die Stoffe enthalten die leicht zu aktivieren sind, möglichst vermieden. Es wird auch größte Sorgfalt auf den Korrosionsschutz verwendet. „Rost“ bei aktivierten Bauteilen, wird über die gesamte Anlage verschleppt und kontaminiert andere Bereiche. Man hat auch sehr viel durch den jahrzehntelangen Betrieb hinzugelernt. Ergebnis in diesem Sinne, ist beispielsweise die komplexe Wasserchemie in Druckwasserreaktoren. Analyse von biologischen Schilden von abgebrochenen Reaktoren hat ergeben, daß die aktivierten Stoffe nicht aus dem Stahlbeton im eigentlichen Sinne stammen, sondern maßgeblich aus Verunreinigungen der Zuschlagsstoffe. Man achtet auch auf gut zu reinigende Oberflächen (keine konventionellen Isolierungen, Auskleidung von Becken mit Edelstahl usw.).

Schon während des Betriebes fällt radioaktiver Müll an: Filter, Arbeitsbekleidung, Werkzeuge, Ersatzteile etc. Diese müssen langfristig sicher verpackt und eventuell zwischengelagert werden. Auf eine sehr genaue Dokumentation ist dabei zu achten, da jede spätere Analyse oder gar ein Umpacken für die Endlagerung zu unnötigen Belastungen führt. Auch hier wurde in der Vergangenheit oft zu wenig getan.

Berücksichtigt man schon bei der Konstruktion den Rückbau, erleichtert dies die später notwendigen Arbeiten und spart enorme Kosten: Dies betrifft insbesondere die Zugänglichkeit und klare Materialgrenzen, denn selbstverständlich unterliegt ein Kernkraftwerk auch den normalen Abfallvorschriften (Hausmüll, Plastikmüll, Asbest etc.).

Beim Entwurf gilt Wiederverwendung vor Recycling vor Endlagerung. So ist es heute z. B. Standard, komplette Dampferzeuger nicht mehr als „Atommüll“ endzulagern, sondern sie zu Spezialfirmen (z. B. Cyclife in Schweden) zur Entsorgung zu transportieren. Dort werden diese mehrere hundert Tonnen schweren Objekte in Hallen möglichst automatisch zerlegt, sortenfrei getrennt und gereinigt. Alle nicht radioaktiven Teile „frei gemessen“ und über konventionelle Altmetallhändler dem Wertstoffkreislauf wieder zugeführt. Die radioaktiven Reste werden vor Ort eingeschmolzen und die radioaktiven Barren an den Auftraggeber zur Endlagerung wieder zurückgegeben. Aus einem Bauteil, so groß wie ein Mehrfamilienhaus, wird so „Atommüll“ im Volumen eines Kühlschranks. So viel nur zu den Phantasiemengen, die in Deutschland über notwendige Endlagerkapazitäten von interessierten Parteien in die Welt gesetzt werden.

Endlager und Deponien

Grundsätzlich besteht bei „Atommüll“ die gleiche Optimierungsaufgabe zwischen erforderlichem Deponieraum und Nachbehandlungskosten, wie in der gesamten Abfallwirtschaft. Früher hat man (billige) Arbeitsbekleidung und Arbeitsmittel aus dem Kontrollbereich eines Kraftwerks einfach in Fässer gesteckt und auf einer Deponie für schwach aktive Abfälle entsorgt. Man kann aber solche Abfälle – wie bei konventionellem Abfall üblich – vorher (in Spezialanlagen) verbrennen und erzielt somit eine gewaltige Volumenreduzierung. Anschließend kann man die „aufkonzentrierte Radioaktivität“ – sprich Asche – noch weiter behandeln: Ist sie nur schwach aktiv, kann man sie vor der Endlagerung zu einem Mörtel verarbeiten, ist sie hoch aktiv oder extrem langlebig in Glas einschmelzen bzw. in Synroc (künstlicher Stein auf der Basis von Titanaten) verwandeln. Endlagerkapazität ist also ein relativer Begriff, der je nach landestypischen Gegebenheiten flexibel gehandhabt werden kann. In den Weiten der USA oder Sibiriens sicher anders, als in dicht besiedelten mitteleuropäischen Ländern. Weltweit betrachtet, könnte die Frage von Endlagern damit ganz anders gestellt werden – sie ist allerdings hoch politisch und damit unbestimmbar.

Gerade in dicht besiedelten Ländern sollten Endlagerkapazitäten als wertvolle Ressourcen behandelt werden. Insofern ist eine Reduzierung der Volumina geboten. Im Prinzip gilt hier der gleiche Ansatz wie in der konventionellen Abfallwirtschaft.

Die vorhandenen Deponien und Tiefenlager koppeln stark auf die angewendeten Strategien zurück. Spektakulär war der aufgetretene Fall der Selbstentzündung im WIPP (Endlager in einem Salzstock in New Mexico, USA). Weltweit ist es üblich, Chemikalien durch Katzenstreu auf Bentonitbasis (enorme Saugwirkung und Bindung durch Ionentausch) unschädlich zu machen. Ein übereifriger Laborant in Los Alamos hatte aber biologische Streu verwendet. Diese wurde langsam durch die aufgesaugten Chemikalien zersetzt, was letztendlich zum Platzen eines „Atommüllfasses“ geführt hat. Die Vorschriften für organische Stoffe in Endlagergebinden für das WIPP wurden daraufhin entscheidend verschärft. Solche nachträglichen Änderungen bzw. die nicht sinngemäße Einhaltung individueller Einlagerungsbestimmungen können schnell zu einer Kostenexplosion führen. Auch dieser Fall zeigt wieder, wie wichtig eine akribische Dokumentation aller Inhalte ist. Es sind dabei nicht nur die nuklearen Inhalte, sondern auch die physikalischen und chemischen Eigenschaften zu erfassen und nach Möglichkeit in einer zugänglichen Datenbank abzulegen.

Angestrebter Endzustand

Sehr wichtig für die Planung und Durchführung einer Rückbaumaßnahme ist der angestrebte Endzustand.

Grüne Wiese

Wenn alle radioaktiven Stoffe entfernt und in Endlager verbracht sind, kann eine abschließende Beurteilung durch die Überwachungsbehörden durchgeführt werden und die Liegenschaft wieder dem freien Grundstückshandel übergeben werden.

Braune Wiese

In diesem Zustand ist das Grundstück nicht vollständig beräumt worden. Entweder steht noch ein Teil der radioaktiv belasteten Anlagen oder es wurden bewußt noch radioaktive Abfälle auf der Liegenschaft belassen. Dies kann aus Gründen des Arbeitsschutzes sinnvoll sein, damit die vorhandene Radioaktivität weiter abklingen kann. Oft ist auch die Verteilung der notwendigen Finanzmittel über einen längeren Zeitraum das Ziel. So wurde diese Methode durchweg bei allen Vorhaben aus der nuklearen Rüstung angewandt. Allerdings muß die Liegenschaft über den gesamten Zeitraum weiter bewacht und von den Genehmigungsbehörden betreut werden. Diese Kosten wiegen meist den erhöhten Aufwand für den Strahlenschutz bei einer sofortigen Beseitigung nicht auf.

Nur in seltenen Fällen (große Forschungseinrichtung, Kraftwerk mit vielen Reaktoren) können die Anlagen sogar für andere Zwecke umgenutzt werden.

Nuklearer Friedhof

Bei dieser Methode wird ein Teil der Anlage unterirdisch belassen und dient als „nukleare Grabstätte“. Man schließt sie nur mit einem Betondeckel als Abschirmung ab bzw. um einen unberechtigten Zugang zu verhindern. Diese Methode wurde oft als Not- und Übergangslösung bei schweren Havarien gewählt. Letztendlich handelt es sich dabei nur um eine Verschiebung der Probleme und Kosten in die Zukunft. Die Liegenschaft ist auch weiterhin als kerntechnisch Anlage zu betrachten (Überwachung, Bewachung, Wartung etc.). Sie kommt eher einem Zwischenlager für hochaktive Abfälle gleich.

Baubeginn von Hinkley Point C

In Deutschland weitgehend unbeachtet, startete kurz vor Weihnachten die Betonierung der Grundplatte des Reaktors. Abschnitt eins umfasste 2000 m3 Nuklearbeton. Es sind vier weitere Abschnitte nötig um die 3,2 m dicke Grundplatte herzustellen. Beim Bau eines Kernkraftwerks ist dies nach internationaler Definition der offizielle Baubeginn. Ab jetzt tickt die Uhr. Das Kraftwerk soll 2025 in Betrieb gehen. Es wäre dann der erste Neubau seit 30 Jahren in Großbritannien. Das ist fast ein gesamtes Berufsleben. Genau darin steckt eine Schwierigkeit dieses Projektes: Für die meisten am Bau Mitwirkenden ist es das erste Kernkraftwerk überhaupt. Aber auch das ist eine ganz bewußte Entscheidung der Regierung. Völlig anders als in Deutschland, hat man längst die Bedeutung einer kerntechnischen Industrie für eine moderne Volkswirtschaft erkannt und hat deshalb richtig Geld in die Hand genommen, um neue Ausbildungsplätze vom Facharbeiter bis zum Ingenieur zu schaffen. Es ist übrigens längst die Überzeugung beider britischen Parteien – Labour und Conservative Party – daß eine ganze Volkswirtschaft nicht von Dienstleistung (Finanzzentrum London) leben kann. Nur so war es möglich – gegen alle Widerstände aus dem In- und Ausland – über mehrere Wahlperioden hinweg, den Neueinstieg zu schaffen. In Hinkley Point sollen zwei Reaktoren des französischen Typs EPR in seiner „britischen Version“ mit zusammen 3200 MWel gebaut werden.

Die Eigentümer

Von Anfang an war klar, daß ein umfangreiches Neubauprogramm von vielleicht 16 Reaktoren nicht aus der Staatskasse bezahlt werden könnte. Es mußte also privates Eigenkapital und andere Staatsunternehmen mobilisiert werden. Sir John Armitt von der Olympic Delivery Authority (ODA), die die Sportstadien der Olympiade in London errichtet hatte, hat schon 2013 den Bau von Kernkraftwerken nach diesem Modell vorgeschlagen. Bau durch eine staatliche Zweckgesellschaft und erst die Privatisierung nach Fertigstellung. Damit wollte man das Risiko hoher und unkalkulierbarer Baukosten bei Kernkraftwerken umschiffen. Demgegenüber stehen recht geringe Betriebs- und Brennstoffkosten bei einem stetigen Umsatz. Ein gefragtes Investment z. B. für Pensionsfonds. Genau nach diesem Modell verkauft Rußland seine Reaktoren an Finnland (Hanhikivi 1), die Türkei (Akkuyu 1–4) und Ägypten (El Dabaa 1–4). Die durch ein russisches Staatsunternehmen gebauten Reaktoren werden (fast) vollständig durch den russischen Staat finanziert und zeitweilig sogar betrieben. Dies sichert Rußland über Jahrzehnte feste Devisenströme.

Aus politischen Gründen kam Rußland als Investor für Großbritannien nicht in Frage. Man entschied sich für den staatlichen französischen Konzern EDF. Politisch unbestritten, da EDF schon jetzt die vorhandenen Kernkraftwerke mit zusammen 11 GW Leistung in GB erfolgreich betreibt. Allerdings war der finanzielle Brocken für die kapitalschwache EDF viel zu groß. Es mußte also ein Partner gefunden werden. Schon 2013 verkündete Chancellor George Osborne bei einem Besuch in China die mögliche Partnerschaft. Technisch betrachtet, die ideale Partnerschaft, da schon die Chinesen und EDF Partner beim Bau von Taishan sind. Hierbei handelt es sich ebenfalls um zwei Reaktoren vom Typ EPR. Baubeginn war 2009 und kommerzielle Inbetriebnahme 2018. Man verfügt also über ausreichend gemeinsame Erfahrungen. Allerdings sind jetzt die Rollen vertauscht. Bei Taishan waren die Mehrheitseigentümer Chinesen mit 70% und EDF mit 30%, bei Hinkley Point ist EDF der Mehrheitseigentümer mit 66,5% und China General Nuclear International (CGN) mit 33,5% in der Minderheit. Auch die wirtschaftliche Dimension ist eine andere: Bei Taishan ging es um 8 Milliarden Euro und bei Hinkley Point um 18 Milliarden Pfund. Für China ist das der politisch angestrebte massive Einstieg in Energieprojekte in Europa. Parallel wird der Bau zweier weiterer EPR in Sizewell bis zur endgültigen Investitionsentscheidung vorangetrieben. Das eigentliche Bonbon für die Chinesen ist aber die Unterstützung von EDF beim eingeleiteten Genehmigungsverfahren für die chinesische Eigenentwicklung HPR-1000UK. Man schreitet dort sehr ehrgeizig voran und plant die Inbetriebnahme eines solchen Reaktors für 2030 in Bradwell. Gelänge dies, wäre das ein nicht zu überschätzender Exportschlager, der China endgültig die Vormachtstellung sichern würde. Frankreich tut gut daran, wenigstens den Juniorpartner in diesem internationalen Spiel zu geben. Spätestens nach dem Brexit, wird diese eigenartige EU den Anschluß an dem Weltmarkt der Kerntechnik verloren haben. Einst war EPR als Abkürzung für European Pressurized Reactor entstanden, ein Gemeinschaftsprojekt von Siemens und Areva. Bis Siemens dem Ruf der Kanzlerin folgte, aus der Kerntechnik ausstieg und bei den Alternativen mit „voran gehen“ wollte. Man könnte auch sagen, wenn es dem Esel zu wohl geht, geht er aufs Eis tanzen.

Auftragsvergabe

Wie brutal schnell die globalisierte Industrie über Aussteiger hinweg walzt, zeigt sich deutlich am EPR. Der erste Reaktor – die ewige Baustelle Olkiluoto – hatte noch eine Turbine und einen Generator von Siemens. Nach dem Ausstieg kein weiterer mehr. Der Auftrag für die konventionellen Teile von Hinkley Point C (HPC) ging an General Electric Steam Power Systems (GE). HPC wird die größten Generatorsätze der Welt mit je 1770 MWel erhalten. Wie lohnend der Einstieg in diesen Bereich ist, zeigt sich auch daran, daß GE die Aufträge für die russischen Kraftwerke in Akkuyu, Türkei und El Dabaa in Ägypten erhalten hat. Kann sich noch einer an die hochtrabenden Pläne von Siemens über eine Produktion von Turbinen für den russischen Markt erinnern? Hier ist Siemens nicht „voran gegangen“, sondern schlicht „weg gegangen“ worden.

Kerntechnik bietet aber auch Chancen für Länder, von denen man das vielleicht nicht so ohne weiteres erwartet. Die Aufträge für die Reaktorgefäßeinbauten und den Neutronenreflektor – alles Schwermaschinenbau in höchster Präzision – ist, wie schon bei Olkiluoto und Taishan, wieder an Skoda vergeben worden. Die spanische Company Equipos Nucleares (Ensa) hat den Auftrag für die beiden Druckhaltesysteme und weitere 14 Komponenten erhalten.

Wie schon öfters erwähnt, ist die Kerntechnik einer der führenden Innovatoren für die gesamte Industrie. So wurde im November der größte Baustellen-Kran der Welt mit einer Tragfähigkeit von 5000 to, einer Auslegerhöhe von bis zu 250 m bei einem Arbeitsradius von 275 m für Hinkley Point C von Sarens in Belgien fertiggestellt.

Für GB ist HPC ein gewaltiges Konjunkturprogramm. Man geht davon aus, daß 60% der Bauleistungen in GB erbracht werden. Während der Bauphase ergibt das etwa 25 000 Arbeitsplätze, mit einer Spitze von ca. 5600 Beschäftigten auf der Baustelle und 900 Dauerarbeitsplätzen im fertiggestellten Kraftwerk. Dies soll die erste Stufe einer international konkurrenzfähigen kerntechnischen Industrie sein. Im Rahmen der durch den Brexit notwendig gewordenen Neuverhandlungen internationaler Abkommen, baut man konsequent seine Bindungen außerhalb der EU aus. Möge Europa doch in Windrädern und Sonnenkollektoren versinken.

Schon jetzt geht der Nutzen für die britische Industrie über HPC hinaus. Der architect-engineer (Generalplaner für das gesamte Kraftwerk) ist EDF, und für die Lieferung der Reaktorsysteme, des Brennstoffs und für I&C (Steuerung und Regelung) verantwortlich. Neu gegründet wurde das Joint Venture MEH aus Altrad, Balfour Beatty Bailey, Cavendish Nuclear and Doosan Babcock. Ein Ingenieur-Unternehmen mit insgesamt über 20 000 Spezialisten auf den unterschiedlichsten Fachgebieten. Kurzfristiges Ziel ist ein gegenseitiges Schieben der Verantwortlichkeiten beim Projekt HPC zu verhindern. Darüberhinaus verbirgt sich dahinter ein gewaltiges Stück Industriepolitik: Die Arbeitsweise und Datenverarbeitung der beteiligten Planungsbüros soll harmonisiert werden, eine enge Kooperation mit Forschungsinstituten und Universitäten gepflegt werden. Darüberhinaus wird die Kooperation mit den chinesischen Unternehmen, die Taishan erfolgreich errichtet haben, weiter vertieft. Auch hier das Ziel, enger auf dem außereuropäischen Markt zu kooperieren. Ob wirklich nur GB der Verlierer beim Brexit ist?

Die Kosten

Man einigte sich abschließend auf einen „strike price“ von £92,50 pro MWh bzw. £89,50 (Preisbasis 2012, indexiert mit dem Verbraucherpreisindex von GB) – wenn das Kraftwerk Sizewell auch noch gebaut wird. Das besagt, wenn der aktuelle Großhandelspreis an der Strombörse in GB unter diesen Wert sinkt, bekommt der Betreiber – ähnlich dem EEG in Deutschland – trotzdem diesen Betrag vergütet. Diese Regelung gilt für 35 Jahre ab dem Jahr 2023 (also keine Verlängerung bei etwaigen Bauzeitverzögerungen). Umgekehrt gelten die Grenzwerte auch als Obergrenze – anders als in Deutschland – für 60 Jahre nach Fertigstellung. Sind die (sehr wahrscheinlich) erzielten Strompreise höher, sind die Überzahlungen an die Verbraucher weiterzugeben. Diese Regelung stellt also eine umfangreiche Absicherung der zukünftigen Energiepreise in GB dar – egal wieviel konventionelle Kraftwerke man aus welchen Gründen auch immer abschaltet.

Gegen den „strike price“ von £92,50 pro MWh hat die gesamte Wind- und Sonnenindustrie verzweifelt aus allen Rohren geschossen. Parallel sind aber inzwischen von der Regierung 34 Programme für „alternative Energien“ von gleicher Größenordnung (jeweils 7% des Stromverbrauchs in GB) abgeschlossen worden. Die Bandbreite bewegt sich bei £120 – £130 je MWh. Hinzu kommen noch ca. £10 – £15 pro MWh für den notwendigen Netzausbau (weit weniger als in Deutschland, wegen der günstigeren Geographie). Wobei der „Strom aus Wind und Sonne“ wetterabhängige Zufallsproduktion, ohne jeden Bezug zum realen Bedarf ist. Sie kann daher lediglich eine Ergänzung, niemals aber eine vollständige Energieversorgung sein. Es müssen deshalb trotzdem konventionelle Kraftwerke für die Dunkelflaute und zur Netzstabilisierung betrieben werden. Wer glaubt eigentlich noch immer, daß „Strom aus Wind und Sonne“ eine Zukunftstechnologie ist?

Es gibt aber noch einen gewaltigen Unterschied: Im Preis für Hinkley Point C sind die erforderlichen Rücklagen für den vollständigen Rückbau zur grünen Wiese und das „waste management“ enthalten. Wer wird die Windmühlen und die Sonnenkollektoren zurück bauen und deren Sondermüll beseitigen?

Der Preis beruht auf folgender Kalkulation: 14 Milliarden Baukosten plus 2 Milliarden für Nebenkosten (Grundstücke, Lagerung der verbrauchten Brennelemente, Ausbildung und Gehälter für die Betriebsmannschaft usw.) auf der Preisbasis von 2012. Dies ist als Festpreis zu verstehen, es gibt ausdrücklich keine Nachträge bei Verzögerung des Projekts und die Verbraucher zahlen erst bei Energielieferung. Umgekehrt garantiert die britische Regierung keine zusätzlichen Steuern etc. und garantiert die Entschädigung bei Veränderung staatlicher Randbedingungen. Für die Gesamtkosten werden gebührenpflichtige Staatsbürgschaften in Höhe von 65% bis zur Fertigstellung gewährt (aus heutiger Sicht wahrscheinlich 34 Milliarden Pfund inklusive Kapitalkosten). Dem Betreiber wird auf dieser Basis ein kalkulatorischer Gewinn von 10% zugestanden. Kostensteigerungen gehen also zu Lasten des Betreibers. Stromexporte (nach Öko-Deutschland?) sind in Abstimmung mit dem Netzbetreiber gestattet. Höhere, über dem „Strike Price“ erzielte Vergütungen, gehen vollständig zum Vorteil der britischen Verbraucher und Steuerzahler.

Inzwischen sind 450 Verträge mit über 200 000 Seiten unterschrieben, die £12 Milliarden durch EDF und die £6 Milliarden durch die chinesischen Partner bereitgestellt und die ersten Mittel bereits an die Auftragnehmer abgeflossen.

Die Rolle der EU

Wer sich immer noch fragt, warum GB den Brexit durchzieht, kann hier neben der Merkelschen Flüchtlingspolitik einen weiteren wesentlichen Grund registrieren. Die bekannten links-grünen Politiker haben mit allen Mittel versucht ihre Energiepolitik GB aufzuzwingen. Es wurde wirklich jedes Propagandaregister der „Anti-Atomkraft-Bewegung“ gezogen. Zu guter letzt auch noch vor dem Europäischen Gerichtshof geklagt. Es half alles nichts, man konnte die eingereichten Zahlen und Argumente nicht widerlegen. Zum Schluß mußte in einem 70 Seiten Papier das o. k. gegeben werden. Das hält aber die deutschen Qualitätsmedien nicht davon ab, unbeirrt weiter mit fake news gegen das Projekt zu hetzen.

Dabei ist es eher umgekehrt: Gäbe es nicht die – maßgeblich von Deutschland beeinflußte – völlig verquaste Energiepolitik der EU, mit Einspeisevorrang für wetterabhängige Energieformen, Wahnvorstellungen über CO2 in Verbindung mit profitgierigen Schlangenölverkäufern, hätte man die benötigte Kraftwerkskapazität weltweit und öffentlich ausschreiben können. Bei der nächsten „Europawahl“ bietet sich die Gelegenheit, den Bürokraten und Politikern in Brüssel mal kräftig die Meinung zu sagen. Eine Demokratie lebt davon, unfähige Politiker einfach abzuwählen.

Der Kampf gegen unsere Gesellschaft nimmt Fahrt auf

Pünktlich zum Klimazirkus in Kattowitz macht auch Brüssel wieder von sich reden: Ab 2030 (also in nur 12 Jahren!) soll für neue PKW und Kleintransporter (Handwerker aufgepaßt!) nur noch eine maximale Freisetzung von kapp 60 Gramm CO2 pro Kilometer erlaubt sein. Sie können gar nichts mit diesem Wert anfangen? Das genau, ist die Absicht. Je alltagsferner die Maßeinheit, um so besser für die Propaganda geeignet. Dies wußten schon die „Atomkraft-Gegner“. Übersetzen wir deshalb mal schleunigst diesen geplanten Grenzwert in Maßeinheiten, die jedem Autofahrer nur zu vertraut sind: 60 gr CO2 / km entspricht etwa einem Verbrauch von rund 2,5 Liter Benzin bzw. 2,3 Liter Diesel pro 100 km. Dämmert es jetzt, wohin die Reise gehen soll?

Damit sind Kraftfahrzeuge – wie wir sie heute kennen – gestorben! Nehmen wir mal als stellvertretendes Beispiel einen Golf-Diesel. Der Verbrauch bewegt sich seit dem ersten Modell bis bis zum heutigen Tage um die 6,5 Liter. Dies mag für Annalena und Svenja nur an den Konzernen liegen, aber weit gefehlt Mädels: Es gibt da etwas, was ihr besser nicht abgewählt hättet, das nennt sich Physik! In der Natur verläuft Aufwand und Nutzen immer in der Form von Exponentialfunktionen, die sich einem Grenzwert annähern. Der Volksmund sagte früher: Gott läßt keine Bäume in den Himmel wachsen! In diesem Fall ist der Grenzwert die Leistung (kW!), die man benötigt um ein Auto zu beschleunigen bzw. gegen die Widerstände in Bewegung zu halten. Jetzt kommt auch noch die Zeit (h) mit ins Spiel, die man benötigt um 100 km zurückzulegen. Mal relativ schnell (Autobahn) und mal im „Stop and Go“ (Stadtverkehr) mit ständiger „Kraftstoffvernichtung“ durchs Bremsen. Simsalabim haben wir die benötigte Bewegungs-Energie (kWh!). Nun ist aber Energie, nicht gleich Energie! Die benötigte Antriebsenergie muß erst noch im Fahrzeug (!) erzeugt werden. Diese liegt stets in chemischer Form vor. Gleichgültig ob als Benzin, Diesel, Akku, Wasserstoff oder sonst etwas. Für die Umwandlung setzt die Thermodynamik eindeutige und nicht überwindbare Grenzen. Heutige Verbrennungsmotoren sind nahezu ausgereizt.

Die Energiedichte

Jedes Kraftfahrzeug muß neben seinem Antrieb (Motor, Getriebe und notwendiges Zubehör) auch noch seinen ganzen Energievorrat mitführen. Dieses notwendige Eigengewicht treibt wiederum den Verbrauch selbst in die Höhe. Lange Rede, kurze Aussage: Ein Kraftfahrzeug mit etwa 2 Liter Verbrauch könnte nur ein moderner Trabant sein: Ein Auto mit nur vier Sitzen, aus Plastik und einer Höchstgeschwindigkeit von ca. 100 km/h. Immerhin ein Zugeständnis an die Handwerker, für die bisher ein Lastenfahrrad vorgesehen ist (Kein Witz! Der Rot-Rot-Grüne Berliner Senat fördert bereits Lastenfahrräder für Handwerker und Paketdienste). Wer noch die alte DDR kennt, weiß was alles möglich ist, wenn man nicht anders kann.

Genau das ist der Grund, warum Elektrofahrzeuge ein Flop waren, sind und immer sein werden. Man kann nicht oft genug daran erinnern, daß der erste Porsche einen Elektroantrieb (mit Nabenmotor!) hatte, weil es damals noch keine brauchbaren Verbrennungsmotoren gab. Als es diese gab, war das Konzept schlagartig mausetot. Im Krieg hatte man LKW mit Batterien und Oberleitungsbusse, weil der Treibstoff an der Front gebraucht wurde. Nach dem Krieg war der Spuk wieder vorbei. Die Sache ist eigentlich ganz einfach: Entweder man hat ein Fahrzeug mit geringer Reichweite (kleine Batterie) oder geringer Nutzlast.

Alle Schlaumeier, die nun einfach öfters laden wollen, tappen sofort in die nächste Falle: Die Betankung mit Benzin und Dieselkraftstoff dauert wegen deren hoher Energiedichte (rund 10 kWh/l) nur wenige Minuten. Wollte man gleiches mit elektrischer Energie machen, bräuchte man gewaltige Anschlussleistungen. Hochspannung am Straßenrand, in öffentlich zugänglichen Zapfsäulen?

Ähnliche Überlegungen gelten auch für alle Gase. Hier bleibt nur der Weg über Verflüssigung (LNG). Will man über verdichtete Gase gehen, braucht man große Verdichter (mehrere MW Antriebsleistung bei einer üblichen Autobahntankstelle) und senkt trotzdem die Reichweite auch noch weiter deutlich ab (zwangsläufige Erwärmung im Tank durch die Verdichtung). Wenn es Benzin und Diesel nicht geben würde, müßte man sie halt erfinden. Das das kein Scherz ist, kann man schon an den Kohlehydrieranlagen im Kriegsdeutschland und in Südafrika erkennen.

Mit Wind fahren?

Der größte Witz der Windindustrie ist, man könne doch mit ihrem Abfallstrom CO2 -frei fahren. Scheinbar überschreitet es die geistigen Fähigkeiten von „Ökos“ nachhaltig, den Unterschied zwischen Leistung und Energie zu begreifen. Es ist völlig unbedeutend, wie viel elektrische Energie mit Wind und Sonne erzeugt wird, vielmehr entscheidend ist, welche Leistung wann erzeugt wird. Am anschaulichsten ist es noch bei der Photovoltaik: Nachts ist es dunkel, also Stromproduktion gleich Null. Folglich könnte man damit kein einziges Fahrzeug nachts aufladen – mag die installierte Leistung (dank Subventionen) auch unendlich groß werden.

Ähnlich verhält es sich mit dem Wind. Bläst er tatsächlich mal und die Produktion übersteigt die verwertbare Leistung, hilft nur Abschalten. Man kann doch nicht wirklich glauben, daß sich jemand ein teures Elektroauto kauft um darauf zu warten, daß mal der Wind stark genug bläst. Noch abwegiger ist, die Autobatterien als Netzspeicher zu verwenden. Man stelle sich vor, man muß zur Arbeit, aber die Autobatterie ist leer – gleichgültig ob nicht genug Energie zum Laden vorhanden war oder das Netz mangels Wind noch zusätzlich gezapft hat.

Noch abwegiger ist die Schnapsidee, mit Wind und Sonne Gase herstellen zu wollen. Alle Verfahren sind sehr kapitalintensiv. Die Auslastung einer solchen Anlage ist aber noch deutlich geringer, als die des Windrades selbst. Es soll ja nur dessen „Überschuss-Strom“ eingelagert werden.

Die Stromversorgung

Wenn tatsächlich mehr als 2/3 aller Autos Elektroautos wären, müßten dafür gewaltige Mengen elektrischer Energie zusätzlich produziert werden und noch mehr Leistung (d. h. mehr Kraftwerke) bereitgestellt werden. Praktisch müßte für jedes Auto in der Nähe der eigenen Wohnung oder des Arbeitsplatzes eine Ladestation vorhanden sein. Dafür ist aber das vorhandene Stromnetz gar nicht ausgelegt. Es müßten gewaltige Investitionen in das Nieder- und Mittelspannungsnetz getätigt werden. Überwiegend in den bereits völlig dichten Städten (Erd- und Straßenbauarbeiten). Bei dem heutigen Zustand unseres Landes, eine Aufgabe für Jahrzehnte. Wer trägt dafür die Kosten? Doch wohl letztendlich der Autofahrer selbst.

An dieser Stelle erkennt man auch, wie durchtrieben der Begriff „Flottenverbrauch“ ist. Ein Hersteller der Golf-Klasse müßte für jedes produzierte Auto ein bis zwei Elektromobile verkaufen um den Flottenverbrauch (Elektroautos werden per Definition mit 0,0 COangesetzt, selbst wenn der Strom aus einem Kohlekraftwerk stammt. Alles klar???) zu erreichen. Woher sollen diese Käufer kommen? Für die meisten Familien, die sich höchstens ein Auto finanziell leisten können, dürfte ein Elektromobil völlig ungeeignet sein. Als Zweitwagen mit eigener Garage (Aufladung) oder Arbeitgeberparkplatz mag es ja noch gehen, aber für die Fahrt mit der Familie in den Urlaub?

Da hilft auch keine Mischkalkulation oder Strafzahlungen nach Brüssel. Elektroautos lassen sich nicht verkaufen, wahrscheinlich nicht einmal verschenken.

Gesellschaftliche Konsequenzen

Das Auto soll dem Bürger endgültig mies gemacht werden. Es steckt die allen Sozialisten gemeine Angst vor dem sich frei bewegenden Bürgern dahinter. Michel wird schon noch zu spüren bekommen, wie wahr der alte Slogan „Freie Fahrt für Freie Bürger“ einst war. Man stelle sich mal vor, nur die Hälfte der heutigen Autofahrer müssen auf das nicht vorhandene – bis völlig marode – öffentliche Verkehrssystem umsteigen. Was würden die Konsequenzen für die Vorstädte und ländlichen Räume sein? Nur noch Rentner und Transferleistungsempfänger oder Slums am Rande der Großstädte für die noch arbeitenden?

Der angepeilte Zeitraum von zwölf Jahren ist der ideale Zeitraum für eine „Verschleißstrategie a la DDR“. Man tätigt keine Neuinvestitionen mehr und reduziert Wartung und Instandhaltung um möglichst wenig Wertverlust am Ende zu haben. Parallel investiert man außerhalb dieser seltsamen EU. Die USA – und bald auch GB – stehen schon bereit. Die Europäer können sich dann ausländische Fahrzeuge kaufen oder es bleiben lassen. Wer der Politik auf dem Leim geht – wie einst die Energieversorger mit Energiewende und „Atomausstieg“ – wird untergehen. Jeder in Elektroautos investierte Euro ist zum Fenster rausgeschmissen. Jeder, der jünger als ca. 55 Jahre ist und in der Automobilindustrie oder bei den einschlägigen Zulieferern arbeitet, sollte seine persönliche Lebensplanung dringend überdenken – entweder rechtzeitig den Beruf wechseln oder mit der Industrie ins Ausland gehen. Mit „sozialverträglich“ – wie bei Stahlarbeitern und Steinkohlebergbau, die übrigens hart dafür kämpfen mußten – ist nicht mehr. Dafür ist die Dimension viel zu groß. Rezession ist, wenn dein Nachbar arbeitslos wird, Depression ist, wenn du selbst deinen Arbeitsplatz verlierst.

Umweltschutz auf den Meeren

In weniger als einem Jahr tritt die letzte Stufe der Begrenzung des Schwefelgehaltes für Schiffstreibstoffe in Kraft. Auf den ersten Blick ein energietechnischer Nebenschauplatz. Zumindest aber ein gutes Beispiel dafür, wie Umweltschutznormen entstehen, sich beständig verschärfen und weltweite Folgen für die Wirtschaft haben – weit über das gedachte Anwendungsgebiet hinaus. In diesem Fall bis hin zur Stromerzeugung.

Der Schadstoff Schwefel

Wenn Schwefel verbrannt wird, entsteht Schwefeldioxid (SO2) und Schwefeltrioxid (SO3). In Verbindung mit Wasser bildet sich daraus Schwefelsäure (H2 SO4). Im grünen Deutschland einst – unter dem Kampfbegriff „Waldsterben“ – sehr populär. Im Zusammenhang mit Dieselmotoren soll besonders SO3 eine herausragende Rolle spielen: Es gilt als ein wesentlicher Verursacher des Dieselrußes. Der Vorläufer des aktuellen Aufregers Stickoxide im Kampf gegen den Verbrennungsmotor.

Wenn Abgase den Schornstein verlassen, beginnen sie sich unmittelbar zu verdünnen. Eine nicht zu vernachlässigende Tatsache, insbesondere auf Hoher See. Dort werden sie vom Regen ausgewaschen und stellen kein Problem für die Meeres Flora und Fauna dar. Anders verhält es sich in Küstennähe und auf Flüssen oder in Hafenstädten. Dort können die Abgase zumindest für einige Menschen lästig sein.

Die Entwicklung der Grenzwerte

Besonders in der Bucht von Tokio, in den Häfen der Westküste der USA und in Nord- und Ostsee begann man deshalb Emission Control Areas (ECA) zu definieren. In solchen Gebieten durfte ab July 2010 nur noch Treibstoff mit einem maximalen Gehalt von 1% Schwefel verwendet werden. Dieser Grenzwert wurde ab Januar 2015 weiter auf 0,1% verschärft. Hat man erst einmal einen Schadstoff gefunden, kann man die Grenzwerte immer weiter verschärfen. Wer will schon auf Gremien, Kongresse und Dienstreisen verzichten?

Der nächste Schritt ist dann, die gesamte Erde zu beglücken. So hat die International Maritime Organization (IMO) – müßig zu erwähnen, eine Sonderorganisation der Vereinten Nationen (UN) – schon im Januar 2012 den Schwefelgehalt weltweit auf 3,5% (ehemals 4,5%) begrenzt. Vorsichtshalber hat man gleich beschlossen, daß ab Januar 2020 nur noch ein Grenzwert von 0,5% Schwefel für Schiffstreibstoffe zulässig ist. Ein echter Kostentreiber: Bisher war es üblich, einerseits HSFO (high-sulfur fuel oil mit 3,5% Schwefel) für das offene Meer zu tanken und andererseits schwefelarmen Treibstoff für die ECA-Zonen. Nach dem Verlassen der Küstengewässer wurde umgeschaltet. Zumindest im Sinne von Menschenschutz ein sinnvolles Vorgehen zu optimalen Kosten.

Wohin die Reise geht, kann man schon an den Grenzwerten für Benzin und Dieselkraftstoff nach DIN EN 590 erkennen. Hier sind nur noch 0,001% Schwefel zulässig. Bei den Kraftfahrzeugen mit Abgaskatalysator (nächster Schritt im Schiffsbetrieb?) eine technische Notwendigkeit. Für unser Heizöl Extra Leicht schwefelarm (HEL) sind noch 0,005% Schwefelgehalt zulässig. Hier ist es das Kondensat aus den Brennwertkesseln und die Kanalisation. Lediglich die Luftfahrt scheint noch ein wenig widerspenstig. Für deren Triebwerke gilt ein Grenzwert von 0,03% Schwefel für Jet A1.

Das Rohöl und seine Verarbeitung

Erdöl ist ein Naturprodukt und unterliegt damit großen Schwankungen in seiner Zusammensetzung. Im Handel unterscheidet man leichte (light crude oil) und schwere Rohöle (heavy crude oil), sowie den Schwefelgehalt (sweet oder sour crude oil). Raffinerien müssen sich entsprechend ihrer Verfahrenstechnik und ihrer Kundenwünsche das geeignete Rohöl zusammenkaufen. Der Preis stellt sich am Weltmarkt nach Angebot und Nachfrage ein. Von der Tendenz her, sind dünnflüssige und schwefelarme Rohöle teurer.

Der erste – und in vielen Ländern auch der einzige – Verfahrensschritt ist die Destillation. Das Rohöl wird auf etwa 400 °C erhitzt und in eine Kolonne eingespeist. Dort verdampft es teilweise und kondensiert bei unterschiedlichen Temperaturen in verschiedenen Stufen. Die leicht flüchtigen Anteile (Benzin, Kerosin, leichtes Heizöl etc.) werden so abgetrennt. Es verbleibt ein zähflüssiges Rückstandsöl (residual fuel oil oder resid) mit fast dem gesamten Schwefel. Täglich fallen davon etwa 8 Millionen barrel weltweit an. Bisher wurden davon rund die Hälfte als Schiffstreibstoff verwendet. Die andere Hälfte wird weiter verarbeitet (z. B. Asphalt), mit großem Aufwand weiter zerlegt oder in Kraftwerken verfeuert.

Schon an dieser Stelle erkennt man, daß der derzeitige Verbrauch von etwa 3,2 Millionen barrel HSB (high-sulfur bunker mit 3,5% Schwefel) pro Tag, kein Nischenprodukt ist. Jegliche Veränderung der Spezifikationen wirkt sich unmittelbar auf die Verarbeitung (Investitions- und Betriebskosten) und die Rohölpreise aus. Ob dies die UNO-Beamten überhaupt durchschaut haben oder gar für ihre politischen Interessen ausgenutzt haben, muß der geneigte Leser selbst entscheiden.

Klar ist, daß schon immer die edleren Produkte, wie z. B. Benzin und Kerosin das Geld bei einer Raffinerie bringen mußten. Das Rückstandsöl mußte meist unter dem Einstandspreis für Rohöl verkauft werden. Für alle ein gutes Geschäft: Benzin und Heizöl wurden nicht noch teurer und die Reeder konnten wegen geringer Treibstoffpreise niedrige Frachtraten anbieten.

Die Möglichkeiten

Auf die veränderten Grenzwerte zeichnen sich folgende Reaktionen ab:

  • Erwirken von Ausnahmegenehmigungen. Kann ein Schiff nicht genug schwefelarmen Treibstoff bekommen, kann es eine Sondergenehmigung für die Fahrt oder den Fahrtabschnitt erhalten.
  • Einbau von Rauchgaswäschen (Scrubber)
  • Umrüstung auf alternative Kraftstoffe (LNG, Methanol)
  • Blending (Mischung von Produkten mit unterschiedlichem Schwefelgehalt)
  • Nachrüstung von Raffinerien mit Cokern und Crackern, wodurch ein neues „Abfallprodukt“, der Petrolkoks, entsteht. Entsorgung nur zum Preis von Kesselkohle in Kohlekraftwerken möglich. Einbau zusätzlicher Entschwefelungsanlagen (Hydrodesulfurierung).
  • Veränderung des Rohöleinsatzes wodurch sich die weltweiten Handelsströme verschieben.
  • Erhöhung des Rohöleinsatzes, Steigerung des Eigenverbrauches der Raffinerien.

Ausnahmegenehmigung

Noch ist die Abwicklung von Ausnahmen noch nicht genau geregelt. Man geht aber davon aus, daß sie ähnlich der Gepflogenheiten in der 200-Meilenzone um die USA gehandhabt werden. Dort muß die Anzeige elektronisch vor Einlaufen über einen FONAR (electronic Fuel Oil Non-Availability Report or FONAR) angezeigt werden.

In Deutschland wird das sicherlich streng überwacht und mit drastischen Bußgeldern geahndet werden. Was allerdings in Rußland und Afrika passieren wird, kann man sich leicht vorstellen.

Rauchgaswäschen

Man kann die Abgase eines Schiffsdiesels – wie in einem modernen (schornsteinlosen) Kohlekraftwerk – waschen, bevor sie in den Auspuff geleitet werden. Allerdings mit gewissen Einschränkungen. Auf einem Schiff ist der Platz begrenzt. Man kann daher nicht eine so aufwendige Verfahrenstechnik, wie in einem Kraftwerk an Land einbauen. Die nächste Frage betrifft das Waschmittel. Man kann einfach Meerwasser verwenden, was aber bedeutet, man gibt nun die Schadstoffe konzentriert ab. Ob das eine Verbesserung gegenüber der Verdünnung im Fahrtwind ist, sei dahingestellt. Mit Sicherheit kann man die Abgase deshalb nicht in Häfen und Flüssen waschen. Will man auch dort waschen, braucht man einen geschlossenen Kreislauf wie in einem Kraftwerk. Bleibt dann aber die Frage der Entsorgung des Sondermülls.

Solch eine Rauchgasreinigung kostet je nach Schiff ca. 2 bis 5 Millionen US$ und erfordert einen zusätzlichen Betriebsaufwand. Bisher werden sie hauptsächlich in Kreuzfahrtschiffen eingebaut. Dort können sie den Passagieren ein besonders gutes Gefühl geben.

Alternative Kraftstoffe

Es gibt praktisch zwei Alternativen: Flüssiges Erdgas (LNG) und Methanol. Beide enthalten keinen Schwefel. In sog. Gas-Diesel-Motoren können sie problemlos verbrannt werden. Bei ihnen ist ein kleiner Anteil Diesel nur noch zur Zündung (1,5 bis 6%) erforderlich (d. h. der Diesel-Kreisprozess mit seinem guten Wirkungsgrad bleibt erhalten). Gleichwohl können sie auch stufenlos nur mit Diesel betrieben werden. Derzeit ist LNG der absolute Favorit (bei Neubauten) gegenüber Bunkeröl. Hinzu kommt eine „Zukunftssicherheit“. Auch die IMO bastelt bereits an CO2 Vorschriften und Abgaben. Erdgas setzt gegenüber Öl nur rund 75% CO2 frei. Allerdings ist das Volumen von LNG größer und es ist eine aufwendigere Technik mit Isoliertanks nötig (Lagertemperatur < -160°C). Der Platzbedarf ist rund doppelt so groß.

Inzwischen gibt es einen Weltmarkt und ganze Tankerflotten für LNG. Gleichwohl muß erst eine Infrastruktur aus dezentralen Lagern, Tankstellen in den Häfen, Bunkerbooten, Tanklastern usw. aufgebaut werden. An der Nordseeküste und im Ostseeraum (ECA-Zonen) ist man damit bereits weit vorangekommen. Hinzu kommt, daß LNG billig ist, jedenfalls weitaus billiger als entschwefelter Kraftstoff.

Blending

Zumindest in den ersten Jahren wird das Mischen von unterschiedlichen Ölen zu LSB ( low-sulfur bunker bis 0,5% S) gängige Praxis sein. Es gibt etliche Raffinerien, die für dünnflüssige und süße Rohöle gebaut sind. Diese liefern ein Rückstandsöl mit rund 1% Schwefelgehalt. Will man daraus LSB herstellen, benötigt man rund die gleiche Menge an Dieselkraftstoff bzw. Kerosin etc. Diese Nachfrage wird die Preise für Kraftstoffe und Flugzeugtreibstoff in die Höhe treiben.

Nachrüstung von Raffinerien

Rückstandsöle sind ein Abfallprodukt. Ihr Wert liegt deshalb meist deutlich unter dem Einstandspreis für Rohöl. Es gab deshalb schon immer Bestrebungen, Rückstandsöle in höherwertige Produkte umzuwandeln. Grundsätzlich gilt, je mehr Wasserstoff ein Öl enthält, um so geringer ist sein Siedepunkt. Man muß also dem Rückstandsöl Wasserstoff hinzufügen. Dies geschieht z. B. in einem Coker. Dort wird Rückstandsöl bei Temperaturen von über 500°C in wasserstoffreiche Leichtöle und Petrolkoks zerlegt. Der Wasserstoff wird also hierbei nur intern umgelagert. Schwefel und Schwermetalle verbleiben im Koks.

Man kann aber auch Wasserstoff von außen hinzuführen. Mit Wasserstoff gelingt auch eine Entschwefelung. Bei der Hydrodesulfurierung wird der im Öl enthaltene Schwefel erst in Schwefelwasserstoff und anschließend in elementaren Schwefel umgewandelt. Ein sehr energieintensives Verfahren. Zudem ist Wasserstoff recht teuer.

Es handelt sich um komplexe verfahrenstechnische Anlagen. Eine Nachrüstung einer Raffinerie dauert mehrere Jahre und kostet zig Milliarden. Es ist klar, daß sich diese Kosten in den Produkten widerspiegeln müssen.

Rohöleinsatz

Raffinerien sind meist für die Verarbeitung bestimmter Rohöle gebaut. Es ist aber schon immer üblich, Mischungen verschiedener Rohöle herzustellen, um ein synthetisches Rohöl zu erhalten. Dies ist ein Weg für einfachere Raffinerien sich den Gegebenheiten ab 2020 anzupassen. Man kann z. B. das Rückstandsöl einer Raffinerie, die Arab Light verarbeitet etwa hälftig mit Bakken Rohöl vermischen und erhält daraus ein Öl ähnlich Maya Crude. Dies ist ein typischer Weg für Raffinerien am Golf von Mexiko. Man kauft das Rückstandsöl billig am Weltmarkt ein, mischt es mit besonders leichtem Rohöl aus Dakota usw. (Fracking) und kann es in den entsprechenden Raffinerien verarbeiten.

Das Henne-Ei Problem

Die Verschärfung der Grenzwerte in einem Schritt, an einem Stichtag, hat eine enorme wirtschaftliche Herausforderung heraufbeschworen. Die Reeder können nur Wetten abschließen. Keiner kennt die zukünftige Preisdifferenz zwischen HFO (higher-sulfur heavy fuel oil) und (MGO) (low-sulfur marine distillates—marine gas oil) bzw. MDO (marine diesel oil). Genau dieser Wert entscheidet aber über die Amortisation für die Millionen-Investition pro Schiff und Wäscher. Ganz ähnliches gilt für die Preisdifferenz zu LNG. Der Einsatz von LNG dürfte sich nur für Schiffe rechnen, die überwiegend in den ECA-Zonen (nur 0,1% S) fahren. Es verwundert daher nicht, daß bis heute weniger als 1% der Handelsflotte mit über 50 000 Schiffen umgestellt ist.

Bei den Raffinerien sieht es nicht besser aus. Man geht davon aus, daß die Preise für HFO weiter fallen werden (auf ca. 60% der Rohöleinstandspreise). Gewinner sind im Moment Raffinerien, die bereits über Coker und Hydrodesulfurierung verfügen. Sie können doppelt von den fallenden Preisen für HFO und den steigenden Preisen für schwefelarme Öle profitieren. Gerade für kleine Raffinerien ist das Investitionsrisiko in Milliardenprojekte viel zu groß. Außerdem werden die Preisdifferenzen um so kleiner, je mehr Raffinerien umstellen.

Wie gewaltig die Verschiebungen sein werden, zeigen die Bilanzen aus 2012: Es wurden weltweit insgesamt 260 Millionen to Schiffstreibstoffe verbraucht. Davon waren 223 Millionen to HFO und lediglich 37 Millionen to MGO/MDO. Für 2020 schätzt man den Verbrauch auf 352 Millionen to. Die Verteilung ist noch unabsehbar. Man muß deshalb mindestens von Mitte 2019 bis 2020 von stark schwankenden Preisen für Mineralölprodukte ausgehen. Wie die Weltwirtschaft darauf reagiert, weiß keiner.

Konsequenzen

Dies ist wieder mal ein Beispiel für die Festlegung von Grenzwerten – die der Mehrheit der Bevölkerung gar nichts sagen – durch ferne und abgehobene Gremien. Ähnlich der Stickoxide durch die EU. Die Bombe ist erst geplatzt, als der Normalbürger von Fahrverboten betroffen war. Aktuell hat man gerade die Diskussion über „unverbindliche Empfehlungen“ der UNO auf einem ganz anderen Gebiet. Auch die IMO-Grenzwerte waren einst nicht bindend. Hier setzt die Kritik an den einschlägigen Industrieverbänden ein. In der Phantasiewelt der Linken, schreiben die Lobby-Verbände die Gesetze. In der Realität ist das mitnichten so. Sie stehen einer Mauer von – überwiegend ungebildeten, aber ideologisch gefestigten – Politikern, Bürokraten und Nicht-Regierungsorganisationen gegenüber. Allesamt Personen, die für die wirtschaftlichen Konsequenzen ihres Handelns in keiner Weise verantwortlich sind. Die meisten sind nicht einmal demokratisch legitimiert. Das Vehikel Umweltschutz hat sich inzwischen als eine Gefahr für alle Gesellschaften herausgebildet. Auf keinem Sektor sind so viele Scharlatane und Ideologen unterwegs. Mit der zunehmenden Abnahme naturwissenschaftlicher Kenntnisse in Deutschland wird eine notwendige Aufklärung über technisch-wirtschaftliche Abhängigkeiten immer schwieriger.