SMR-2021, KP-FHR

Hinter der sperrigen Abkürzung KP-FHR (Kairos Power – Fluoride salt cooled High Temperature Reactor) verbindet sich ein eher neuartiges Konzept, das hohe Temperaturen anstrebt, aber dabei auf erprobte Komponenten setzen will: Die Kombination von TRISO-Brennelementen mit Salzschmelze als Kühlmittel. Ursprünglich wollte man damit eine konventionelle Gasturbine antreiben, indem man Luft auf etwa 700 °C erhitzt und gegebenenfalls noch durch Verbrennung von Erdgas zur Abdeckung von Spitzenlasten weiter erhitzt. Für Kernreaktoren sollte damit ein neues Einsatzgebiet erschlossen werden. Für die Grundlast wäre weiterhin billige Kernenergie eingesetzt worden (Turbine läuft nur mit Luft) und zusätzliches Erdgas bei Lastspitzen (analog eines Nachbrenners bei Flugzeugen). Insgesamt wäre ein hoher Wirkungsgrad durch die erprobte Kombination von Gasturbine mit nachgeschaltetem Dampfkreislauf gewährleistet worden. Wie schon bei anderen Hochtemperaturreaktoren ist die Nutzung von Gasturbinen (vorläufig) gescheitert. Nunmehr geht man auch hier (vorläufig?) nur von einem konventionellen Dampfkreislauf aus. Allerdings mit höheren Dampfzuständen, wie sie in konventionellen Kohlekraftwerken üblich sind.

Der Stand der (finanziellen) Entwicklung

Kairos geht auf Forschungsprojekte an der University of California, Berkeley (UCB), dem Massachusetts Institute of Technology und der University of Wisconsin zurück. Alles unter der Koordination – und finanziellen Förderung – des U.S. Department of Energy im Rahmen eines Integrated Research Project (IRP). Wie so oft, entstehen aus solchen Forschungsprojekten neu gegründete Unternehmen, in denen die maßgeblich beteiligten „Forscher“ ihre Erkenntnisse kommerzialisieren. Selbstverständlich bleiben sie ihren alten Universitäten dabei eng verbunden. Im Falle von Kairos sind die Arbeiten nun soweit fortgeschritten, daß das „Energieministerium“ (schrittweise) einen Prototyp anstrebt. Es soll innerhalb von sieben Jahren der Demonstrationsreaktor „Hermes Reduced-Scale Test Reactor“ auf dem Gelände des East Tennessee Technology Park in Oak Ridge für geplant $629 realisiert werden. Das „Energieministerium“ hat dafür $303 Millionen Dollar fest in seinem Haushalt (verteilt über sieben Jahre) eingestellt. Das Geld wird fällig, wenn Kairos die andere Hälfte von privaten Investoren auftreibt. Dies ist ein in den USA erprobtes pragmatisches Förderungsmodell: Das Risiko wird hälftig von Investoren und Staat geteilt – gegenseitig wirkt die Zusage als Qualitätskriterium. Außerdem kann bei solchen Summen davon ausgegangen werden, daß die Entwicklung zielstrebig vorangetrieben wird. Die privaten Investoren lockt schließlich der wirtschaftliche Erfolg. Anders als in Deutschland, sind Gewinne in den USA nichts unanständiges.

Der Kugelhaufen

Die Kugeln für diesen Reaktor werden wahrscheinlich etwas kleiner (3 cm) als die üblichen TRISO-Elemente (4,3 cm) und enthalten rund 1,5 gr Uran verteilt in 4750 kleinsten mit einer Schutzschicht überzogenen Körnchen. Sie können damit über 11 000 kWh elektrische Energie produzieren, was etwa dem Verbrauch von 8 to Steinkohle oder 17 to Braunkohle entspricht. Wegen ihrer hohen Energiedichte sind diese Elemente nach ca. 1,4 Jahren abgebrannt und müssen ausgewechselt werden. In einem mit Helium gekühlten Hochtemperatur-Reaktor verbleiben die Kugeln etwa 2,5 Jahre und in Leichtwasserreaktoren rund drei Jahre.

Die Kugeln sollen einen etwas anderen Aufbau als klassische TRISO-Elemente haben: Der Kern besteht aus 25 mm porösem Graphit, umgeben von einer Kugelschale aus Brennstoffkörnern und einer äußeren Schutzschicht aus besonders widerstandfähigem Graphit. Die Brennstoffkörner haben einen Durchmesser von lediglich 400 Mikrometern und enthalten auf 19,75% angereichertes Uran. Die Geschwindigkeit mit der Spaltprodukte im Graphit wandern, hängt wesentlich von der Temperatur ab. Da die Betriebstemperatur hier mit 650°C deutlich geringer als beim AVR in Deutschland mit 950°C ist und die Verweilzeit der Kugeln kleiner, kann von einer wesentlich geringeren Verunreinigung des Kühlmittels – hier reaktionsfreudige Salzschmelze, damals Edelgas Helium – ausgegangen werden. Dies ist bei einem Reaktorunglück für die Freisetzung radioaktiver Stoffe in die Umwelt von ausschlaggebender Bedeutung. Die neutronenphysikalische Auslegung des Reaktors ist so angelegt, daß bei etwa 800°C Temperatur die Kettenreaktion ohne Eingriffe in sich zusammenbricht (stark negative Temperaturkoeffizienten). Man könnte also den Reaktor jederzeit verlassen, ohne ihn abzustellen. Demgegenüber sind die Brennelemente bei bis zu 1800°C ohne größere Schäden getestet worden. Der Siedepunkt der Salzschmelze liegt bei nur 1430°C. Dies ergibt zusammen eine wesentlich höhere Sicherheitsmarge als bei Leichtwasserreaktoren.

Das Kühlmittel

Bei diesem Reaktortyp wird weder mit Wasser noch mit Helium, sondern einem geschmolzenen Salz gekühlt. Dies stellt viele sicherheitstechnische Betrachtungen auf den Kopf: Nicht ein unzulässiges Verdampfen des Kühlmittels wird zum Problem, sondern das „Einfrieren“. Das hier verwendete „FLiBe-Salz“ hat einen Schmelzpunkt von 459°C, d. h. alle Komponenten müssen elektrisch beheizbar sein um den Reaktor überhaupt anfahren zu können. Außerdem muß unter allen Betriebszuständen und an allen Orten diese Temperatur sicher aufrecht erhalten bleiben, damit sich keine Ausscheidungen und Verstopfungen bilden. Andererseits ist diese Temperatur so hoch, daß Wartungs- und Inspektionsarbeiten schnell zu einem Problem werden.

Wesentliches Problem ist aber bei allen Salzschmelzen die Korrosion. Zwar hat man heute ein besseres Verständnis der Werkstofftechnik und jahrzehntelange Erfahrungen z. B. in Raffinerien, andererseits liegen aber immer noch keine Langzeiterfahrungen bei Kernreaktoren vor. Hier versucht man zumindest das Problem durch eine scharfe Trennung von Brennelement und Kühlmittel einzugrenzen. Bei einem Kernreaktor hat man es tatsächlich mit dem gesamten Periodensystem zu tun. Wie all diese Stoffe chemisch mit der Salzschmelze, den Reaktorwerkstoffen und untereinander reagieren, ist ein ingenieurtechnischer Albtraum. Deshalb versucht man hier ganz klassisch alle Spaltprodukte etc. im Brennelement zu halten. Andererseits geht man davon aus, daß die Diffusion von Cs137, Silber etc., die zu einem radioaktiven Staub bei mit Helium gekühlten Reaktoren führen, die den gesamten Reaktor verdrecken, besser beherrschbar ist, weil diese „Schadstoffe“ sofort im Salz gelöst werden.

FLiBe ist – wie der Name schon andeutet – ein Salz mit den Bestandteilen Fluor, Lithium und Beryllium. Die Arbeitsschutzvorschriften für Beryllium (Atemschutz, Schutzkleidung etc.), sind nicht kleiner als für radioaktive Stoffe – es ist nur schwerer zu erkennen. Besonders problematisch ist jedoch das Lithium. Lithium hat die unschöne Eigenschaft, daß es durch Neutronen Tritium bildet. Man kann zwar durch eine Anreicherung von Li7 auf 99,995% die Bildung erheblich verringern, aber nicht ausschließen. So bilden FLiBe-Reaktoren etwa 1000 bis 10 000 mal soviel Tritium wie Leichtwasserreaktoren. Dies kann zu grundsätzlichen Schwierigkeiten bei der Genehmigung führen. Auch bei diesem Problem wirkt sich die Trennung von Brennstoff und Kühlmittel positiv aus. Das Graphit zieht das Tritium an und absorbiert es an dessen Oberflächen. Deshalb sind zusätzlich noch Filterkatuschen in den Kühlmittelleitungen vorgesehen.

Der Zwischenkreislauf

Das FLiBe-Salz wird – unabhängig von eindiffundierten Spaltprodukten und Tritium – während seines Durchlaufs durch den Reaktorkern immer radioaktiv. Aus Fluor wird O19(26,9s Halbwertszeit) und N16 (7,1s Halbwertszeit) gebildet. Beides γ-Strahler mit 1,4 MeV bzw. 6,1 MeV. Von ausschlaggebender Bedeutung ist F20 (11,0s Halbwertszeit). Hinzu kommen noch aktivierte Korrosionsprodukte. Um die Bereiche mit Strahlenschutz klein zu halten, ist ein Zwischenkreislauf mit „Sonnensalz“ vorgesehen. Als „solar salt“ bezeichnet man üblicherweise eine Mischung aus 60% Natriumnitrat NaNO3 und 40% Kaliumnitrat KNO3. Sie hat einen Schmelzpunkt von 240°C und eine maximale Temperatur von etwa 565°C. So ist z. B. im Solar-Turmkraftwerk „Solar One“ ein Spitzenlast-Speicher mit zwei Tanks in denen 1400 to Solar-Salz gelagert sind in Betrieb. Diese Anlage kann 107 MWhth speichern und erzeugt damit 11 MWel für drei Stunden. Damit ergibt sich ein weiteres Anwendungsfeld: Bei entsprechender Auslegung der Turbine kann ein solcher SMR auch zur Abdeckung von Lastspitzen im Netz bzw. zur Auskopplung von Wärme für industrielle Zwecke eingesetzt werden.

Der Reaktorkern

Eine weitere Besonderheit gegenüber mit Helium gekühlten Reaktoren ist, daß die Brennstoffkugeln im Reaktor schwimmen. Sie werden deshalb von unten zugeführt und oben wieder abgefischt. Insbesondere die „Abfischmaschine“ ist noch nicht im Detail konstruiert. Sie muß den Reaktor nach oben sicher abdichten, die Kugeln einfangen, transportieren, reinigen und überprüfen – das alles beständig bei 650°C. Für 100 MWel sind etwa 440 000 Brennstoffkugeln (TRISO) und 204 000 Moderatorkugeln (aus reinem Graphit) im Reaktor. Jede Brennstoffkugel durchläuft etwa 8 mal den Reaktor und verbleibt bei voller Leistung rund 1,4 Jahre im Reaktor, bis sie abgebrannt ist (gemeint ist damit, bis das in ihr vorhandene Uran gespalten ist, die Kugel erscheint unverändert). Jede Kugel braucht ungefähr 60 Tage auf ihrem Weg von unten nach oben. Nach dem Abfischen verbleibt sie noch 4 Tage zur Abkühlung, bis sie wieder zurückgeführt wird. Bei voller Leistung müssen etwa 450 Kugeln pro Stunde entnommen und überprüft werden, das ergibt ungefähr 8 Sekunden pro Vorgang. Jeden Tag sind rund 920 Kugeln verbraucht und müssen durch frische ersetzt werden. Für eine vollständige Entleerung ist ein „Schnellgang“ vorgesehen, der etwa 3600 Kugel pro Stunde entnimmt. Abgesehen von Wartungsarbeiten könnte somit der Reaktor kontinuierlich in Betrieb bleiben.

Der Reaktor ist im Wesentlichen ein Zylinder von etwa 3,5 m Durchmesser und 12 m Höhe mit einer Wandstärke von 4 bis 6 cm. Der Kern – die eigentliche Wärmequelle – ist wesentlich kleiner. Er besteht aus einem Doppel-Hohlzylinder. In dessen innerem Ring schwimmen die Brennstoffkugeln, in seinem äußeren Ringraum die Moderatorkugeln. Der Innenraum ist gefüllt mit einem Reflektor aus Graphit in dem sich auch die Regelstäbe befinden. Der gesamte Einbau ist durch Graphitblöcke von dem Reaktortank isoliert. Genau diese festen Einbauten aus Graphit sind eine bekannte Schwachstelle bei all diesen Reaktortypen. Sie sind z. B. auch der Tod der britischen AGR-Reaktoren. Unter ständigem Neutronenbeschuss altert der Graphit. Heute hat man zwar ein besseres Verständnis der Vorgänge – gleichwohl bleibt die Lebensdauer begrenzt. Hier ist deshalb vorgesehen, irgendwann die Graphiteinbauten zu erneuern. Ob das dann wirtschaftlich ist, wird sich zeigen. Im Prinzip sind die Graphit-Volumina aus einzelnen Blöcken zusammengesetzt. Diese besitzen aber wegen der nötigen Einbauten, Kanäle fürs Salz etc. und der zu berücksichtigenden Wärmedehnung eine komplizierte Geometrie und erfordern sehr enge Fertigungstoleranzen. Aber es ist ja der Sinn von SMR, all diese Arbeiten in einer Fabrik und nicht auf der Baustelle auszuführen

Werkstoffe

Alle Hochtemperaturreaktoren tragen das gleiche Problem in sich, die hohen Temperaturen. Mit der Temperatur steigen die Probleme (z B. Zeitstandsfestigkeit, Korrosion) und damit die Kosten exponentiell an. Wäre dies nicht so, hätte man bereits fossile Kraftwerke mit ganz anderen Wirkungsgraden. Es stellt sich deshalb immer die Frage, wofür man überhaupt so hohe Temperaturen braucht. Hier beschränkt man sich bewußt auf eine Spanne von 550°C bis 650°C um nicht vollständig konventionelle Werkstoffe verlassen zu müssen. Man darf ja nicht vergessen, daß alles genehmigungsfähig – d. h. berechenbar und durch Versuche nachweisbar – sein muß. Hierin liegt ja gerade der Charme von Salzschmelzen: Nicht so hohe Temperaturen ohne zusätzliche Druckprobleme, bei hoher Wärmespeicherung. Geplant ist weitesgehend SS 316 (handelsüblicher austenitischer Edelstahl) zu verwenden.

Ein wesentliches Problem aller FLiBE-Reaktoren ist die hohe Tritiumproduktion. Über den Daumen gerechnet, produziert dieser kleine SMR (100 MWel) jeden Tag soviel Tritium, wie ein Leichtwasserreaktor (1000 MWel) in einem ganzen Jahr. Will man auf gleiche Werte kommen, müßte also 99,9% des Tritium zurückgehalten werden. Man setzt hier auf die Absorption am Graphit. Das ändert aber nichts daran, daß Tritium bei solchen Temperaturen sehr gut durch Stahl hindurch diffundiert. Bisher hat man gute Erfahrung mit einer Beschichtung aller Rohrleitungen mit Aluminiumoxid gemacht. Es bildet eine Sperrschicht, die sogar beim Kontakt mit Luft selbstheilend ist. Gleichwohl ist hier noch viel Forschung nötig, wenn man die Aufregung um das Tanklager in Fukushima berücksichtigt. Es könnte sich sonst eine (politisch) unüberwindliche Hürde für die Genehmigung von FLiBe-Reaktoren ergeben.

Einschätzung

Kairos ist ein „Startup“ mit dem Selbstverständnis eines Ingenieurunternehmens. Sie haben nicht vor, jemals einen solchen SMR selbst zu fertigen. Von Anfang an haben sie starke Partner mit ins Boot geholt. So übernimmt Materion die Entwicklung und Herstellung des FLiBe-Salzes und BWXT die Produktion der Brennelemente. Für den kritischen Bereich „Tritium“ sind seit September 2020 die Canadian Nuclear Laboratories (CNL) eingestiegen. Kanada hat mit Tritium große und jahrzehntelange Erfahrungen durch den Betrieb seiner Candu-Reaktoren. Darüberhinaus will Kanada einen SMR in Chalk River bauen. Kairos ist dafür in die engere Wahl gekommen. Das Genehmigungsverfahren (stark unterschiedlich zu den USA) wird von der kanadischen Regierung mit mehreren Millionen gefördert. Seit 2018 läuft das Genehmigungsverfahren in den USA. Nächster Schritt wird der Bau eines kleinen Demonstrationsreaktors im East Tennessee Technology Park (ETTP) in Oak Ridge, Tennessee. Hier geht es vor allem darum, die Kosten für die Serienproduktion modellhaft zu testen.

Es dürften keine „Killer-Kriterien“ mehr im Genehmigungsverfahren auftreten. Dafür liegen zu viele Forschungsergebnisse aus mehreren Jahrzehnten vor. Besonders traurig ist, daß selbst im Genehmigungsverfahren auf die Betriebsergebnisse des AVR in Jülich zurückgegriffen wird. Deutschland hätte sicherlich auch heute noch ein geschätzter Partner sein können, wenn nicht wahnsinnige Laiendarsteller den Weg zurück ins Mittelalter propagiert hätten.

Seit 10 Jahren Fukushima

Eigentlich wollte ich nichts zum „Fukushima-Jubiläum“ schreiben. Es ist alles gesagt. Wer will, kennt die Fakten. Man muß nur ein wenig im Internet stöbern. Wäre da nicht das ZDF hinter dem Busch hervorgekrochen mit seiner Sendung „Der ewige Gau? 10 Jahre Fukushima“. Gäbe es einen Karl-Eduard Richard Arthur von Schnitzler – auch Sudel Ede genannt – Preis, das ZDF hätte ihn mit Sicherheit in der Tasche. In bester Tradition schneidet man alte Aufnahmen des West-Fernsehens neu zusammen und läßt sie von den einschlägig Verdächtigen: Green Peace, Partei Bündnis 90/Die Grünen usw. kommentieren. Selbst der alte Lehrer Arnie Gunderson mit seiner Verschwörungstheorie von dem explodierten Brennelemente-Lagerbecken darf nicht fehlen. Die Verknüpfung „Atombombe“ gleich „Atomkraftwerk“ ist einfach zu verlockend. Als Staatsfunker braucht man nicht einmal elementare handwerkliche Fähigkeiten zu beachten: Eine simple Google-Abfrage und man hätte Aufnahmen des besenreinen Lagerbeckens von Block 4 senden können. Ausgewogenheit – also die Berücksichtigung von Pro und Kontra – ist mit der Einführung der Wohnungssteuer „Rundfunkgebühr“ sowieso nicht mehr nötig. Man dient nur seinem Herrn, der die nächste Gebührenerhöhung festsetzt. Sollen die Zuschauer doch abschalten, wenn sie soviel Propaganda nicht ertragen.

Was geschah am 11. März 2011?

Um 14:46 (Japan Standard Time) erschütterte das “Tohoku Earthquake” den Osten Japans mit einer Magnitude von 9.0 auf der Richterskala. Das Epizentrum lag etwa 130 km östlich der Oshika Halbinsel in 24 km Tiefe. Quelle war ein Sprung der ineinander verhakten nordamerikanischen und pazifischen Platte. Dieser Sprung löste einen Tsunami aus, der über die japanische Küste hereinbrach. Er zerstörte mehr als eine Million Gebäude, tötete 19 729 Menschen, weitere 2 559 Opfer blieben bis heute vermißt und verletzte 6 233 Menschen zum Teil schwer. Ganze Landstriche waren innerhalb von Minuten dem Erdboden gleich gemacht. Für uns Mitteleuropäer eine unvorstellbare Naturkatastrophe von apokalyptischem Ausmaß.

Im Zusammenhang mit dem Reaktorunglück ist nur von Bedeutung, daß solche Tsunamis in Japan nicht unwahrscheinlich sind. Mit anderen (deutlichen) Worten: Dieses Kraftwerk hätte so nie an diesem Ort gebaut werden dürfen. Dies war unter Fachleuten – bitte nicht verwechseln mit „Atomexperten“ – bekannt. Es gab sogar einige wenige, die unter Inkaufnahme erheblicher beruflich Konsequenzen dabei nicht mitgespielt haben.

Die Ereignisse im Kernkraftwerk

Im Kernkraftwerk Fukushima waren drei der sechs Blöcke in Betrieb. Block 4 war bereits vollständig entladen für einen Brennstoffwechsel mit Wartungsarbeiten. Die Blöcke 5 und 6 waren in Vorbereitung zum Wiederanfahren nach erfolgtem Brennelementewechsel. Durch das Erdbeben wurden alle sechs Hochspannungstrassen unterbrochen. Die Notstromdiesel zur Eigenversorgung im Inselbetrieb starteten.

Für das Verständnis der Abläufe ist wichtig, daß zuerst alles nach Plan verlief: Durch die Erdbebensensoren wurde eine Schnellabschaltung ausgelöst und auch in Fukushima startete die Notversorgung – wie in fast allen japanischen Kernkraftwerken. Es wäre nichts passiert, wenn die Flutwelle nicht gekommen wäre oder man das Kraftwerk „wasserdicht“ gebaut hätte. Der Vorgang einer Schnellabschaltung infolge eines Erdbebens ist in Japan Routine. Die Betriebsmannschaft war allerdings bezüglich des Tsunami so ahnungslos, daß sie sogar die Abkühlung des Blocks 1 noch verzögerte, um – wie erwartet – möglichst schnell wieder ans Netz zu kommen. Dies war leider eine fatale Fehlentscheidung, wie sich bald herausstellen sollte. Es verstrich fast eine wertvolle Stunde in Ahnungslosigkeit. Hier zeigt sich, wie wichtig ein Kommunikationssystem ist, das auch bei schweren Naturkatastrophen intakt bleibt: Wäre die Betriebsmannschaft über die Gefahr eines schweren Tsunami informiert worden, hätte sie mit Sicherheit ganz anders reagiert. Bei den Reaktoren 2 und 3 wurde die Isolation der Reaktoren von dem konventionellen Teil des Kraftwerks automatisch durchgeführt und die notwendigen Notkühlsysteme ausgelöst. Bis zu diesem Zeitpunkt waren alle drei Reaktoren in einem sicheren Zustand und auch die Notkühlung funktionierte wie geplant.

Etwa 50 Minuten nach dem Erdbeben (das hätte die „goldene Stunde“ sein können) brach eine Wasserwand auf das Kraftwerk ein und schlug alle Außeneinrichtungen der Blöcke 1 bis 4 kurz und klein. Dies war die Folge des bekannten Konstruktionsfehlers: Die Lage des Kraftwerks über dem Meeresspiegel war viel zu niedrig. Bereits in den etwas abgelegenen (neueren) Blöcke 5 und 6 waren die Zerstörungen wesentlich geringer. Sämtliche Kühlwasserpumpen der Blöcke 1 bis 4 sind abgesoffen und damit war keine Außenkühlung mehr möglich. Die Notstromdiesel, die Schaltanlagen und alle Batterien im Keller des Turbinengebäudes wurden durch das hereinbrechende Meerwasser zerstört. Zunächst überlebten die Diesel von Block 2 und 4, bis sie durch die zerstörten Schaltanlagen außer Gefecht gesetzt wurden. Die Batterien von Block 3 hielten noch durch, bis sie erschöpft waren. Es gab sogar einen zusätzlichen luftgekühlten Generator für den Block 6 – wenn man nur den Strom hätte nutzen können. Durch den totalen Stromausfall (station blackout) war die Mannschaft blind und kraftlos. Man hatte bald keine Informationen durch die Messgeräte mehr und konnte auch keine elektrischen Stellglieder mehr betätigen. So ließ sich das Ventil, welches man im Block 1 geschlossen hatte, um die Abkühlung zu verringern, nun nicht mehr öffnen. Hilfe von außen ließ auf sich warten, weil die Feuerwehr erstmal die zerstörten und verschütteten Straßen räumen mußte um sich zum Kraftwerk vorkämpfen zu können. Die Kernschmelze setzte etwa 5 Stunden später in Block 1 ein. Unter den hohen Temperaturen zersetzten sich die Brennstabhüllen durch eine chemische Reaktion zwischen Wasserdampf und Zirconium. Der Kern des Reaktors – eine Konstruktion mit Toleranzen von weniger als einem Millimeter – fällt nun unkontrolliert in sich zusammen. Da die Nachzerfallswärme immer noch weiter wirkt, schmelzen Teile sogar auf. Es entsteht ein „Corium“, eine Legierung aus allen Bauteilen des Kerns, die nach dem Erkalten eine lavaähnliche Schlacke bildet. Deren Beseitigung ist die zentrale Herausforderung des Rückbaus. Man hat nicht mehr eine verfahrenstechnische Anlage vor sich, sondern einen Stahlbehälter mit einer harten, widerborstigen Masse, die man zerkleinern und bergen muß. Sinnvollerweise wird dies erst in Jahrzehnten mit noch zu entwickelnden Robotern erfolgen.

Durch den ansteigenden Druck wurde der Deckel im Reaktor 1 undicht und es entwich Wasserstoff in das obere Stockwerk. Eine ganz normale Industriehalle und kein „Betonbunker“, wie er in modernen Kraftwerken üblich ist. Etwa nach 24 Stunden explodierte das gebildete Knallgas und lieferte die spektakulären und immer wieder gern gezeigten Bilder. Nur hat dies nichts mit Kerntechnik zu tun, sondern ist eher ein Vorgeschmack auf die viel gepriesene „Wasserstoffwirtschaft“.

Im Block 2 funktionierte die Notkühlung noch drei Tage. Allerdings stieg auch dort Druck und Temperatur an, weil durch den Ausfall der Kühlwasserpumpen die Wärme nicht mehr an die Umwelt abgegeben werden konnte. Der Versuch einer Druckentlastung damit die Feuerwehr Wasser einleiten konnte, scheiterte und es kam ebenfalls zu einer Teilschmelze. Allerdings weniger schlimm als in Block 1. Es gab auch keine Knallgasexplosion, da der „Schuppen“ über dem Reaktordruckbehälter schon durch die Explosion in Block 1 soweit zerstört war, daß der Wasserstoff abziehen konnte.

In Block 3 konnte man mittels Strom aus Batterien die Notkühlung noch etwas steuern. Da aber die Wärmesenke Meerwasser nicht mehr zur Verfügung stand, kam es auch dort zu einer Kernschmelze. Hier strömte das gebildete Knallgas nicht nur in den „Schuppen“ oberhalb des Blocks 3, sondern auch über die gemeinsamen Lüftungskanäle in den „Schuppen“ des gar nicht in Betrieb befindlichen Block 4. Wieder zwei spektakuläre Explosionen von Knallgas. Nun waren alle „Schuppen“ zerstört wie nach einem Bombenangriff und der Schutt in alle Brennelemente-Lagerbecken gefallen. Um die Brennelemente bergen zu können, muß erstmal der Schutt beräumt werden. Davor wiederum mußten erstmal neue Gebäude gebaut werden um etwaige Verseuchungen bei den Bergungsarbeiten zu verhindern. Das alles brauchte und braucht Zeit.

Der Irrsinn der Evakuierung

Völlig überhastet und von „Strahlungsangst“ getrieben, ordnete man großräumige Evakuierungen an. Infolge dieser Evakuierungen kam es zu zahlreichen Todesfällen, weil man Schwerkranke von Intensivstationen und hochbetagte Pflegefälle einem Transport und Notunterkünften aussetzte. Nachweislich ist aber kein Mensch durch Strahlung gestorben. Die Strahlungsdosen sind so gering, daß man nicht einmal mit einer erhöhten Rate von Krebsfällen rechnen kann. Anfangs lagen die Strahlendosen im Sperrgebiet bei 50 bis 100mSv/year. Durch Dekontaminierung wurden die Werte auf 1 bis 20 mSv/year gesenkt. Ein wahnsinniger Aufwand, der eher an „Buße“ als an Strahlenschutz erinnert.

So ist es halt, wenn man den Weg der Wissenschaft verläßt und sich dem Populismus hingibt. Geht man den Agitatoren von Green Peace und Co auf den Leim, wird es einem nicht vergönnt, sondern die Berge von abgetragenem – und sorgfältig in Säcke verpacktem – Mutterboden (!) werden als tödliche Strahlenquellen genüßlich vorgeführt. Man hinterfragt keine Sekunde die Prognosen über „Strahlentote“ und „Krebsopfer“ unmittelbar nach dem Unglück. Nein, die gleichen Angstmacher dürfen von der „Beinahe-Katastrophe“ in Tokio schwadronieren. Man sollte das tunlichst nicht einfach als Spinnereien ewig Unbelehrbarer abtun. Ganz im Gegenteil, es ist die Vorbereitung für z. B. den Kampf gegen den Bau von Kernkraftwerken nahe Danzig. Die Antifanten müssen rechtzeitig aufgestachelt werden. Mit Angst läßt sich nicht nur hervorragend regieren, sondern auch Spannungen mit (nicht folgsamen) Nachbarländern schüren. Die „Energiewende“ ist längst zu einem politisch-wirtschaftlichen Geschwür geworden, neben dem jede „Masken-Affäre“ wie Tauschgeschäfte unter Kindern auf dem Schulhof anmuten. Gerade dieses Filmchen und die darin auftretenden Darsteller sind ein Beispiel dafür, wie inzwischen eine ganze Generation „Angstmacher“ sich lukrative Posten ergattert hat, die diese wahrscheinlich nie mit ihren studierten Berufen hätten erreichen können.

Die Moritat vom Atommüll

Unsere Filmschaffenden vom ZDF-Kollektiv „schneide und sende“ haben beharrlich alte Wochenschauberichte von Arbeitsmännern, die durch Ruinen kraxeln, endlosen Tanklagern, Berge von Plastiksäcken etc. zusammengeschnitten. Man kennt diesen Arbeitsstil noch von der Berichterstattung über Trump: Immer wurde nur Material anderer (gleichgesinnter) Sender „nachgesendet“, niemals jedoch eine Rede von Trump im Original gesendet. Ist das einfach nur Faulheit oder hat Betreutes-Denken-TV Angst, die Zuschauer könnten zu viel von der tatsächlichen Welt erfahren? Wo sind die Aufnahmen vom Kraftwerksgelände heute, wo man sich längst ohne jede Schutzkleidung bewegen kann? Wo sind die Aufnahmen von den Ingenieuren vor Ort in ihren Computer Räumen (von denen manche deutsche Universität nur träumen kann), die die Arbeiten steuern und überwachen? Es wird doch sonst so gern von künstlicher Intelligenz, Robotertechnik, Simulationstechnik etc. geschwätzt. All das hätte man im Einsatz in der Ruine von Fukushima filmen können. Dazu hätte man sich vor Ort noch mit den führenden internationalen Fachleuten auf diesen Gebieten unterhalten können. Paßt natürlich alles nicht in das ideologisch gewünschte Bild einer sterbenden Technik. Ahnungslose Rentner (die Zielgruppe des ZDF) hätten sonst noch glauben können, sie hätten einen Bericht von der Hannover Messe gesehen.

Stattdessen Luftbilder von einem Tanklager. Eigentlich ein Beweis, wie umsichtig man vorgeht. Man hat nicht einfach das radioaktive Wasser ins Meer gekippt – was nebenbei gesagt, kein großer Schaden gewesen wäre – sondern hat es aufwendig zur Aufbereitung zwischengelagert. Hat man so etwas schon mal bei einem Unfall in einem Chemiewerk gesehen? Wie wäre es gewesen, wenn man mal die Reinigungsanlagen gefilmt hätte und die betreuenden Wissenschaftler z. B. aus Russland und Frankreich befragt hätte, wieviel Gehirnschmalz dafür notwendig war, Konzentrationen in Trinkwasserqualität zu erzielen? Stattdessen minutenlanges Gejammer über Tritium. Aber Vorsicht, das Narrativ vom unbeherrschbaren Atommüll hätte bei manch einem Zuschauer hinterfragt werden können.

Die Konsequenzen

Die Welt hat nach Fukushima erstmal den Atem angehalten. Man ist wie nie zuvor in der Technikgeschichte zusammengerückt und hat die tragischen Ereignisse analysiert. Heute gehen selbstverständlich russische, chinesische und amerikanische Fachleute gegenseitig in ihren Kernkraftwerken ein und aus. Suchen Schwachstellen und beraten sich gegenseitig. Dies geschieht über alle politischen Gegensätze und Spannungen hinweg. Fukushima war ein Ereignis für die Kerntechnik, wie der Untergang der Titanic für die Seefahrt. Schrecklich, aber nicht zerstörend. Nur unsere Führerin hat den „Mantel der Geschichte wehen gespürt“. Sie, die als so bedächtig dargestellte, hat sofort fest zugegriffen. Man könnte auch sagen, wie ein Skorpion tödlich zugestochen, um ihre öko-sozialistischen Träume zu beschleunigen. Milliardenwerte mit einem Federstrich vernichtet und Deutschland international ins Abseits gespielt. Chapeau Frau Merkel, sie werden ihren Platz in der Geschichte einnehmen.

SMR-2021 Einleitung

Die Kerntechnik bekommt gerade einen unerwarteten Aufschwung: Immer mehr junge Menschen drängen in die einschlägigen Studiengänge, es entstehen unzählige neu gegründete Unternehmen und es steht plötzlich auch viel privates Kapital zur Verfügung. Darüberhinaus zeigt dieser Winter in Texas auch dem gutgläubigsten Menschen, daß eine Stromversorgung (nur) aus Wind, Sonne und Erdgas ein totes Pferd ist.

  • Texas ist nahezu doppelt so groß wie Deutschland, hat aber nur etwa ein Drittel der Einwohner, die sich überwiegend in einigen Großstädten ballen. Windparks waren deshalb höchstens ein Thema für Vogelfreunde und Landschaftsschützer. Texas ist darüberhinaus auch noch sehr windreich durch seine Lage „zwischen Golf und mittlerem Westen“.
  • Texas liegt etwa auf der „Breite der Sahara“ (Corpus Christi 27°N, Amarillo 35°N; Kanarische Inseln 28°N, Bagdad 33°N). Mal sehen, wann in Deutschland wieder von der Photovoltaik in der Sahara gefaselt wird.
  • In Texas kommt das Erdgas aus der Erde. Trotz der inzwischen gigantischen Verflüssigungsanlagen für den Export, muß immer noch Erdgas abgefackelt werden. Das alles ändert aber nichts an der Tatsache, daß im Ernstfall nur das Gas am Anschluss des Kraftwerks zählt. Kommt noch parallel zum Strombedarf der Bedarf für die Gebäudeheizungen hinzu, ist schnell die Grenze erreicht. Wohl gemerkt, das Gas kommt in Texas aus der Erde und nicht aus dem fernen Russland.

Das Kapital ist bekanntlich ein scheues Reh. Nach den Milliarden-Pleiten in Texas wird man sich schnell umorientieren. Darüberhinaus fängt die Bevölkerung an zu fragen, warum man eigentlich zig Milliarden Steuergelder mit Wind und Sonne versenkt hat.

Was sind SMR?

SMR (Small Modular Reactor) sind kleine Kernkraftwerke mit einer elektrischen Leistung von bis zu 300 MWel. Eine ziemlich willkürliche Grenze, die auf kleine Reaktoren abzielt, die gerade noch mit der Eisenbahn (in den USA) transportierbar sein sollen. Eine weitere Untergruppe sind Mikroreaktoren mit einer elektrischen Leistung von bis zu etwa 10 MWel. Bei den bisherigen Kernkraftwerken hat man immer größere Leistungen (z. B. EPR mit 1650 MWel) angestrebt, um die in der Verfahrenstechnik üblichen Skaleneffekte zu erzielen. Problem dabei ist, daß man einen erheblichen Montageaufwand auf der Baustelle hat, da alle Bauteile sehr groß werden. Bei den SMR geht man umgekehrt den Weg, das Kraftwerk weitesgehend in Fabriken in Serie zu fertigen und zu testen. Es steht also Kosteneinsparung durch Skaleneffekte gegen Serienfertigung (wie z. B. im Flugzeugbau). Welcher Weg letztlich kostensparender ist, kann vorab gar nicht gesagt werden. Vielmehr kann durch SMR ein völlig neuer Markt der „kleinen Netze“ erschlossen werden. Das betrifft beileibe nicht nur Schwellenländer, sondern vielmehr lernen wir in Deutschland gerade, welche enormen Netzkosten entstehen, wenn man zentrale Windparks baut. Ferner ist die Finanzierung wegen des kleineren (absoluten) Kapitalbedarfes weniger risikoreich und damit leichter handhabbar. Ein „Kraftwerk von der Stange“ erfordert eine wesentlich kürzere Zeitspanne – also Vorfinanzierung – von der Bestellung bis zur Inbetriebnahme. Hinzu kommt, daß die kleineren Bauteile auch nur kleinere Fertigungsanlagen erfordern. Beispielsweise baut Indien zur Zeit 15 Schwerwasserreaktoren, da dafür alle Komponenten im eigenen Land hergestellt werden können. Der ursprünglich angedachte Bau von konventionellen Druckwasserreaktoren wurde aufgegeben, da dafür wesentliche Komponenten (z.B. Reaktordruckbehälter) im Ausland gegen Devisen gekauft werden müßten. Aus gleichem Grund treffen SMR auch in Europa (z. B. Tschechien, Großbritannien) auf großes Interesse.

Die Sicherheitsfrage

Bei kleineren Kraftwerken kann man näher an die Städte heranrücken und damit Kraft-Wärme-Kopplung in vorhandenen Fernwärmenetzen abgasfrei betreiben. Finnland z. B. plant mittelfristig die vorhandenen Kraftwerke in den Ballungszentren durch SMR zu ersetzen. Analog gelten die gleichen Überlegungen für Fernkälte und Meerwasserentsalzungsanlagen z. B. in der Golfregion. Will man jedoch in der Nähe von Großstädten bauen, müssen solche Kernkraftwerke zwingend „walk away“ sicher sein, damit sie überhaupt genehmigungsfähig sind. Dazu gehört insbesondere der Verzicht auf eine aktive Notkühlung. Reaktoren kleiner Leistung kommen dem physikalisch entgegen: Um die Leistung zu produzieren, ist eine entsprechende Anzahl von Kernspaltungen notwendig. Bei der Kernspaltung entstehen radioaktive Spaltprodukte, die auch nach der Abschaltung noch Zerfallswärme produzieren. Bei kleinen Reaktoren ist diese Nachzerfallswärme so gering, daß sie problemlos passiv abgeführt werden kann – oder anders ausgedrückt, die Temperatur im abgeschalteten Reaktor steigt nur so weit an, daß keine Grenzwerte erreicht werden. Dies war z. B. beim Unfall in Fukushima völlig anders. Dort hat die Nachzerfallswärme gereicht, um eine Kernschmelze auch noch nach der Abschaltung der Reaktoren auszulösen.

Damit Kernkraftwerke in oder in unmittelbarer Nähe zu Städten akzeptiert werden, muß faktisch gewährleistet sein, daß keine (nennenswerte) Radioaktivität das Betriebsgelände überschreitet. Damit an dieser Stelle kein Missverständnis entsteht: Es gibt keine absolute Sicherheit. Es wird auch zukünftig Unfälle in Kernkraftwerken geben, genauso wie immer wieder Flugzeuge abstürzen werden. Trotzdem fliegen Menschen. Der Mensch ist nämlich durchaus in der Lage, Risiken und Vorteile für sich abzuwägen – solange er nicht ideologisch verblödet wird. Selbst eine ideologische Verblödung kann aber nicht unendlich lange aufrecht erhalten werden: Gerade durch Tschernobyl und Fukushima sind die Märchen der „Atomkraftgegner“ von „Millionen-Toten“ etc. als Propaganda entlarvt worden. Auffällig still ist es in den letzten Jahren um die „Gefahren durch Atomkraft“ geworden. Übrig geblieben ist einzig die Lüge von dem „Millionen Jahre strahlenden Atommüll, für den es keine Lösung gibt“. Auch dieser Unsinn wird sich von selbst widerlegen.

Die Vielzahl der Entwürfe

Es gibt unzählige Entwürfe von Kernreaktoren. Jeder Professor, der etwas auf sich hält, erfindet einen neuen Reaktor zu Übungszwecken. Der Weg zu einem Kernkraftwerk ist aber lang. Irgendwann stirbt die überwiegende Anzahl wegen irgendwelcher unvorhergesehenen Detailprobleme. Hier werden nur Entwürfe betrachtet, für die ausreichend Unterlagen aus Genehmigungsverfahren, Veröffentlichungen etc. zur Verfügung stehen. Immerhin blieben noch über 90 Konzepte übrig, die sich auf dem Weg zu einem Prototypen befinden. Für jedes einzelne Konzept wurde bereits mindestens ein zweistelliger Millionenbetrag investiert und ein Unternehmen gegründet. Als erstes soll etwas Systematik in dieses Angebot gebracht werden. In späteren Folgen werden dann einzelne Entwürfe näher vorgestellt und diskutiert werden.

Neutronenspektrum

Je langsamer Neutronen sind, je höher ist die Wahrscheinlichkeit einer Spaltung eines U235 – Kerns. Demgegenüber können alle schnellen Neutronen auch Kerne von U238 bzw. anderer Aktinoiden spalten. Schnelle Reaktoren haben den Vorteil, daß sie mit „Atommüll“ (so verunglimpfen „Atomkraftgegner“ immer die abgebrannten Brennelemente aus Leichtwasserreaktoren) betrieben werden können. Eine verlockende Perspektive: Betrieb der Kernkraftwerke mit „Abfall“, bei gleichzeitiger Entschärfung der „Endlagerproblematik“ auf wenige Jahrzehnte bis Jahrhunderte. Nur hat alles seinen Preis, gerade kleine Reaktoren (im räumlichen Sinne, nicht nur im übertragenen, bezogen auf die Leistung) sind schwierig als schnelle Reaktoren zu bauen. Es ist deshalb nicht verwunderlich, daß 59 Entwürfe mit thermischem Spektrum und nur 20 als schnelle Reaktoren ausgeführt sind.

Die angestrebten geringen Abmessungen (Transport) sind faktisch auch bei thermischen Reaktoren nur über eine höhere Anreicherung realisierbar. Mit der bei heutigen Druckwasserreaktoren üblichen Anreicherung von weniger als 5% lassen sich kaum SMR bauen. Man hat deshalb den neuen Standard HALEU mit einer Anreicherung von knapp unter 20% eingeführt. Der Begriff „thermisch“ im Zusammenhang mit der Geschwindigkeit von Neutronen bezieht sich auf die Geschwindigkeitsverteilung der brownschen Molekularbewegung. Je höher deshalb die Betriebstemperatur eines Reaktors ist, um so höher auch die Geschwindigkeit der Neutronen und damit um so geringer die Wahrscheinlichkeit einer Spaltung eines Urankernes. Deshalb sind „Hochtemperaturreaktoren“ schon wegen der neutronenphysikalischen Auslegung anspruchsvoller.

Moderatoren

Wenn man Neutronen abbremsen will, benötigt man einen Moderator. Bei den Leichtwasserreaktoren ist das das Arbeitsmedium Wasser. Die einfachste Konstruktion ist der Siedewasserreaktor, bei dem der im Reaktor erzeugte Dampf unmittelbar die Turbine antreibt (5 Entwürfe). Demgegenüber wird beim Druckwasserreaktor erst in einem zusätzlichen Wärmeübertrager der Dampf erzeugt (24 Entwürfe). Eine gewisse Sonderstellung nehmen Schwerwasserreaktoren ein, in denen Deuterium die Funktion des Moderators übernimmt (2 Entwürfe). Bei Mikroreaktoren kommen noch andere Moderatoren zum Einsatz.

Kühlmittel

Bei thermischen Reaktoren kommen Wasser, Helium und Salzschmelzen zur Anwendung. Bei Wasser sind die erreichbaren Temperaturen durch die abhängigen Drücke begrenzt (31 Entwürfe). Für eine reine Stromerzeugung ist das jedoch kein Hinderungsgrund. Will man hohe Temperaturen erreichen, bleibt Helium (20 Entwürfe) oder eine Salzschmelze (13 Entwürfe). Bei beiden kommt man mit relativ geringem (Helium) oder gar Atmosphärendruck (Salze) aus. Will man schnelle Reaktoren bauen, bleibt nur Helium (2 Entwürfe), Blei (9 Entwürfe), Natrium (5 Entwürfe) oder Salzschmelzen (3 Entwürfe). Tauscht man Wasser gegen andere Kühlmittel, wird man zwar den hohen Druck und den Phasenübergang los – was oft als Sicherheitsgewinn dargestellt wird – handelt sich aber damit eine Menge neuer Probleme ein: Einfrieren bei Raumtemperatur (Blei und Salzschmelzen), Korrosion (Blei und Salzschmelzen), Staub (Helium), Brandgefahr (Natrium), Zeitstandsfestigkeit usw. Es verwundert deshalb nicht, daß die Überzahl der Entwürfe bei Wasser als Moderator und Kühlmittel bleibt. Durch die überragenden thermodynamischen Eigenschaften des Wasser-Dampf-Kreisprozesses ist das für eine Stromproduktion auch kein Hinderungsgrund. Oft gehörte Argumente von möglichen höheren Wirkungsgraden sind bei den geringen Brennstoffkosten eher Scheinargumente. Anders sieht es mit der Entwicklung von schnellen Reaktoren aus. Blei und Natrium haben hier eine überragende Stellung. Allerdings sind die Preise für Natururan immer noch im Keller und die Zwischenlagerung abgebrannter Brennelemente ist ebenfalls konkurrenzlos billig. In einigen Jahren könnte jedoch ein geschlossener Brennstoffkreislauf aus politischen Gründen (Angst vor Atommüll) zum Renner werden. Momentan liegt Russland bei dieser technischen Entwicklung mit großem Abstand vorn. Die USA haben das erkannt und starten gerade eine beeindruckende Aufholjagd.

Brennstoff

Standard ist immer noch Uran. Bei schnellen Reaktoren kann man den „Abfall“ der konventionellen Reaktoren weiter nutzen. Thorium bleibt vorläufig auch weiter ein Exot. Das Uran kann in unterschiedlichen chemischen Verbindungen (metallisch, Uranoxid, Urannitrid, Legierungen usw.) im Reaktor verwendet werden und in unterschiedlichen geometrischen Formen (als Brennstäbe, als TRISO-Elemente, im Kühlmittel aufgelöst usw.) eingebaut werden. Der Brennstoff ist in seiner chemischen Zusammensetzung und seiner geometrischen Form bestimmend für die maximale Betriebstemperatur. Ferner ist er das erste Glied der Sicherheitskette: Er bindet während des Betriebs die Spaltprodukte und soll diese auch bei einem Störfall zurückhalten. SMR benötigen wegen der höheren Anreicherung mehr Natururan und sind wegen der höheren Trennarbeit teurer in der Herstellung als konventionelle Brennelemente.

Die Hersteller

Mit deutlichem Abstand sind die beiden führenden Länder in der Entwicklung von SMR Russland und die USA.

Alle Projekte befinden sich in einer unterschiedlichen Realisierungsphase von Konstruktion, Genehmigungsverfahren, über Bau bis Probebetrieb. Der chinesische SMR vom Typ ACPR50S (Druckwasserreaktor in klassischer Bauweise mit 50 MWel) ist fast fertiggestellt. Er soll bei Serienfertigung als schwimmender Reaktor auf einem Ponton verwendet werden. Der argentinische SMR Carem (integrierter Druckwasserreaktor mit 30 MWel) ist eine Eigenentwicklung und soll 2023 in Betrieb gehen.

Land LWR Gas Blei Natrium Salz Summe
Argentinien– – – – 1
China– – 7
Dänemark– – – – 
Finnland– – – 
Frankreich1– – – 
GB1– – – 
Indonesien– – – 
Japan– 
Kanada– – 
Luxemburg– – – – 
Russland11 – 17 
Schweden– – – – 
Südafrika– – – – 
Süd Korea– – – 
USA21 
Summe29 17 13 – 
Betrachtete SMR-Entwürfe nach Ländern und Typen geordnet.

Der chinesische HTR-PM (Hochtemperaturreaktor, Kugelhaufen mit Helium, 105 MWel) befindet sich im Testbetrieb. Sein Vorläufer HTR-10 von der Tsinghua University, China (Kugelhaufen mit 2,5 MWel) ist seit 2018 in Betrieb. Der japanische HTTR 1 (prismatischer Hochtemperaturreaktor, Helium, 30 MWth) ist seit 2007 mit Unterbrechungen für Umbauten in Betrieb. Der russische RITM-200M (modularer Druckwasserreaktor mit 50 MWel) ist seit 2020 auf Eisbrechern in Betrieb und soll bis 2027 in Ust-Kuyga in Sibirien als Kraftwerk in Betrieb gehen. Der russische KLT-40S (Druckwasserreaktor in klassischer Bauweise, 35 MWel) ist zweifach auf einem schwimmenden Ponton seit 2020 in Pevek in Chukotka als Heizkraftwerk in Betrieb.

LEU, HALEU und HEU

Im Zusammenhang mit Meldungen über Kernwaffen im Iran, Kernreaktoren im Weltall und moderne Kernkraftwerke geistern diese Abkürzungen durch die Medien. Warum ist es so gefährlich, daß der neue Präsident Jo Biden flugs die Iran-Politik seines Vorgängers wieder rückgängig macht, wo selbst manche europäischen Politiker ihrer einstigen Beschlüsse nicht mehr so sicher sind? Warum hat man sich weltweit über Jahre bemüht, Forschungsreaktoren umzubauen? Fragen, die man nur beantworten kann, wenn man sich näher mit der Anreicherung von Uran beschäftigt.

Der Zweck der Anreicherung

U235 ist das einzige in der Natur vorkommende Isotop mit dem sich eine selbsterhaltende Kettenreaktion erzeugen läßt. Auch das andere Isotop U238 läßt sich zwar spalten, ist aber so stabil, daß man beliebig viel davon zusammenpacken kann ohne eine Kettenreaktion auslösen zu können. Leider besteht Natururan aus über 99,27% U238 und nur zu etwa 0,7211% aus U235. Will man damit einen Kernreaktor bauen, muß man einen erheblichen technischen Aufwand betreiben um die freiwerdenden Neutronen abzubremsen (Moderator aus Deuterium oder Graphit) und ein recht großes Volumen zur Verfügung stellen, damit wenig Neutronen ausfließen können. Will man (wirtschaftliche Gründe) oder muß man (Kernwaffe oder Reaktor für ein Kriegsschiff) möglichst klein bauen, braucht man eine entsprechend höhere Konzentration von U235. So ist z. B. der Kern eines Reaktors eines Atom-U-Boots kleiner als ein Kühlschrank und liefert zig MW für einen Zeitraum von mehreren Jahrzehnten ohne „nachladen“ zu müssen. Dafür ist dann allerdings auch hochangereichertes Uran HEU (High Enriched Uranium) nötig. Für kommerzielle Kernkraftwerke reicht LEU (Low Enriched Uranium) mit einer Anreicherung zwischen etwa 3 bis 5% aus.

Eine Kernwaffe muß bei dem heutigen Stand der Luftabwehr so klein sein, daß sie von einer Rakete transportiert werden kann. Die erste Atombombe für Hiroshima – scherzhaft Little Boy genannt – wog noch über vier Tonnen und war 3,2 m lang. Sie enthielt einen Kern aus 64 kg auf 80% angereichertes Uran. Ihre Sprengkraft mit etwa 13 Kilotonnen TNT (Trinitrotoluol) war noch recht klein. Wohlgemerkt, ist dies der Stand der Technik der 1940er-Jahre. Für einen Raketeneinsatz zwar viel zu groß, gleichwohl als „Terror-Waffe“ beispielsweise in einem LKW, auf einem Fischerboot oder in einem Verkehrsflugzeug äußerst bedrohlich. Bei solch einer Verwendung hilft auch die Abschreckung nur sehr bedingt. Die Konstruktion von Little Boy ist so simpel, daß schon damals die USA auf einen Test verzichtet haben. Terroristen lieben Überraschungen…

Zentrifugen

Es gibt praktisch nur eine Möglichkeit durch die Ausnutzung des Dichteunterschiedes das Natururan zu trennen. Vorher muß es jedoch noch in ein Gas verwandelt werden. Man nutzt dazu die chemische Verbindung Uranhexafluorid (UF6). Es hat den Vorteil, daß Fluor nur als ein Isotop in der Natur vorkommt, also das Massenverhältnis nicht verfälscht. Ferner besitzt es bei Raumtemperatur einen geringen Dampfdruck von 100 mbar. Allerdings wird durch die sechs Fluoratome der Massenunterschied bei den Uranmolekülen noch geringer. Es sind deshalb enorme Kräfte nötig, um eine Trennung zu erzielen. Heute wird nahezu 100% der Urantrennung weltweit mit Zentrifugen durchgeführt.

Eine Uran-Zentrifuge ist ein sehr schnell rotierender Hohlzylinder. In ihm baut sich ein für die beiden Isotope unterschiedlicher Druckanstieg nach dem Boltzmannschen Verteilungsgesetz für den Partialdruck auf: Der Druckanstieg für ein schweres Isotop ist steiler als für ein leichtes, wodurch eine Entmischung eintritt. Entscheidend für die Trennleistung ist die Umfangsgeschwindigkeit als Funktion der Drehzahl und des Durchmessers. Die Umfangsgeschwindigkeit ist jedoch durch die Festigkeit (etwa bei Aluminium <400, Stahl <500, Faserverstärkte Werkstoffe <700 m/s) begrenzt. Um den Trenneffekt zu verstärken, kann man durch Beheizung der Unterseite und Kühlung der oberen Seite noch eine Sekundärströmung in der Zentrifuge anregen. Allerdings ist die Leistung nicht beliebig steigerbar, da das Konzentrationsprofil mit steigender Umfangsgeschwindigkeit immer mehr vom idealen Verlauf abweicht (schmale Gasschicht am Rande, Hochvakuum in der Mitte). Zentrifugen sind nur schwer herzustellen (notwendige Einhaltung engster Toleranzen) und zu betreiben (Elastizität, die zu Eigenschwingungen und Resonanzen führt). Einmal die falsche Drehzahl und die Zentrifuge ist Totalschaden. Dies haben die Iraner durch eine Cyber-Attacke auf die Steuerung zu spüren bekommen. Je hochwertiger die Zentrifugen, desto kleiner die Gesamtanlage und desto geringer der Energieverbrauch.

Trennleistung

In eine Stufe i strömt ein Massenstrom (Feed Fi) mit der Konzentration (xF) rein und wird in einen Produktstrom (Produkt Pi mit xP) und einen Abfallstrom (Waste Wi mit xw) aufgeteilt. Wie vorher gezeigt, kann die Anreicherung in einer einzelnen Zentrifuge nur sehr begrenzt sein. Deshalb schaltet man eine große Zahl Zentrifugen hintereinander. Der Produktstrom einer Stufe ist dann der Eingangsstrom der nächst folgenden Zentrifuge und deren Abfallstrom wird wieder dem Eingang der vorhergehenden Stufe zugeführt. Die erste Erkenntnis ist nun, daß man viel Feed (im zivilen Bereich ist das Natururan) hinzufügen muß, wenn man viel von einem entsprechenden Produkt herstellen will. Dies ist keinesfalls trivial, wie später noch gezeigt wird. Entscheidend ist aber die Konzentrationsverschiebung zwischen Produkt und Abfall. So kann man in einer zivilen Anlage die Kosten optimieren. Der Eingang ist Natururan und das Produkt gefordert (z.B. 3 bis 5% Anreicherung für Leichtwasserreaktoren). Man ist aber frei in der Wahl der Abreicherung: Ist Natururan teuer, reichert man mehr ab, ist es hingegen billig, verzichtet man auf Abreicherung und kann dadurch mit der gleichen Anlage eine größere Menge Produkt herstellen. Oder anders gesagt, wollte man dem Natururan alle Isotopen U235 vollständig entziehen, bräuchte man eine Anlage mit unendlich vielen Stufen. In der Praxis hat man Waste (Abgereichertes Uran) mit einer Konzentration von 0,2 bis 0,36%.

Nun kommt man zur Frage der notwendigen Konzentrationsverschiebung und dem Weg zur Bombe. Wenn man auf direktem Weg vorgeht, braucht man ungeheuer große Anlagen mit entsprechendem Kapitaleinsatz. Viel wichtiger aber, das Ansinnen fällt sofort auf und führt zu internationalen Reaktionen und man ist extrem verwundbar. Schlauer ist, man geht in Schritten vor. Dies soll an einer „Rückwärtsbetrachtung“ einer Bombe vom Typ „Little Boy“ verdeutlicht werden. Will man die 64kg auf 80% angereichertes Uran in einem Durchgang erzeugen, muß man eine Anlage bauen, die rund 15 000 kg Natururan verarbeiten kann. Geht man aber von Uran mit bereits 20% Anreicherung als Feed aus, benötigt man ungefähr 250kg Feed und eine Anlage, die weniger als ein Zehntel so groß ist (z. B. Anzahl der Zentrifugen). Will man verstehen, warum die (offizielle) Ankündigung des Iran Uran auf 20% anreichern zu wollen, soviel Aufregung ausgelöst hat, liegt hier die Antwort. Eine so relativ kleine Menge kann man gut verstecken und eine weitere „kleine“ Anreicherungsanlage kann man unterirdisch sicher geschützt bauen. Man braucht(e) lediglich Zeit. Und was politisch noch viel wichtiger ist, man kann einfältigen Gemütern vorspielen, daß man nur an einer friedlichen Nutzung interessiert ist und mit 20% ja (vermeintlich) meilenweit von einer Bombe entfernt. In Wirklichkeit aber, kann man zu jedem gewünschten Zeitpunkt in wenigen Monaten zu einer Bombe kommen. Man hatte diesen Zusammenhang durchaus 2015 in dem „Joint Comprehensive Plan of Action (JCPOA)“ eingearbeitet, indem man dem Iran nur eine Anreicherung auf 3,67% für 15 Jahre gestattete. Diese Produktion sollte lediglich für den Betrieb von Kernkraftwerken dienen. Der springende Punkt war, daß stets nur 300 kg davon in der Form von UF6 im Lande verbleiben sollten. Alles weitere Material mußte laut Vertrag unverzüglich ins Ausland (z. B. zur Herstellung von Brennelementen in Rußland) verbracht werden. Nur, gut geglaubt, ist noch lange nicht konsequent umgesetzt. Die Hoffnung, durch eine Rückkehr zum JCPOA, auch in den Zustand von 2015 zurückkehren zu können, ist schlichtweg lächerlich. Der einzig gangbare Weg war, durch wirtschaftliche Sanktionen das Mullah-Regime so stark unter Druck zu setzen, daß es von der Bombe abschied nehmen müßte. Kehren jetzt auch die USA zum Kuschelkurs der Europäer zurück, ist die Frage einer iranischen Bombe nur noch eine Frage der (sehr kurzen) Zeit.

Die momentane Situation

Nach Aussage der IAEA hat Iran um die Jahreswende offiziell mitgeteilt, daß es zukünftig Uran auf 20% anreichern werde. Dies geht auf ein Gesetz zurück, das das iranische Parlament (Majles) im Dezember verabschiedet hat. Darin wird die Atomic Energy Organisation of Iran (AEOI) angewiesen, in der unterirdischen Anlage Fordo mindestens 120 kg jährlich auf 20% angereichertes Uran zu produzieren. Am 4. Januar wurde die Anlage bereit mit einem Feed von 4,1% (Anmerkung: nach dem JCPOA durfte nur bis 3,67% angereichert werden.) im Beisein eines Inspektors der IAEA beschickt, der höchstpersönlich die Siegel an den Tanks entfernte. Die sechs Kaskaden in Fordo wurden in zwei Stränge umgebaut und umfassen 1044 Zentrifugen vom Typ IR-1 (Anmerkung: je mehr Zentrifugen in Reihe geschaltet werden, um so höher kann man anreichern; je mehr Kaskaden parallel laufen, um so mehr Menge kann man produzieren). Nach der Aussage des „IAEA Director General“ Grossi ist diese Anlage nun in der Lage, über 10kg 20%-Uran monatlich zu produzieren. Inzwischen hat der Chef der AEOI Ali Akbar Salehi sogar voller Stolz verkündet, daß der Iran inzwischen 0,5 kg/Tag mit 20% Anreicherung produziert (Anmerkung: 30 x 0,5 = 15kg pro Monat). In der üblichen Scheinheiligkeit wird behauptet, das geschehe nur, um daraus Brennstoff aus Urannitrid für Forschungszwecke herzustellen. Bereits dies wäre ein weiterer Verstoß gegen das JCPOA, in dem sich Iran verpflichtet hat, bei Bedarf für die Forschung, solches Uran aus dem Ausland zu importieren (dies wäre kontrollierbar) und eben nicht selbst eine Anreicherungsanlage dafür zu betreiben. Ferner ist der Iran das einzige Land, das Inspektoren der IAEA zukünftig per Gesetz den Zutritt verbietet (nur Nord Korea läßt keine Inspektoren ins Land). Man kann das nur als Verschärfung des Kurses werten, da ohnehin nach dem JCPOA eine Anmeldung von mindestens 14 Tagen erforderlich war und als militärisch deklarierte Anlagen ausgeschlossen waren. Aber die Paukenschläge kommen in immer engeren Abständen: Behrouz Kamalvandi, ein Sprecher der AEOI verkündete bei einem Besuch des Parlamentssprechers Mohammad Bagher Qalibaf in der Anreicherungsanlage Fordo, daß in wenigen Monaten in der Anreicherungsanlage Natanz weitere 1000 Zentrifugen in Betrieb gehen. Man ist offensichtlich in den Bestrebungen soweit fortgeschritten, daß man nicht einmal mehr den Schein aufrecht erhalten muß. Es geht nur noch darum, die eigene Bevölkerung einzuschwören.

und nun…

Bereits nach fünf Jahren kann der Iran die Früchte des JCPOA ernten. Es ist bereits eingetreten, was manche Kritiker erst in 15 Jahren befürchtet haben: Der Iran hat seine Zentrifugen weiterentwickelt und beträchtliche Mengen (schwach) angereichertes Uran auf Vorrat produziert. Er hat sich unter dem Radar – insbesondere der Europäer – bereits heute in eine Position gebracht, in der er in Monaten zu einer Atombombe gelangen kann. Hinzu kommt noch das Glück „einer dritten Amtszeit“ der Obama-Administration. Trump hätte die Mullahs in weiteren vier Jahren zurück an den Verhandlungstisch zwingen können. Kein Mensch kann erwarten, daß (der ehemalige Vizepräsident) Biden seinen eigenen Vertrag heute für schlecht erklären wird. Insofern ist es kein Zufall, daß sich das Regime in Teheran bereits im ersten Monat seiner Präsidentschaft aus der Deckung wagen konnte. Europa macht auf Corona. Deutschlands Führer haben gerade ihr Holocaust-Gedenken pflichtschuldig hinter sich gebracht, ordentlich Beifall geklatscht für die Suche nach Hitleristen in der AfD-Bundestagsfraktion. Wie war das noch mal mit Heiko Maas? War er nicht nach eigenem Bekunden wegen Ausschwitz in die Politik gegangen? Ist dieser Mann wirklich (nur) so schrecklich ungebildet und beratungsresistent? Nach seinen Grußadressen für den Iran und dem permanenten Abstimmungsverhalten von Deutschland in der UNO können langsam Zweifel aufkeimen.

Was aber soll Israel machen? Geschichte wiederholt sich nicht, sagt man. In einer Frage auf Leben und Tod sollte man solchen Weisheiten nicht trauen. Was die „Endlösung der Judenfrage“ betrifft, spricht das Mullah-Regime jedenfalls die gleiche Sprache wie Hitler-Deutschland. Noch einmal sich selbst betrügen und das öffentlich gesagte und geschriebene als sicherlich nicht so ernst gemeint abtun? Helfen Sie Herr Außenminister, Herr Bundespräsident, Frau Bundeskanzler: Was genau verstehen Sie unter „Antisemitismus“ und dem Lippenbekenntnis „Nie Wieder“? Wenn Israel politisch so allein gelassen wird, wie im Moment, bleibt keine andere Möglichkeit als ein Präventivschlag. Der wird diesmal in einem handfesten Krieg ausarten. So gesichert und verteilt wie die Nuklearindustrie im Iran ist, reicht ein Luftschlag nicht aus. Mit Sicherheit wird der Iran mit verheerenden Raketenangriffen durch seine Hilfstruppen in den Nachbarländern antworten. Hat die Schlacht erst einmal begonnen, ist jede Planung über den Haufen geworfen. Innerhalb von Tagen kann der gesamte nahe und mittlere Osten in Flammen aufgehen. Wie sich die arabischen Staaten verhalten ist nicht so sicher, jedenfalls nicht auf der Seite des auch sie bedrohenden Iran.

Als die einzige Möglichkeit den ablaufenden Wahnsinn zu stoppen, erscheint eine vollständige Isolation des Mullah-Regimes durch Europa und die USA. China und Rußland werden sich zurückhalten, da auch sie kein Interesse an einer Nuklearmacht Iran haben. Nicht einmal an einer Konfrontation mit einem entschlossenen Europa und den USA. Es kann nur eine einzige Forderung geben: Aufgabe aller nuklearen Rüstungsprogramme (einschließlich des zugehörigen Raketenprogramms) und Zerstörung aller Einrichtungen unter internationaler Kontrolle. Solange das nicht geschieht, totale wirtschaftliche Blockade des Iran, abgesichert durch ein robustes militärisches Mandat. Freiheit und Frieden sind nicht selbstverständlich, sie müssen hin und wieder auch verteidigt werden. Wobei in diesem Falle, Deutschland eine ganz besondere historische Verantwortung hat.

Die Verschlimmbesserung der Stromversorgung

Ein weiterer Akt in „Unserer-Demokratie“ wurde am 22.12.2020 16:06 Uhr mit dem Entwurf eines Steuerbare-Verbrauchseinrichtungen-Gesetz aufgeführt. In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Wasserstoff und Kernenergie

Nun ist der Hype um Wasserstoff auch bis zu den Kernkraftwerken durchgedrungen. Warum auch nicht? Wenn der Staat Subventionen austeilt, greift man halt gerne zu. Bisher ist Wasserstoff (H2) überwiegend ein Grundstoff für die Düngemittel-Industrie (Ammoniak NH3) und zur Veredelung in der Petrochemischen-Industrie (z. B. Entschwefelung von Kraftstoffen, Methanolherstellung etc.). Heute werden über 95% aus fossilen Energieträgern – hauptsächlich aus Erdgas durch Dampfreformierung – und knapp 5% über Elektrolyse als Nebenprodukt z. B. bei der Chlor-Elektrolyse gewonnen. Nachdem sich nun auch bei „Energiewendern“ die Erkenntnis rumspricht, daß man für die Stromproduktion durch Windmühlen Wind benötigt und bei der Photovoltaik zumindest Tageslicht, kommt man auf die Schnapsidee Wasserstoff als Energieträger im großen Maßstab einzusetzen. Die neuen Zauberwörter der Schlangenölverkäufer sind „Wasserstoffwirtschaft“ und „Sektorenkopplung“: Man will nicht nur elektrische Energie während der Dunkelflauten aus Wasserstoff herstellen, sondern ihn auch als Kraftstoff, zur Gebäudeheizung und für alle möglichen industriellen Anwendungen einsetzen. Auf solch eine Kopfgeburt kann nur einer kommen, für den Thermodynamik lediglich ein Wort mir 13 Buchstaben ist.

Hans im Glück

Wasserstoff kommt in der Natur praktisch nur in chemischen Verbindungen (Wasser H2 O, Erdgas CH4 usw.) vor. Diese müssen erstmal geknackt werden um Wasserstoff zu gewinnen. Dazu ist viel Energie nötig. Will man Wasser mittels Elektrolyse zerlegen, benötigt man etwa 4,4 kWh pro Normkubikmeter Wasserstoffgas. Verbrennt man diesen einen Normkubikmeter wieder, kann man nur 3,0 kWh (unterer Heizwert) zurückgewinnen. Geschieht dies in einem modernen Kombikraftwerk (Wirkungsgrad 60%) werden daraus nur 1,8 kWh elektrische Energie zurückgewonnen. Wohlgemerkt, hier wurde noch kein einziger Kubikmeter transportiert oder gespeichert. Beides ist – ob verdichtet oder verflüssigt – nur mit beträchtlichem Energieaufwand möglich. Wie man es auch dreht und wendet, in der Praxis bekommt man nur rund 1/3 zurück – oder anders ausgedrückt haben sich die Stromkosten (ohne jede Investition für die Elektrolyse) schon allein wegen der Umwandlungsverluste verdreifacht.

Man hat uns ja inzwischen beigebracht, daß der Wind – wie schon vorher die Sonne – keine Rechnung schickt. Gleichwohl sind gewaltige Investitionen in die Errichtung von Windparks notwendig. Hinzu kommen noch Betriebs- und Wartungskosten, die ebenfalls nicht gering sind, wie man heute gelernt hat. Alle Kosten müssen jedenfalls durch die Stromerlöse und Subventionen wieder eingebracht werden. Unter Grundlast in einem Netz versteht man die kleinste Leistung die immer anliegt – 24 Stunden am Tag, 7 Tage die Woche. Will man die Grundlast durch Windmühlen abdecken, braucht man dafür etwa die 8–9 fache installierte Leistung. Der Grund ist trivial: Wenn kein Wind weht, wird auch kein Strom produziert, egal wie viele Windmühlen man gebaut hat! Will man in schwachen Zeiten zu füttern, muß man die erforderliche Menge elektrischer Energie vorher produziert haben. In 2019 betrug die Arbeitsausnutzung der Windmühlen in Deutschland 28% (installierte Leistung 53,912 GW, Stromproduktion 131,8 TWh). Leider muß man die hierfür produzierte Energie speichern und bekommt über den Weg Wasserstoff nur etwa 1/3 zurück (siehe oben). Hinzu kommen selbstverständlich noch die Investitionen für die Elektrolyse, die Speicher und das Backup-Kraftwerk. Man könnte es auch anders formulieren: Wer den Menschen vorgaukelt, es wäre eine (wirtschaftliche) Stromversorgung nur mit Wind und Sonne möglich, der lügt. Es ist deshalb kein Zufall, daß alle einschlägigen „Energiewender*Innen“ immer von Zwangsabschaltungen – sprachlich getarnt als „Smart-Meter“ – und Konsum- und Wohlstandsverzicht – sprachlich getarnt als „Energieeffizienz“ – schwadronieren.

Transport und Speicherung

Wasserstoff ist ein Gas mit extrem geringer Dichte: Ein ganzer Kubikmeter wiegt noch nicht einmal 90 Gramm. Es muß deshalb verdichtet oder verflüssigt werden um es überhaupt transportieren und lagern zu können. Wenn man es auf 700 bar verdichtet (Industriestandard für PKW) hat es gerade mal einen Energiegehalt von 1,32 kWh/Liter. Selbst wenn man es durch Abkühlung auf -253°C verflüssigt, beträgt sein Energiegehalt gerade mal 2,34 kWh/Liter. Zum Vergleich: Benzin hat einen Energiegehalt von rund 8,7 kWh/Liter.

Selbst für den Transport in Rohrleitungen oder der Speicherung in Kavernen muß es verdichtet werden. Jede Verdichtung erfordert eine Menge elektrische Energie und ist immer mit erheblichen Verlusten verbunden. Wenn es in Pipelines strömt, entstehen ebenfalls Verluste durch Reibung. Man bevorzugt deshalb für sehr lange Strecken eine Verflüssigung und Tankschiffe. Allerdings werden für die Verflüssigung von Wasserstoff allein rund 35% seiner Energie benötigt. Spätestens hier sollte der geneigte Leser verstehen, warum wir uns in einer Welt von Mineralölen und Erdgas bewegen. Oder anders ausgedrückt, welche brutalen Konsequenzen drohen, wenn wir alle Fahrzeuge auf Wasserstoff umstellen wollen. Das Gerede von „Sektorkopplung“ (Strom aus Wind und Sonne wird benutzt um Kraftstoffe und andere Energieträger herzustellen) ist nur ein weiteres Neusprechwort für „Mobilitätsverzicht“. Ganz davon zu schweigen, daß Deutschland viel zu klein ist, um es mit der erforderlichen Anzahl von Windmühlen zupflastern zu können. Bahnt sich hier schon wieder das „Volk ohne Raum“ an?

Wasserstoff durch Kernenergie

Hat man erst einmal die Konsequenzen des „Grünen Wasserstoffs“ verstanden, ist die Produktion durch vorhandene Druckwasserreaktoren nicht mehr so abwegig. Immer unter der Voraussetzung, man lehnt die Produktion aus fossilen Energieträgern ab. Das erste Argument liefert die Arbeitsausnutzung (Kernkraftwerk 90%, Windmühlen in Deutschland 28%) oder mit anderen Worten, wie viel Wasserstoff man mit einer gegebenen Anlage produzieren kann. Das zweite Argument sind die Energiekosten. Wärmeenergie ist immer billiger als elektrische Energie. Dies ist der Grund, warum heute rund 95% des Wasserstoffs aus Erdgas hergestellt werden. Aber auch bei der Elektrolyse kann man durch erhöhte Temperaturen elektrische Energie einsparen. Bei einem Kraftwerk ist die Auskopplung von Wärme kein Problem. Der Anbau an konventionelle Kernkraftwerke ist hier nur der erste Schritt. Kommen (später) Reaktoren mit höheren Betriebstemperaturen zum Einsatz, wird der Vorteil noch gravierender. In fernerer Zukunft könnten Hochtemperaturreaktoren sogar den Weg über chemische Verfahren (z. B. Jod-Schwefelsäure) gehen.

Das U.S. Department of Energy (DOE) fördert eine Dampf-Elektrolyse-Anlage an einem Kernkraftwerk (wahrscheinlich Prairie Island Nuclear Generating Station von Xcel Energy) in USA mit $13,8 Millionen. Xcel Energy verfügt über einen hohen Anteil von Windenergie mit dem entsprechend stark schwankenden Angebot. Eine Fragestellung soll deshalb sein, ob man Energie aus dem Reaktor auskoppeln kann, ohne diesen bei Windspitzen abregeln zu müssen. Dies wäre damit die erste unmittelbare Kopplung von Wind- und Kernenergie bei einem Versorger. Böse Zungen könnten auch sagen: Eine den Markt verzerrende Subvention der Windenergie soll durch Subventionen bei einem vorhandenen Kernkraftwerk geheilt werden.

Ein zweites Förderprogramm des DOE über $12,5 Millionen unterstützt die Kooperation von FuelCell Energy of Danbury mit dem Idaho National Laboratory. Ziel ist die Entwicklung von Festkörper-Elektrolyse-Zellen mit hohem Wirkungsgrad und geringen Kosten als 200 bis 500 MW Module zur Nachrüstung bei Kernkraftwerken. Es soll der Wechsel zwischen Wasserstoffherstellung und Stromproduktion demonstriert werden, um Kernkraftwerken ein zweites wirtschaftliches Standbein zu erschließen.

Ausblick

Im Jahr 2019 wurden weltweit 69 Millionen to Wasserstoff in Raffinerien und Düngemittelfabriken verbraucht. Der Markt ist also vorhanden. Allerdings wird nur sehr wenig Wasserstoff über größere Entfernungen transportiert. Wegen der bekannten Transportschwierigkeiten wird er unmittelbar in der Nähe der Verbraucher erzeugt. Es gibt allerdings bedeutende regionale Pipeline-Systeme z. B. in den USA an der Golfküste, die verschiedene Chemiezentren untereinander verbinden. In dieser Region ist ein bedeutender Ausbau für „Blauen Wasserstoff“ geplant. Dabei wird der aus den reichlich vorhandenen Erdgasvorkommen über Dampfreformierung gewonnen. Das dabei anfallende CO2 ist beileibe kein Abfall, sondern kann an die Ölproduzenten in dieser Region verkauft werden. Ein doppeltes Geschäft wird möglich: Einsparung von CO2 – Abgaben und zusätzliche Ölförderung aus bereits erschöpften Quellen. Damit ist auch klar, warum die Erdgasindustrie immer ein Förderer der „Alternativ-Energien“ war und ist. Man weiß sehr genau über die Dunkel-Flauten bescheid. Erdgas ist der Energieträger, der mit den geringsten Investitionen Backup-Kraftwerke erlaubt – jede Windmühle und jeder Sonnenkollektor bedeutet also zusätzlichen Absatz. Es gibt momentan auch kein Henne-Ei-Problem: Man kann den Absatz an Wasserstoff schnell durch Beimischung zum Erdgas steigern. Es laufen bereits Verhandlungen über neue Spezifikationen. Es scheint möglich, bis zu 20% Wasserstoff ohne große Modifikationen an den Pipelines und Verbrauchern unter mischen zu können. Auch hier wird klar, wer größtes Interesse an der Einführung von CO2 – Abgaben hat.

Die Elektrifizierung des Krieges

Der Bedarf an elektrischer Energie schreitet bei den Streitkräften stetig voran: Immer mehr Computer und Datenverkehr, immer mehr Radargeräte etc. und neuerdings sogar Laser-Waffen. Hinzu kommen – zumindest beim US-Militär – bedeutende strategische Verschiebungen hin zu einer Konfrontation mit China und Rußland. Bei diesen Gegnern hat man es weniger mit Kalaschnikows und „Panzerfäusten“, sondern mit präzisen Mittelstreckenraketen, einer funktionstüchtigen Luftabwehr und elektronischer Kriegsführung zu tun. Das alles vor allem in den Weiten des Pazifiks – für Amerikaner tauchen dabei sofort die Trauma von Perl Harbor, den Philippinen und dem blutigen „Inselhopping“ auf dem Weg nach Japan auf. In einer breiten Allianz zwischen den Parteien im Kongress und Senat ist bereits der Umbau der Teilstreitkräfte eingeleitet worden. An dieser Stelle kommt die Kernenergie mit riesigen Schritten ins Laufen.

Die Rolle der Stützpunkte

Stützpunkte (Flugbasen, Häfen etc.) haben den Bedarf von Kleinstädten an elektrischer Energie und Wärme. Sie müssen auch und gerade im Krieg sicher versorgt werden. Um welche finanzielle Größenordnung es sich dabei dreht, sieht man an den Energiekosten von 3,4 Milliarden US$ des US-Militärs (Fiskaljahr 2018) für seine 585 000 Einrichtungen und seine 160 000 Unterstützungsfahrzeuge. Damit im Kriegsfall diese Einrichtungen und die kämpfende Truppe sicher versorgt werden können, ist ein erheblicher logistischer Aufwand nötig. Nicht nur das, in den neun Jahren des Irak- und Afghanistan-Krieges sind 52% aller Opfer (18 700 Kriegsopfer) bei den Versorgungsfahrten eingetreten. Eine typische vorgeschobene Basis mit einer Grundlast von 13 MWel benötigt 16 000 Gallonen Diesel täglich. Das entspricht allein etwa sieben Tankwagen täglich. In den Weiten des Pazifiks unter feindlichen U-Booten und dem Beschuß durch Präzisionsmunition kaum zu leisten. Hier kommt die Idee des Einsatzes von Kernreaktoren. Durchaus keine neue Idee, aber mit neuer Technologie und neuen Randbedingungen.

Wie gewaltig die Stückzahlen sind, ergibt eine Studie der US-Army. Man hat zahlreiche Stützpunkte untersucht und kommt zum Schluß, daß man etwa 35 bis 105 Reaktoren mit einer elektrischen Leistung von 10 MWel und 61 bis 108 Reaktoren mit 5 MWel benötigt. Parallel hat das DOD („Verteidigungsministerium“) eine Untersuchung der Einrichtungen „in der Heimat“ (continental United States (CONUS)) durchgeführt. Es kommt zum Schluß, es sind 500 (!) Mini-Reaktoren sinnvoll. Abgesehen von den Einrichtungen in abgelegenen Regionen, werden die meisten Anlagen aus den öffentlichen Netzen versorgt. Man ist aber besorgt, daß die öffentlichen Netze immer anfälliger werden (Naturkatastrophen, Wind und Sonne etc.). Versorgungssicherheit ist aber für eine moderne Armee mit Radaranlagen, Raketenabwehr und totalem Kommunikationsanspruch überlebenswichtig. Im zweiten Weltkrieg konnte man notfalls einen Flugplatz noch mit Petroleumlampen betreiben – eine Abwehr von Interkontinentalraketen ohne Strom für das Rechenzentrum und das Phasenradar ist so wertvoll wie eine Steinaxt. Insofern stellen sich hier notwendige Investitionen anders dar: Da die Versorgungssicherheit im Vordergrund steht, muß auch beim Bezug „billiger Energie“ aus dem öffentlichen Stromnetz trotzdem die volle Leistung über Dieselanlagen vorgehalten werden.

Laserwaffen etc.

Seit dem (in Deutschland verlachten) „Krieg der Sterne“ Programm von Ronald Reagen, wird die Entwicklung von Hochenergie-Lasern mit Hochruck vorangetrieben. Die Klasse unter einem kW geht bereits an die Truppe, die Klasse bis 150 kW ist in der Erprobung. Die erste Anlage zur Abwehr von Drohnen ist bereits auf einem Schiff im Golf im Einsatz. Drohnen sind sehr billig und effektiv, wie man spätestens nach dem Einsatz durch den Iran gegen Ölanlagen in Saudi Arabien feststellen mußte. Weil sie so billig sind, kann man durch einen Sättigungsangriff schnell auch modernste Luftabwehr überfordern. Als Gegenmaßnahme bleiben nur Laser zum Schutz der Anlagen im Nahbereich – ohne teuere Raketen, sondern nur mit „Energie“.

Ein weiterer Schritt sind Geschütze (rail gun), die massive Geschosse mit mehrfacher Schallgeschwindigkeit über große Entfernungen sehr präzise verschießen. Die erste Installation sollte auf den Zerstörern der Zumwalt-Klasse erfolgen. Dies sind vollelektrische Schiffe, die ein Gasturbinenkraftwerk zur wahlweisen Energieversorgung besitzen. Dieses Konzept hat sich aber nicht bewährt, da die elektrische Belastung (Trägheit des Bordnetzes durch An/Abschaltung so großer Leistungsspitzen, Wellenbildung im Bordnetz usw.) die gesamte Stromversorgung des Schiffes gefährdet. Man favorisiert z. Zt. deshalb sogar auf Schiffen separate „Mini-Reaktoren“.

Die Elektromobilität

Fahrzeuge mit Elektroantrieb besitzen zwei militärische Vorteile: Sie sind leise und haben nur sehr geringe Abwärme – sind also nur schwer zu orten. Erste Kleinlaster für den Einsatz bei Spezialeinheiten sind mit Elektroantrieb in der Erprobung. Grundsätzlich gilt auch hier, der Bedarf an elektrischer Leistung für Elektronik und (später) Bewaffnung nimmt stetig zu. Im Moment deutet sich deshalb ein Übergang zu hybriden Antriebssystemen an. Der immer größer werdende Bedarf an elektrischer Energie soll dann bei Stillstand (teilweise) aus Batterien gedeckt werden. Als Nebenprodukt ergibt sich noch der etwas geringere Spritverbrauch durch Vermeidung ungünstiger Teillast. Wenn es gelänge, hoch mobile Kleinstreaktoren in Frontnähe zur Verfügung zu haben, könnte bei einer Umstellung auf vollelektrische Fahrzeuge der erforderliche Nachschub auf ein Minimum begrenzt werden. Alle hierfür notwendigen Unterstützungseinheiten würden für den Fronteinsatz frei. Ganz besonders groß ist das Interesse bei den US-Marines: Bei einer Konfrontation mit China müßten deren Einheiten sich möglichst schnell auf unterschiedlichen kleinen Inseln bewegen, um einer Vernichtung durch Mittelstreckenraketen etc. zu entgehen. Die Logistik – tausende Meilen von der Heimat entfernt – ist dabei das zentrale Problem. Diese Problematik ergibt sich bereits bei der Abschreckung um den Frieden zu bewahren.

Die Finanzierung

Wichtig ist in diesem Zusammenhang, daß es in den USA eine breite Unterstützung für die Kernenergie quer durch die Parteien gibt. Dies schließt sogar „Umweltschutzgruppen“ mit ein. Eine völlig andere Situation als in Merkelhausen. Widerstände kommen in den USA – wenn überhaupt – nur aus der fossilen Industrie. Selbst dort muß man noch deutlich unterscheiden: Die Kohleindustrie kämpft inzwischen selbst ums Überleben. Der „Feind“ ist nicht mehr nur die Kernenergie, sondern auch der Erdgassektor, der durch den Hype um Wind- und Sonnenenergie einen totalen Imagewandel erfahren hat. Jede neue Windmühle und jeder zusätzliche Sonnenkollektor fördert den Absatz von Erdgas (Dunkel-Flaute) bei der Stromerzeugung. Deutlich erkennt man diese Tendenz bereits in Texas: Kohlekraftwerke werden geschlossen und Gaskraftwerke neu in Betrieb genommen. Der Druck kommt über die „Alternativenergien“, für die Texas geradezu ideale Vorraussetzungen hat (dünne Besiedelung, recht stetige Winde vom Golf und jede Menge Sonnenschein). Hinzu kommen noch günstige Gaspreise (Begleitgas aus der Ölförderung) bei allerdings zunehmenden und preisstabilisierenden Exporten (nach Mexiko per Rohrleitungen und nach Übersee als verflüssigtes Erdgas).

Bisher haben die vom Kongress zugewiesenen Mittel sogar die Anforderungen der Verwaltung übertroffen. So wurden im Haushaltsjahr 2020 für das DOE’s Office of Nuclear Energy („Fachbereich Kernenergie des Energieministeriums“) nicht nur $1,49 Milliarden für die Kernenergie-Forschung bereitgestellt, sonder $230 Millionen Dollar zweckgebunden für ein „Programm zur Demonstration fortschrittlicher Reaktoren“. Im Rahmen dieses Programms wurden drei Wege für die Kooperation mit der Privatwirtschaft beschlossen: Förderung von zwei „Demonstrationsvorhaben“ innerhalb der nächsten 5–7 Jahre, Risikominimierung bei Vorhaben, die einen erwarteten Entwicklungsbedarf von 10 Jahren haben und „fortschrittliche Reaktorkonzepte“ die einen Zeithorizont von mehr als 15 Jahren besitzen.

Der Kongress (Mehrheit Demokraten) hat das DOD („Verteidigungsministerium“) bereits 2019 (also Während der Präsidentschaft von Trump) aufgefordert seine Stützpunkte durch „Minireaktoren“ unabhängiger von der öffentlichen Stromversorgung zu machen (siehe 2019 National Defense Authorization Act (NDAA) Section 327 ). Darin wird gefordert, mindestens einen Stützpunkt bis zum 31.12.2027 durch einen zugelassenen „Minireaktor“ zu versorgen. Das DOD’s Office of Acquisition and Sustainment („Beschaffungsstelle des US-Verteidigungsministeriums“) arbeitet dafür eng mit dem DOE („Energieministerium“) zusammen. Ebenfalls 2019 wurden $70 Millionen im Haushaltsjahr 2020 für ein Konstruktions- und Testprogramm für mobile Kleinstreaktoren zur Versorgung vorgeschobener Militärbasen eingestellt. Dies war der Start des „Projekt Pele“. Im März 2020 wurden knapp $40 Millionen für die Unternehmen BWXT, Westinghouse, und X-energy für einen zweijährigen Konstruktionszeitraum bewilligt. Danach soll ein Prototyp beim National Laboratory (INL) gebaut und 2024 mit einer C-17 zu einem Stützpunkt in Alaska geflogen werden, um die Mobilität und den Betrieb unter Praxisbedingungen zu demonstrieren. Damit es mit der Kerntechnik vorangehen kann, hat das DOD im Haushaltsjahr 2021 über $100 Milliarden für Forschung, Entwicklung, Tests, und Auswertung (RDTE) beantragt. Das ist der größte Betrag in der Geschichte des DOD. Allgemein wird geschätzt, daß für die Umsetzung des „Minireaktor-Programms“ insgesamt $500 Millionen benötigt werden.

Genehmigungsproblematik

Eigentlich kann das US-Militär Reaktoren bauen wie es will. Beispiel hierfür sind die zahlreichen Reaktoren für U-Boote und Flugzeugträger. Übrigens mit einer exzellenten Verfügbarkeit und Sicherheitsbilanz. Allerdings mit einem entscheidenden juristischen Unterschied: Die Schiffe sind amerikanisches Territorium. Man braucht mit ausländischen Häfen nur über eine Genehmigung zum Einlaufen bzw. den einzuhaltenden Regularien zu verhandeln. Für Stützpunkte in anderen Ländern geht das sicher nicht. Dort wird man sich den jeweiligen nationalen Genehmigungsverfahren unterwerfen müssen. Das gilt schon für den Transport mobiler Reaktoren dort hin. Insofern ist es folgerichtig, daß man von Anfang an eine Zulassung durch das NRC (Genehmigungsbehörde für kommerzielle Kernkraftwerke) anstrebt. Da immer noch die Zulassung durch das NRC als internationaler „Goldstandard“ betrachtet wird, wird dies die Genehmigung im Ausland stark vereinfachen und beschleunigen.

Ganz so einfach ist die Sache allerdings nicht. Das NRC ist bisher auf die Genehmigung von Leichtwasserreaktoren spezialisiert. Für „fortschrittliche Reaktoren“ mit anderen Kühlmitteln, Brennstoffen und Sicherheitssystemen sind noch erhebliche Vorarbeiten zu leisten, bis das Risiko qualitativ und quantitativ nachvollziehbar bemessen werden kann. Je mehr Unternehmen mit unterschiedlichen Konzepten kommen, um so mehr kommt das NRC an seine Kapazitätsgrenzen. In diesem Fiskaljahr beträgt ihr Etat rund $860 Millionen, wovon etwa $430 Millionen auf die Reaktorsicherheit entfallen.

Kommerzieller Ausblick

Das US-Militär arbeitet schon immer eng mit der Privatwirtschaft zusammen und man ging schon immer unkonventionelle Wege: In den 1950er Jahren entwickelte man die Sidewinder Flugabwehrrakete: Einmal abgeschossen, suchte sie sich selbst über ihren Infrarot-Suchkopf ihren Weg ins feindliche Ziel. Ein echter Gamechanger im Luftkampf. Die Sache hatte nur einen Haken: Man brauchte große Stückzahlen, was aber beim damaligen Stand der Halbleitertechnik schlicht zu teuer war. Man ging einen typisch kapitalistischen Weg: Um die Stückpreise zu senken, brauchte man zusätzliche Stückzahlen aus dem zivilen Sektor. Die Spielkonsole war geboren.

In Punkto „Mini-Reaktoren“ zeichnet sich der gleiche Weg ab. Man kann bereits Minengesellschaften für solche Reaktoren begeistern. Überall wo Diesel-Kraftwerke in abgelegenen Regionen im Einsatz sind, besteht wegen der hohen Stromkosten ernsthaftes Interesse. Ein weiteres Einsatzgebiet ergibt sich aus dem Hype für Elektrofahrzeuge. Will man Schwerlaster elektrifizieren, braucht man überall dort, wo man heute Tankstellen hat, Ladestationen. Diese brauchen aber enorme Leistungen, wenn man einen LKW auch in etwa 20 Minuten voll aufladen will. Hier kommen flugs Minireaktoren ins Spiel. Mit ihnen könnte man kontinuierlich Wärmespeicher beladen, die anschließend bei Bedarf große Spitzenleistungen über Dampfturbinen bereitstellen könnten. Es gibt bereits Pläne in Zusammenarbeit mit den Marketing-Genies von Tesla. Da freut sich doch das Grüne-Öko-Herz oder vielleicht doch nicht?

Zwischenbericht zur Endlagersuche

Ende September wurde der erste Zwischenbericht zur Endlagersuche veröffentlicht. In ihm wird Deutschland in mehrere „Teilgebiete“ eingeteilt, die jedes für sich auf ihre Eignung als Endlager für den hochaktiven „Atommüll“ beurteilt werden. Eine mehrere tausend Seiten umfassende Dokumentation, die sicherlich jedem Bachelor-Studenten der Geologie zu einem Fleißkärtchen gereicht hätte. Auftrag erfüllt, Gorleben ist als Standort rausgeschmissen, dafür selbst die Hauptstadt in der engeren Wahl belassen. Jedenfalls meldete das Inforadio vom rbb am gleichen Morgen Berlin-Spandau und Berlin-Reinickendorf als geeignete Standorte. Wenn die Sache nicht so ernst wäre, könnte man das als Comedy abhaken – freilich nicht einmal auf dem Niveau einschlägiger Sendungen des ZDF. Wenn man es jedoch nach fachlichen Gesichtspunkten betrachtet, ist es ein Paradebeispiel für Lyssenkoismus.

Umgang mit hochaktiven Abfällen

Kaum je, war einer der Grundsätze sozialistischer Systeme besser getroffen: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen. Besser kann man den „Atomausstieg“ und die „Endlagerfrage“ nicht beschreiben. Nie hatte man in Deutschland vor, benutzte Brennelemente einfach zu verbuddeln. Selbst am Standort Gorleben war ein integriertes Entsorgungszentrum mit Wiederaufbereitung und anschließender Endlagerung der Abfälle im Salzstock geplant – keinesfalls aber das Verbuddeln kompletter Brennelemente. Warum? Weil abgebrannte Brennelemente zu mindestens 95% noch zur Energieerzeugung verwendbar sind und höchstens 5% in diesem Sinne Abfall darstellen. Damit ist schon mal die Frage des notwendigen Volumens beantwortet. Merke: Je größer die Menge „Atommüll“, je besser läßt sie sich propagandistisch ausschlachten. In der typischen moralischen Überhöhung schwätzt man nun von der Verantwortung diesen „Atommüll“ im eigenen Land opfervoll endlagern zu müssen. Nur folgen „unserem Vorangehen“ nicht einmal unsere unmittelbaren Nachbarländer. Insofern ist das unwiederbringliche verbuddeln riesiger Energiemengen eher eine Gehässigkeit und Umweltsünde. Das Uran und Plutonium das unsere Gutmenschen zu ihren politischen Zwecken verbuddeln wollen, muß in anderen Ländern mühselig gefördert bzw. erbrütet werden. Selbst bei einem „Atomausstieg“ bedeutet eine Wiederaufbereitung (in anderen Ländern) eine erhebliche Verringerung der Belastungen für das eigene Land.

Die Gefährlichkeit des „Atommülls“

Will man die Diskussion um die Hinterlassenschaften der „Atomindustrie“ zurück auf eine rationale Ebene führen, ist es unerläßlich die potentiellen Gefahren klar zu benennen. Von den „Atomkraftgegnern“ wurde der Popanz der sicheren Endlagerung für mindestens eine Million Jahre erfunden. Dieser Unsinn gilt noch heute manchen als das Totschlagargument gegen die friedliche Nutzung der Kernenergie. Für die biologische Wirkung auf die Menschen ist einzig die Art und Dosis der ionisierenden Strahlung verantwortlich. Dies gilt heute genauso, wie in einer Million Jahren. Deshalb hier noch mal in aller Kürze die wesentlichen Einflussfaktoren:

  • Strahlung. Man unterscheidet α-, β- und γ-Strahlung. In diesem Zusammenhang ist besonders wichtig, daß α-Strahlung nur biologisch wirken kann, wenn der Stoff in den Körper aufgenommen wurde oder etwas flapsig gesagt: Niemand ist gezwungen, abgebrannte Brennelemente zu essen.
  • (Halbwerts)Zeit. Der radioaktive Zerfall geht immer nur in eine Richtung, das heißt die ursprüngliche Menge der radioaktiven Stoffe wird beständig weniger. Das Maß ist die jeweilige Halbwertszeit. Je länger die Halbwertszeit des Abfalls ist, je länger sollte er von der Biosphäre fern gehalten werden, aber um so weniger „feuert“ er auch. Das ist der Grund, warum man z. B. Uran (immer noch der größte Anteil in abgebrannten Brennelementen) gefahrlos in die bloße Hand nehmen kann. Mit einem Stück Co60 wäre das nicht empfehlenswert. Ein übliches Maß für das „Verschwinden“ radioaktiver Stoffe ist die zehnfache Halbwertszeit. Mit anderen Worten: Zum Zeitpunkt der Einlagerung sind alle Stoffe mit einer Halbwertszeit die kleiner als ein Zehntel der Zeitspanne seit dem Verlassen des Reaktors ist, bereits verschwunden. Das ist der Grund, warum man dann bereits recht gefahrlos mit dem „Atommüll“ umgehen kann oder warum auch Länder, die eine Wiederaufbereitung durchführen bzw. anstreben eine „Langzeit-Zwischenlagerung“ betreiben. Die Behauptung, man hätte weltweit noch keine Lösung für den „Atommüll“ ist ebenfalls nichts als Propaganda.
  • Chemie der Abfälle. Damit die radioaktiven Stoffe überhaupt in die Umwelt gelangen können, müssen sie zuerst freigesetzt werden. Standard ist heute die Verglasung (es gibt auch noch andere Verfahren). Man erzeugt bei der Wiederaufbereitung eine „Suppe aus Spaltprodukten“ mit möglichst wenig Aktinoiden (lange Halbwertszeiten) und löst diese in einer Glasschmelze auf, die man in einen Behälter aus Edelstahl einbringt. Glas ist sehr beständig. Damit die radioaktiven Stoffe da raus können, muß erstmal das Glas aufgelöst werden. Hierbei stehen sich radioaktiver Zerfall und Auflösung eines solchen Glasblocks durchaus in gleicher zeitlicher Größenordnung gegenüber.
  • Wärmeentwicklung. Bei jedem radioaktiven Zerfall wird Energie in Form von Wärme freigesetzt. Technisch von Bedeutung ist lediglich die entstehende Temperatur im Gebinde (Glas und Edelstahl) und in unmittelbarer Umgebung des Lagers (Salz, Ton oder kristallines Gestein). Dies ist eine rein technische Aufgabe, die beliebig über die Zeit bis zur Einlagerung und die Konzentration und Form der Gebinde eingestellt werden kann.
  • Chemie der Umgebung. Ob, wenn ja wieviel, in welcher Zeit, von den eingelagerten Stoffen bis in die Biosphäre gelangt, hängt wesentlich von der Bodenbeschaffenheit und weniger von irgendwelchen Wässern ab. Boden ist immer – mehr oder weniger – ein Ionentauscher. So haben z. B. die Unglücke in Hanford (Durchrostung von mit Spaltproduktlösungen gefüllter Erdtanks) gezeigt, daß selbst oberflächennah der Transport Jahrzehnte für wenige Meter benötigt hat.
  • Biologische Halbwertszeit. Letztendlich ist für die „Schädlichkeit“ nur verantwortlich, wieviel radioaktive Stoffe und welche (biologische Halbwertszeit als Maß für die laufende Ausscheidung) vom Menschen aufgenommen werden. Über die Pfade gibt es sehr gute und verlässliche Kenntnisse. Teilweise sogar die Gesundheit fördernd – man denke nur an gewisse Mineralwässer.

Als Anregung zum Nachdenken: Radioaktive Stoffe zerfallen und verschwinden damit unweigerlich. Bei chemischen Stoffen ist das durchaus nicht immer der Fall (z. B. Quecksilber, Arsen, Asbest etc.). Warum diskutieren selbsternannte „Umweltschützer“ nur über Deponien für radioaktive Stoffe und warum sind Deponien für „Chemiemüll“ kein Aufreger? Was ist z. B. mit dem weltgrößten unterirdischen Lager für richtig gefährliche Stoffe in Herfa-Neurode? Dort sind bereits mehrere Millionen Tonnen „Gift“ eingelagert. Ging es den „Atomkraftgegnern“ vielleicht immer schon um ganz andere Dinge?

Das Standortauswahlgesetz (StandAG)

Die Vorstellung, man muß nur den einen Ort finden, der den „Atommüll“ für eine Million Jahre sorglos verschwinden läßt, mutet schon kindlich naiv an oder ist eine böswillige politische Farce – jeder Leser mag das für sich selbst entscheiden. Weder braucht man einen Einschluß für „mindestens eine Million Jahre“, noch kann ein ernsthafter Mensch glauben, daß man die Zukunft über Millionen Jahre verlässlich vorhersagen kann. Parallelen zu den Prognosen von der menschengemachten Klimakatastrophe drängen sich unmittelbar auf. In diesem Zwischenbericht gehen die Geologen von 10 Eiszeiten in dem betrachteten Zeitraum aus, bei denen zumindest die norddeutsche Tiefebene jeweils mit Eis überdeckt ist. Soviel dazu. Die Herren und Damen wären aber nicht lange im (politischen) Geschäft der Gutachten, wenn sie nicht pflichtgemäß politisch korrekt im unmittelbar folgenden Satz auf die vom Menschen verursachte Erderwärmung hinweisen würden, die selbstverständlich in diesem Gutachten noch nicht abschließend beurteilt werden kann.

Aber es wäre ungerecht, nur die Gutachter für dieses Machwerk verantwortlich zu machen. Vielmehr sind es unsere Parlamentarier, die das Gesetz – ohne es zu lesen oder auch nur ansatzweise zu verstehen – durchgewunken haben. So ist das nun mal, man bekommt nur das, was man ausdrücklich bestellt und bezahlt. Wenn man als gewählter Volksvertreter nicht den Mut hat, hin und wieder Stopp zu sagen, degradiert man sich selbst zur Marionette cleverer Lobbyisten. Nun kann man bei der beruflichen Zusammensetzung unseres Parlaments wahrlich keine geologische Kompetenz erwarten. Man hätte aber mal Menschen fragen können, die von der Materie etwas verstehen. Früher – vor den Besetzungsorgien unter Rot/Grün – gab es jede Menge qualifizierter Fachleute in den Ministerien. Zumindest aber, hätten in der Gesetzgebung erfahrenen Abgeordneten die Ohren bei einem zeitlich über mehrere Legislaturperioden ausgedehnten, dreistufigen K.o-Verfahren klingeln müssen. Man muß nur in Phase I die unliebsamen Standorte raus kegeln und der Drops scheint gelutscht. Das ganze geschah nun auf einer Datenbasis, die kaum verschieden (Geologie!) der gegenüber 1973–1979 ist. Wie absurd die Entscheidung ist, zeigt sich daran, daß die Hauptstadt (!) und zerklüftete Gebiete in Bayern als geeignet erklärt wurden. Weil man offensichtlich selbst kalte Füße hat, erklärt man flugs eine mögliche Kompensation durch technische Maßnahmen für möglich – für eine Sicherheit von mindestens einer Million Jahren. Deutschland scheint sich endgültig international zur Lachnummer machen zu wollen.

Der Salzstock Gorleben

Man hat den Salzstock Gorleben in den Jahren 1979–1983 von oberhalb und 1986–2000 untertägig erforscht. Hunderte von wissenschaftlichen Mannjahren, Regale voll Meßwerten und Auswertungen und 1,6 Milliarden Euro Kosten, die allein wir Stromverbraucher bezahlt haben. Allein von den Kosten her, glaubt irgendjemand, daß noch einmal ein solches Programm für zwei weitere Standorte durchgezogen wird? Vorsichtshalber wurde gleich ins Gesetz rein geschrieben, daß Gorleben nicht als Referenzobjekt herangezogen werden darf (§36 des StandAG). Gott bewahre, wenn sich nach zwei weiteren Forschungsbergwerken herausstellt, daß der Salzstock in Gorleben doch nicht der Schlechteste war. Dagegen ist der „Maut-Skandal“ wahrlich eine Petitesse.

In dem Standortauswahlgesetz in §22 werden explizit sechs Ausschlusskriterien benannt (Vertikalbewegungen, Störungszonen, frühere bergbaulicher Tätigkeit, seismische Aktivität, vulkanische Aktivität und Grundwasseralter). Ergebnis des Zwischenberichts: Es liegt kein Ausschlusskriterium vor. Lediglich ist ein Radius von 25 m um einige alte Ölbohrungen auszuschließen. In dem Standortauswahlgesetz in §23 werden explizit fünf Mindestanforderungen genannt (Gebirgsdurchlässigkeit, Mächtigkeit, minimale Teufe, Fläche und Barrierewirkung). Ergebnis des Zwischenberichts: Es sind alle Mindestanforderungen erfüllt. In der Anlage zu §24 sind die geowissenschaftlichen Abwägungskriterien aufgeführt. Die Tabelle 1 des Zwischenberichts führt akribisch 25 Bewertungen auf. Und jetzt aufgepasst: 22 Punkte werden mit „günstig“ bewertet, einer mit „weniger günstig“ und zwei mit „nicht günstig“. In Tabelle 2 und 3 sind auch alle Kriterien „günstig“. Plötzlich taucht in Tabelle 5 das vermeintliche Killerkriterium auf: „Gesamtbewertung des Kriteriums zur Bewertung des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge“: „ungünstig“. Wir erinnern uns an die 10 erwarteten Eiszeiten, die immer mehr Deckgebirge abschleifen sollen. Nur, wer will denn den Atommüll in das Deckgebirge einlagern? Der Salzstock geht doch mehrere tausend Meter in die Tiefe…

Die Gefährdung der Demokratie

Was hier abläuft, ist ein Aufruf an alle möglichen Interessenverbände zum Widerstand. Wissenschaft zählt nicht, Steuergeld ohnehin nicht, ihr müßt nur möglichst militanten Widerstand leisten, dann zwingt ihr die Politik in die Knie. Hier ist allerdings der Widerstand von Gorleben ausdrücklich als Referenz erwünscht. Ein paar Alt-68er-Datschenbesitzer haben erfolgreich ihren Altersruhesitz verteidigt. Der Gipfel wäre noch, man baut das Endlager auf dem Gebiet der ehemaligen DDR. Dort hat Bündnis 90/Die Grünen ohnehin nur wenig Wähler und sollte sich dort auch nur leichter Protest regen, kann man schnell mit der Keule alles „Rechtsradikale“ zuschlagen. Uns im „Westen“ bleibt ja noch die Asse und Schacht Konrad als Aufreger. Um die Deponie Morsleben im „Osten“ war und ist es ja immer bemerkenswert still. Also auf in den Wahlkampf.

Beginn einer atemberaubenden Serie

Anfang September 2020 wurde der Reaktor Fuqing 5 mit 177 Brennelementen zum ersten mal beladen. Ein in mehrfacher Hinsicht bemerkenswertes Ereignis. Es ist der erste Reaktor der chinesischen Eigenentwicklung ≫Hualong One≪ – ein sogenannter „First Of A Kind“ (FOAK). Der Bau des allerersten Reaktors eines neuen Modells dauert zumeist sehr lange, da bei ihm noch viele Fehler gemacht werden, die zeitaufwendig behoben werden müssen. Abschreckendes Beispiel ist die Baustelle Olkiluoto in Finnland mit dem Baubeginn im Jahr 2004. Gänzlich anders die Situation bei Fuqing 5: Dort war der Baubeginn (erster nuklearer Beton) im Mai 2015. Rund 5 Jahre Bauzeit gegenüber 16 Jahren mit gigantischer Kostenexplosion. Deutlicher kann man die Leistungsfähigkeit der chinesischen kerntechnischen Industrie nicht darstellen. Doch damit noch nicht genug: Im Dezember 2015 war der Baubeginn für die Blöcke Fuqing 6 und Fangschenggang 3, im Dezember 2016 für Fangschenggang 4, im Oktober 2019 für Zhangzhou 1 und im September 2020 für Zhangzhou 2 und Taipingling 1. Um dem ganzen noch die Krone aufzusetzen, wurde parallel im August 2015 mit dem ersten Auslandsauftrag Karachi 2+3 in Pakistan begonnen. Man hat also gleichzeitig 9 Reaktoren eines neuen Typs in Arbeit. Da China auch noch andere Kernkraftwerke baut, kommt es seinem Ziel, in den nächsten Jahrzehnten durchschnittlich alle sechs Monate einen Kernreaktor in Betrieb zu nehmen, sehr nahe.

Die Geschichte des Hualong

Im Jahr 2012 wurde durch das zentrale Planungsbüro in Peking beschlossen, die Eigenentwicklungen ≫ACP1000≪ von China National Nuclear Corporation (CNNC) und ≫ACPR1000≪ von China General Nuclear (CGN) zu einem standardisierten Modell ≫Hualong One≪ zusammenzulegen. Es sollte ein Reaktor der dritten Generation entstehen, in dem auch ausdrücklich alle Erfahrungen des Unglücks in Fukushima berücksichtigt werden sollten. Da jeder Hersteller seine eigenen Zulieferketten hat, unterscheiden sich noch heute die Modelle geringfügig.

Ursprünglich sollten 2013 in Pakistan zwei ≫ACP1000≪ in der Nähe von Karachi gebaut werden. Dieses Vorhaben wurde 2015 in zwei ≫Hualong One≪ umgewandelt. Darüberhinaus befindet sich der ≫Hualong One≪ in der Variante Fuqing 5+6 in Großbritannien im Genehmigungsverfahren als Modell für das geplante Kernkraftwerk Bradwell. Allerdings ist es höchst fragwürdig, ob dieses Projekt noch politisch durchsetzbar ist. Nach den Ereignissen in Hongkong und um den Ausbau des Mobilfunknetzes durch Huawei ist die Stimmung in Großbritannien gekippt. China ist in einer Schlüsselfunktion wie der Stromversorgung nicht mehr erwünscht.

Die Lernkurve

Obwohl diese Serie von Hualog One weitestgehend parallel gebaut wird, kann man laufend Verbesserungen entdecken. Selbst an so simplen Bauteilen wie dem Containment. Es besteht aus Stahlringen (ca. 46m Durchmesser, etwa 7m hoch, Wandstärke 6 mm, mit einem Gewicht von 180 to), die auf einem separaten Platz auf der Baustelle aus vorgefertigten Segmenten zusammengeschweißt werden. Sie werden dann mit einem Schwerlastkran übereinander gestapelt und zu einem zylindrischen Containment montiert. Den oberen Abschluss bildet eine Kuppel, die ebenfalls vor Ort aus Segmenten zusammengeschweißt wird und mit einem Kran aufgesetzt wird. Auf diese Stahlkonstruktion wird nun die eigentliche Hülle aus Spannbeton aufbetoniert. Man erhält so ein gasdichtes und hochfestes Sandwich als Wand. Als Schutz gegen Flugzeugabstürze etc. wird diese Konstruktion noch einmal als äußere Hülle wiederholt. Zwischen den Wänden verbleibt ein Spalt, der später zur Überwachung im Unterdruck gehalten wird.

Vergleicht man nun die innere Kuppel von Fuqing 5 (Montage im Januar 2017) mit der von Fangschenggang 3 (Montage im Mai 2018), so stellt man fest, daß sich das Gewicht von 305 to auf 260 to verringert hat. Umfangreiche 3-D-Simulationen, eine Optimierung der Statik und die Verwendung besonders geformter Segmente haben zu diesem Fortschritt geführt. Materialeinsparungen sind praktisch auch immer Kosteneinsparungen.

Wie flexibel die Chinesen vorgehen, zeigt sich aber auch am Ablauf der Montage. Bisher hat man klassisch erst den Rohbau fertiggestellt und anschließend die Großkomponenten eingebracht. Dazu muß man die drei Dampferzeuger (Länge 21 m, 365 to) und das Druckgefäß waagerecht durch die Schleuse einbringen und innerhalb des Containment aufwendig aufrichten und mit dem Polarkran in Position bringen. Beim Kraftwerk Karachi hat man die Einbauten vor dem Aufsetzen der Kuppel eingebracht. Bei Fuqing 5 dauerte das Einbringen der Dampferzeuger und des Druckgefäßes rund 2,5 Monate. In Karachi reduzierte sich der Einbau auf rund 5 Stunden pro Dampferzeuger bzw. 3 Wochen für alle nuklearen Großkomponenten. Eine beträchtliche Zeit- und Kostenersparnis.

Die Rolle ausländischer Zulieferer

Klein, Schanzlin und Becker (KSB) aus Frankenthal war einst die Perle für Pumpen in der Kraftwerkstechnik. Der Ausstieg aus Kerntechnik und Kohle in Deutschland hat sie (noch) nicht aus dem Markt gedrängt, sondern lediglich ins Ausland vertrieben. So erhielt SEC-KSB den Auftrag für die sechs Hauptkühlmittelpumpen (10,000-Volt-Motor mit einer Antriebsleistung von 6600 kW, 110 to schwer, Leistung 24 500 Kubikmeter pro Stunde) für das Kraftwerk Zhangzhou. Ein Auftrag in dreistelliger Millionenhöhe. Dafür muß man in Deutschland eine ganze Menge Heizungspumpen verkaufen. SEC-KSB ist ein im Juni 2008 gegründetes Joint Venture zwischen Shanghai Electric (55%, wer da wohl das sagen hat?) und KSB (45%), welches für das komplette Geschäft mit kerntechnischen Komponenten in China verantwortlich ist. Ein typisches Schicksal eines deutschen Unternehmens der Spitzentechnologie: Entweder man macht den Laden in Öko-Deutschland sofort dicht oder man versucht sich ins Ausland zu verlagern.

Vielleicht verläuft ja das Schicksal von Rolls-Royce (R&R) etwas anders. R&R hat für das gleiche Kraftwerk ebenfalls einen dreistelligen Millionenauftrag eingeworben über die Lieferung der Neutronenfluss-Messeinrichtungen. Allerdings werden diese komplett in Grenoble Frankreich konstruiert, gefertigt und getestet…

Die Preise

Man kann den Chinesen nicht so richtig in die Karten schauen. Es handelt sich immer noch um eine Planwirtschaft mit ihren Eigenheiten bezüglich Kosten und Finanzierung. Man kann aber einen guten Eindruck über Geschäfte mit dem Ausland gewinnen. So hat sich schon 2016 der thailändische Energieversorger RATCH in das Kernkraftwerk Fangchenggang II eingekauft. Aus den Veröffentlichungen des Unternehmens kann man entnehmen, daß das Kraftwerk einen Wert von US$ 6 Milliarden, bei einer Leistung von 2 x 1180 MWel hat. Dies entspricht spezifischen Investitionskosten von 2542 US$/kW. Ganz ähnlich sind die Daten für das pakistanische Kraftwerk Karachi: CNNC gibt Pakistan einen Kredit über US$ 6,5 Milliarden. Es scheint, daß die Chinesen das gesamte Kernkraftwerk im engeren Sinne (2 x 1100 MMWel) komplett vorfinanzieren. Die Projektkosten für das Kernkraftwerk werden von dem pakistanischen Prime Minister Nawaz Sharif mit US$ 9.59 Milliarden angegeben. Dies ergibt spezifische Kosten von 4359 US$/kW für das Projekt mit allen notwendigen Ausgaben (z. B. Hochspannungsleitungen und Infrastruktur).

Bauweise

Bei dem Hualong One oder auch als HPR-1000 bezeichnet, handelt es sich um einen Druckwasserreaktor mit drei Kreisläufen (jeweils Dampferzeuger, Hauptkühlmittelpumpe und Hauptkühlmittelleitung) und einer Nennleistung von 1180 MWel. Er ist für eine Betriebsdauer von (mindestens) 60 Jahren ausgelegt. Er besitzt ein doppelwandiges Containment, welches gegen Flugzeugabstürze etc. ausgelegt ist. Das Brennelementelager und die Gebäude für sicherheitstechnische Anlagen sind ebenfalls gegen Flugzeugabstürze etc. verbunkert. Die Schnellabschaltung bei Störfällen erfolgt vollautomatisch. Erst nach 30 Minuten sind menschliche Eingriffe nötig. Erst nach 72 Stunden sind Hilfsmaßnahmen von außen nötig (z. B. Nachfüllen von Wasser in die internen Becken). Jeder Reaktor ist nicht nur für die Grundlast, sondern auch für einen extremen Lastfolgebetrieb konstruiert.

Innerhalb des Containment – genauso geschützt gegen Einwirkungen von außen wie der Reaktor selbst – befindet sich ein großer Wassertank (IRWST), der Wasserverluste im Kreislauf (z. B. Rohrbruch im Primärkreis) ersetzen kann. Es ist also kein „Umschalten“ in andere Gebäudeteile notwendig. Diesem Tank kann auch Wasser für die „Beregnung“ des Sicherheitsbehälters entnommen werden. Durch den Regen kann der Druck und die Temperatur im Notfall reguliert werden. Es können auch Chemikalien hinzugesetzt werden, die etwaige freigesetzte radioaktive Stoffe auswaschen und binden können (Lehre aus Fukushima). Dies entlastet die Filteranlagen, wenn die Luft nach einem schweren Störfall über den Kamin abgegeben werden muß. Aus dem IRWST kann auch ausreichend Wasser bereit gestellt werden, um die Kaverne, in der das Reaktordruckgefäß steht, vollständig zu fluten. Damit ist das Austreten von Kernschmelze aus dem Reaktordruckgefäß ausgeschlossen. Die gesamte Nachzerfallswärme wird über passive Systeme mit Naturumlauf und Wärmeübertrager an die Umgebung abgegeben. Insofern handelt es sich beim Hualong One um einen echten Reaktor der sogenannten Generation III+.

Solange der Primärkreislauf intakt ist, aber die Wärmesenke (Kühlturm, Meerwassereinlauf, Pumpen etc.) total ausfallen sollte (Fukushima), kann die Wärme über die Dampferzeuger sicher im Naturumlauf abgeführt werden. Zum Nachfüllen von Wasserverlusten dienen jeweils 2 x 50% Motorpumpen und 2 x 50% Pumpen mit Dampfturbinen, die Wasser aus Tanks entnehmen. Es liegt also auch hier nicht nur Redundanz, sondern auch Diversität vor.

Für die Notstromversorgung sind pro Reaktor zwei Notstromdiesel in getrennten Gebäuden vorgesehen. Zusätzlich gibt es im Kraftwerk noch eine weitere Notstromversorgung über eine Gasturbinenanlage (Lehre aus Fukushima) und transportable Notstromaggregate. Zusätzlich gibt es Batterien für eine Versorgungszeit von 72 h (Lehre aus Fukushima). An diese Gleichstromversorgung sind alle Instrumente, Notbeleuchtung, EDV sowie die Ventile der passiven Sicherheitseinrichtungen angeschlossen.

Wie die probabilistischen Sicherheitsberechnungen ergeben, ist beim Hualong One mit einem Kernschaden (CDF) in höchstens einer Million Betriebsjahren zu rechnen. Mit einer Freisetzung großer Mengen radioaktiver Stoffe in die Umwelt (LRF) in höchstens 10 Millionen Betriebsjahren. Um gleich den üblichen Missverständnissen entgegenzutreten: Es handelt sich um Betriebsjahre und nicht Kalenderjahre. Gemeint ist damit, wenn 10 gleiche Reaktoren ein Kalenderjahr lang laufen, ergibt das 10 Betriebsjahre. Und ja, es handelt sich um Wahrscheinlichkeiten, ein Schaden könnte auch schon morgen eintreten. Absolute Sicherheit gibt es halt in der Natur nicht. Solche Zahlen dienen Fachleuten nur um unterschiedliche Risiken vergleichbar zu machen. Was aber ausschlaggebend ist, hier handelt es sich um Eintrittswahrscheinlichkeiten für Ereignisse – nicht um Opferzahlen. Spätestens nach Tschernobyl und Fukushima wissen wir doch, daß auch schwerste Unglücke in Kernkraftwerken zu wenig bis gar keinen Todesopfern führen. Ganz im Gegensatz z. B. zu einem Flugzeugabsturz. Der Kampfschrei der „Anti-Atomkraft-Bewegung“: Millionen Tote, für zehntausende von Jahren unbewohnbar, war und ist einfach nur grottenschlechte Propaganda – wenngleich er gerade in Deutschland höchst erfolgreich war und ist.

Erkenntnisse zur Kosteneinsparung beim Neubau von KKW

Das zentrale – man könnte fast sagen einzige – Problem der kerntechnischen Industrie sind ihre außergewöhnlich hohen Kosten. Zwar war die Kostentreiberei durch immer neue und absurdere Forderungen das wirksamste Kampfmittel der „Anti-Atomkraft-Bewegung“, aber das ist auch nur die halbe Wahrheit. So gab es immer Kriegsgewinnler in den eigenen Reihen, die jedes hingehaltene Stöckchen begeistert übersprungen haben um Forschungsgelder etc. abgreifen zu können. Allgemein herrschte die Meinung vor, man sei so überlegen konkurrenzfähig, daß man ein paar Kröten problemlos schlucken könnte. Stellvertretend hierfür mag der „Kernfänger“ stehen, ein Millionen teures Bauteil als Produkt eines Hirngespinstes der Filmindustrie in Hollywood. Nur kommt leider bei permanenten Zugeständnissen ein Milliönchen zum nächsten. Oder das gern gepflegte Unwesen des „nuclear grade“, wo sich durch ein paar Stempel und Formulare auf wundersame Weise der Preis eines Bauteils vervielfacht. Oder Genehmigungsverfahren, in denen „Spezialisten“ endlose Diskussionen über abseitige Detailprobleme führen – selbstverständlich in Stundenlohnarbeit zu Stundensätzen, die selbst Gewerkschaftsfunktionären die Schamröte ins Gesicht treiben würde. Ging alles so lange gut, bis man feststellen mußte, daß man den Ast auf dem man saß, selbst abgesägt hatte. Es ergeben sich nun zwei Möglichkeiten: Der deutsche Weg, in dem sich die Kombinatsleiter um den Preis hoch subventionierter Windmühlen und Sonnenkollektoren vollständig aus dem angestammten Geschäft zurückzogen oder eine Umkehr, wie sie in anderen Ländern eingeschlagen wird. Wie so oft kann man zwar im Irrsinn vorangehen, es gibt aber keine Garantie, daß einem andere folgen. Plötzlich machen neue Player – Korea, China, Rußland – die Milliardengeschäfte. Für manche Länder ein heilsamer Schock. Jedenfalls für die, in denen regierende Politiker nicht mit religiös anmutendem „Weltrettungswahn“ ihren erbärmlichen Bildungsstand glauben kaschieren zu können.

Der Weg in GB

In Großbritannien war man schon immer positiv gegenüber der Kernenergie eingestellt. Es gab nie eine so gewalttätige „Anti-Atomkraft-Bewegung“ wie in Deutschland und es gelang auch nie den Ökosozialismus in den Regierungen zu etablieren. Im Gegenteil, in GB ist das Rechnen noch erlaubt. Der Ausflug in die Windenergie ist gescheitert. Mögen die Schlangenölverkäufer der Windindustrie auch noch so phantastische Erzeugungskosten aus dem Hut zaubern. Es zählt nur der Strompreis an der Steckdose des Endverbrauchers, also einschließlich der Backup-Kraftwerke, der gesamten Netzkosten usw. Ferner hat man in GB schon länger die Bedeutung qualifizierter und gut bezahlter Industriearbeitsplätze erkannt. Die Finanzindustrie in London kann weder das ganze Land ernähren, noch bietet es für alle Menschen geeignete Arbeitsplätze. Insofern ist es logisch, daß man die vorhandenen Kernkraftwerke nicht nur ersetzen will, sondern sogar von einem Ausbau ausgeht. Die Befreiung von ökosozialistischen Träumereien in Brüssel durch den Brexit beschleunigt diesen Prozeß erheblich. Es sollte im Zusammenhang mit dem Brexit nie vergessen werden, daß das Theater um den Neubau des Kernkraftwerks Hinkley Point C (HPC) erheblich die Abneigung gegen den europäischen Zentralstaat verstärkt hat: Wenn ein kleiner ferner Alpenstamm meint, die Energiepolitik einer frei gewählten britischen Regierung über Prozesse bestimmen zu können, ist Schluß für jeden aufrechten Britannier. Schließlich hat sich diese stolze Nation nicht einmal durch einen gewissen Adolf Hitler – ein Vertreter einer wenig anderen Variante des Sozialismus – auf die Knie zwingen lassen.

Die Bedeutung des Finanzierungsmodells

In GB ist allen klar, daß der vereinbarte Preis für die elektrische Energie aus dem im Bau befindlichen Kernkraftwerk HPC den Gipfel einer verfehlten Entwicklung darstellt und dringend gesenkt werden muß. Bemerkenswert ist, daß eine Annalyse zu dem Ergebnis kommt, daß das Finanzierungsmodell der dickste Brocken beim Energiepreis ist. Für HPC ergibt sich ein Anteil von 2/3 an dem Strompreis. Von dem vereinbarten Strike Price von 92,50 GBP/MWh entfallen volle 62 GBP/MWh auf die Finanzierungskosten. Mit anderen Worten: Lediglich ein Zahlungsstrom von rund 30 GBP pro produzierter Megawattstunde elektrischer Energie (über die Betriebsdauer von 60 Jahren gerechnet) dient dazu, die gesamten Investitions- und Betriebskosten zu bezahlen. Der Löwenanteil von 62 GBP/MWh dient ausschließlich zur Finanzierung der in der Bauzeit anfallenden Kosten. Noch interessanter ist, wenn man die Investition mit den Konditionen von sonstigen Infrastrukturmaßnahmen in GB ansetzt: Dann wäre lediglich ein Zahlungsstrom von 26 GBP/MWh nötig. Volle 36 GBP/MWh entfallen also allein auf die Abdeckung des Risikos während der Bauzeit dieses Kernkraftwerks. So wurde im Bezugsjahr 2016 die „Verzinsung“ (weighted average cost of capital) nach Steuern mit 9,2% angesetzt. Eine seltsame Wette zwischen (dem nie gefragten) Stromkunden und dem Hersteller. Auf jeden Fall bieten sich hier reichhaltige Möglichkeiten für „Finanzinnovationen“ im Zeitalter der „Nullzinspolitik“ und stetig steigender Staatsverschuldungen.

Welch zerstörerische Wirkung Planwirtschaft in den Händen von Politikern mit Hang zur „Systemveränderung“ hat, zeigt sich am Vergleich der „Preise“ für Wind- und Sonnenenergie mit Kernenergie. Einerseits Anschlusszwang, Einspeisevorrang, Backup-Kraftwerke usw. die bewußt nicht in den Strompreis eingerechnet, sondern zusätzlich dem Endverbraucher über „Netzentgelte“ abgeknüpft werden und andererseits alle möglichen fiktiven Kosten, wie Entsorgungskosten etc. die durch den Strompreis unmittelbar abgedeckt werden müssen. Wenn dann besonders schlichte Gemüter einfach beide Zahlen vergleichen, ergeben sich volkswirtschaftlich tödliche Konsequenzen. Es zählt nämlich nur der Gesamtpreis auf der Rechnung des Endverbrauchers, deren Kostendifferenzen zu Konsumverzicht und Arbeitsplatzverlusten an anderer Stelle führen. Hier verschaffen sich gerade Staaten, die Stromversorgung als „öffentliches Gut“ (Zinssätze von Staatsanleihen) betrachten, zur Zeit große Vorteile.

Die Notwendigkeit der Serienfertigung

Die Erfahrung zeigt, daß eine Serienfertigung (möglichst) identischer Kraftwerke ein großes Einsparpotential birgt. Allerdings ist das insbesondere bei den unterschiedlichen Zulassungsbestimmungen der einzelnen Länder nicht ganz einfach. So ist der Reaktor Flamanville 3 vordergründig genau so ein EPR wie die Reaktoren in Hinkley Point. Praktisch haben sie aber etwa 30% mehr Kabel und Rohrleitungen. Gravierend ist auch das Backup eines analogen unabhängigen Abschaltsystems zusätzlich zu den beiden digitalen Kontrollsystemen. Solche Änderungen können schnell und kostenträchtig auf andere Systeme rückkoppeln. In diesem Sinne ist HPC eher schon wieder ein „First Of A Kind (FOAK)“. Die ersten gravierenden Einsparungen werden erst bei dem Nachfolgeprojekt in Sizewell eintreten. Es ist bereits in Vorbereitung. Dort soll (fast) eine Kopie von HPC entstehen. Wie schon bei einer Doppelblockanlage die Einsparungen durch Erfahrung zunehmen, zeigt sich bei HPC in der Anzahl der Arbeitsstunden für die Betonarbeiten: Bei Block 1 wurden noch 25 Stunden für die Einbringung einer to Betonstahl benötigt, bei Block 2 nur noch 16 Stunden. Je mehr (wieder) in der Kerntechnik erfahrene Fachkräfte vorhanden sind, je besser laufen die Baustellen. Man hat deshalb bereits großen Wert auf Ausbildungszentren gelegt, in denen z. B. Schweißer geschult werden bevor sie auf die Baustelle kommen.

Erst konstruieren, dann bauen

Bevor man mit dem Bau beginnt, muß ein Kraftwerk bis ins letzte Detail durchkonstruiert sein. Jede Änderung in der Bauphase führt nicht nur zu Verzögerungen, sondern wirkt sich auch meist auf schon installierte Bauteile aus. Es sind gravierende Änderungen nötig, die oft zu weiteren Änderungen führen. Eine Kostenexplosion ist unweigerlich die Folge. Man denke nur an die „ewige Baustelle“ des EPR in Olkiluoto. Dies hat nichts mit Kernkraftwerken an sich zu tun, sondern ist das Ergebnis von Missmanagement. Ebenso wichtig ist der Einsatz von qualifizierten und in der Kerntechnik erfahrenen Fachkräften und eine ständige Qualitätskontrolle. Geht man die Sache zu lax an, laufen die Kosten davon (Vogtle, Summers, Flamanville). Jede nicht fachgerechte Dokumentation oder gar Pfusch führt zu Neuanfertigungen und Terminüberschreitungen. Dies kann sogar renommierte Unternehmen wie Westinghouse oder Areva in den Ruin führen.

Management des Risikos

Je komplexer oder einzigartiger ein Projekt ist, desto risikoreicher. Es gibt auch bei sonstigen Großprojekten beträchtliche Kostensteigerungen (Berliner Flughafen, Elbphilharmonie etc.). Die Auswertung zahlreicher erfolgreicher und nicht so erfolgreicher Bauvorhaben hat zu 14 Punkten geführt, die ausschlaggebend erscheinen:

  1. Finanzierung. Steht die Finanzierung vor Baubeginn und ist robust gegen unerwartete Einflüsse von außen (Finanzmarkt) und durch das Projekt (z. B. Pleite eines Zulieferers)? Bei langen Bauzeiten muß sie ständig überprüft und gegebenenfalls angepaßt werden. Insbesondere bei innovativen Modellen muß Übereinkunft bei allen Kapitalgebern bestehen.
  2. Vorschriften. Sind alle Vorschriften bekannt und verstanden? In der Kerntechnik kann ein nicht vollständig oder falsch ausgefülltes Formular ein Bauteil in Schrott verwandeln. Zumindest sind zeitaufwendige und teure Nachprüfungen erforderlich.
  3. Unternehmensführung. Ist die Führungsstruktur definiert und dem Projekt angemessen? Bei einem Kernkraftwerk gibt es hunderte Lieferanten aus allen Kontinenten, Kulturen, Sprachen und mit unterschiedlichsten Unternehmensstrukturen. Die Verantwortungen müssen klar definiert und eindeutig abgegrenzt sein. Alle Beteiligten müssen stets die gleiche Sprache sprechen.
  4. Standortdaten. Sind alle Standortbedingungen bekannt, verstanden und vollständig und ausreichend berücksichtigt? (Negativbeispiel: Tsunamis in Fukushima)
  5. Verfahrenstechnik. Sind alle chemischen und physikalischen Prozesse verstanden und alle notwendigen Daten dokumentiert? Insbesondere bei Innovationen sind die Auswirkungen auf andere Teilverfahren genau zu beobachten und etwaige Rückkoppelungen zu prüfen.
  6. Konstruktion. Handelt es sich um ausgereifte Konstruktionen bei allen Baugruppen? (Negativbeispiel: Vibrationen in den ersten Hauptkühlmittelpumpen beim AP1000).
  7. Kostenvoranschläge. Sind die Kostenvoranschläge vor Vertragsabschluss auf ihren Realitätsgehalt überprüft? Nachträge, Substandards aus Not oder gar Firmenpleiten sind gleichermaßen schmerzhaft für ein Projekt. Jeder Zulieferer muß – wie vor allem auch der Generalübernehmer – in erhebliche finanzielle Vorleistungen gehen (Genehmigungen und Zulassungen) um überhaupt lieferfähig zu sein. In einem so engen und stark regulierten Markt kann daher schon eine Nichtberücksichtigung bei der Auftragserteilung zur existenziellen Bedrohung werden (siehe Horizon in GB).
  8. Vertragliche Schnittstellen. Sind Schnittstellen eindeutig definiert und von allen Beteiligten verstanden und akzeptiert? Sie müssen in allen Phasen des Projekts gemanagt werden.
  9. Projektleitung. Ist die Projektleitung ausreichend qualifiziert, fachlich und menschlich geeignet und durchsetzungsfähig? Ist die Organisationsstruktur robust genug für die Projektlaufzeit?
  10. Datenverwaltung. Für ein Kernkraftwerk sind tausende Dokumente und technische Zeichnungen notwendig. Sie müssen jederzeit auf der Baustelle griffbereit sein. Das ist heute nur noch papierlos möglich. Alle Daten und Datenformate müssen konsistent sein. Jegliche Änderung muß genau und nachvollziehbar dokumentiert werden. Grundvoraussetzung ist eine ausfallsichere Datenverarbeitungsanlage mit Internet-Verbindungen großer Bandbreite. Üblich ist heute das gesamte Kernkraftwerk als 4D-Modell. Damit lassen sich nicht nur alle Anlagenteile aus beliebiger Sicht betrachten (z. B. Kollisionskontrolle) sondern auch stets im aktuellen oder gewünschten Bauzustand.
  11. Baustelleneinrichtungen. Sind alle Hilfsmittel (z. B. Schwerlastkran) zeitgerecht vorhanden und für den Einsatz geeignet. Sind erforderliche Hallen und Werkstätten einsatzbereit. Ist Arbeitsschutz und Strahlenschutz stets gewährleistet?
  12. Zulieferketten. Sind die Verfahren zur Auftragserteilung, Lieferung (individuelle Verkehrswege zur Baustelle) und Qualitätskontrolle vorhanden? Sind die speziellen Vorschriften der Genehmigungsbehörden berücksichtigt und den potentiellen Lieferanten bekannt? Gibt es Anreize für besondere Qualität und Termintreue?
  13. Fachkräfte. Ist gewährleistet, daß jeweils zum erforderlichen Zeitpunkt ausreichend Fachkräfte mit gültiger Zulassung auf der Baustelle vorhanden sind? Diese Fachkräfte müssen nahtlos in den örtlichen Arbeitsschutz (Strahlenschutz etc.) und das Qualitätsmanagement integriert werden. Eventuell müssen rechtzeitig Schulungen oder Nachprüfungen organisiert werden.
  14. Betriebsvorbereitung. Ist der Übergang von Errichtung zu Betrieb organisiert? Ist z. B. die spätere Betriebsmannschaft frühzeitig genug auf der Baustelle integriert? Ist der Wissenstransfer vom Generalunternehmer zum Kunden (z. B. unterschiedliche Datenverarbeitungssysteme und Firmenkultur) zu jedem Zeitpunkt garantiert?

Die vorhergehende Aufzählung soll vor allem Laien ein Gefühl vermitteln, wie vielfältig der Bau von Kernkraftwerken ist. Ein paar Promille der Baukosten sind z. B. für einen Software-Entwickler ein ausgesprochener Großauftrag. So ist es nicht verwunderlich, daß die kerntechnische Industrie immer eine Triebfeder hoch industrialisierter Gesellschaften war und ist. Die „Abfallprodukte“ (z. B. Simulationsprogramme, probabilistische Methoden, Werkstoffwissenschaften, Arbeitsschutz etc.) sind stets schnell in andere Industrien nutzbringend eingeflossen. Man darf aber nie die alte Volksweisheit „wer die Musik bestellt, bestimmt die Kapelle“ außer acht lassen. Wenn man selbst keine Kernkraftwerke mehr baut und betreibt, ist man sehr schnell raus aus dem Spiel. Ganz analog, wie man es aus Luft- und Raumfahrt und der Rüstungsindustrie kennt. Andererseits ist „Atomausstieg“, „Kohleausstieg“ und „Benzin- und Dieselausstieg“ ein probates Mittel, um eine Industriegesellschaft wieder auf den Stand des Mittelalters zurückzuführen – mit allen gesellschaftlichen Konsequenzen. Gesellschaftssysteme sind träge, deshalb sind die Konsequenzen nicht unmittelbar fühlbar. Wer glaubt, gegebenenfalls könnte man ja einfach das Rad zurückdrehen, ist naiv. Wenn Technik so einfach geht, wäre Afrika längst ein weiteres China.