Wie die Niederlande die Kerntechnik fördern wollen

Die deutsche „Energiewende“ strahlt nun auch bis in die Niederlande. Wenn die Versorgung mit preisgünstiger Grundlast aus dem nahegelegenen rheinischen Braunkohlerevier nicht mehr möglich ist, muß Ersatz her: Erdgas scheidet aus, weil die eigene Förderung stark rückläufig ist und das Gas dringend für Haushalte, Industrie und Landwirtschaft gebraucht wird. Sonne und Wind geht nicht, da schon Deutschland fanatisch auf diese Karte setzt. Wenn in Deutschland Dunkelflaute herrscht, dann auch in den Niederlanden. Was bleibt also anderes als Kernkraftwerke? Im Februar 2021 erschien zu dieser Thematik ein bemerkenswertes Papier der e-lise Stiftung. Dort werden 13 Punkte aufgestellt, die als Appell an die niederländische Regierung gerichtet sind und als Voraussetzung für einen zügigen Ausbau der Kernkraftwerke (bisher nur ein Druckwasserreaktor mit 482 MWel in Borssele seit 1973 in Betrieb) angesehen werden können. Die Punkte sind so grundsätzlich, daß sie im Folgenden wiedergegeben und kritisch gewürdigt werden sollen.

1 Garantien gegen politische Schwankungen anbieten

Richtig, aber traurig ist die Feststellung, daß immer mehr Investoren unwillig sind, Milliarden in langfristige Energieprojekte zu investieren. Ausdrücklich angeführt als schädliches Beispiel wird der „Atomausstieg“ (wörtlich im Original und in der englischen Übersetzung) in Deutschland. Es ist schon beängstigend, wie schon wieder in Europa ≫Privateigentum≪ und ≫Rechtssicherheit≪ als Grundwerte einer freien und demokratischen Gesellschaft gefordert werden müssen. Wie wir heute wissen, war der „Atomausstieg“ nur der erste Schritt in die dunklen Nebel des Sozialismus. Es folgte der „Dieselskandal“, der „Kohleausstieg“ und jüngst in Berlin der „Mietendeckel“. Zwar alles noch irgendwie durch Gerichte geglättet, aber bereits abschreckend genug. Man sollte deshalb mit der Forderung nach besonderen Bürgschaften für Kernkraftwerke äußerst vorsichtig sein. Es geht hier längst nicht mehr um Energieformen, sondern um nichts weniger als um Freiheit und Wohlstand.

Richtig ist, daß die Dramen um den EPR (Olkiluoto, Flamanville gegenüber Taishan) das Vertrauen der Investoren zerstört haben. Richtig ist auch die Feststellung, daß die Politik durch ständige Verschärfung der Anforderungen maßgeblich verantwortlich ist. Insofern ist eine vollständige Genehmigung vor Baubeginn mit über die Bauzeit eingefrorenen Bedingungen zwingend notwendig. Nur so sind Verzögerungen eindeutig zu zu ordnen. Versäumnisse der Verwaltung werden genauso schonungslos aufgezeigt, wie mangelnde Planung (Olkiluoto) und Pfusch der Hersteller (Flamanville). Nur so können Mehrkosten – notfalls vor Gericht – eingetrieben werden. Behörden müssen genau wie Privatunternehmen für Fehlverhalten finanziell haften.

2 Neue Wege finden, damit staatlich gestützte Kredite mit niedrigen Zinsen für den Neubau bereitgestellt werden können

Vordergründig richtig ist die Feststellung eines überdehnten „Marktes“ für elektrische Energie. Die zufällige wetterabhängige Überproduktion verursacht nicht kostendeckende oder sogar negative Preise (Entsorgungskosten). Man sollte endlich aufhören mit dem ökosozialistischen Neusprech vom „Strommarkt“. Bezüglich „alternativer Energien“ handelt es sich um reinrassige Planwirtschaft mit politisch vorgegebenen Produktionsquoten, staatlich garantierten Preisen, Anschlusszwang, Abnahmezwang, alles das bei kostenloser Infrastruktur. Kostenlos wohlgemerkt nur für die politisch gewünschten Neureichen. Die Kosten fallen natürlich an, werden aber voll und ausschließlich zu Lasten der Stromkunden umgelegt. Der Markt fängt erst an der Strombörse an. Dort findet – wenn auch unvollständig – eine Preisbildung durch Angebot und Nachfrage statt. Planwirtschaft und Markt lassen sich aber schon von der Theorie her nicht miteinander verknüpfen. Irgendwann erfolgt – wie bereits in Texas geschehen – die Explosion des Systems durch Mondpreise ($US9 für eine kWh zur Zeit des Kälteeinbruchs). Weitere staatliche Eingriffe werden nötig. Die Todesspirale wird immer enger, wie man es schon von der untergegangenen „DDR“ oder UDSSR her kannte.

Richtig – wenngleich trivial – ist die Feststellung, daß die spezifischen Kosten stark abhängig vom Zinssatz und der Laufzeit der Kredite sind. Da ein Kraftwerk erst Einnahmen erzielt, wenn es ans Netz gehen kann, ist hier Laufzeit mit Bauzeit gleich zu setzen. Dies erklärt schon mal wesentlich, warum die Baukosten von Flamanville gegenüber Taishan (EPR) bzw. Vogtle gegenüber Sanmen (AP1000) mehr als doppelt so hoch sind. Vor allem der Zinseszinseffekt schlägt bei langen Bauzeiten gnadenlos durch. Der Zinssatz für eine Investition setzt sich aus dem allgemeinen Zins (maßgeblich durch die Notenbank bestimmt) und dem individuellen Ausfallrisiko – quasi eine Versicherungsprämie – zusammen. Vereinfachend gesagt: Je höher die Wahrscheinlichkeit ist, daß die Bank ihr Geld nicht wiedersieht, um so höher der Zinssatz. Aus diesem Zusammenhang schlagen die Autoren drei Finanzierungsmodelle vor:

  1. Der Staat tritt als Bauherr auf und finanziert zu den günstigen Zinsen seiner Staatsanleihen (z. Zt. in Deutschland sogar negativer Zins). Bei Fertigstellung verkauft er das Kraftwerk an private Investoren. Entweder zu einem vorher vereinbarten Preis oder nach Angebot und Nachfrage.
  2. Der Staat übernimmt für die erforderlichen Kredite eine Bürgschaft. Der Investor muß für die Bürgschaften eine übliche Gebühr entrichten, bekommt dafür aber nahezu Konditionen einer Staatsanleihe am Kapitalmarkt.
  3. Der Energieversorger arbeitet nach dem RAB-Modell (Regulated Asset Based Finanzierungsmodell). Dabei werden – wie in guter alter Zeit – die Strompreise für die Endkunden staatlich kontrolliert. Alle Kosten müssen nachgewiesen werden (in diesem Fall die vereinbarten Zwischenrechnungen) und werden in vollem Umfang an die Stromkunden weitergegeben. Für seine Kosten und sein Risiko erhält der Energieversorger einen festgelegten „Zinssatz“ vergütet.

Bei Modell 1 übernimmt der Steuerzahler – wie bei vielen anderen Infrastrukturmaßnahmen auch – das volle Risiko. Dies kann nur politisch gerechtfertigt werden, wenn man die Stromversorgung als unverzichtbare Grundleistung für alle Bürger betrachtet. Die Übernahme einer staatlichen Bürgschaft ist rechtlich zweifelhaft (unerlaubte Subvention nach EU-Beihilferecht). Modell 3 ist ein Schritt zurück in – gar nicht so schlechte – alte Zeiten. Dazu müßte sich die Politik aber eingestehen, daß die Sprüche von „Deregulierung“ und „Strommarkt“ nichts als Neusprech oder Luftnummern waren. Da es inzwischen eine ganze neue Klasse Energiewende-Gewinner gibt wohl nur möglich, wenn ein entsprechender Politikerwechsel stattfinden würde.

Gar nicht diskutiert wird eine Aufforderung an die Finanzwirtschaft zur Entwicklung innovativer Modelle. Kraftwerke im Allgemeinen sind Investitionen mit hohem Anlagewert, sehr langen Laufzeiten und über Jahrzehnte genau kalkulierbaren Rückflüssen (bei entsprechender politischer Sicherheit). Also genau das, was beispielsweise Versicherungen und Pensionsfonds benötigen. In der guten alten Zeit nannte man Aktien deutscher Versorger gern „Papiere für Witwen und Waisen“. Heute stellt man mehr oder weniger erstaunt fest, daß der Hersteller Westinghouse (Neubau, Wartung und Reparatur, Brennelemente etc.) kein Pleite-Unternehmen, sondern unter neuer Führung von Brookfield eine unerwartete Ertragsperle ist. Wenn der Staat seinen Klassenkampf-Modus bei der „Atomkraft“ aufgeben würde, wäre auch jede Menge „Risikokapital“ vorhanden. Manch ein Investor würde sein Geld lieber in ein innovatives Kraftwerk stecken, als in einen Lieferservice auf Fahrrädern. Aber auch der Staat könnte Modelle entwickeln, wie im Ausland bereits bei Pipelines (Master Limited Partnership) und dem finnischen Kernkraftwerk Hanhikivi (Mankala-Kooperative; Anteilseigner kommen entsprechend ihrem Kapitalanteil für die Kosten auf und erhalten dafür die entsprechende Energiemenge geliefert) erprobt.

3 Eine Makroökonomische Analyse über die Kosteneinsparungen infolge Kernenergie durchführen

Kernkraftwerke sind sehr kapitalintensiv. Der Bau erfordert unmittelbar eine große Investition, liefert dafür aber über die Laufzeit (60+ Jahre) kontinuierlich und bedarfsgerecht elektrische Energie zu geringsten Produktionskosten. Wegen der langen Planungs- und Bauzeiten erwarten Investoren, daß die Regierung diese Investitionen absichert. Da aber Prognosen über Jahrzehnte nur schwer erstellbar sind, ergeben sich durch die notwendigen konservativen Annahmen vermeintlich hohe Preise im Vergleich zu kurzlebigen Investitionen wie Windmühlen oder Photovoltaik. Die Autoren meinen, daß eine erhebliche Kapitalbeteiligung des Staates Vertrauen schaffen könnte, da dadurch private und öffentliche Investoren im selben Boot sitzen würden und politische Ekstasen weniger verlockend wären.

Die Einsparung von CO2 – Abgaben durch Kernenergie ist trivial. Je höher diese sind, desto (relativ) günstiger ist die damit erzeugte elektrische Energie. Billiger Strom ergibt einen erheblichen Nutzen für private und industrielle Verbraucher. Dabei ist aber zu beachten, daß CO2 – Abgaben politisch sind und damit zeitlich und gesellschaftlich höchst variabel. Viel wichtiger wäre eine Analyse der über die Strompreise hinausgehenden Vorteile der Kernenergie (Versorgungssicherheit, technische Innovationen, überdurchschnittlich attraktive Arbeitsplätze etc.). „Gesellschaftlicher Nutzen“ ist aber prinzipiell ein Wiesel-Wort und damit mit Vorsicht zu genießen. Nicht ohne Grund werden solche Begriffe bevorzugt von Sozialisten erschaffen, um ihren Utopien einen wissenschaftlichen Anspruch zu geben.

4 Zusammenarbeit zwischen Energieversorgern und Lieferanten um eine ausgewogenere Kostenstruktur zu erzielen

Wenn man die Investitionen im „Westen“ (Europa, USA) und „Osten“ (China, Rußland, aber auch Süd-Korea, Indien) für Kernkraftwerke vergleicht, fällt sofort der extreme Unterschied auf. Abgesehen von der schon besprochenen unterschiedlichen Finanzierung fallen aber weitere gravierende Unterschiede auf. Die internen (zusätzlichen) Kosten (Bauüberwachung, Abwicklung der Finanzierung, Rechnungsprüfung etc.) der Eigentümer sind im „Westen“ wesentlich höher. Ebenso die indirekten Kosten (Genehmigungsverfahren, Rechtsstreitigkeiten etc.) für den Eigentümer. Und nicht zuletzt – aber weitaus geringer als wahrscheinlich vermutet – die unterschiedlichen Lohnkosten. Die extrem geringeren Baukosten in China sind auf eine Serienbauweise (erfahrenes und geübtes Personal auf allen Stufen) und nur noch zwei integrierte Konzerne, die sich ihre (unterschiedlichen) Kernkraftwerke „selber“ bauen, zurückzuführen. Hier ist noch eine Menge Einsparpotential im „Westen“ vorhanden. Für integrierte Konzerne gibt es allenfalls noch in den USA eine Perspektive. In Europa ist die industrielle Basis schon viel zu weit weggebrochen. Es kann nur eine engere Zusammenarbeit zwischen Energieversorgern, Herstellern und öffentlicher Verwaltung angestrebt werden.

5 Möglichkeiten zur nationalen und internationalen Zusammenarbeit mit dem Ziel von Serienfertigung ausfindig machen

Es wird richtig festgestellt, daß die massive politische Unterstützung und die immensen Subventionen bei Wind und Sonne das Investitionsrisiko verkleinert haben. Durch diesen seit Jahrzehnten anhaltenden Zustand waren die Kostensenkungen durch Serienproduktion und Prozessoptimierung erst möglich. Es ist allerdings mehr als fragwürdig, wollte man dieses Vorgehen nun auch für die Kerntechnik fordern. Vielmehr sollte man die sofortige Einstellung der Subventionen und Sonderrechte fordern. Der Spuk wäre in kürzester Zeit vorbei. Wie schnell das gehen könnte, zeigt in Deutschland gerade das Auslaufen der ersten Förderprogramme nach 20 Jahren. Obwohl längst bezahlt, werden die Mühlen überwiegend abgerissen, weil mit den erzielbaren Strompreisen nicht einmal die laufenden Betriebskosten abgedeckt werden können! Deutlicher kann man keine Fehlinvestition darstellen – selbst wenn der Wind keine Rechnung schickt.

Ein erster, wesentlicher Schritt wäre die Harmonisierung der Genehmigungsverfahren. Man verlangt auch nicht für jedes Flugzeug oder Auto eine komplett neue Zulassung. Selbstverständlich wird die Genehmigung in anderen Ländern bzw. die Zulassung durch internationale Gremien anerkannt – sonst setzt man sich sehr schnell dem Vorwurf von „Handelshemmnissen“ mit allen Konsequenzen aus. Das heißt nicht, daß man nicht länderspezifische Vorschriften (z. B. über Kühlwasser) einhalten muß. Mit dem nötigen politischen Willen läßt sich das sehr schnell umsetzen, denn in keinem anderen Industriezweig ist die internationale Zusammenarbeit und die laufende Kontrolle durch supranationale Institutionen enger als in der Kerntechnik. Aus dieser Standardisierung ergibt sich folgerichtig auch eine Arbeitsteilung über die Grenzen hinweg. Sind erstmal kalkulierbare Stückzahlen für Komponenten vorhanden, finden sich auch (konkurrierende) Lieferanten. Innerhalb von Europa zeichnet sich für SMR eine enge Kooperation zwischen GB, Polen, Estland, Tschechien, Rumänien, Finnland, Schweden und Irland ab. Die vermeintlich „kleinen Länder“ können als Verband eine mächtige Nachfragemacht entwickeln.

6 Den Verwaltungseinheiten ermöglichen, durch den gemeinsamen Bau von Kernkraftwerken ihre regionalen Energiestrategien umzusetzen.

Dieses Kapitel ist sehr speziell auf die föderale Struktur der Niederlande zugeschnitten. Wichtig ist jedoch die Widerlegung des „grünen Arguments“, daß der Bau von Kernkraftwerken viel zu lange dauert um „klimawirksam“ zu sein und man deshalb mit Wind und Sonne schnellstens Fakten schaffen müsse. Hilfreich für alle „Atomkraftgegner“ ist der Hinweis auf die Bauzeit von fünf Jahren für das KKW Borssele, Fertigstellung 1973. Ebenso die unterschiedlichen natürlichen Vorraussetzungen verschiedener Regionen (Wind an der Nordsee oder in Süddeutschland usw.) und die deshalb notwendigen verschiedenen Lösungsansätze.

7 Energieversorger ermutigen ihre fossilen und Biomassekraftwerke durch Kernkraftwerke zu ersetzen

In den Niederlanden wurden 13 Kraftwerksstandorte (Kohle, Biomasse, Gas) ermittelt, die durch neue Kraftwerke ersetzt werden müssen. Die Leistung beträgt überwiegend unter 1000 MWel und ist damit für SMR geeignet. An neun Standorten könnten jeweils zwei SMR gebaut werden. An diesen Standorten ist die Infrastruktur (Netzanschlüsse, Kühlwasser etc.) bereits vollständig vorhanden. Da an diesen Standorten bereits über längere Zeiten Kraftwerke in Betrieb sind, gibt es gute Kenntnisse über die Umweltbedingungen und reichhaltige Daten und Dokumentationen. Das sind beste Vorraussetzungen für ein schnelles Genehmigungsverfahren. Man Vergleiche dies beispielsweise mit der Situation bei einem Offshore-Windpark.

8 Forschung zum Einsatz der Kernenergie außerhalb der Stromerzeugung anregen

Es wird der Primärenergiebedarf hinterfragt. Elektroenergie ist nicht alles. Es gibt auch einen großen Wärmebedarf für Heizung und Industrie (Rotterdam ist ein großes petrochemisches Zentrum in Europa). Forschung bezieht sich hier auf die Verknüpfung der unterschiedlichen Verbraucher mit verschiedenen Reaktortypen. Auf der Verbrauchsseite gilt es Wasserstoffgewinnung, synthetische Kraftstoffe, Meerwasserentsalzung, Raumwärme, Industriewärme, Stahlerzeugung und Großchemie abzudecken. Bezüglich der Reaktoren sind die notwendigen Temperaturen bereitzustellen und langfristig die Wiederverwendung von „Atommüll“ in schnellen Reaktoren zu ermöglichen (Neudeutsch: cradle-to-cradle strategy).

9 Genehmigungsverfahren für innovative Reaktorkonzepte

Ein grundsätzliches Problem für ein Genehmigungsverfahren besteht in der mangelnden Ausstattung der öffentlichen Verwaltung und der Überwachungsinstitutionen (mit Personal und Technik), sowie mangelnder Erfahrung. Diese Mängel führen zu holprigen und langwierigen Verfahren. Die (unnötig langen) Verfahren wiederum zu mangelnder Unterstützung durch die Öffentlichkeit. Gegenmaßnahmen sind die Übernahme bereits erfolgreicher Zulassungen im Ausland. Es muß nicht alles von vorn gemacht werden, sondern es reicht ein Nachvollziehen im Austausch mit den ursprünglichen Institutionen. Eine sogenannte Module Design Certification (MDC), bei der die Zulassung zweigeteilt ist: Ein Reaktor wird im ersten Schritt grundsätzlich sicherheitstechnisch zugelassen und erst im zweiten Schritt werden die standortspezifischen Einflüsse berücksichtigt. Dabei können international zugelassene Berechnungsverfahren, Spezifikationen usw. übernommen werden. Übergang zu einer risikoorientierten Betrachtung, bei der Industriestandards übernommen werden (z. B der Reaktor muß „nuclear grade“ sein, für die Turbine reicht der übliche und erprobte Standard).

10 Das Wissen über Kernenergie in den Verwaltungen verbessern

Es wird darauf hingewiesen, daß Kerntechnik und Strahlenschutz mehr als den Bau von Kernkraftwerken umfassen. Im Gegenteil wird die Anwendung in Forschung, Medizin und Industrie beständig umfangreicher. Auch in den Niederlanden sind die Fachabteilungen in den Verwaltungen beständig verkleinert bzw. an den Rand gedrängt worden. In Deutschland kam seit Rot/Grün noch die Vereinnahmung durch die „Atomkraftgegner“ hinzu: Funktionierende und mit ausgewiesenen Fachleuten besetzte Behörden wurden systematisch zerstört, indem man gerade die Besten durch Schikanen, Entzug der Mittel usw. in die innere bzw. tatsächliche Kündigung trieb. Die „lukrativen Posten“ wurden anschließend mit ausgewählt unfähigen, aber um so festerer ideologischen Grundhaltung besetzt. Ein probates Mittel: Fachlich überforderte, sind stets besonders fügsam gegenüber Anweisungen von oben. Woher sollten sie auch bei einer Kündigung eine vergleichbar vergütete Position wieder her bekommen? Wie zerstörerisch und nachhaltig das wirkt, zeigt sich gerade wieder im Zusammenhang mit der „Endlagersuche“ in Deutschland. Fachleute der Kerntechnik sind längst in andere Sparten bzw. ins Ausland abgewandert.

11 Seelenfrieden beim Strahlenschutz herstellen

Strahlenschutz gründet auf Berechtigung, Optimierung und Grenzwerten. Die Berechtigung von „Strahlung“ ist z. B. im Bereich der Medizin ethisch allgemein gerechtfertigt. Bei der friedlichen Nutzung der Kernenergie scheiden sich plötzlich die Gemüter. Die Optimierung – lediglich ein anderes Wort für die Abwägung von (angeblichem) Schaden und Nutzen – ist unter Fachleuten selbstverständlich. ALARA (As Low as Reasonably Achievable) ist das täglich Brot eines jeden Strahlenschutzbeauftragten. Beim Arbeitsschutz muß ständig „Strahlengefahr“ gegen andere Gefahren abgewägt werden. Allerdings ist es in unserer europäischen (teilweise) saturierten Wohlstandsgesellschaft dringend notwendig, die „sozioökonomischen“ (wie man heute so sagt) Gesichtspunkte wieder in den Mittelpunkt zu rücken. Spätestens nach den Evakuierungen in Fukushima sollte auch der „Strahlenängstigste“ ins Nachdenken gekommen sein.

Völlig zu Recht, wird von den Autoren die fatale Konsequenz der Linear No Threshold (LNT) Hypothese für die Festlegung von Grenzwerten angeführt. Wenn man fälschlicherweise annimmt, es gäbe keinen Schwellwert für die Strahlungsdosis, ist ein Rennen gegen Null in sich logisch. Schon bei den „Atomkraftgegnern“ gehörte das Narrativ von den wenigen Gramm Plutonium, die ausreichen die ganze Menschheit auszurotten zum festen Bestandteil der Propaganda, mit dem sich trefflich schlichte Gemüter ängstigen ließen. Nur wegen des LNT-Irrglaubens kann man sich vor der Einleitung von Wasser in den Pazifik fürchten, dessen Gehalt an Tritium neunfach unter dem Wert für Trinkwasser (bei lebenslangem Gebrauch) liegt. Nur wegen des LNT-Irrglaubens glaubten tatsächlich viele Menschen an Millionen zusätzlicher Krebstote durch Tschernobyl und Fukushima. Nur wegen des LNT-Irrglaubens konnte der Irrsinn um den Endlagerstandort Gorleben bis heute am Kochen gehalten werden. Nur wegen des LNT-Irrglaubens gruseln sich manche Deutsche vor den Kernkraftwerken in den Nachbarländern.

12 Seelenfrieden in der Gesellschaft herstellen – die „Atommüllfrage“ selbst stellen

Hier wird speziell auf die Situation in den Niederlanden eingegangen. Auch in Deutschland wird der „Atommüll“ gern als Totschlagargument gegen die friedliche Nutzung der Kernenergie eingesetzt. Es ist dringend notwendig, sprachlich präziser mit den auftretenden Formen umzugehen. „Abgebrannte Brennelemente“ sind noch lange kein Müll, genau so wenig wie Altpapier. Sie bestehen aus rund 95% noch weiter verwendbarem Brennstoff in der Form von Uran und Plutonium. Kernenergie ist die einzige Industrie, die von Anbeginn an das „Recycling“ in alle Planungen einbezogen hat. Selbst die Reststoffe der Wiederaufbereitung (Spaltprodukte und Minore Aktinoide) sind nicht unbedingt Restmüll. Schließlich enthalten sie das gesamte Periodensystem mit zahlreichen Wertstoffen. Letztendlich ist die Aufbereitung oder Endlagerung eine rein wirtschaftliche Frage, deren Antwort deshalb von Brennelemente komplett endlagern (Finnland, Schweden) über die Rückgewinnung der Brennstoffe (Frankreich) bis hin zur Gewinnung von Elementen aus dem Restmüll der Wiederaufbereitung (USA, Russland) geht. Für alle Formen der Abfälle gibt es erprobte Lagerkonzepte von geologischen Endlagern (Bergwerk oder Tiefbohrung) bis technischer Langzeitlagerung (Trockenlagerung von Brennelementen). Die ständig wiedergekäute Parole von der ungelösten Atommüllfrage wird durch ihre beständige Beschwörung keinesfalls richtiger. Leider wahr ist allerdings, daß die kerntechnische Industrie zu wenig zur Aufklärung darüber beigetragen hat.

13 Sicherstellen, daß Kernenergie als nachhaltig in die EU-Taxonomie aufgenommen wird

Die EU-Taxonomie ist eine kulturmarxistische Schöpfung um das alte Gespenst des Sozialismus in Europa unter dem neuen Namen „Great Reset“ wieder hoffähig zu machen. Die Illusion der Verelendung der Arbeiterklasse und die daraus resultierende revolutionäre Kraft ist im Wohlstand des Kapitalismus untergegangen (Pol Pot im Pariser Mai 68). Wenn die Zerstörung des gehaßten Systems also nicht von unten erfolgt, muß man es von oben versuchen. Man glaubt soviel vom Kapitalismus verstanden zu haben, daß das über staatlich gelenkte Kreditvergabe gelingt: Private Finanzinvestoren sollen nur noch Kredite für als nachhaltig definierte Energien vergeben dürfen. Was die alte Försterweisheit (wenn man mehr Bäume fällt, als nachwachsen, hat man bald keinen Wald mehr) mit fossilen oder Kernenergie zu tun hat, mögen die Funktionäre wissen. Man hat es allerdings schon mal vor gar nicht all zu langer Zeit als „Peak Oil“ zu verkaufen versucht. Spätestens seit der „Shale Revolution“ in der Gas und Ölindustrie ist es auch um dieses Untergangsszenario still geworden. Im Gegenteil, für kurze Zeit wurde das Erdgas sogar als Heilsbringer gegen die böse Kohle und Kernenergie gepuscht. Das reichte aber noch nicht aus, um die Gesellschaft durchdringend zu schädigen. Deshalb glaubt man nun die Atmosphäre als endlich entdeckt zu haben. Alles ist schädlich, nur Wind und Sonne führen ins (kommunistische) Paradies. Auch das wird wieder scheitern, spätestens wenn die breite Masse merkt, wie sie um ihren hart erarbeiteten und bescheidenen Wohlstand gebracht werden soll.

Es ist zwar legitim sich eine Gleichbehandlung mit Wind und Sonne zu wünschen, aber nicht auf Kosten anderer Energieformen. Wohin die Reise geht, ist klar. Als man in Deutschland aus der Kernenergie ausstieg, stand die Braunkohle (freudig) abseits. Woher sollte der Strom denn sonst kommen? Heute geht auch die Steinkohle in die Arbeitslosigkeit und über die „Klimaschädlichkeit“ von Erdgas wird schon diskutiert. Die Öko-Sozialisten haben ihre Hausaufgaben gemacht: Alles ist mit preisgünstiger Energie möglich – ohne geht nichts. Also äußerste Vorsicht vor falschen Freunden. Es ist an der Zeit, die Stärken der Kerntechnik offensiv in der Gesellschaft zu vertreten und nicht von einer grünen Dividende am Katzentisch der Gesellschaftsveränderer zu träumen.

SMR-2021, Xe-100

Anfang April unterzeichneten X-energy, Energy Northwest, und der Grant County (Washington) Public Utility District (PUD) eine Absichtserklärung einen Hochtemperaturreaktor für geschätzt $2,4 Milliarden als Demonstrationsprojekt bis 2027 zu bauen. Das TRi Energy Partnership – ein Wortspiel aus dem TRISO-Brennstoff bzw. der Tri-Cities area – übernimmt die Projektentwicklung für die Genehmigung, den Bau und Betrieb des Kraftwerks. Der angedachte Standort ist neben dem Kernkraftwerk Columbia, einem 1,174-MWe Siedewasserreaktor nahe Richland im Bundesstaat Washington. An diesem Standort sind alle Voraussetzungen für den Transport (Schiene, Straße, Wasserweg) sowie fachkundiges Personal vorhanden. Damit sind erst einmal alle Bedingungen für eine hälftige Finanzierung (50% Staat, 50% privates Risikokapital) nach dem Advanced Reactor Demonstration Program des „US Energieministeriums“ erfüllt.

Der Entwurf

Der Xe-100 besteht aus zwei Zylindern: Dem Reaktor mit einem Durchmesser von etwa 4,9m und einer Höhe von 19,5m und dem Dampferzeuger mit einem Durchmesser von etwa 6,5m und einer Höhe von 25m. Der Reaktor dürfte etwa 200 to wiegen und der Dampferzeuger etwa 700 to. Beides Maße und Gewichte, wie sie z. B. bei Raffinerien und Chemieanlagen heute üblich sind. Insofern sind Montage und Transport für einschlägige Unternehmen kein Problem. Beide Zylinder sind nur durch ein Doppelrohr für das Helium miteinander verschraubt. Eine solche Einheit soll eine Wärmeleistung von 200 MWth und eine elektrische Leistung von etwa 75 MWel haben. Die Eintrittstemperatur in den Reaktor beträgt 260°C und die Austrittstemperatur 750°C. Um überhaupt mit dem Gas Helium ausreichend Wärme bei akzeptabler Strömungsgeschwindigkeit transportieren zu können (kein Phasenübergang), beträgt der Betriebsdruck 70bar. Damit muß man wieder die Festigkeitsprobleme beherrschen, die sich aus der Kombination von hohem Druck bei hoher Temperatur ergeben. Mit anderen Worten: Die beiden „Zylinder“ werden entsprechend dickwandig und damit teuer. Ähnliches gilt für die spiralförmigen Rohre des Dampferzeugers, da sie auf Werte (165bar, 565°C) konventioneller Kraftwerke ausgelegt sind. Alles technisch beherrschbar, aber schon vom Ansatz her teuer.

Die Leistung eines solchen Moduls ist auch durch das „Kugelhaufen-Prinzip“ begrenzt. Das Ganze funktioniert wie ein Silo: Es werden ständig oben frische Brennstoffkugeln dem Reaktor zugeführt (ca. 175 Kugeln täglich) und unten wieder die entsprechende Menge abgebrannter Brennelemente abgezogen. Da die spezifische Leistung bei diesem Prinzip etwa 30 mal geringer als in einem konventionellen Druckwasserreaktor ist, ergibt sich ein „Haufen“ aus rund 220 000 Kugeln. Je größer jedoch ein Reaktorkern ist, um so mehr neigt er zu einem „Eigenleben“. Die sich ergebenden ungleichen Zustände müssen durch Regelstäbe im Griff behalten werden. Ab einer gewissen Größe ist es aber praktisch unmöglich, Regelstäbe in solch einen Haufen einzufahren ohne die Kugeln und die Regelstäbe zu beschädigen.

Sicherheit

Zentrales Sicherheitselement sind auch hier die TRISO-Brennelemente. In jeder einzelnen „Brennstoffkugel“ (6 cm Durchmesser) befinden sich rund 18 000 einzelne „Brennelemente“. Jedes einzelne Körnchen hat seine eigene Schutzhülle aus mehreren Schichten aus denen Spaltprodukte erst einmal entkommen müssen. Hätten sie es geschafft, müßten sie noch die Speicher- und Schutzschichten der Kugel durchdringen. Erst dann könnten sie ins „Kühlmittel“ Helium – das ständig (mit einfachen Mitteln) überwacht wird – gelangen. Bis an die Umwelt müßten sie dann noch den Druckbehälter, das Gebäude etc. überwinden. Die Sicherheitsfrage konzentriert sich damit auf die Beständigkeit der Kugeln. Die Tests über Bestrahlung und Temperatur sind bereits erfolgreich abgeschlossen. Für die Freisetzung von radioaktiven Stoffen ist die Stabilität von Brennelementen (Harrisburg, Fukushima) maßgeblich. Graphitkugeln können nicht schmelzen, sondern sublimieren (unmittelbare Verdampfung ohne Verflüssigung) bei über 3900°C. Diese Temperatur kann aber unter keinen Umständen (nicht im Betrieb und auch nicht durch Nachzerfallswärme) im Reaktor erreicht werden. Jede einzelne Kugel übernimmt quasi die Funktion des Containments von konventionellen Reaktoren (Verhinderung der Freisetzung radioaktiver Stoffe an die Umgebung).

Die Menge an spaltbarem Material (auf 15,5% angereichertes Uran) bzw. der Spaltprodukte (maximaler Abbrand 160 MWd/kg) ist schon durch das Volumen des Reaktors begrenzt. Es ist nur soviel „Überschussreaktivität“ vorhanden, daß die Veränderungen im Betrieb (z. B. Xenonvergiftung im Lastfolgebetrieb) über die Regelstäbe (2 mal 9 Stück) kompensiert werden können. Selbst wenn alle Regelstäbe vollständig gezogen sind, bricht die Kettenreaktion (stark negativer Temperaturkoeffizent) lange vor Erreichen der zulässigen Temperaturen in sich zusammen – der Reaktor ist „walk away sicher“. Fehlbedienungen sind ausgeschlossen bzw. der Reaktor könnte (zeitweise) ohne Personal betrieben werden. Selbst bei einem Ausfall der Kühlung (entweichen des Heliums) reicht die passive Wärmeabfuhr über Strahlung und Wärmeleitung aus um ein Unglück zu verhindern (Fukushima).

Revolutionärer Bestandteil des Genehmigungsverfahrens wird der Nachweis sein, daß keine unzulässige Strahlenbelastung außerhalb des Betriebsgeländes (400m um den Reaktor im Gegensatz zu 10 Meilen) auftreten kann. Alle erforderlichen Nachweise und Auflagen (Besiedelungsdichte, Evakuierungspläne etc.) für eine Genehmigung würden entfallen. Mit anderen Worten: Ein solcher Reaktor könnte unmittelbar neben einem Wohngebiet (z. B. Fernwärme) oder in einem Industriegebiet (Raffinerie, Chemiepark) gebaut werden.

Geschichte

X-energy wurde 2009 von Dr. Kam Ghaffarian gegründet. Es gelang ihm einige Fachleute mit Erfahrung auf dem Gebiet der Kugelhaufenreaktoren anzuwerben. Leitender Ingenieur z. B. ist Dr. Eben Mulder, der schon in Südafrika in der Entwicklung von Hochtemperaturreaktoren tätig war und einst auf diesem Gebiet in Deutschland promovierte. X-energy wuchs schnell und hatte bis 2017 bereits über $34 Millionen Kapital eingeworben. In diesem Jahr startete das Projekt eines 320 MWel Kraftwerks, bestehend aus vier Reaktormodulen. Federführend beteiligt ist Southern Nuclear (betreibt mehrere Kernkraftwerke und baut Vogtle) als Energieversorger und Burns & McDonnell als Ingenieurunternehmen. Richtungsweisend für andere Industriezweige ist die Entwicklung eines „Digitalen Zwillings“ des Reaktors (separat gefördert durch das Energieministerium). Stark vereinfacht gesagt, ist die gesamte Konstruktion als 3D-Modell digital vorhanden und verknüpft mit einschlägigen Programmen zur probabilistischen Sicherheitsanalyse, virtual reality usw. Ziel ist die systematische Ermittlung von Schwachstellen bereits in der Konstruktionsphase und z. B. der Test von Fertigungsrobotern etc. vorab am digitalen Modell. Dieser Ansatz hat sich bereits als revolutionär bei der Entwicklung von Kampfflugzeugen gezeigt. Wie schon immer, ist die Kerntechnik das Labor des technischen Fortschritts für die gesamte Industrie. Nur hier (außerhalb der Rüstungsindustrie) arbeiten die notwendigen Spitzenkräfte aus unterschiedlichen Disziplinen eng zusammen.

Bei den gasgekühlten Hochtemperaturreaktoren handelt es sich nicht um eine neue Erfindung, sondern eine evolutionäre Entwicklung in verschiedenen Ländern: USA (1944 ORNL, 1966–1974 Peach Bottom, 1967–1988 Fort St. Vrain, ab 2005 NGNP), UK (1966–1975 Dragon), Deutschland (1967–1988 AVR, 1986–1989 THTR), Japan (ab 1998 HTTR) und China (ab 2000 HTR-10). Es kommen über 70 Jahre Forschung und Entwicklung allein in Demonstrationsanlagen zusammen. Dieser Schatz an Daten ist für ein schnelles Genehmigungsverfahren von ausschlaggebender Bedeutung.

Marktpotential

Die Demonstrationsanlage soll aus vier Reaktoren bestehen und eine Leistung von 320 MWel haben. Damit wäre der Beweis für ein funktionstüchtiges Kraftwerk zum Ersatz alter fossiler Kraftwerke an einem gegebenen Standort erbracht. Ob es allerdings eine schlaue Idee ist, ein „Großkraftwerk“ aus zig Modulen zusammenzusetzen, muß sich noch erweisen. Allerdings muß man ganz klar feststellen, daß das Prinzip Kugelhaufenreaktor aus physikalischen Gründen nicht beliebig skalierbar ist. Dieses Reaktorprinzip bleibt nur kleineren Leistungen vorbehalten. Man braucht zur Produktion elektrischer Energie auch keine hohen Temperaturen. Eine Verbesserung des Wirkungsgrades ist bei heutigen Uranpreisen eher eine akademische Fragestellung. Das (bisherige) Alleinstellungsmerkmal liegt vielmehr in der „Walk Away Sicherheit“: Gelingt es, eine Zulassung als Reaktor zu bekommen, der auch bei einem schweren Störfall nur Auswirkungen auf das Betriebsgelände, aber nicht auf die Nachbarschaft hat, eröffnen sich völlig neue Anwendungen:

  • Man kann unmittelbar neben chemischen Anlagen bauen,
  • man kann nukleare Fernwärme nahe Wohngebieten betreiben,
  • man kann einen zeitweiligen Betrieb ohne Personal anstreben,
  • man kann solche SMR dezentral einsetzen, bzw. an abgelegenen Verbrauchsschwerpunkten.

Die Produktion von Heißdampf mit 565°C erlaubt nicht nur den Kauf von Dampfturbinen von der Stange, sondern zielt auch auf typische verfahrenstechnische Anwendungen ab (Raffinerien, Grundchemikalien etc.). So hat X-energy allein in den petrochemischen Anlagen an der Golfküste 41 Dampferzeuger ermittelt. Letztendlich stellt sich die Frage, was eine MWhth bzw. MWhel aus einem Xe-100 Reaktor kostet. Liegt der Preis unterhalb einer Kesselanlage mit Erdgas, läuft das Geschäft in großem Maßstab an. Wenn nicht, ist das Reaktorkonzept eher eine Totgeburt. Die Branche steht nicht zum ersten Mal wieder vor einem Henne-Ei Problem…

Internationale Kontakte

Jordanien ist ein typischer Vertreter von Ländern, deren Mangel an Kühlwasser das Hauptproblem bei der Elektrifizierung ist. Hochtemperaturreaktoren lassen sich auch mit Trockenkühltürmen betreiben. Auch das keine ganz neue Idee: Der THTR in Hamm-Uentrop hatte bereits einen solchen. Schon 2017 hat die Jordan Atomic Energy Commission (JAEC) mit X-energy eine Kooperation abgeschlossen. Zusätzlich haben Saudi Arabien und Jordanien auch Verhandlungen mit China über Hochtemperaturreaktoren geführt.

Letztes Jahr hat X-energy auch ein Genehmigungsverfahren in Kanada gestartet. Es gibt dort die sog. Vendor Design Review (VDR). Ein Verfahren das risikoorientiert ist und drei Schritte umfaßt: Im ersten Schritt wird lediglich geprüft, ob der Reaktor grundsätzlich alle kanadischen Vorschriften erfüllt. Im folgenden zweiten Schritt werden die als kritisch empfundenen Punkte näher betrachtet und diskutiert. In der dritten Phase kann der Antragsteller alle Auflagen aus den vorhergehenden Schritten noch nachbessern. Diese Vorgehensweise erlaubt dem Antragsteller besonders bei innovativen Konzepten jederzeit die Notbremse ziehen zu können, wenn die Kosten explodieren sollten und eine Genehmigung zumindest in weiter Ferne erscheint. Da die Entwicklung des Xe-100 schon weit fortgeschritten ist, werden die ersten beiden Phasen zusammen abgehandelt. Eine Zulassung in Kanada ist für X-energy äußerst wertvoll, da Kanada über eine starke kerntechnische Industrie mit vollständigen Lieferketten verfügt. Die Zulieferer sind aber verständlicherweise erst bereit zu investieren, wenn sie genau wissen, was sie produzieren müssen. So konnte bereits Hatch als Partner für die Detailkonstruktion und den weltweiten Vertrieb gewonnen werden. Ontario Power Generation (OPG) hat in Zusammenarbeit mit anderen Provinzen federführend den (geplanten) Bau eines SMR und den Aufbau der Lieferketten in Angriff genommen. In die engere Betrachtung ist neben dem Xe-100 von X-energy, der Integral Molten Salt Reactor (IMSR) von Terrestrial Energy und der BWRX-300 von General Electric gekommen. Im Moment setzt kein Land außerhalb der USA so konsequent auf die Entwicklung von SMR, wie Kanada. Das macht Sinn, da Kanada mit dem Ausbau seiner Schwerwasserreaktoren mittlerer Größe langsam an die Grenzen stößt. Ein so weites Land mit seinen umfangreichen Bergbauaktivitäten, Ölsänden usw. braucht dringend dezentrale Einheiten. Hinzu kommt der erhebliche Heizwärmebedarf eines nördlichen Landes: Sonne geht gar nicht und mit Windparks hat man nur schlechte Erfahrungen gemacht.

SMR-2021, KP-FHR

Hinter der sperrigen Abkürzung KP-FHR (Kairos Power – Fluoride salt cooled High Temperature Reactor) verbindet sich ein eher neuartiges Konzept, das hohe Temperaturen anstrebt, aber dabei auf erprobte Komponenten setzen will: Die Kombination von TRISO-Brennelementen mit Salzschmelze als Kühlmittel. Ursprünglich wollte man damit eine konventionelle Gasturbine antreiben, indem man Luft auf etwa 700 °C erhitzt und gegebenenfalls noch durch Verbrennung von Erdgas zur Abdeckung von Spitzenlasten weiter erhitzt. Für Kernreaktoren sollte damit ein neues Einsatzgebiet erschlossen werden. Für die Grundlast wäre weiterhin billige Kernenergie eingesetzt worden (Turbine läuft nur mit Luft) und zusätzliches Erdgas bei Lastspitzen (analog eines Nachbrenners bei Flugzeugen). Insgesamt wäre ein hoher Wirkungsgrad durch die erprobte Kombination von Gasturbine mit nachgeschaltetem Dampfkreislauf gewährleistet worden. Wie schon bei anderen Hochtemperaturreaktoren ist die Nutzung von Gasturbinen (vorläufig) gescheitert. Nunmehr geht man auch hier (vorläufig?) nur von einem konventionellen Dampfkreislauf aus. Allerdings mit höheren Dampfzuständen, wie sie in konventionellen Kohlekraftwerken üblich sind.

Der Stand der (finanziellen) Entwicklung

Kairos geht auf Forschungsprojekte an der University of California, Berkeley (UCB), dem Massachusetts Institute of Technology und der University of Wisconsin zurück. Alles unter der Koordination – und finanziellen Förderung – des U.S. Department of Energy im Rahmen eines Integrated Research Project (IRP). Wie so oft, entstehen aus solchen Forschungsprojekten neu gegründete Unternehmen, in denen die maßgeblich beteiligten „Forscher“ ihre Erkenntnisse kommerzialisieren. Selbstverständlich bleiben sie ihren alten Universitäten dabei eng verbunden. Im Falle von Kairos sind die Arbeiten nun soweit fortgeschritten, daß das „Energieministerium“ (schrittweise) einen Prototyp anstrebt. Es soll innerhalb von sieben Jahren der Demonstrationsreaktor „Hermes Reduced-Scale Test Reactor“ auf dem Gelände des East Tennessee Technology Park in Oak Ridge für geplant $629 realisiert werden. Das „Energieministerium“ hat dafür $303 Millionen Dollar fest in seinem Haushalt (verteilt über sieben Jahre) eingestellt. Das Geld wird fällig, wenn Kairos die andere Hälfte von privaten Investoren auftreibt. Dies ist ein in den USA erprobtes pragmatisches Förderungsmodell: Das Risiko wird hälftig von Investoren und Staat geteilt – gegenseitig wirkt die Zusage als Qualitätskriterium. Außerdem kann bei solchen Summen davon ausgegangen werden, daß die Entwicklung zielstrebig vorangetrieben wird. Die privaten Investoren lockt schließlich der wirtschaftliche Erfolg. Anders als in Deutschland, sind Gewinne in den USA nichts unanständiges.

Der Kugelhaufen

Die Kugeln für diesen Reaktor werden wahrscheinlich etwas kleiner (3 cm) als die üblichen TRISO-Elemente (4,3 cm) und enthalten rund 1,5 gr Uran verteilt in 4750 kleinsten mit einer Schutzschicht überzogenen Körnchen. Sie können damit über 11 000 kWh elektrische Energie produzieren, was etwa dem Verbrauch von 8 to Steinkohle oder 17 to Braunkohle entspricht. Wegen ihrer hohen Energiedichte sind diese Elemente nach ca. 1,4 Jahren abgebrannt und müssen ausgewechselt werden. In einem mit Helium gekühlten Hochtemperatur-Reaktor verbleiben die Kugeln etwa 2,5 Jahre und in Leichtwasserreaktoren rund drei Jahre.

Die Kugeln sollen einen etwas anderen Aufbau als klassische TRISO-Elemente haben: Der Kern besteht aus 25 mm porösem Graphit, umgeben von einer Kugelschale aus Brennstoffkörnern und einer äußeren Schutzschicht aus besonders widerstandfähigem Graphit. Die Brennstoffkörner haben einen Durchmesser von lediglich 400 Mikrometern und enthalten auf 19,75% angereichertes Uran. Die Geschwindigkeit mit der Spaltprodukte im Graphit wandern, hängt wesentlich von der Temperatur ab. Da die Betriebstemperatur hier mit 650°C deutlich geringer als beim AVR in Deutschland mit 950°C ist und die Verweilzeit der Kugeln kleiner, kann von einer wesentlich geringeren Verunreinigung des Kühlmittels – hier reaktionsfreudige Salzschmelze, damals Edelgas Helium – ausgegangen werden. Dies ist bei einem Reaktorunglück für die Freisetzung radioaktiver Stoffe in die Umwelt von ausschlaggebender Bedeutung. Die neutronenphysikalische Auslegung des Reaktors ist so angelegt, daß bei etwa 800°C Temperatur die Kettenreaktion ohne Eingriffe in sich zusammenbricht (stark negative Temperaturkoeffizienten). Man könnte also den Reaktor jederzeit verlassen, ohne ihn abzustellen. Demgegenüber sind die Brennelemente bei bis zu 1800°C ohne größere Schäden getestet worden. Der Siedepunkt der Salzschmelze liegt bei nur 1430°C. Dies ergibt zusammen eine wesentlich höhere Sicherheitsmarge als bei Leichtwasserreaktoren.

Das Kühlmittel

Bei diesem Reaktortyp wird weder mit Wasser noch mit Helium, sondern einem geschmolzenen Salz gekühlt. Dies stellt viele sicherheitstechnische Betrachtungen auf den Kopf: Nicht ein unzulässiges Verdampfen des Kühlmittels wird zum Problem, sondern das „Einfrieren“. Das hier verwendete „FLiBe-Salz“ hat einen Schmelzpunkt von 459°C, d. h. alle Komponenten müssen elektrisch beheizbar sein um den Reaktor überhaupt anfahren zu können. Außerdem muß unter allen Betriebszuständen und an allen Orten diese Temperatur sicher aufrecht erhalten bleiben, damit sich keine Ausscheidungen und Verstopfungen bilden. Andererseits ist diese Temperatur so hoch, daß Wartungs- und Inspektionsarbeiten schnell zu einem Problem werden.

Wesentliches Problem ist aber bei allen Salzschmelzen die Korrosion. Zwar hat man heute ein besseres Verständnis der Werkstofftechnik und jahrzehntelange Erfahrungen z. B. in Raffinerien, andererseits liegen aber immer noch keine Langzeiterfahrungen bei Kernreaktoren vor. Hier versucht man zumindest das Problem durch eine scharfe Trennung von Brennelement und Kühlmittel einzugrenzen. Bei einem Kernreaktor hat man es tatsächlich mit dem gesamten Periodensystem zu tun. Wie all diese Stoffe chemisch mit der Salzschmelze, den Reaktorwerkstoffen und untereinander reagieren, ist ein ingenieurtechnischer Albtraum. Deshalb versucht man hier ganz klassisch alle Spaltprodukte etc. im Brennelement zu halten. Andererseits geht man davon aus, daß die Diffusion von Cs137, Silber etc., die zu einem radioaktiven Staub bei mit Helium gekühlten Reaktoren führen, die den gesamten Reaktor verdrecken, besser beherrschbar ist, weil diese „Schadstoffe“ sofort im Salz gelöst werden.

FLiBe ist – wie der Name schon andeutet – ein Salz mit den Bestandteilen Fluor, Lithium und Beryllium. Die Arbeitsschutzvorschriften für Beryllium (Atemschutz, Schutzkleidung etc.), sind nicht kleiner als für radioaktive Stoffe – es ist nur schwerer zu erkennen. Besonders problematisch ist jedoch das Lithium. Lithium hat die unschöne Eigenschaft, daß es durch Neutronen Tritium bildet. Man kann zwar durch eine Anreicherung von Li7 auf 99,995% die Bildung erheblich verringern, aber nicht ausschließen. So bilden FLiBe-Reaktoren etwa 1000 bis 10 000 mal soviel Tritium wie Leichtwasserreaktoren. Dies kann zu grundsätzlichen Schwierigkeiten bei der Genehmigung führen. Auch bei diesem Problem wirkt sich die Trennung von Brennstoff und Kühlmittel positiv aus. Das Graphit zieht das Tritium an und absorbiert es an dessen Oberflächen. Deshalb sind zusätzlich noch Filterkatuschen in den Kühlmittelleitungen vorgesehen.

Der Zwischenkreislauf

Das FLiBe-Salz wird – unabhängig von eindiffundierten Spaltprodukten und Tritium – während seines Durchlaufs durch den Reaktorkern immer radioaktiv. Aus Fluor wird O19(26,9s Halbwertszeit) und N16 (7,1s Halbwertszeit) gebildet. Beides γ-Strahler mit 1,4 MeV bzw. 6,1 MeV. Von ausschlaggebender Bedeutung ist F20 (11,0s Halbwertszeit). Hinzu kommen noch aktivierte Korrosionsprodukte. Um die Bereiche mit Strahlenschutz klein zu halten, ist ein Zwischenkreislauf mit „Sonnensalz“ vorgesehen. Als „solar salt“ bezeichnet man üblicherweise eine Mischung aus 60% Natriumnitrat NaNO3 und 40% Kaliumnitrat KNO3. Sie hat einen Schmelzpunkt von 240°C und eine maximale Temperatur von etwa 565°C. So ist z. B. im Solar-Turmkraftwerk „Solar One“ ein Spitzenlast-Speicher mit zwei Tanks in denen 1400 to Solar-Salz gelagert sind in Betrieb. Diese Anlage kann 107 MWhth speichern und erzeugt damit 11 MWel für drei Stunden. Damit ergibt sich ein weiteres Anwendungsfeld: Bei entsprechender Auslegung der Turbine kann ein solcher SMR auch zur Abdeckung von Lastspitzen im Netz bzw. zur Auskopplung von Wärme für industrielle Zwecke eingesetzt werden.

Der Reaktorkern

Eine weitere Besonderheit gegenüber mit Helium gekühlten Reaktoren ist, daß die Brennstoffkugeln im Reaktor schwimmen. Sie werden deshalb von unten zugeführt und oben wieder abgefischt. Insbesondere die „Abfischmaschine“ ist noch nicht im Detail konstruiert. Sie muß den Reaktor nach oben sicher abdichten, die Kugeln einfangen, transportieren, reinigen und überprüfen – das alles beständig bei 650°C. Für 100 MWel sind etwa 440 000 Brennstoffkugeln (TRISO) und 204 000 Moderatorkugeln (aus reinem Graphit) im Reaktor. Jede Brennstoffkugel durchläuft etwa 8 mal den Reaktor und verbleibt bei voller Leistung rund 1,4 Jahre im Reaktor, bis sie abgebrannt ist (gemeint ist damit, bis das in ihr vorhandene Uran gespalten ist, die Kugel erscheint unverändert). Jede Kugel braucht ungefähr 60 Tage auf ihrem Weg von unten nach oben. Nach dem Abfischen verbleibt sie noch 4 Tage zur Abkühlung, bis sie wieder zurückgeführt wird. Bei voller Leistung müssen etwa 450 Kugeln pro Stunde entnommen und überprüft werden, das ergibt ungefähr 8 Sekunden pro Vorgang. Jeden Tag sind rund 920 Kugeln verbraucht und müssen durch frische ersetzt werden. Für eine vollständige Entleerung ist ein „Schnellgang“ vorgesehen, der etwa 3600 Kugel pro Stunde entnimmt. Abgesehen von Wartungsarbeiten könnte somit der Reaktor kontinuierlich in Betrieb bleiben.

Der Reaktor ist im Wesentlichen ein Zylinder von etwa 3,5 m Durchmesser und 12 m Höhe mit einer Wandstärke von 4 bis 6 cm. Der Kern – die eigentliche Wärmequelle – ist wesentlich kleiner. Er besteht aus einem Doppel-Hohlzylinder. In dessen innerem Ring schwimmen die Brennstoffkugeln, in seinem äußeren Ringraum die Moderatorkugeln. Der Innenraum ist gefüllt mit einem Reflektor aus Graphit in dem sich auch die Regelstäbe befinden. Der gesamte Einbau ist durch Graphitblöcke von dem Reaktortank isoliert. Genau diese festen Einbauten aus Graphit sind eine bekannte Schwachstelle bei all diesen Reaktortypen. Sie sind z. B. auch der Tod der britischen AGR-Reaktoren. Unter ständigem Neutronenbeschuss altert der Graphit. Heute hat man zwar ein besseres Verständnis der Vorgänge – gleichwohl bleibt die Lebensdauer begrenzt. Hier ist deshalb vorgesehen, irgendwann die Graphiteinbauten zu erneuern. Ob das dann wirtschaftlich ist, wird sich zeigen. Im Prinzip sind die Graphit-Volumina aus einzelnen Blöcken zusammengesetzt. Diese besitzen aber wegen der nötigen Einbauten, Kanäle fürs Salz etc. und der zu berücksichtigenden Wärmedehnung eine komplizierte Geometrie und erfordern sehr enge Fertigungstoleranzen. Aber es ist ja der Sinn von SMR, all diese Arbeiten in einer Fabrik und nicht auf der Baustelle auszuführen

Werkstoffe

Alle Hochtemperaturreaktoren tragen das gleiche Problem in sich, die hohen Temperaturen. Mit der Temperatur steigen die Probleme (z B. Zeitstandsfestigkeit, Korrosion) und damit die Kosten exponentiell an. Wäre dies nicht so, hätte man bereits fossile Kraftwerke mit ganz anderen Wirkungsgraden. Es stellt sich deshalb immer die Frage, wofür man überhaupt so hohe Temperaturen braucht. Hier beschränkt man sich bewußt auf eine Spanne von 550°C bis 650°C um nicht vollständig konventionelle Werkstoffe verlassen zu müssen. Man darf ja nicht vergessen, daß alles genehmigungsfähig – d. h. berechenbar und durch Versuche nachweisbar – sein muß. Hierin liegt ja gerade der Charme von Salzschmelzen: Nicht so hohe Temperaturen ohne zusätzliche Druckprobleme, bei hoher Wärmespeicherung. Geplant ist weitesgehend SS 316 (handelsüblicher austenitischer Edelstahl) zu verwenden.

Ein wesentliches Problem aller FLiBE-Reaktoren ist die hohe Tritiumproduktion. Über den Daumen gerechnet, produziert dieser kleine SMR (100 MWel) jeden Tag soviel Tritium, wie ein Leichtwasserreaktor (1000 MWel) in einem ganzen Jahr. Will man auf gleiche Werte kommen, müßte also 99,9% des Tritium zurückgehalten werden. Man setzt hier auf die Absorption am Graphit. Das ändert aber nichts daran, daß Tritium bei solchen Temperaturen sehr gut durch Stahl hindurch diffundiert. Bisher hat man gute Erfahrung mit einer Beschichtung aller Rohrleitungen mit Aluminiumoxid gemacht. Es bildet eine Sperrschicht, die sogar beim Kontakt mit Luft selbstheilend ist. Gleichwohl ist hier noch viel Forschung nötig, wenn man die Aufregung um das Tanklager in Fukushima berücksichtigt. Es könnte sich sonst eine (politisch) unüberwindliche Hürde für die Genehmigung von FLiBe-Reaktoren ergeben.

Einschätzung

Kairos ist ein „Startup“ mit dem Selbstverständnis eines Ingenieurunternehmens. Sie haben nicht vor, jemals einen solchen SMR selbst zu fertigen. Von Anfang an haben sie starke Partner mit ins Boot geholt. So übernimmt Materion die Entwicklung und Herstellung des FLiBe-Salzes und BWXT die Produktion der Brennelemente. Für den kritischen Bereich „Tritium“ sind seit September 2020 die Canadian Nuclear Laboratories (CNL) eingestiegen. Kanada hat mit Tritium große und jahrzehntelange Erfahrungen durch den Betrieb seiner Candu-Reaktoren. Darüberhinaus will Kanada einen SMR in Chalk River bauen. Kairos ist dafür in die engere Wahl gekommen. Das Genehmigungsverfahren (stark unterschiedlich zu den USA) wird von der kanadischen Regierung mit mehreren Millionen gefördert. Seit 2018 läuft das Genehmigungsverfahren in den USA. Nächster Schritt wird der Bau eines kleinen Demonstrationsreaktors im East Tennessee Technology Park (ETTP) in Oak Ridge, Tennessee. Hier geht es vor allem darum, die Kosten für die Serienproduktion modellhaft zu testen.

Es dürften keine „Killer-Kriterien“ mehr im Genehmigungsverfahren auftreten. Dafür liegen zu viele Forschungsergebnisse aus mehreren Jahrzehnten vor. Besonders traurig ist, daß selbst im Genehmigungsverfahren auf die Betriebsergebnisse des AVR in Jülich zurückgegriffen wird. Deutschland hätte sicherlich auch heute noch ein geschätzter Partner sein können, wenn nicht wahnsinnige Laiendarsteller den Weg zurück ins Mittelalter propagiert hätten.

Seit 10 Jahren Fukushima

Eigentlich wollte ich nichts zum „Fukushima-Jubiläum“ schreiben. Es ist alles gesagt. Wer will, kennt die Fakten. Man muß nur ein wenig im Internet stöbern. Wäre da nicht das ZDF hinter dem Busch hervorgekrochen mit seiner Sendung „Der ewige Gau? 10 Jahre Fukushima“. Gäbe es einen Karl-Eduard Richard Arthur von Schnitzler – auch Sudel Ede genannt – Preis, das ZDF hätte ihn mit Sicherheit in der Tasche. In bester Tradition schneidet man alte Aufnahmen des West-Fernsehens neu zusammen und läßt sie von den einschlägig Verdächtigen: Green Peace, Partei Bündnis 90/Die Grünen usw. kommentieren. Selbst der alte Lehrer Arnie Gunderson mit seiner Verschwörungstheorie von dem explodierten Brennelemente-Lagerbecken darf nicht fehlen. Die Verknüpfung „Atombombe“ gleich „Atomkraftwerk“ ist einfach zu verlockend. Als Staatsfunker braucht man nicht einmal elementare handwerkliche Fähigkeiten zu beachten: Eine simple Google-Abfrage und man hätte Aufnahmen des besenreinen Lagerbeckens von Block 4 senden können. Ausgewogenheit – also die Berücksichtigung von Pro und Kontra – ist mit der Einführung der Wohnungssteuer „Rundfunkgebühr“ sowieso nicht mehr nötig. Man dient nur seinem Herrn, der die nächste Gebührenerhöhung festsetzt. Sollen die Zuschauer doch abschalten, wenn sie soviel Propaganda nicht ertragen.

Was geschah am 11. März 2011?

Um 14:46 (Japan Standard Time) erschütterte das “Tohoku Earthquake” den Osten Japans mit einer Magnitude von 9.0 auf der Richterskala. Das Epizentrum lag etwa 130 km östlich der Oshika Halbinsel in 24 km Tiefe. Quelle war ein Sprung der ineinander verhakten nordamerikanischen und pazifischen Platte. Dieser Sprung löste einen Tsunami aus, der über die japanische Küste hereinbrach. Er zerstörte mehr als eine Million Gebäude, tötete 19 729 Menschen, weitere 2 559 Opfer blieben bis heute vermißt und verletzte 6 233 Menschen zum Teil schwer. Ganze Landstriche waren innerhalb von Minuten dem Erdboden gleich gemacht. Für uns Mitteleuropäer eine unvorstellbare Naturkatastrophe von apokalyptischem Ausmaß.

Im Zusammenhang mit dem Reaktorunglück ist nur von Bedeutung, daß solche Tsunamis in Japan nicht unwahrscheinlich sind. Mit anderen (deutlichen) Worten: Dieses Kraftwerk hätte so nie an diesem Ort gebaut werden dürfen. Dies war unter Fachleuten – bitte nicht verwechseln mit „Atomexperten“ – bekannt. Es gab sogar einige wenige, die unter Inkaufnahme erheblicher beruflich Konsequenzen dabei nicht mitgespielt haben.

Die Ereignisse im Kernkraftwerk

Im Kernkraftwerk Fukushima waren drei der sechs Blöcke in Betrieb. Block 4 war bereits vollständig entladen für einen Brennstoffwechsel mit Wartungsarbeiten. Die Blöcke 5 und 6 waren in Vorbereitung zum Wiederanfahren nach erfolgtem Brennelementewechsel. Durch das Erdbeben wurden alle sechs Hochspannungstrassen unterbrochen. Die Notstromdiesel zur Eigenversorgung im Inselbetrieb starteten.

Für das Verständnis der Abläufe ist wichtig, daß zuerst alles nach Plan verlief: Durch die Erdbebensensoren wurde eine Schnellabschaltung ausgelöst und auch in Fukushima startete die Notversorgung – wie in fast allen japanischen Kernkraftwerken. Es wäre nichts passiert, wenn die Flutwelle nicht gekommen wäre oder man das Kraftwerk „wasserdicht“ gebaut hätte. Der Vorgang einer Schnellabschaltung infolge eines Erdbebens ist in Japan Routine. Die Betriebsmannschaft war allerdings bezüglich des Tsunami so ahnungslos, daß sie sogar die Abkühlung des Blocks 1 noch verzögerte, um – wie erwartet – möglichst schnell wieder ans Netz zu kommen. Dies war leider eine fatale Fehlentscheidung, wie sich bald herausstellen sollte. Es verstrich fast eine wertvolle Stunde in Ahnungslosigkeit. Hier zeigt sich, wie wichtig ein Kommunikationssystem ist, das auch bei schweren Naturkatastrophen intakt bleibt: Wäre die Betriebsmannschaft über die Gefahr eines schweren Tsunami informiert worden, hätte sie mit Sicherheit ganz anders reagiert. Bei den Reaktoren 2 und 3 wurde die Isolation der Reaktoren von dem konventionellen Teil des Kraftwerks automatisch durchgeführt und die notwendigen Notkühlsysteme ausgelöst. Bis zu diesem Zeitpunkt waren alle drei Reaktoren in einem sicheren Zustand und auch die Notkühlung funktionierte wie geplant.

Etwa 50 Minuten nach dem Erdbeben (das hätte die „goldene Stunde“ sein können) brach eine Wasserwand auf das Kraftwerk ein und schlug alle Außeneinrichtungen der Blöcke 1 bis 4 kurz und klein. Dies war die Folge des bekannten Konstruktionsfehlers: Die Lage des Kraftwerks über dem Meeresspiegel war viel zu niedrig. Bereits in den etwas abgelegenen (neueren) Blöcke 5 und 6 waren die Zerstörungen wesentlich geringer. Sämtliche Kühlwasserpumpen der Blöcke 1 bis 4 sind abgesoffen und damit war keine Außenkühlung mehr möglich. Die Notstromdiesel, die Schaltanlagen und alle Batterien im Keller des Turbinengebäudes wurden durch das hereinbrechende Meerwasser zerstört. Zunächst überlebten die Diesel von Block 2 und 4, bis sie durch die zerstörten Schaltanlagen außer Gefecht gesetzt wurden. Die Batterien von Block 3 hielten noch durch, bis sie erschöpft waren. Es gab sogar einen zusätzlichen luftgekühlten Generator für den Block 6 – wenn man nur den Strom hätte nutzen können. Durch den totalen Stromausfall (station blackout) war die Mannschaft blind und kraftlos. Man hatte bald keine Informationen durch die Messgeräte mehr und konnte auch keine elektrischen Stellglieder mehr betätigen. So ließ sich das Ventil, welches man im Block 1 geschlossen hatte, um die Abkühlung zu verringern, nun nicht mehr öffnen. Hilfe von außen ließ auf sich warten, weil die Feuerwehr erstmal die zerstörten und verschütteten Straßen räumen mußte um sich zum Kraftwerk vorkämpfen zu können. Die Kernschmelze setzte etwa 5 Stunden später in Block 1 ein. Unter den hohen Temperaturen zersetzten sich die Brennstabhüllen durch eine chemische Reaktion zwischen Wasserdampf und Zirconium. Der Kern des Reaktors – eine Konstruktion mit Toleranzen von weniger als einem Millimeter – fällt nun unkontrolliert in sich zusammen. Da die Nachzerfallswärme immer noch weiter wirkt, schmelzen Teile sogar auf. Es entsteht ein „Corium“, eine Legierung aus allen Bauteilen des Kerns, die nach dem Erkalten eine lavaähnliche Schlacke bildet. Deren Beseitigung ist die zentrale Herausforderung des Rückbaus. Man hat nicht mehr eine verfahrenstechnische Anlage vor sich, sondern einen Stahlbehälter mit einer harten, widerborstigen Masse, die man zerkleinern und bergen muß. Sinnvollerweise wird dies erst in Jahrzehnten mit noch zu entwickelnden Robotern erfolgen.

Durch den ansteigenden Druck wurde der Deckel im Reaktor 1 undicht und es entwich Wasserstoff in das obere Stockwerk. Eine ganz normale Industriehalle und kein „Betonbunker“, wie er in modernen Kraftwerken üblich ist. Etwa nach 24 Stunden explodierte das gebildete Knallgas und lieferte die spektakulären und immer wieder gern gezeigten Bilder. Nur hat dies nichts mit Kerntechnik zu tun, sondern ist eher ein Vorgeschmack auf die viel gepriesene „Wasserstoffwirtschaft“.

Im Block 2 funktionierte die Notkühlung noch drei Tage. Allerdings stieg auch dort Druck und Temperatur an, weil durch den Ausfall der Kühlwasserpumpen die Wärme nicht mehr an die Umwelt abgegeben werden konnte. Der Versuch einer Druckentlastung damit die Feuerwehr Wasser einleiten konnte, scheiterte und es kam ebenfalls zu einer Teilschmelze. Allerdings weniger schlimm als in Block 1. Es gab auch keine Knallgasexplosion, da der „Schuppen“ über dem Reaktordruckbehälter schon durch die Explosion in Block 1 soweit zerstört war, daß der Wasserstoff abziehen konnte.

In Block 3 konnte man mittels Strom aus Batterien die Notkühlung noch etwas steuern. Da aber die Wärmesenke Meerwasser nicht mehr zur Verfügung stand, kam es auch dort zu einer Kernschmelze. Hier strömte das gebildete Knallgas nicht nur in den „Schuppen“ oberhalb des Blocks 3, sondern auch über die gemeinsamen Lüftungskanäle in den „Schuppen“ des gar nicht in Betrieb befindlichen Block 4. Wieder zwei spektakuläre Explosionen von Knallgas. Nun waren alle „Schuppen“ zerstört wie nach einem Bombenangriff und der Schutt in alle Brennelemente-Lagerbecken gefallen. Um die Brennelemente bergen zu können, muß erstmal der Schutt beräumt werden. Davor wiederum mußten erstmal neue Gebäude gebaut werden um etwaige Verseuchungen bei den Bergungsarbeiten zu verhindern. Das alles brauchte und braucht Zeit.

Der Irrsinn der Evakuierung

Völlig überhastet und von „Strahlungsangst“ getrieben, ordnete man großräumige Evakuierungen an. Infolge dieser Evakuierungen kam es zu zahlreichen Todesfällen, weil man Schwerkranke von Intensivstationen und hochbetagte Pflegefälle einem Transport und Notunterkünften aussetzte. Nachweislich ist aber kein Mensch durch Strahlung gestorben. Die Strahlungsdosen sind so gering, daß man nicht einmal mit einer erhöhten Rate von Krebsfällen rechnen kann. Anfangs lagen die Strahlendosen im Sperrgebiet bei 50 bis 100mSv/year. Durch Dekontaminierung wurden die Werte auf 1 bis 20 mSv/year gesenkt. Ein wahnsinniger Aufwand, der eher an „Buße“ als an Strahlenschutz erinnert.

So ist es halt, wenn man den Weg der Wissenschaft verläßt und sich dem Populismus hingibt. Geht man den Agitatoren von Green Peace und Co auf den Leim, wird es einem nicht vergönnt, sondern die Berge von abgetragenem – und sorgfältig in Säcke verpacktem – Mutterboden (!) werden als tödliche Strahlenquellen genüßlich vorgeführt. Man hinterfragt keine Sekunde die Prognosen über „Strahlentote“ und „Krebsopfer“ unmittelbar nach dem Unglück. Nein, die gleichen Angstmacher dürfen von der „Beinahe-Katastrophe“ in Tokio schwadronieren. Man sollte das tunlichst nicht einfach als Spinnereien ewig Unbelehrbarer abtun. Ganz im Gegenteil, es ist die Vorbereitung für z. B. den Kampf gegen den Bau von Kernkraftwerken nahe Danzig. Die Antifanten müssen rechtzeitig aufgestachelt werden. Mit Angst läßt sich nicht nur hervorragend regieren, sondern auch Spannungen mit (nicht folgsamen) Nachbarländern schüren. Die „Energiewende“ ist längst zu einem politisch-wirtschaftlichen Geschwür geworden, neben dem jede „Masken-Affäre“ wie Tauschgeschäfte unter Kindern auf dem Schulhof anmuten. Gerade dieses Filmchen und die darin auftretenden Darsteller sind ein Beispiel dafür, wie inzwischen eine ganze Generation „Angstmacher“ sich lukrative Posten ergattert hat, die diese wahrscheinlich nie mit ihren studierten Berufen hätten erreichen können.

Die Moritat vom Atommüll

Unsere Filmschaffenden vom ZDF-Kollektiv „schneide und sende“ haben beharrlich alte Wochenschauberichte von Arbeitsmännern, die durch Ruinen kraxeln, endlosen Tanklagern, Berge von Plastiksäcken etc. zusammengeschnitten. Man kennt diesen Arbeitsstil noch von der Berichterstattung über Trump: Immer wurde nur Material anderer (gleichgesinnter) Sender „nachgesendet“, niemals jedoch eine Rede von Trump im Original gesendet. Ist das einfach nur Faulheit oder hat Betreutes-Denken-TV Angst, die Zuschauer könnten zu viel von der tatsächlichen Welt erfahren? Wo sind die Aufnahmen vom Kraftwerksgelände heute, wo man sich längst ohne jede Schutzkleidung bewegen kann? Wo sind die Aufnahmen von den Ingenieuren vor Ort in ihren Computer Räumen (von denen manche deutsche Universität nur träumen kann), die die Arbeiten steuern und überwachen? Es wird doch sonst so gern von künstlicher Intelligenz, Robotertechnik, Simulationstechnik etc. geschwätzt. All das hätte man im Einsatz in der Ruine von Fukushima filmen können. Dazu hätte man sich vor Ort noch mit den führenden internationalen Fachleuten auf diesen Gebieten unterhalten können. Paßt natürlich alles nicht in das ideologisch gewünschte Bild einer sterbenden Technik. Ahnungslose Rentner (die Zielgruppe des ZDF) hätten sonst noch glauben können, sie hätten einen Bericht von der Hannover Messe gesehen.

Stattdessen Luftbilder von einem Tanklager. Eigentlich ein Beweis, wie umsichtig man vorgeht. Man hat nicht einfach das radioaktive Wasser ins Meer gekippt – was nebenbei gesagt, kein großer Schaden gewesen wäre – sondern hat es aufwendig zur Aufbereitung zwischengelagert. Hat man so etwas schon mal bei einem Unfall in einem Chemiewerk gesehen? Wie wäre es gewesen, wenn man mal die Reinigungsanlagen gefilmt hätte und die betreuenden Wissenschaftler z. B. aus Russland und Frankreich befragt hätte, wieviel Gehirnschmalz dafür notwendig war, Konzentrationen in Trinkwasserqualität zu erzielen? Stattdessen minutenlanges Gejammer über Tritium. Aber Vorsicht, das Narrativ vom unbeherrschbaren Atommüll hätte bei manch einem Zuschauer hinterfragt werden können.

Die Konsequenzen

Die Welt hat nach Fukushima erstmal den Atem angehalten. Man ist wie nie zuvor in der Technikgeschichte zusammengerückt und hat die tragischen Ereignisse analysiert. Heute gehen selbstverständlich russische, chinesische und amerikanische Fachleute gegenseitig in ihren Kernkraftwerken ein und aus. Suchen Schwachstellen und beraten sich gegenseitig. Dies geschieht über alle politischen Gegensätze und Spannungen hinweg. Fukushima war ein Ereignis für die Kerntechnik, wie der Untergang der Titanic für die Seefahrt. Schrecklich, aber nicht zerstörend. Nur unsere Führerin hat den „Mantel der Geschichte wehen gespürt“. Sie, die als so bedächtig dargestellte, hat sofort fest zugegriffen. Man könnte auch sagen, wie ein Skorpion tödlich zugestochen, um ihre öko-sozialistischen Träume zu beschleunigen. Milliardenwerte mit einem Federstrich vernichtet und Deutschland international ins Abseits gespielt. Chapeau Frau Merkel, sie werden ihren Platz in der Geschichte einnehmen.

SMR-2021 Einleitung

Die Kerntechnik bekommt gerade einen unerwarteten Aufschwung: Immer mehr junge Menschen drängen in die einschlägigen Studiengänge, es entstehen unzählige neu gegründete Unternehmen und es steht plötzlich auch viel privates Kapital zur Verfügung. Darüberhinaus zeigt dieser Winter in Texas auch dem gutgläubigsten Menschen, daß eine Stromversorgung (nur) aus Wind, Sonne und Erdgas ein totes Pferd ist.

  • Texas ist nahezu doppelt so groß wie Deutschland, hat aber nur etwa ein Drittel der Einwohner, die sich überwiegend in einigen Großstädten ballen. Windparks waren deshalb höchstens ein Thema für Vogelfreunde und Landschaftsschützer. Texas ist darüberhinaus auch noch sehr windreich durch seine Lage „zwischen Golf und mittlerem Westen“.
  • Texas liegt etwa auf der „Breite der Sahara“ (Corpus Christi 27°N, Amarillo 35°N; Kanarische Inseln 28°N, Bagdad 33°N). Mal sehen, wann in Deutschland wieder von der Photovoltaik in der Sahara gefaselt wird.
  • In Texas kommt das Erdgas aus der Erde. Trotz der inzwischen gigantischen Verflüssigungsanlagen für den Export, muß immer noch Erdgas abgefackelt werden. Das alles ändert aber nichts an der Tatsache, daß im Ernstfall nur das Gas am Anschluss des Kraftwerks zählt. Kommt noch parallel zum Strombedarf der Bedarf für die Gebäudeheizungen hinzu, ist schnell die Grenze erreicht. Wohl gemerkt, das Gas kommt in Texas aus der Erde und nicht aus dem fernen Russland.

Das Kapital ist bekanntlich ein scheues Reh. Nach den Milliarden-Pleiten in Texas wird man sich schnell umorientieren. Darüberhinaus fängt die Bevölkerung an zu fragen, warum man eigentlich zig Milliarden Steuergelder mit Wind und Sonne versenkt hat.

Was sind SMR?

SMR (Small Modular Reactor) sind kleine Kernkraftwerke mit einer elektrischen Leistung von bis zu 300 MWel. Eine ziemlich willkürliche Grenze, die auf kleine Reaktoren abzielt, die gerade noch mit der Eisenbahn (in den USA) transportierbar sein sollen. Eine weitere Untergruppe sind Mikroreaktoren mit einer elektrischen Leistung von bis zu etwa 10 MWel. Bei den bisherigen Kernkraftwerken hat man immer größere Leistungen (z. B. EPR mit 1650 MWel) angestrebt, um die in der Verfahrenstechnik üblichen Skaleneffekte zu erzielen. Problem dabei ist, daß man einen erheblichen Montageaufwand auf der Baustelle hat, da alle Bauteile sehr groß werden. Bei den SMR geht man umgekehrt den Weg, das Kraftwerk weitesgehend in Fabriken in Serie zu fertigen und zu testen. Es steht also Kosteneinsparung durch Skaleneffekte gegen Serienfertigung (wie z. B. im Flugzeugbau). Welcher Weg letztlich kostensparender ist, kann vorab gar nicht gesagt werden. Vielmehr kann durch SMR ein völlig neuer Markt der „kleinen Netze“ erschlossen werden. Das betrifft beileibe nicht nur Schwellenländer, sondern vielmehr lernen wir in Deutschland gerade, welche enormen Netzkosten entstehen, wenn man zentrale Windparks baut. Ferner ist die Finanzierung wegen des kleineren (absoluten) Kapitalbedarfes weniger risikoreich und damit leichter handhabbar. Ein „Kraftwerk von der Stange“ erfordert eine wesentlich kürzere Zeitspanne – also Vorfinanzierung – von der Bestellung bis zur Inbetriebnahme. Hinzu kommt, daß die kleineren Bauteile auch nur kleinere Fertigungsanlagen erfordern. Beispielsweise baut Indien zur Zeit 15 Schwerwasserreaktoren, da dafür alle Komponenten im eigenen Land hergestellt werden können. Der ursprünglich angedachte Bau von konventionellen Druckwasserreaktoren wurde aufgegeben, da dafür wesentliche Komponenten (z.B. Reaktordruckbehälter) im Ausland gegen Devisen gekauft werden müßten. Aus gleichem Grund treffen SMR auch in Europa (z. B. Tschechien, Großbritannien) auf großes Interesse.

Die Sicherheitsfrage

Bei kleineren Kraftwerken kann man näher an die Städte heranrücken und damit Kraft-Wärme-Kopplung in vorhandenen Fernwärmenetzen abgasfrei betreiben. Finnland z. B. plant mittelfristig die vorhandenen Kraftwerke in den Ballungszentren durch SMR zu ersetzen. Analog gelten die gleichen Überlegungen für Fernkälte und Meerwasserentsalzungsanlagen z. B. in der Golfregion. Will man jedoch in der Nähe von Großstädten bauen, müssen solche Kernkraftwerke zwingend „walk away“ sicher sein, damit sie überhaupt genehmigungsfähig sind. Dazu gehört insbesondere der Verzicht auf eine aktive Notkühlung. Reaktoren kleiner Leistung kommen dem physikalisch entgegen: Um die Leistung zu produzieren, ist eine entsprechende Anzahl von Kernspaltungen notwendig. Bei der Kernspaltung entstehen radioaktive Spaltprodukte, die auch nach der Abschaltung noch Zerfallswärme produzieren. Bei kleinen Reaktoren ist diese Nachzerfallswärme so gering, daß sie problemlos passiv abgeführt werden kann – oder anders ausgedrückt, die Temperatur im abgeschalteten Reaktor steigt nur so weit an, daß keine Grenzwerte erreicht werden. Dies war z. B. beim Unfall in Fukushima völlig anders. Dort hat die Nachzerfallswärme gereicht, um eine Kernschmelze auch noch nach der Abschaltung der Reaktoren auszulösen.

Damit Kernkraftwerke in oder in unmittelbarer Nähe zu Städten akzeptiert werden, muß faktisch gewährleistet sein, daß keine (nennenswerte) Radioaktivität das Betriebsgelände überschreitet. Damit an dieser Stelle kein Missverständnis entsteht: Es gibt keine absolute Sicherheit. Es wird auch zukünftig Unfälle in Kernkraftwerken geben, genauso wie immer wieder Flugzeuge abstürzen werden. Trotzdem fliegen Menschen. Der Mensch ist nämlich durchaus in der Lage, Risiken und Vorteile für sich abzuwägen – solange er nicht ideologisch verblödet wird. Selbst eine ideologische Verblödung kann aber nicht unendlich lange aufrecht erhalten werden: Gerade durch Tschernobyl und Fukushima sind die Märchen der „Atomkraftgegner“ von „Millionen-Toten“ etc. als Propaganda entlarvt worden. Auffällig still ist es in den letzten Jahren um die „Gefahren durch Atomkraft“ geworden. Übrig geblieben ist einzig die Lüge von dem „Millionen Jahre strahlenden Atommüll, für den es keine Lösung gibt“. Auch dieser Unsinn wird sich von selbst widerlegen.

Die Vielzahl der Entwürfe

Es gibt unzählige Entwürfe von Kernreaktoren. Jeder Professor, der etwas auf sich hält, erfindet einen neuen Reaktor zu Übungszwecken. Der Weg zu einem Kernkraftwerk ist aber lang. Irgendwann stirbt die überwiegende Anzahl wegen irgendwelcher unvorhergesehenen Detailprobleme. Hier werden nur Entwürfe betrachtet, für die ausreichend Unterlagen aus Genehmigungsverfahren, Veröffentlichungen etc. zur Verfügung stehen. Immerhin blieben noch über 90 Konzepte übrig, die sich auf dem Weg zu einem Prototypen befinden. Für jedes einzelne Konzept wurde bereits mindestens ein zweistelliger Millionenbetrag investiert und ein Unternehmen gegründet. Als erstes soll etwas Systematik in dieses Angebot gebracht werden. In späteren Folgen werden dann einzelne Entwürfe näher vorgestellt und diskutiert werden.

Neutronenspektrum

Je langsamer Neutronen sind, je höher ist die Wahrscheinlichkeit einer Spaltung eines U235 – Kerns. Demgegenüber können alle schnellen Neutronen auch Kerne von U238 bzw. anderer Aktinoiden spalten. Schnelle Reaktoren haben den Vorteil, daß sie mit „Atommüll“ (so verunglimpfen „Atomkraftgegner“ immer die abgebrannten Brennelemente aus Leichtwasserreaktoren) betrieben werden können. Eine verlockende Perspektive: Betrieb der Kernkraftwerke mit „Abfall“, bei gleichzeitiger Entschärfung der „Endlagerproblematik“ auf wenige Jahrzehnte bis Jahrhunderte. Nur hat alles seinen Preis, gerade kleine Reaktoren (im räumlichen Sinne, nicht nur im übertragenen, bezogen auf die Leistung) sind schwierig als schnelle Reaktoren zu bauen. Es ist deshalb nicht verwunderlich, daß 59 Entwürfe mit thermischem Spektrum und nur 20 als schnelle Reaktoren ausgeführt sind.

Die angestrebten geringen Abmessungen (Transport) sind faktisch auch bei thermischen Reaktoren nur über eine höhere Anreicherung realisierbar. Mit der bei heutigen Druckwasserreaktoren üblichen Anreicherung von weniger als 5% lassen sich kaum SMR bauen. Man hat deshalb den neuen Standard HALEU mit einer Anreicherung von knapp unter 20% eingeführt. Der Begriff „thermisch“ im Zusammenhang mit der Geschwindigkeit von Neutronen bezieht sich auf die Geschwindigkeitsverteilung der brownschen Molekularbewegung. Je höher deshalb die Betriebstemperatur eines Reaktors ist, um so höher auch die Geschwindigkeit der Neutronen und damit um so geringer die Wahrscheinlichkeit einer Spaltung eines Urankernes. Deshalb sind „Hochtemperaturreaktoren“ schon wegen der neutronenphysikalischen Auslegung anspruchsvoller.

Moderatoren

Wenn man Neutronen abbremsen will, benötigt man einen Moderator. Bei den Leichtwasserreaktoren ist das das Arbeitsmedium Wasser. Die einfachste Konstruktion ist der Siedewasserreaktor, bei dem der im Reaktor erzeugte Dampf unmittelbar die Turbine antreibt (5 Entwürfe). Demgegenüber wird beim Druckwasserreaktor erst in einem zusätzlichen Wärmeübertrager der Dampf erzeugt (24 Entwürfe). Eine gewisse Sonderstellung nehmen Schwerwasserreaktoren ein, in denen Deuterium die Funktion des Moderators übernimmt (2 Entwürfe). Bei Mikroreaktoren kommen noch andere Moderatoren zum Einsatz.

Kühlmittel

Bei thermischen Reaktoren kommen Wasser, Helium und Salzschmelzen zur Anwendung. Bei Wasser sind die erreichbaren Temperaturen durch die abhängigen Drücke begrenzt (31 Entwürfe). Für eine reine Stromerzeugung ist das jedoch kein Hinderungsgrund. Will man hohe Temperaturen erreichen, bleibt Helium (20 Entwürfe) oder eine Salzschmelze (13 Entwürfe). Bei beiden kommt man mit relativ geringem (Helium) oder gar Atmosphärendruck (Salze) aus. Will man schnelle Reaktoren bauen, bleibt nur Helium (2 Entwürfe), Blei (9 Entwürfe), Natrium (5 Entwürfe) oder Salzschmelzen (3 Entwürfe). Tauscht man Wasser gegen andere Kühlmittel, wird man zwar den hohen Druck und den Phasenübergang los – was oft als Sicherheitsgewinn dargestellt wird – handelt sich aber damit eine Menge neuer Probleme ein: Einfrieren bei Raumtemperatur (Blei und Salzschmelzen), Korrosion (Blei und Salzschmelzen), Staub (Helium), Brandgefahr (Natrium), Zeitstandsfestigkeit usw. Es verwundert deshalb nicht, daß die Überzahl der Entwürfe bei Wasser als Moderator und Kühlmittel bleibt. Durch die überragenden thermodynamischen Eigenschaften des Wasser-Dampf-Kreisprozesses ist das für eine Stromproduktion auch kein Hinderungsgrund. Oft gehörte Argumente von möglichen höheren Wirkungsgraden sind bei den geringen Brennstoffkosten eher Scheinargumente. Anders sieht es mit der Entwicklung von schnellen Reaktoren aus. Blei und Natrium haben hier eine überragende Stellung. Allerdings sind die Preise für Natururan immer noch im Keller und die Zwischenlagerung abgebrannter Brennelemente ist ebenfalls konkurrenzlos billig. In einigen Jahren könnte jedoch ein geschlossener Brennstoffkreislauf aus politischen Gründen (Angst vor Atommüll) zum Renner werden. Momentan liegt Russland bei dieser technischen Entwicklung mit großem Abstand vorn. Die USA haben das erkannt und starten gerade eine beeindruckende Aufholjagd.

Brennstoff

Standard ist immer noch Uran. Bei schnellen Reaktoren kann man den „Abfall“ der konventionellen Reaktoren weiter nutzen. Thorium bleibt vorläufig auch weiter ein Exot. Das Uran kann in unterschiedlichen chemischen Verbindungen (metallisch, Uranoxid, Urannitrid, Legierungen usw.) im Reaktor verwendet werden und in unterschiedlichen geometrischen Formen (als Brennstäbe, als TRISO-Elemente, im Kühlmittel aufgelöst usw.) eingebaut werden. Der Brennstoff ist in seiner chemischen Zusammensetzung und seiner geometrischen Form bestimmend für die maximale Betriebstemperatur. Ferner ist er das erste Glied der Sicherheitskette: Er bindet während des Betriebs die Spaltprodukte und soll diese auch bei einem Störfall zurückhalten. SMR benötigen wegen der höheren Anreicherung mehr Natururan und sind wegen der höheren Trennarbeit teurer in der Herstellung als konventionelle Brennelemente.

Die Hersteller

Mit deutlichem Abstand sind die beiden führenden Länder in der Entwicklung von SMR Russland und die USA.

Alle Projekte befinden sich in einer unterschiedlichen Realisierungsphase von Konstruktion, Genehmigungsverfahren, über Bau bis Probebetrieb. Der chinesische SMR vom Typ ACPR50S (Druckwasserreaktor in klassischer Bauweise mit 50 MWel) ist fast fertiggestellt. Er soll bei Serienfertigung als schwimmender Reaktor auf einem Ponton verwendet werden. Der argentinische SMR Carem (integrierter Druckwasserreaktor mit 30 MWel) ist eine Eigenentwicklung und soll 2023 in Betrieb gehen.

Land LWR Gas Blei Natrium Salz Summe
Argentinien– – – – 1
China– – 7
Dänemark– – – – 
Finnland– – – 
Frankreich1– – – 
GB1– – – 
Indonesien– – – 
Japan– 
Kanada– – 
Luxemburg– – – – 
Russland11 – 17 
Schweden– – – – 
Südafrika– – – – 
Süd Korea– – – 
USA21 
Summe29 17 13 – 
Betrachtete SMR-Entwürfe nach Ländern und Typen geordnet.

Der chinesische HTR-PM (Hochtemperaturreaktor, Kugelhaufen mit Helium, 105 MWel) befindet sich im Testbetrieb. Sein Vorläufer HTR-10 von der Tsinghua University, China (Kugelhaufen mit 2,5 MWel) ist seit 2018 in Betrieb. Der japanische HTTR 1 (prismatischer Hochtemperaturreaktor, Helium, 30 MWth) ist seit 2007 mit Unterbrechungen für Umbauten in Betrieb. Der russische RITM-200M (modularer Druckwasserreaktor mit 50 MWel) ist seit 2020 auf Eisbrechern in Betrieb und soll bis 2027 in Ust-Kuyga in Sibirien als Kraftwerk in Betrieb gehen. Der russische KLT-40S (Druckwasserreaktor in klassischer Bauweise, 35 MWel) ist zweifach auf einem schwimmenden Ponton seit 2020 in Pevek in Chukotka als Heizkraftwerk in Betrieb.

LEU, HALEU und HEU

Im Zusammenhang mit Meldungen über Kernwaffen im Iran, Kernreaktoren im Weltall und moderne Kernkraftwerke geistern diese Abkürzungen durch die Medien. Warum ist es so gefährlich, daß der neue Präsident Jo Biden flugs die Iran-Politik seines Vorgängers wieder rückgängig macht, wo selbst manche europäischen Politiker ihrer einstigen Beschlüsse nicht mehr so sicher sind? Warum hat man sich weltweit über Jahre bemüht, Forschungsreaktoren umzubauen? Fragen, die man nur beantworten kann, wenn man sich näher mit der Anreicherung von Uran beschäftigt.

Der Zweck der Anreicherung

U235 ist das einzige in der Natur vorkommende Isotop mit dem sich eine selbsterhaltende Kettenreaktion erzeugen läßt. Auch das andere Isotop U238 läßt sich zwar spalten, ist aber so stabil, daß man beliebig viel davon zusammenpacken kann ohne eine Kettenreaktion auslösen zu können. Leider besteht Natururan aus über 99,27% U238 und nur zu etwa 0,7211% aus U235. Will man damit einen Kernreaktor bauen, muß man einen erheblichen technischen Aufwand betreiben um die freiwerdenden Neutronen abzubremsen (Moderator aus Deuterium oder Graphit) und ein recht großes Volumen zur Verfügung stellen, damit wenig Neutronen ausfließen können. Will man (wirtschaftliche Gründe) oder muß man (Kernwaffe oder Reaktor für ein Kriegsschiff) möglichst klein bauen, braucht man eine entsprechend höhere Konzentration von U235. So ist z. B. der Kern eines Reaktors eines Atom-U-Boots kleiner als ein Kühlschrank und liefert zig MW für einen Zeitraum von mehreren Jahrzehnten ohne „nachladen“ zu müssen. Dafür ist dann allerdings auch hochangereichertes Uran HEU (High Enriched Uranium) nötig. Für kommerzielle Kernkraftwerke reicht LEU (Low Enriched Uranium) mit einer Anreicherung zwischen etwa 3 bis 5% aus.

Eine Kernwaffe muß bei dem heutigen Stand der Luftabwehr so klein sein, daß sie von einer Rakete transportiert werden kann. Die erste Atombombe für Hiroshima – scherzhaft Little Boy genannt – wog noch über vier Tonnen und war 3,2 m lang. Sie enthielt einen Kern aus 64 kg auf 80% angereichertes Uran. Ihre Sprengkraft mit etwa 13 Kilotonnen TNT (Trinitrotoluol) war noch recht klein. Wohlgemerkt, ist dies der Stand der Technik der 1940er-Jahre. Für einen Raketeneinsatz zwar viel zu groß, gleichwohl als „Terror-Waffe“ beispielsweise in einem LKW, auf einem Fischerboot oder in einem Verkehrsflugzeug äußerst bedrohlich. Bei solch einer Verwendung hilft auch die Abschreckung nur sehr bedingt. Die Konstruktion von Little Boy ist so simpel, daß schon damals die USA auf einen Test verzichtet haben. Terroristen lieben Überraschungen…

Zentrifugen

Es gibt praktisch nur eine Möglichkeit durch die Ausnutzung des Dichteunterschiedes das Natururan zu trennen. Vorher muß es jedoch noch in ein Gas verwandelt werden. Man nutzt dazu die chemische Verbindung Uranhexafluorid (UF6). Es hat den Vorteil, daß Fluor nur als ein Isotop in der Natur vorkommt, also das Massenverhältnis nicht verfälscht. Ferner besitzt es bei Raumtemperatur einen geringen Dampfdruck von 100 mbar. Allerdings wird durch die sechs Fluoratome der Massenunterschied bei den Uranmolekülen noch geringer. Es sind deshalb enorme Kräfte nötig, um eine Trennung zu erzielen. Heute wird nahezu 100% der Urantrennung weltweit mit Zentrifugen durchgeführt.

Eine Uran-Zentrifuge ist ein sehr schnell rotierender Hohlzylinder. In ihm baut sich ein für die beiden Isotope unterschiedlicher Druckanstieg nach dem Boltzmannschen Verteilungsgesetz für den Partialdruck auf: Der Druckanstieg für ein schweres Isotop ist steiler als für ein leichtes, wodurch eine Entmischung eintritt. Entscheidend für die Trennleistung ist die Umfangsgeschwindigkeit als Funktion der Drehzahl und des Durchmessers. Die Umfangsgeschwindigkeit ist jedoch durch die Festigkeit (etwa bei Aluminium <400, Stahl <500, Faserverstärkte Werkstoffe <700 m/s) begrenzt. Um den Trenneffekt zu verstärken, kann man durch Beheizung der Unterseite und Kühlung der oberen Seite noch eine Sekundärströmung in der Zentrifuge anregen. Allerdings ist die Leistung nicht beliebig steigerbar, da das Konzentrationsprofil mit steigender Umfangsgeschwindigkeit immer mehr vom idealen Verlauf abweicht (schmale Gasschicht am Rande, Hochvakuum in der Mitte). Zentrifugen sind nur schwer herzustellen (notwendige Einhaltung engster Toleranzen) und zu betreiben (Elastizität, die zu Eigenschwingungen und Resonanzen führt). Einmal die falsche Drehzahl und die Zentrifuge ist Totalschaden. Dies haben die Iraner durch eine Cyber-Attacke auf die Steuerung zu spüren bekommen. Je hochwertiger die Zentrifugen, desto kleiner die Gesamtanlage und desto geringer der Energieverbrauch.

Trennleistung

In eine Stufe i strömt ein Massenstrom (Feed Fi) mit der Konzentration (xF) rein und wird in einen Produktstrom (Produkt Pi mit xP) und einen Abfallstrom (Waste Wi mit xw) aufgeteilt. Wie vorher gezeigt, kann die Anreicherung in einer einzelnen Zentrifuge nur sehr begrenzt sein. Deshalb schaltet man eine große Zahl Zentrifugen hintereinander. Der Produktstrom einer Stufe ist dann der Eingangsstrom der nächst folgenden Zentrifuge und deren Abfallstrom wird wieder dem Eingang der vorhergehenden Stufe zugeführt. Die erste Erkenntnis ist nun, daß man viel Feed (im zivilen Bereich ist das Natururan) hinzufügen muß, wenn man viel von einem entsprechenden Produkt herstellen will. Dies ist keinesfalls trivial, wie später noch gezeigt wird. Entscheidend ist aber die Konzentrationsverschiebung zwischen Produkt und Abfall. So kann man in einer zivilen Anlage die Kosten optimieren. Der Eingang ist Natururan und das Produkt gefordert (z.B. 3 bis 5% Anreicherung für Leichtwasserreaktoren). Man ist aber frei in der Wahl der Abreicherung: Ist Natururan teuer, reichert man mehr ab, ist es hingegen billig, verzichtet man auf Abreicherung und kann dadurch mit der gleichen Anlage eine größere Menge Produkt herstellen. Oder anders gesagt, wollte man dem Natururan alle Isotopen U235 vollständig entziehen, bräuchte man eine Anlage mit unendlich vielen Stufen. In der Praxis hat man Waste (Abgereichertes Uran) mit einer Konzentration von 0,2 bis 0,36%.

Nun kommt man zur Frage der notwendigen Konzentrationsverschiebung und dem Weg zur Bombe. Wenn man auf direktem Weg vorgeht, braucht man ungeheuer große Anlagen mit entsprechendem Kapitaleinsatz. Viel wichtiger aber, das Ansinnen fällt sofort auf und führt zu internationalen Reaktionen und man ist extrem verwundbar. Schlauer ist, man geht in Schritten vor. Dies soll an einer „Rückwärtsbetrachtung“ einer Bombe vom Typ „Little Boy“ verdeutlicht werden. Will man die 64kg auf 80% angereichertes Uran in einem Durchgang erzeugen, muß man eine Anlage bauen, die rund 15 000 kg Natururan verarbeiten kann. Geht man aber von Uran mit bereits 20% Anreicherung als Feed aus, benötigt man ungefähr 250kg Feed und eine Anlage, die weniger als ein Zehntel so groß ist (z. B. Anzahl der Zentrifugen). Will man verstehen, warum die (offizielle) Ankündigung des Iran Uran auf 20% anreichern zu wollen, soviel Aufregung ausgelöst hat, liegt hier die Antwort. Eine so relativ kleine Menge kann man gut verstecken und eine weitere „kleine“ Anreicherungsanlage kann man unterirdisch sicher geschützt bauen. Man braucht(e) lediglich Zeit. Und was politisch noch viel wichtiger ist, man kann einfältigen Gemütern vorspielen, daß man nur an einer friedlichen Nutzung interessiert ist und mit 20% ja (vermeintlich) meilenweit von einer Bombe entfernt. In Wirklichkeit aber, kann man zu jedem gewünschten Zeitpunkt in wenigen Monaten zu einer Bombe kommen. Man hatte diesen Zusammenhang durchaus 2015 in dem „Joint Comprehensive Plan of Action (JCPOA)“ eingearbeitet, indem man dem Iran nur eine Anreicherung auf 3,67% für 15 Jahre gestattete. Diese Produktion sollte lediglich für den Betrieb von Kernkraftwerken dienen. Der springende Punkt war, daß stets nur 300 kg davon in der Form von UF6 im Lande verbleiben sollten. Alles weitere Material mußte laut Vertrag unverzüglich ins Ausland (z. B. zur Herstellung von Brennelementen in Rußland) verbracht werden. Nur, gut geglaubt, ist noch lange nicht konsequent umgesetzt. Die Hoffnung, durch eine Rückkehr zum JCPOA, auch in den Zustand von 2015 zurückkehren zu können, ist schlichtweg lächerlich. Der einzig gangbare Weg war, durch wirtschaftliche Sanktionen das Mullah-Regime so stark unter Druck zu setzen, daß es von der Bombe abschied nehmen müßte. Kehren jetzt auch die USA zum Kuschelkurs der Europäer zurück, ist die Frage einer iranischen Bombe nur noch eine Frage der (sehr kurzen) Zeit.

Die momentane Situation

Nach Aussage der IAEA hat Iran um die Jahreswende offiziell mitgeteilt, daß es zukünftig Uran auf 20% anreichern werde. Dies geht auf ein Gesetz zurück, das das iranische Parlament (Majles) im Dezember verabschiedet hat. Darin wird die Atomic Energy Organisation of Iran (AEOI) angewiesen, in der unterirdischen Anlage Fordo mindestens 120 kg jährlich auf 20% angereichertes Uran zu produzieren. Am 4. Januar wurde die Anlage bereit mit einem Feed von 4,1% (Anmerkung: nach dem JCPOA durfte nur bis 3,67% angereichert werden.) im Beisein eines Inspektors der IAEA beschickt, der höchstpersönlich die Siegel an den Tanks entfernte. Die sechs Kaskaden in Fordo wurden in zwei Stränge umgebaut und umfassen 1044 Zentrifugen vom Typ IR-1 (Anmerkung: je mehr Zentrifugen in Reihe geschaltet werden, um so höher kann man anreichern; je mehr Kaskaden parallel laufen, um so mehr Menge kann man produzieren). Nach der Aussage des „IAEA Director General“ Grossi ist diese Anlage nun in der Lage, über 10kg 20%-Uran monatlich zu produzieren. Inzwischen hat der Chef der AEOI Ali Akbar Salehi sogar voller Stolz verkündet, daß der Iran inzwischen 0,5 kg/Tag mit 20% Anreicherung produziert (Anmerkung: 30 x 0,5 = 15kg pro Monat). In der üblichen Scheinheiligkeit wird behauptet, das geschehe nur, um daraus Brennstoff aus Urannitrid für Forschungszwecke herzustellen. Bereits dies wäre ein weiterer Verstoß gegen das JCPOA, in dem sich Iran verpflichtet hat, bei Bedarf für die Forschung, solches Uran aus dem Ausland zu importieren (dies wäre kontrollierbar) und eben nicht selbst eine Anreicherungsanlage dafür zu betreiben. Ferner ist der Iran das einzige Land, das Inspektoren der IAEA zukünftig per Gesetz den Zutritt verbietet (nur Nord Korea läßt keine Inspektoren ins Land). Man kann das nur als Verschärfung des Kurses werten, da ohnehin nach dem JCPOA eine Anmeldung von mindestens 14 Tagen erforderlich war und als militärisch deklarierte Anlagen ausgeschlossen waren. Aber die Paukenschläge kommen in immer engeren Abständen: Behrouz Kamalvandi, ein Sprecher der AEOI verkündete bei einem Besuch des Parlamentssprechers Mohammad Bagher Qalibaf in der Anreicherungsanlage Fordo, daß in wenigen Monaten in der Anreicherungsanlage Natanz weitere 1000 Zentrifugen in Betrieb gehen. Man ist offensichtlich in den Bestrebungen soweit fortgeschritten, daß man nicht einmal mehr den Schein aufrecht erhalten muß. Es geht nur noch darum, die eigene Bevölkerung einzuschwören.

und nun…

Bereits nach fünf Jahren kann der Iran die Früchte des JCPOA ernten. Es ist bereits eingetreten, was manche Kritiker erst in 15 Jahren befürchtet haben: Der Iran hat seine Zentrifugen weiterentwickelt und beträchtliche Mengen (schwach) angereichertes Uran auf Vorrat produziert. Er hat sich unter dem Radar – insbesondere der Europäer – bereits heute in eine Position gebracht, in der er in Monaten zu einer Atombombe gelangen kann. Hinzu kommt noch das Glück „einer dritten Amtszeit“ der Obama-Administration. Trump hätte die Mullahs in weiteren vier Jahren zurück an den Verhandlungstisch zwingen können. Kein Mensch kann erwarten, daß (der ehemalige Vizepräsident) Biden seinen eigenen Vertrag heute für schlecht erklären wird. Insofern ist es kein Zufall, daß sich das Regime in Teheran bereits im ersten Monat seiner Präsidentschaft aus der Deckung wagen konnte. Europa macht auf Corona. Deutschlands Führer haben gerade ihr Holocaust-Gedenken pflichtschuldig hinter sich gebracht, ordentlich Beifall geklatscht für die Suche nach Hitleristen in der AfD-Bundestagsfraktion. Wie war das noch mal mit Heiko Maas? War er nicht nach eigenem Bekunden wegen Ausschwitz in die Politik gegangen? Ist dieser Mann wirklich (nur) so schrecklich ungebildet und beratungsresistent? Nach seinen Grußadressen für den Iran und dem permanenten Abstimmungsverhalten von Deutschland in der UNO können langsam Zweifel aufkeimen.

Was aber soll Israel machen? Geschichte wiederholt sich nicht, sagt man. In einer Frage auf Leben und Tod sollte man solchen Weisheiten nicht trauen. Was die „Endlösung der Judenfrage“ betrifft, spricht das Mullah-Regime jedenfalls die gleiche Sprache wie Hitler-Deutschland. Noch einmal sich selbst betrügen und das öffentlich gesagte und geschriebene als sicherlich nicht so ernst gemeint abtun? Helfen Sie Herr Außenminister, Herr Bundespräsident, Frau Bundeskanzler: Was genau verstehen Sie unter „Antisemitismus“ und dem Lippenbekenntnis „Nie Wieder“? Wenn Israel politisch so allein gelassen wird, wie im Moment, bleibt keine andere Möglichkeit als ein Präventivschlag. Der wird diesmal in einem handfesten Krieg ausarten. So gesichert und verteilt wie die Nuklearindustrie im Iran ist, reicht ein Luftschlag nicht aus. Mit Sicherheit wird der Iran mit verheerenden Raketenangriffen durch seine Hilfstruppen in den Nachbarländern antworten. Hat die Schlacht erst einmal begonnen, ist jede Planung über den Haufen geworfen. Innerhalb von Tagen kann der gesamte nahe und mittlere Osten in Flammen aufgehen. Wie sich die arabischen Staaten verhalten ist nicht so sicher, jedenfalls nicht auf der Seite des auch sie bedrohenden Iran.

Als die einzige Möglichkeit den ablaufenden Wahnsinn zu stoppen, erscheint eine vollständige Isolation des Mullah-Regimes durch Europa und die USA. China und Rußland werden sich zurückhalten, da auch sie kein Interesse an einer Nuklearmacht Iran haben. Nicht einmal an einer Konfrontation mit einem entschlossenen Europa und den USA. Es kann nur eine einzige Forderung geben: Aufgabe aller nuklearen Rüstungsprogramme (einschließlich des zugehörigen Raketenprogramms) und Zerstörung aller Einrichtungen unter internationaler Kontrolle. Solange das nicht geschieht, totale wirtschaftliche Blockade des Iran, abgesichert durch ein robustes militärisches Mandat. Freiheit und Frieden sind nicht selbstverständlich, sie müssen hin und wieder auch verteidigt werden. Wobei in diesem Falle, Deutschland eine ganz besondere historische Verantwortung hat.

Die Verschlimmbesserung der Stromversorgung

Ein weiterer Akt in „Unserer-Demokratie“ wurde am 22.12.2020 16:06 Uhr mit dem Entwurf eines Steuerbare-Verbrauchseinrichtungen-Gesetz aufgeführt. In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Wasserstoff und Kernenergie

Nun ist der Hype um Wasserstoff auch bis zu den Kernkraftwerken durchgedrungen. Warum auch nicht? Wenn der Staat Subventionen austeilt, greift man halt gerne zu. Bisher ist Wasserstoff (H2) überwiegend ein Grundstoff für die Düngemittel-Industrie (Ammoniak NH3) und zur Veredelung in der Petrochemischen-Industrie (z. B. Entschwefelung von Kraftstoffen, Methanolherstellung etc.). Heute werden über 95% aus fossilen Energieträgern – hauptsächlich aus Erdgas durch Dampfreformierung – und knapp 5% über Elektrolyse als Nebenprodukt z. B. bei der Chlor-Elektrolyse gewonnen. Nachdem sich nun auch bei „Energiewendern“ die Erkenntnis rumspricht, daß man für die Stromproduktion durch Windmühlen Wind benötigt und bei der Photovoltaik zumindest Tageslicht, kommt man auf die Schnapsidee Wasserstoff als Energieträger im großen Maßstab einzusetzen. Die neuen Zauberwörter der Schlangenölverkäufer sind „Wasserstoffwirtschaft“ und „Sektorenkopplung“: Man will nicht nur elektrische Energie während der Dunkelflauten aus Wasserstoff herstellen, sondern ihn auch als Kraftstoff, zur Gebäudeheizung und für alle möglichen industriellen Anwendungen einsetzen. Auf solch eine Kopfgeburt kann nur einer kommen, für den Thermodynamik lediglich ein Wort mir 13 Buchstaben ist.

Hans im Glück

Wasserstoff kommt in der Natur praktisch nur in chemischen Verbindungen (Wasser H2 O, Erdgas CH4 usw.) vor. Diese müssen erstmal geknackt werden um Wasserstoff zu gewinnen. Dazu ist viel Energie nötig. Will man Wasser mittels Elektrolyse zerlegen, benötigt man etwa 4,4 kWh pro Normkubikmeter Wasserstoffgas. Verbrennt man diesen einen Normkubikmeter wieder, kann man nur 3,0 kWh (unterer Heizwert) zurückgewinnen. Geschieht dies in einem modernen Kombikraftwerk (Wirkungsgrad 60%) werden daraus nur 1,8 kWh elektrische Energie zurückgewonnen. Wohlgemerkt, hier wurde noch kein einziger Kubikmeter transportiert oder gespeichert. Beides ist – ob verdichtet oder verflüssigt – nur mit beträchtlichem Energieaufwand möglich. Wie man es auch dreht und wendet, in der Praxis bekommt man nur rund 1/3 zurück – oder anders ausgedrückt haben sich die Stromkosten (ohne jede Investition für die Elektrolyse) schon allein wegen der Umwandlungsverluste verdreifacht.

Man hat uns ja inzwischen beigebracht, daß der Wind – wie schon vorher die Sonne – keine Rechnung schickt. Gleichwohl sind gewaltige Investitionen in die Errichtung von Windparks notwendig. Hinzu kommen noch Betriebs- und Wartungskosten, die ebenfalls nicht gering sind, wie man heute gelernt hat. Alle Kosten müssen jedenfalls durch die Stromerlöse und Subventionen wieder eingebracht werden. Unter Grundlast in einem Netz versteht man die kleinste Leistung die immer anliegt – 24 Stunden am Tag, 7 Tage die Woche. Will man die Grundlast durch Windmühlen abdecken, braucht man dafür etwa die 8–9 fache installierte Leistung. Der Grund ist trivial: Wenn kein Wind weht, wird auch kein Strom produziert, egal wie viele Windmühlen man gebaut hat! Will man in schwachen Zeiten zu füttern, muß man die erforderliche Menge elektrischer Energie vorher produziert haben. In 2019 betrug die Arbeitsausnutzung der Windmühlen in Deutschland 28% (installierte Leistung 53,912 GW, Stromproduktion 131,8 TWh). Leider muß man die hierfür produzierte Energie speichern und bekommt über den Weg Wasserstoff nur etwa 1/3 zurück (siehe oben). Hinzu kommen selbstverständlich noch die Investitionen für die Elektrolyse, die Speicher und das Backup-Kraftwerk. Man könnte es auch anders formulieren: Wer den Menschen vorgaukelt, es wäre eine (wirtschaftliche) Stromversorgung nur mit Wind und Sonne möglich, der lügt. Es ist deshalb kein Zufall, daß alle einschlägigen „Energiewender*Innen“ immer von Zwangsabschaltungen – sprachlich getarnt als „Smart-Meter“ – und Konsum- und Wohlstandsverzicht – sprachlich getarnt als „Energieeffizienz“ – schwadronieren.

Transport und Speicherung

Wasserstoff ist ein Gas mit extrem geringer Dichte: Ein ganzer Kubikmeter wiegt noch nicht einmal 90 Gramm. Es muß deshalb verdichtet oder verflüssigt werden um es überhaupt transportieren und lagern zu können. Wenn man es auf 700 bar verdichtet (Industriestandard für PKW) hat es gerade mal einen Energiegehalt von 1,32 kWh/Liter. Selbst wenn man es durch Abkühlung auf -253°C verflüssigt, beträgt sein Energiegehalt gerade mal 2,34 kWh/Liter. Zum Vergleich: Benzin hat einen Energiegehalt von rund 8,7 kWh/Liter.

Selbst für den Transport in Rohrleitungen oder der Speicherung in Kavernen muß es verdichtet werden. Jede Verdichtung erfordert eine Menge elektrische Energie und ist immer mit erheblichen Verlusten verbunden. Wenn es in Pipelines strömt, entstehen ebenfalls Verluste durch Reibung. Man bevorzugt deshalb für sehr lange Strecken eine Verflüssigung und Tankschiffe. Allerdings werden für die Verflüssigung von Wasserstoff allein rund 35% seiner Energie benötigt. Spätestens hier sollte der geneigte Leser verstehen, warum wir uns in einer Welt von Mineralölen und Erdgas bewegen. Oder anders ausgedrückt, welche brutalen Konsequenzen drohen, wenn wir alle Fahrzeuge auf Wasserstoff umstellen wollen. Das Gerede von „Sektorkopplung“ (Strom aus Wind und Sonne wird benutzt um Kraftstoffe und andere Energieträger herzustellen) ist nur ein weiteres Neusprechwort für „Mobilitätsverzicht“. Ganz davon zu schweigen, daß Deutschland viel zu klein ist, um es mit der erforderlichen Anzahl von Windmühlen zupflastern zu können. Bahnt sich hier schon wieder das „Volk ohne Raum“ an?

Wasserstoff durch Kernenergie

Hat man erst einmal die Konsequenzen des „Grünen Wasserstoffs“ verstanden, ist die Produktion durch vorhandene Druckwasserreaktoren nicht mehr so abwegig. Immer unter der Voraussetzung, man lehnt die Produktion aus fossilen Energieträgern ab. Das erste Argument liefert die Arbeitsausnutzung (Kernkraftwerk 90%, Windmühlen in Deutschland 28%) oder mit anderen Worten, wie viel Wasserstoff man mit einer gegebenen Anlage produzieren kann. Das zweite Argument sind die Energiekosten. Wärmeenergie ist immer billiger als elektrische Energie. Dies ist der Grund, warum heute rund 95% des Wasserstoffs aus Erdgas hergestellt werden. Aber auch bei der Elektrolyse kann man durch erhöhte Temperaturen elektrische Energie einsparen. Bei einem Kraftwerk ist die Auskopplung von Wärme kein Problem. Der Anbau an konventionelle Kernkraftwerke ist hier nur der erste Schritt. Kommen (später) Reaktoren mit höheren Betriebstemperaturen zum Einsatz, wird der Vorteil noch gravierender. In fernerer Zukunft könnten Hochtemperaturreaktoren sogar den Weg über chemische Verfahren (z. B. Jod-Schwefelsäure) gehen.

Das U.S. Department of Energy (DOE) fördert eine Dampf-Elektrolyse-Anlage an einem Kernkraftwerk (wahrscheinlich Prairie Island Nuclear Generating Station von Xcel Energy) in USA mit $13,8 Millionen. Xcel Energy verfügt über einen hohen Anteil von Windenergie mit dem entsprechend stark schwankenden Angebot. Eine Fragestellung soll deshalb sein, ob man Energie aus dem Reaktor auskoppeln kann, ohne diesen bei Windspitzen abregeln zu müssen. Dies wäre damit die erste unmittelbare Kopplung von Wind- und Kernenergie bei einem Versorger. Böse Zungen könnten auch sagen: Eine den Markt verzerrende Subvention der Windenergie soll durch Subventionen bei einem vorhandenen Kernkraftwerk geheilt werden.

Ein zweites Förderprogramm des DOE über $12,5 Millionen unterstützt die Kooperation von FuelCell Energy of Danbury mit dem Idaho National Laboratory. Ziel ist die Entwicklung von Festkörper-Elektrolyse-Zellen mit hohem Wirkungsgrad und geringen Kosten als 200 bis 500 MW Module zur Nachrüstung bei Kernkraftwerken. Es soll der Wechsel zwischen Wasserstoffherstellung und Stromproduktion demonstriert werden, um Kernkraftwerken ein zweites wirtschaftliches Standbein zu erschließen.

Ausblick

Im Jahr 2019 wurden weltweit 69 Millionen to Wasserstoff in Raffinerien und Düngemittelfabriken verbraucht. Der Markt ist also vorhanden. Allerdings wird nur sehr wenig Wasserstoff über größere Entfernungen transportiert. Wegen der bekannten Transportschwierigkeiten wird er unmittelbar in der Nähe der Verbraucher erzeugt. Es gibt allerdings bedeutende regionale Pipeline-Systeme z. B. in den USA an der Golfküste, die verschiedene Chemiezentren untereinander verbinden. In dieser Region ist ein bedeutender Ausbau für „Blauen Wasserstoff“ geplant. Dabei wird der aus den reichlich vorhandenen Erdgasvorkommen über Dampfreformierung gewonnen. Das dabei anfallende CO2 ist beileibe kein Abfall, sondern kann an die Ölproduzenten in dieser Region verkauft werden. Ein doppeltes Geschäft wird möglich: Einsparung von CO2 – Abgaben und zusätzliche Ölförderung aus bereits erschöpften Quellen. Damit ist auch klar, warum die Erdgasindustrie immer ein Förderer der „Alternativ-Energien“ war und ist. Man weiß sehr genau über die Dunkel-Flauten bescheid. Erdgas ist der Energieträger, der mit den geringsten Investitionen Backup-Kraftwerke erlaubt – jede Windmühle und jeder Sonnenkollektor bedeutet also zusätzlichen Absatz. Es gibt momentan auch kein Henne-Ei-Problem: Man kann den Absatz an Wasserstoff schnell durch Beimischung zum Erdgas steigern. Es laufen bereits Verhandlungen über neue Spezifikationen. Es scheint möglich, bis zu 20% Wasserstoff ohne große Modifikationen an den Pipelines und Verbrauchern unter mischen zu können. Auch hier wird klar, wer größtes Interesse an der Einführung von CO2 – Abgaben hat.

Die Elektrifizierung des Krieges

Der Bedarf an elektrischer Energie schreitet bei den Streitkräften stetig voran: Immer mehr Computer und Datenverkehr, immer mehr Radargeräte etc. und neuerdings sogar Laser-Waffen. Hinzu kommen – zumindest beim US-Militär – bedeutende strategische Verschiebungen hin zu einer Konfrontation mit China und Rußland. Bei diesen Gegnern hat man es weniger mit Kalaschnikows und „Panzerfäusten“, sondern mit präzisen Mittelstreckenraketen, einer funktionstüchtigen Luftabwehr und elektronischer Kriegsführung zu tun. Das alles vor allem in den Weiten des Pazifiks – für Amerikaner tauchen dabei sofort die Trauma von Perl Harbor, den Philippinen und dem blutigen „Inselhopping“ auf dem Weg nach Japan auf. In einer breiten Allianz zwischen den Parteien im Kongress und Senat ist bereits der Umbau der Teilstreitkräfte eingeleitet worden. An dieser Stelle kommt die Kernenergie mit riesigen Schritten ins Laufen.

Die Rolle der Stützpunkte

Stützpunkte (Flugbasen, Häfen etc.) haben den Bedarf von Kleinstädten an elektrischer Energie und Wärme. Sie müssen auch und gerade im Krieg sicher versorgt werden. Um welche finanzielle Größenordnung es sich dabei dreht, sieht man an den Energiekosten von 3,4 Milliarden US$ des US-Militärs (Fiskaljahr 2018) für seine 585 000 Einrichtungen und seine 160 000 Unterstützungsfahrzeuge. Damit im Kriegsfall diese Einrichtungen und die kämpfende Truppe sicher versorgt werden können, ist ein erheblicher logistischer Aufwand nötig. Nicht nur das, in den neun Jahren des Irak- und Afghanistan-Krieges sind 52% aller Opfer (18 700 Kriegsopfer) bei den Versorgungsfahrten eingetreten. Eine typische vorgeschobene Basis mit einer Grundlast von 13 MWel benötigt 16 000 Gallonen Diesel täglich. Das entspricht allein etwa sieben Tankwagen täglich. In den Weiten des Pazifiks unter feindlichen U-Booten und dem Beschuß durch Präzisionsmunition kaum zu leisten. Hier kommt die Idee des Einsatzes von Kernreaktoren. Durchaus keine neue Idee, aber mit neuer Technologie und neuen Randbedingungen.

Wie gewaltig die Stückzahlen sind, ergibt eine Studie der US-Army. Man hat zahlreiche Stützpunkte untersucht und kommt zum Schluß, daß man etwa 35 bis 105 Reaktoren mit einer elektrischen Leistung von 10 MWel und 61 bis 108 Reaktoren mit 5 MWel benötigt. Parallel hat das DOD („Verteidigungsministerium“) eine Untersuchung der Einrichtungen „in der Heimat“ (continental United States (CONUS)) durchgeführt. Es kommt zum Schluß, es sind 500 (!) Mini-Reaktoren sinnvoll. Abgesehen von den Einrichtungen in abgelegenen Regionen, werden die meisten Anlagen aus den öffentlichen Netzen versorgt. Man ist aber besorgt, daß die öffentlichen Netze immer anfälliger werden (Naturkatastrophen, Wind und Sonne etc.). Versorgungssicherheit ist aber für eine moderne Armee mit Radaranlagen, Raketenabwehr und totalem Kommunikationsanspruch überlebenswichtig. Im zweiten Weltkrieg konnte man notfalls einen Flugplatz noch mit Petroleumlampen betreiben – eine Abwehr von Interkontinentalraketen ohne Strom für das Rechenzentrum und das Phasenradar ist so wertvoll wie eine Steinaxt. Insofern stellen sich hier notwendige Investitionen anders dar: Da die Versorgungssicherheit im Vordergrund steht, muß auch beim Bezug „billiger Energie“ aus dem öffentlichen Stromnetz trotzdem die volle Leistung über Dieselanlagen vorgehalten werden.

Laserwaffen etc.

Seit dem (in Deutschland verlachten) „Krieg der Sterne“ Programm von Ronald Reagen, wird die Entwicklung von Hochenergie-Lasern mit Hochruck vorangetrieben. Die Klasse unter einem kW geht bereits an die Truppe, die Klasse bis 150 kW ist in der Erprobung. Die erste Anlage zur Abwehr von Drohnen ist bereits auf einem Schiff im Golf im Einsatz. Drohnen sind sehr billig und effektiv, wie man spätestens nach dem Einsatz durch den Iran gegen Ölanlagen in Saudi Arabien feststellen mußte. Weil sie so billig sind, kann man durch einen Sättigungsangriff schnell auch modernste Luftabwehr überfordern. Als Gegenmaßnahme bleiben nur Laser zum Schutz der Anlagen im Nahbereich – ohne teuere Raketen, sondern nur mit „Energie“.

Ein weiterer Schritt sind Geschütze (rail gun), die massive Geschosse mit mehrfacher Schallgeschwindigkeit über große Entfernungen sehr präzise verschießen. Die erste Installation sollte auf den Zerstörern der Zumwalt-Klasse erfolgen. Dies sind vollelektrische Schiffe, die ein Gasturbinenkraftwerk zur wahlweisen Energieversorgung besitzen. Dieses Konzept hat sich aber nicht bewährt, da die elektrische Belastung (Trägheit des Bordnetzes durch An/Abschaltung so großer Leistungsspitzen, Wellenbildung im Bordnetz usw.) die gesamte Stromversorgung des Schiffes gefährdet. Man favorisiert z. Zt. deshalb sogar auf Schiffen separate „Mini-Reaktoren“.

Die Elektromobilität

Fahrzeuge mit Elektroantrieb besitzen zwei militärische Vorteile: Sie sind leise und haben nur sehr geringe Abwärme – sind also nur schwer zu orten. Erste Kleinlaster für den Einsatz bei Spezialeinheiten sind mit Elektroantrieb in der Erprobung. Grundsätzlich gilt auch hier, der Bedarf an elektrischer Leistung für Elektronik und (später) Bewaffnung nimmt stetig zu. Im Moment deutet sich deshalb ein Übergang zu hybriden Antriebssystemen an. Der immer größer werdende Bedarf an elektrischer Energie soll dann bei Stillstand (teilweise) aus Batterien gedeckt werden. Als Nebenprodukt ergibt sich noch der etwas geringere Spritverbrauch durch Vermeidung ungünstiger Teillast. Wenn es gelänge, hoch mobile Kleinstreaktoren in Frontnähe zur Verfügung zu haben, könnte bei einer Umstellung auf vollelektrische Fahrzeuge der erforderliche Nachschub auf ein Minimum begrenzt werden. Alle hierfür notwendigen Unterstützungseinheiten würden für den Fronteinsatz frei. Ganz besonders groß ist das Interesse bei den US-Marines: Bei einer Konfrontation mit China müßten deren Einheiten sich möglichst schnell auf unterschiedlichen kleinen Inseln bewegen, um einer Vernichtung durch Mittelstreckenraketen etc. zu entgehen. Die Logistik – tausende Meilen von der Heimat entfernt – ist dabei das zentrale Problem. Diese Problematik ergibt sich bereits bei der Abschreckung um den Frieden zu bewahren.

Die Finanzierung

Wichtig ist in diesem Zusammenhang, daß es in den USA eine breite Unterstützung für die Kernenergie quer durch die Parteien gibt. Dies schließt sogar „Umweltschutzgruppen“ mit ein. Eine völlig andere Situation als in Merkelhausen. Widerstände kommen in den USA – wenn überhaupt – nur aus der fossilen Industrie. Selbst dort muß man noch deutlich unterscheiden: Die Kohleindustrie kämpft inzwischen selbst ums Überleben. Der „Feind“ ist nicht mehr nur die Kernenergie, sondern auch der Erdgassektor, der durch den Hype um Wind- und Sonnenenergie einen totalen Imagewandel erfahren hat. Jede neue Windmühle und jeder zusätzliche Sonnenkollektor fördert den Absatz von Erdgas (Dunkel-Flaute) bei der Stromerzeugung. Deutlich erkennt man diese Tendenz bereits in Texas: Kohlekraftwerke werden geschlossen und Gaskraftwerke neu in Betrieb genommen. Der Druck kommt über die „Alternativenergien“, für die Texas geradezu ideale Vorraussetzungen hat (dünne Besiedelung, recht stetige Winde vom Golf und jede Menge Sonnenschein). Hinzu kommen noch günstige Gaspreise (Begleitgas aus der Ölförderung) bei allerdings zunehmenden und preisstabilisierenden Exporten (nach Mexiko per Rohrleitungen und nach Übersee als verflüssigtes Erdgas).

Bisher haben die vom Kongress zugewiesenen Mittel sogar die Anforderungen der Verwaltung übertroffen. So wurden im Haushaltsjahr 2020 für das DOE’s Office of Nuclear Energy („Fachbereich Kernenergie des Energieministeriums“) nicht nur $1,49 Milliarden für die Kernenergie-Forschung bereitgestellt, sonder $230 Millionen Dollar zweckgebunden für ein „Programm zur Demonstration fortschrittlicher Reaktoren“. Im Rahmen dieses Programms wurden drei Wege für die Kooperation mit der Privatwirtschaft beschlossen: Förderung von zwei „Demonstrationsvorhaben“ innerhalb der nächsten 5–7 Jahre, Risikominimierung bei Vorhaben, die einen erwarteten Entwicklungsbedarf von 10 Jahren haben und „fortschrittliche Reaktorkonzepte“ die einen Zeithorizont von mehr als 15 Jahren besitzen.

Der Kongress (Mehrheit Demokraten) hat das DOD („Verteidigungsministerium“) bereits 2019 (also Während der Präsidentschaft von Trump) aufgefordert seine Stützpunkte durch „Minireaktoren“ unabhängiger von der öffentlichen Stromversorgung zu machen (siehe 2019 National Defense Authorization Act (NDAA) Section 327 ). Darin wird gefordert, mindestens einen Stützpunkt bis zum 31.12.2027 durch einen zugelassenen „Minireaktor“ zu versorgen. Das DOD’s Office of Acquisition and Sustainment („Beschaffungsstelle des US-Verteidigungsministeriums“) arbeitet dafür eng mit dem DOE („Energieministerium“) zusammen. Ebenfalls 2019 wurden $70 Millionen im Haushaltsjahr 2020 für ein Konstruktions- und Testprogramm für mobile Kleinstreaktoren zur Versorgung vorgeschobener Militärbasen eingestellt. Dies war der Start des „Projekt Pele“. Im März 2020 wurden knapp $40 Millionen für die Unternehmen BWXT, Westinghouse, und X-energy für einen zweijährigen Konstruktionszeitraum bewilligt. Danach soll ein Prototyp beim National Laboratory (INL) gebaut und 2024 mit einer C-17 zu einem Stützpunkt in Alaska geflogen werden, um die Mobilität und den Betrieb unter Praxisbedingungen zu demonstrieren. Damit es mit der Kerntechnik vorangehen kann, hat das DOD im Haushaltsjahr 2021 über $100 Milliarden für Forschung, Entwicklung, Tests, und Auswertung (RDTE) beantragt. Das ist der größte Betrag in der Geschichte des DOD. Allgemein wird geschätzt, daß für die Umsetzung des „Minireaktor-Programms“ insgesamt $500 Millionen benötigt werden.

Genehmigungsproblematik

Eigentlich kann das US-Militär Reaktoren bauen wie es will. Beispiel hierfür sind die zahlreichen Reaktoren für U-Boote und Flugzeugträger. Übrigens mit einer exzellenten Verfügbarkeit und Sicherheitsbilanz. Allerdings mit einem entscheidenden juristischen Unterschied: Die Schiffe sind amerikanisches Territorium. Man braucht mit ausländischen Häfen nur über eine Genehmigung zum Einlaufen bzw. den einzuhaltenden Regularien zu verhandeln. Für Stützpunkte in anderen Ländern geht das sicher nicht. Dort wird man sich den jeweiligen nationalen Genehmigungsverfahren unterwerfen müssen. Das gilt schon für den Transport mobiler Reaktoren dort hin. Insofern ist es folgerichtig, daß man von Anfang an eine Zulassung durch das NRC (Genehmigungsbehörde für kommerzielle Kernkraftwerke) anstrebt. Da immer noch die Zulassung durch das NRC als internationaler „Goldstandard“ betrachtet wird, wird dies die Genehmigung im Ausland stark vereinfachen und beschleunigen.

Ganz so einfach ist die Sache allerdings nicht. Das NRC ist bisher auf die Genehmigung von Leichtwasserreaktoren spezialisiert. Für „fortschrittliche Reaktoren“ mit anderen Kühlmitteln, Brennstoffen und Sicherheitssystemen sind noch erhebliche Vorarbeiten zu leisten, bis das Risiko qualitativ und quantitativ nachvollziehbar bemessen werden kann. Je mehr Unternehmen mit unterschiedlichen Konzepten kommen, um so mehr kommt das NRC an seine Kapazitätsgrenzen. In diesem Fiskaljahr beträgt ihr Etat rund $860 Millionen, wovon etwa $430 Millionen auf die Reaktorsicherheit entfallen.

Kommerzieller Ausblick

Das US-Militär arbeitet schon immer eng mit der Privatwirtschaft zusammen und man ging schon immer unkonventionelle Wege: In den 1950er Jahren entwickelte man die Sidewinder Flugabwehrrakete: Einmal abgeschossen, suchte sie sich selbst über ihren Infrarot-Suchkopf ihren Weg ins feindliche Ziel. Ein echter Gamechanger im Luftkampf. Die Sache hatte nur einen Haken: Man brauchte große Stückzahlen, was aber beim damaligen Stand der Halbleitertechnik schlicht zu teuer war. Man ging einen typisch kapitalistischen Weg: Um die Stückpreise zu senken, brauchte man zusätzliche Stückzahlen aus dem zivilen Sektor. Die Spielkonsole war geboren.

In Punkto „Mini-Reaktoren“ zeichnet sich der gleiche Weg ab. Man kann bereits Minengesellschaften für solche Reaktoren begeistern. Überall wo Diesel-Kraftwerke in abgelegenen Regionen im Einsatz sind, besteht wegen der hohen Stromkosten ernsthaftes Interesse. Ein weiteres Einsatzgebiet ergibt sich aus dem Hype für Elektrofahrzeuge. Will man Schwerlaster elektrifizieren, braucht man überall dort, wo man heute Tankstellen hat, Ladestationen. Diese brauchen aber enorme Leistungen, wenn man einen LKW auch in etwa 20 Minuten voll aufladen will. Hier kommen flugs Minireaktoren ins Spiel. Mit ihnen könnte man kontinuierlich Wärmespeicher beladen, die anschließend bei Bedarf große Spitzenleistungen über Dampfturbinen bereitstellen könnten. Es gibt bereits Pläne in Zusammenarbeit mit den Marketing-Genies von Tesla. Da freut sich doch das Grüne-Öko-Herz oder vielleicht doch nicht?

Zwischenbericht zur Endlagersuche

Ende September wurde der erste Zwischenbericht zur Endlagersuche veröffentlicht. In ihm wird Deutschland in mehrere „Teilgebiete“ eingeteilt, die jedes für sich auf ihre Eignung als Endlager für den hochaktiven „Atommüll“ beurteilt werden. Eine mehrere tausend Seiten umfassende Dokumentation, die sicherlich jedem Bachelor-Studenten der Geologie zu einem Fleißkärtchen gereicht hätte. Auftrag erfüllt, Gorleben ist als Standort rausgeschmissen, dafür selbst die Hauptstadt in der engeren Wahl belassen. Jedenfalls meldete das Inforadio vom rbb am gleichen Morgen Berlin-Spandau und Berlin-Reinickendorf als geeignete Standorte. Wenn die Sache nicht so ernst wäre, könnte man das als Comedy abhaken – freilich nicht einmal auf dem Niveau einschlägiger Sendungen des ZDF. Wenn man es jedoch nach fachlichen Gesichtspunkten betrachtet, ist es ein Paradebeispiel für Lyssenkoismus.

Umgang mit hochaktiven Abfällen

Kaum je, war einer der Grundsätze sozialistischer Systeme besser getroffen: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen. Besser kann man den „Atomausstieg“ und die „Endlagerfrage“ nicht beschreiben. Nie hatte man in Deutschland vor, benutzte Brennelemente einfach zu verbuddeln. Selbst am Standort Gorleben war ein integriertes Entsorgungszentrum mit Wiederaufbereitung und anschließender Endlagerung der Abfälle im Salzstock geplant – keinesfalls aber das Verbuddeln kompletter Brennelemente. Warum? Weil abgebrannte Brennelemente zu mindestens 95% noch zur Energieerzeugung verwendbar sind und höchstens 5% in diesem Sinne Abfall darstellen. Damit ist schon mal die Frage des notwendigen Volumens beantwortet. Merke: Je größer die Menge „Atommüll“, je besser läßt sie sich propagandistisch ausschlachten. In der typischen moralischen Überhöhung schwätzt man nun von der Verantwortung diesen „Atommüll“ im eigenen Land opfervoll endlagern zu müssen. Nur folgen „unserem Vorangehen“ nicht einmal unsere unmittelbaren Nachbarländer. Insofern ist das unwiederbringliche verbuddeln riesiger Energiemengen eher eine Gehässigkeit und Umweltsünde. Das Uran und Plutonium das unsere Gutmenschen zu ihren politischen Zwecken verbuddeln wollen, muß in anderen Ländern mühselig gefördert bzw. erbrütet werden. Selbst bei einem „Atomausstieg“ bedeutet eine Wiederaufbereitung (in anderen Ländern) eine erhebliche Verringerung der Belastungen für das eigene Land.

Die Gefährlichkeit des „Atommülls“

Will man die Diskussion um die Hinterlassenschaften der „Atomindustrie“ zurück auf eine rationale Ebene führen, ist es unerläßlich die potentiellen Gefahren klar zu benennen. Von den „Atomkraftgegnern“ wurde der Popanz der sicheren Endlagerung für mindestens eine Million Jahre erfunden. Dieser Unsinn gilt noch heute manchen als das Totschlagargument gegen die friedliche Nutzung der Kernenergie. Für die biologische Wirkung auf die Menschen ist einzig die Art und Dosis der ionisierenden Strahlung verantwortlich. Dies gilt heute genauso, wie in einer Million Jahren. Deshalb hier noch mal in aller Kürze die wesentlichen Einflussfaktoren:

  • Strahlung. Man unterscheidet α-, β- und γ-Strahlung. In diesem Zusammenhang ist besonders wichtig, daß α-Strahlung nur biologisch wirken kann, wenn der Stoff in den Körper aufgenommen wurde oder etwas flapsig gesagt: Niemand ist gezwungen, abgebrannte Brennelemente zu essen.
  • (Halbwerts)Zeit. Der radioaktive Zerfall geht immer nur in eine Richtung, das heißt die ursprüngliche Menge der radioaktiven Stoffe wird beständig weniger. Das Maß ist die jeweilige Halbwertszeit. Je länger die Halbwertszeit des Abfalls ist, je länger sollte er von der Biosphäre fern gehalten werden, aber um so weniger „feuert“ er auch. Das ist der Grund, warum man z. B. Uran (immer noch der größte Anteil in abgebrannten Brennelementen) gefahrlos in die bloße Hand nehmen kann. Mit einem Stück Co60 wäre das nicht empfehlenswert. Ein übliches Maß für das „Verschwinden“ radioaktiver Stoffe ist die zehnfache Halbwertszeit. Mit anderen Worten: Zum Zeitpunkt der Einlagerung sind alle Stoffe mit einer Halbwertszeit die kleiner als ein Zehntel der Zeitspanne seit dem Verlassen des Reaktors ist, bereits verschwunden. Das ist der Grund, warum man dann bereits recht gefahrlos mit dem „Atommüll“ umgehen kann oder warum auch Länder, die eine Wiederaufbereitung durchführen bzw. anstreben eine „Langzeit-Zwischenlagerung“ betreiben. Die Behauptung, man hätte weltweit noch keine Lösung für den „Atommüll“ ist ebenfalls nichts als Propaganda.
  • Chemie der Abfälle. Damit die radioaktiven Stoffe überhaupt in die Umwelt gelangen können, müssen sie zuerst freigesetzt werden. Standard ist heute die Verglasung (es gibt auch noch andere Verfahren). Man erzeugt bei der Wiederaufbereitung eine „Suppe aus Spaltprodukten“ mit möglichst wenig Aktinoiden (lange Halbwertszeiten) und löst diese in einer Glasschmelze auf, die man in einen Behälter aus Edelstahl einbringt. Glas ist sehr beständig. Damit die radioaktiven Stoffe da raus können, muß erstmal das Glas aufgelöst werden. Hierbei stehen sich radioaktiver Zerfall und Auflösung eines solchen Glasblocks durchaus in gleicher zeitlicher Größenordnung gegenüber.
  • Wärmeentwicklung. Bei jedem radioaktiven Zerfall wird Energie in Form von Wärme freigesetzt. Technisch von Bedeutung ist lediglich die entstehende Temperatur im Gebinde (Glas und Edelstahl) und in unmittelbarer Umgebung des Lagers (Salz, Ton oder kristallines Gestein). Dies ist eine rein technische Aufgabe, die beliebig über die Zeit bis zur Einlagerung und die Konzentration und Form der Gebinde eingestellt werden kann.
  • Chemie der Umgebung. Ob, wenn ja wieviel, in welcher Zeit, von den eingelagerten Stoffen bis in die Biosphäre gelangt, hängt wesentlich von der Bodenbeschaffenheit und weniger von irgendwelchen Wässern ab. Boden ist immer – mehr oder weniger – ein Ionentauscher. So haben z. B. die Unglücke in Hanford (Durchrostung von mit Spaltproduktlösungen gefüllter Erdtanks) gezeigt, daß selbst oberflächennah der Transport Jahrzehnte für wenige Meter benötigt hat.
  • Biologische Halbwertszeit. Letztendlich ist für die „Schädlichkeit“ nur verantwortlich, wieviel radioaktive Stoffe und welche (biologische Halbwertszeit als Maß für die laufende Ausscheidung) vom Menschen aufgenommen werden. Über die Pfade gibt es sehr gute und verlässliche Kenntnisse. Teilweise sogar die Gesundheit fördernd – man denke nur an gewisse Mineralwässer.

Als Anregung zum Nachdenken: Radioaktive Stoffe zerfallen und verschwinden damit unweigerlich. Bei chemischen Stoffen ist das durchaus nicht immer der Fall (z. B. Quecksilber, Arsen, Asbest etc.). Warum diskutieren selbsternannte „Umweltschützer“ nur über Deponien für radioaktive Stoffe und warum sind Deponien für „Chemiemüll“ kein Aufreger? Was ist z. B. mit dem weltgrößten unterirdischen Lager für richtig gefährliche Stoffe in Herfa-Neurode? Dort sind bereits mehrere Millionen Tonnen „Gift“ eingelagert. Ging es den „Atomkraftgegnern“ vielleicht immer schon um ganz andere Dinge?

Das Standortauswahlgesetz (StandAG)

Die Vorstellung, man muß nur den einen Ort finden, der den „Atommüll“ für eine Million Jahre sorglos verschwinden läßt, mutet schon kindlich naiv an oder ist eine böswillige politische Farce – jeder Leser mag das für sich selbst entscheiden. Weder braucht man einen Einschluß für „mindestens eine Million Jahre“, noch kann ein ernsthafter Mensch glauben, daß man die Zukunft über Millionen Jahre verlässlich vorhersagen kann. Parallelen zu den Prognosen von der menschengemachten Klimakatastrophe drängen sich unmittelbar auf. In diesem Zwischenbericht gehen die Geologen von 10 Eiszeiten in dem betrachteten Zeitraum aus, bei denen zumindest die norddeutsche Tiefebene jeweils mit Eis überdeckt ist. Soviel dazu. Die Herren und Damen wären aber nicht lange im (politischen) Geschäft der Gutachten, wenn sie nicht pflichtgemäß politisch korrekt im unmittelbar folgenden Satz auf die vom Menschen verursachte Erderwärmung hinweisen würden, die selbstverständlich in diesem Gutachten noch nicht abschließend beurteilt werden kann.

Aber es wäre ungerecht, nur die Gutachter für dieses Machwerk verantwortlich zu machen. Vielmehr sind es unsere Parlamentarier, die das Gesetz – ohne es zu lesen oder auch nur ansatzweise zu verstehen – durchgewunken haben. So ist das nun mal, man bekommt nur das, was man ausdrücklich bestellt und bezahlt. Wenn man als gewählter Volksvertreter nicht den Mut hat, hin und wieder Stopp zu sagen, degradiert man sich selbst zur Marionette cleverer Lobbyisten. Nun kann man bei der beruflichen Zusammensetzung unseres Parlaments wahrlich keine geologische Kompetenz erwarten. Man hätte aber mal Menschen fragen können, die von der Materie etwas verstehen. Früher – vor den Besetzungsorgien unter Rot/Grün – gab es jede Menge qualifizierter Fachleute in den Ministerien. Zumindest aber, hätten in der Gesetzgebung erfahrenen Abgeordneten die Ohren bei einem zeitlich über mehrere Legislaturperioden ausgedehnten, dreistufigen K.o-Verfahren klingeln müssen. Man muß nur in Phase I die unliebsamen Standorte raus kegeln und der Drops scheint gelutscht. Das ganze geschah nun auf einer Datenbasis, die kaum verschieden (Geologie!) der gegenüber 1973–1979 ist. Wie absurd die Entscheidung ist, zeigt sich daran, daß die Hauptstadt (!) und zerklüftete Gebiete in Bayern als geeignet erklärt wurden. Weil man offensichtlich selbst kalte Füße hat, erklärt man flugs eine mögliche Kompensation durch technische Maßnahmen für möglich – für eine Sicherheit von mindestens einer Million Jahren. Deutschland scheint sich endgültig international zur Lachnummer machen zu wollen.

Der Salzstock Gorleben

Man hat den Salzstock Gorleben in den Jahren 1979–1983 von oberhalb und 1986–2000 untertägig erforscht. Hunderte von wissenschaftlichen Mannjahren, Regale voll Meßwerten und Auswertungen und 1,6 Milliarden Euro Kosten, die allein wir Stromverbraucher bezahlt haben. Allein von den Kosten her, glaubt irgendjemand, daß noch einmal ein solches Programm für zwei weitere Standorte durchgezogen wird? Vorsichtshalber wurde gleich ins Gesetz rein geschrieben, daß Gorleben nicht als Referenzobjekt herangezogen werden darf (§36 des StandAG). Gott bewahre, wenn sich nach zwei weiteren Forschungsbergwerken herausstellt, daß der Salzstock in Gorleben doch nicht der Schlechteste war. Dagegen ist der „Maut-Skandal“ wahrlich eine Petitesse.

In dem Standortauswahlgesetz in §22 werden explizit sechs Ausschlusskriterien benannt (Vertikalbewegungen, Störungszonen, frühere bergbaulicher Tätigkeit, seismische Aktivität, vulkanische Aktivität und Grundwasseralter). Ergebnis des Zwischenberichts: Es liegt kein Ausschlusskriterium vor. Lediglich ist ein Radius von 25 m um einige alte Ölbohrungen auszuschließen. In dem Standortauswahlgesetz in §23 werden explizit fünf Mindestanforderungen genannt (Gebirgsdurchlässigkeit, Mächtigkeit, minimale Teufe, Fläche und Barrierewirkung). Ergebnis des Zwischenberichts: Es sind alle Mindestanforderungen erfüllt. In der Anlage zu §24 sind die geowissenschaftlichen Abwägungskriterien aufgeführt. Die Tabelle 1 des Zwischenberichts führt akribisch 25 Bewertungen auf. Und jetzt aufgepasst: 22 Punkte werden mit „günstig“ bewertet, einer mit „weniger günstig“ und zwei mit „nicht günstig“. In Tabelle 2 und 3 sind auch alle Kriterien „günstig“. Plötzlich taucht in Tabelle 5 das vermeintliche Killerkriterium auf: „Gesamtbewertung des Kriteriums zur Bewertung des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge“: „ungünstig“. Wir erinnern uns an die 10 erwarteten Eiszeiten, die immer mehr Deckgebirge abschleifen sollen. Nur, wer will denn den Atommüll in das Deckgebirge einlagern? Der Salzstock geht doch mehrere tausend Meter in die Tiefe…

Die Gefährdung der Demokratie

Was hier abläuft, ist ein Aufruf an alle möglichen Interessenverbände zum Widerstand. Wissenschaft zählt nicht, Steuergeld ohnehin nicht, ihr müßt nur möglichst militanten Widerstand leisten, dann zwingt ihr die Politik in die Knie. Hier ist allerdings der Widerstand von Gorleben ausdrücklich als Referenz erwünscht. Ein paar Alt-68er-Datschenbesitzer haben erfolgreich ihren Altersruhesitz verteidigt. Der Gipfel wäre noch, man baut das Endlager auf dem Gebiet der ehemaligen DDR. Dort hat Bündnis 90/Die Grünen ohnehin nur wenig Wähler und sollte sich dort auch nur leichter Protest regen, kann man schnell mit der Keule alles „Rechtsradikale“ zuschlagen. Uns im „Westen“ bleibt ja noch die Asse und Schacht Konrad als Aufreger. Um die Deponie Morsleben im „Osten“ war und ist es ja immer bemerkenswert still. Also auf in den Wahlkampf.