Flugscharen zu Schwertern?

Kaum baut China seinen dritten natriumgekühlten Reaktor mit schnellem Neutronenspektrum, kommen die einschlägigen „Atomkraftgegner“ wieder unter ihren Steinen hervorgekrochen und erzählen das Märchen von den „Bomben aus den schnellen Brütern“ neu. Diesmal in der Version ‎China. Genau dieser Henry Sokolski hat schon 2010 seine steilen Thesen bei der Heirich Böll Stiftung (Die grüne politische Stiftung) unter dem Titel Wege aus dem nuklearen Dilemma verbreitet. Eigentlich nur neuer Wein aus alten Schläuchen. Gleichwohl Hauptgift der „Atomkraftgegner“ im doppelten Sinne: Erstens, der Mythos vom nicht wiederverwendbaren Atommüll und die „Endlagerfrage“ muß aufrecht erhalten bleiben und zweitens, es gibt keine Trennung zwischen friedlicher Nutzung der Kernenergie und „Atombomben“. Genau das, was schlichte Gemüter mit guten Herzen an die Wahlurnen oder auf Demos treiben soll. Es ist deshalb nötig, die Schleier der Propaganda etwas beiseite zu schieben.

Die Rolle Chinas

Da uns Claudia Kemfert und ihre Kumpane in unzähligen Auftritten im Staatsfernsehen erklärt haben, daß Wind und Sonne die einzig wahren Energieträger sind und „Atomkraft ganz, ganz unwirtschaftlich ist“, muß natürlich eine Begründung für den Ausbau der Kernenergie in China her: Was geht da besser, als „atomare“ Aufrüstung? Die Enthüllung ist, China baut gar keine Kern-Kraftwerke für die Stromerzeugung, sondern will nur Plutonium erzeugen, um daraus Bomben zu bauen oder wenigstens die Welt zu vergiften. Klingt alles – aber bestimmt nicht zufällig – nach Dr. Fu Manchu bzw. ist einfach nur schlechte Propaganda. Aber Vorsicht, langjährige Erfahrung mit dem Ökosozialismus zeigt, daß es denen egal ist, ob wahr oder falsch, Hauptsache die Spinnereien werden so lange in allen Medien wiederholt, bis jeder sie nachplappert und sie dadurch auf mystische Art wahr erscheinen.

Man mag ja über das kommunistische China denken was man will, aber China hat es gar nicht nötig, heimlich Kernwaffen zu produzieren. China ist seit 1964 „Atommacht“ – ganz im Gegenteil z. B. zum Iran. Inzwischen mit allem was dazu gehört, wie z. B. Raketen. Niemand dürfte daran zweifeln, daß China in der Lage wäre, weltweit einen „Atomschlag“ auszuführen. Aber will es das wirklich? Zweifellos hat China imperiale Gelüste, aber gerade deshalb wird es einen Atomkrieg vermeiden. Die blitzartige Einäscherung von Shanghai (ca. 26 Millionen Menschen) oder Peking (ca. 20 Millionen) würde China schneller in die Knie zwingen, als Hiroshima und Nagasaki das japanische Kaiserreich. China ist mit seiner Bevölkerungsstruktur längst nicht mehr in der Lage einen Atomkrieg zu führen. China kann auch nur auf Abschreckung setzen. Dafür reichen seine geschätzt 350 Sprengköpfe aus. Das mag gegenüber Russland (6375 Sprengköpfe) und USA (5800) gering erscheinen, ist aber in der Größenordnung von GB und Frankreich. Gerade für seine imperialen Züge im Pazifik – und nicht zuletzt für die latente Bedrohung von Taiwan – braucht es eine starke konventionelle Armee und Marine. Ein nukleares Wettrüsten frißt aber Unmengen Geld.

Selbst wenn China einen Ausbau seiner Nuklearstreitkräfte plant, kann es sogar auf Vorräte an für Waffen geeignetem Plutonium (geschätzt 2,5 bis 3,5 to) für weitere 480 Sprengköpfe zurückgreifen. Darüberhinaus noch auf hochangereichertes Uran (geschätzt 11 bis 17 to) für weitere etwa 1000 Sprengköpfe. Wenn das nicht reicht, kann man noch entsprechende Produktionsanlagen reaktivieren.

Plutonium ist nicht gleich Plutonium

An dieser Stelle ist noch ein bißchen Neutronenphysik nötig. Plutonium wird in jedem Reaktortyp aus U238 durch das Einfangen von Neutronen gebildet. Die Typen unterscheiden sich lediglich durch ihre Konversionsrate. Bei Leichtwasserreaktoren beträgt diese etwa 0,6. Das heißt statistisch betrachtet, wenn 10 Kerne gespalten wurden, haben sich 6 Plutoniumatome neu gebildet. Ist die Konversionsrate größer 1, spricht man von Brütern. Es werden also mehr Kerne – die zu Spontanspaltungen neigen, wie U235 und Pu239 – neu gebildet als verbraucht. Mit schnellen Neutronen kann man alle Kerne spalten, braucht aber eine höhere Anreicherung als bei langsamen (abgebremsten oder moderierten) Neutronen.

Wenn nun ein Neutron auf einen Kern Pu239 (Halbwertszeit 24 110 Jahre) trifft, wird er nicht zwingend gespalten, sondern es bildet sich (manchmal) Pu240 (Halbwertszeit 6 564 Jahre), aus diesem kann sich Pu241(Halbwertszeit 14,35 Jahre) bilden und daraus sogar Pu242 (Halbwertszeit 375 000 Jahre). Wichtig ist nur, daß man je nach Fahrweise und Betriebsdauer des Reaktors ein wildes Isotopengemisch erhält, welches man chemisch nicht trennen kann. Aus verschiedenen Gründen ist aber lediglich das Isotop Pu239 für eine Kernwaffe geeignet. Man unterscheidet deshalb zwischen Reaktor-Plutonium und Waffen-Plutonium. Letzteres muß mindestens eine Reinheit von 93% Pu239 haben. Es ist deshalb Unsinn – aber immer wieder gern von „Atomkraftgegnern“ gemacht – aus der Menge an anfallendem Reaktorplutonium aus Kernkraftwerken irgendwelche „Atombomben“ zusammen zu spekulieren. Noch einmal in aller Deutlichkeit: Aus dem Reaktorplutonium üblicher Kernkraftwerke läßt sich nur eine „Atombombe“ bauen, mit der man nicht einmal Fensterscheiben zum wackeln bringen kann.

Gleichwohl ist es kein Problem, Waffen-Plutonium herzustellen, wenn man die Erzeugung verstanden hat. Aus U238 bildet sich U239, welches mit einer Halbwertszeit von 24 Minuten in Np239 zerfällt und dieses zerfällt wiederum mit einer Halbwertszeit von 2,4 Tagen in Pu239. Der wesentliche Trick ist also, man läßt die Brennstäbe nur kurz im Reaktor verweilen. Will man hochreines Waffen-Plutonium herstellen, hat man dafür immer spezielle Anlagen verwendet, in denen die entstandene Wärme einfach als Abfall an die Umgebung abgegeben wurde. Die Brennelemente waren nur so kurz „abgebrannt“, daß sie einfach in Wasserbecken fielen und früher sogar nur mit Zangen entnommen wurden. Da sie so schwach strahlen, ist die Wiederaufbereitung ebenfalls viel einfacher als bei Brennelementen aus Kernkraftwerken. Kurzum, es ist einfach idiotisch, „Atombomben“ mit Kernkraftwerken herstellen zu wollen. Ganz besonders dann, wenn man – wie China als anerkannte „Atommacht“ – Heimlichkeit gar nicht nötig hat.

Warum baut China nun Natriumgekühlte-Reaktoren?

China setzt voll auf Kernenergie. Man geht beim Ausbau langfristig und in klar definierten Schritten vor. Erst kauft und klaut man das gesamte weltweit vorhandene Wissen zusammen. Diese Phase ist bezüglich Reaktoren der dritten Generation abgeschlossen. Jetzt geht man in die Serienproduktion mit „Eigenentwicklungen“, für die man keine Lizenzgebühren mehr bezahlt und keine Einschränkungen mehr akzeptieren muß. Chinesische Druckwasserreaktoren haben inzwischen Bauzeiten von rund fünf Jahren und Baukosten auf dem Niveau modernster Kohlekraftwerke mit Rauchgaswäsche und höchsten Wirkungsgraden. Die Auslegungslebensdauer bewegt sich auf dem internationalen Standard von 60 Jahren und wird real 100 Jahre überschreiten. Die Reaktoren, die heute ans Netz gehen, werden die Jahrhundertwende noch überleben. Wie immer, wird nicht die Technik, sondern die individuelle Wirtschaftlichkeit über deren Ende entscheiden.

China hat aber von Anbeginn der Nutzung von Kernenergie ein Problem: Zumindest die wirtschaftlich förderbaren Uranvorkommen im eigenen Land sind sehr gering. Deshalb gilt schon heute die Dreierregel: Ein Drittel aus inländischer Förderung, ein Drittel durch Kauf am Weltmarkt und ein Drittel aus ausländischen, aber von China betriebenen, Minen. Man darf dabei nie aus den Augen verlieren, daß ein abgebranntes Brennelement immer noch rund 95% Energieträger enthält. Es baut sich also ein gewaltiger Schatz auf, den es (langfristig) zu heben gilt. Die einzig verfügbare erprobte Technik zur Spaltung von U238 kommt derzeit aus Russland in der Form des mit Natrium gekühlten und schnellem Neutronenspektrum betriebenen BN-600. Dieser Reaktor ist seit 1981 in Beloyarsk am Netz. Inzwischen haben umfangreiche Nachrüstungen (seit 2010) stattgefunden und drei neue Dampferzeuger sind in Vorbereitung, die die genehmigte Betriebsdauer auf 60 Jahre erhöhen. Auf der Basis dieses Typs (1500 MWth, 600 MWel) hat China zwei Reaktoren für das Kraftwerk Xiapu bestellt. Sie sind seit 2018 in Bau und sollen 2023 bzw. 2026 den kommerziellen Betrieb aufnehmen. Sie können mit Uranoxid (Anreicherung 17 bis 26%) oder Mischoxid (100 GWd/t Abbrand) bestückt werden. Später ist sogar eine Beladung mit metallischem Brennstoff (100–120 GWd/t) vorgesehen. Dies würde auch ganz neue Wege bezüglich der Wiederaufbereitung ermöglichen. Der Brennstoff für die ersten sieben Jahre kommt von TCEL aus Russland. China geht auch hier wieder extrem konservativ vor.

Eine grobe Abschätzung ergibt für diese Reaktoren bei einer Erstbeladung mit Mischoxid einen Bedarf von etwa 10 to pro Reaktor. Dabei ist ein Verhältnis von (abgereichertem) Uran und Plutonium von etwa 8:2 erforderlich. Jedes Jahr dürfte eine Nachladung von rund 5 to MOX-Brennelementen pro Reaktor nötig sein. Die tatsächlichen Werte hängen stark von der jährlichen Auslastung und dem erzielten Abbrand (Werkstoffproblematik) ab. Die Energiedichte von natriumgekühlten Reaktoren ist sehr hoch: Der Reaktorkern eines BN-600 ist nur etwa 1m hoch, bei einem Durchmesser von etwa 2m (369 Brennelemente mit je 127 Brennstäben).

Die Wiederaufbereitung

Parallel läuft ein Programm zur Wiederaufbereitung. Aufbauend auf die umfangreiche Erfahrung aus der Waffenproduktion wurde bis 2005 eine Pilotanlage zur Aufbereitung ziviler Brennelemente gebaut. Ab 2010 begann der heiße Testbetrieb. Zahlreiche Verzögerungen ergaben aber erst 2017 einen halbwegs zufrieden stellenden Betrieb. Im Jahre 2011 wurde der Bau einer Anlage mit einer Kapazität von 200 toSM/a in Jinta beschlossen. Sie sollte 2020 in Betrieb gehen. Neben dieser Anlage wird auch eine Fertigung für MOX-Brennelemente mit einer Kapazität von 20 t/a errichtet. Diese Anlagen reichen für einen BN-600 Reaktor aus. Parallel ziehen sich seit Jahren Verhandlungen mit Frankreich über eine Wiederaufbereitungsanlage mit 800 t/a für Brennelemente aus Druckwasserreaktoren hin. Bisher scheiterten die Verhandlungen an den Preisvorstellungen der EDF.

Bezüglich der Wiederaufbereitung steht China nicht unter Zeitdruck: (Noch) sind die Weltmarktpreise für Uran niedrig, China verfügt bereits über große Kapazitäten zur Anreicherung und zur Produktion von Brennelementen für Druckwasserreaktoren. Die zeitlich nahezu unbefristete Lagerung von abgebrannten Brennelementen ist kein Problem – schon gar nicht für China mit seinen Wüsten. Es ist also folgerichtig, sich auf den Zubau der konventionellen Reaktorflotte (Generation III) zu konzentrieren. Jedes neue Kernkraftwerk am Netz kann potentiell alte umweltverschmutzende Kohlekraftwerke ersetzen. Der derzeitige Einstieg in die Reaktoren mit Natriumkühlung ist vergleichbar mit dem Einstieg in die Druckwasserreaktoren in den 1980er Jahren. Auch diesmal wird weniger auf Exotik als auf erprobte Technik gesetzt – nur verengt sich hier der Weltmarkt derzeit auf Russland.

Zusammenfassung

China setzt konsequent auf den Ausbau der Kernenergie:

  • Am Ende von 2019 verfügte China über eine installierte Leistung von 50 GWel. Geplant war eine Leistung von 58 GWel. Die kleine Delle kam durch die Reaktion auf das Unglück von Fukushima. Im laufenden Fünfjahrplan (2021 – 2025) ist eine Leistung von 70 GWel geplant. Beauftragt sind vier Reaktoren vom Typ CAP1000, vier vom russischen Typ VVER- V491, ein SMR vom Typ ACP100 und ein Hualong One. Alles Druckwasserreaktoren der III. Generation.
  • Seit 2011 ist der Chinese Experimental Fast Reactor (CEFR) mit einer Leistung von 65 MWth / 20 MWel in Betrieb. Er wird mit auf 64% angereichertem Uran betrieben. Reaktor und Brennstoff kommen aus Russland.
  • Seit 2017 bzw. 2020 befinden sich zwei schnelle Reaktoren mit Natriumkühlung in Xiapu in Bau. Die beiden russischen Reaktoren mit 1500 MWth / 600 MWel sollen 2023 bzw. 2026 ans Netz gehen. Die Brennstoffversorgung für sieben Jahre erfolgt aus einer neuen Fabrik in Russland. Beide Länder erzielen dadurch für ihre Programme mit schnellen Reaktoren einen bedeutenden Kostenvorteil. Beide Länder bevorzugen zusammen eine evolutionäre Strategie in Richtung 1000 MWel. (Russland verfügt bereits über einen BN-800 in Beloyarsk).
  • Bereits 1983 hat China einen geschlossenen Brennstoffkreislauf beschlossen. Seit 2015 gibt es eine Testanlage für die Aufbereitung ziviler Brennelemente in Jinta. Sie soll eine Kapazität von 50 to/a haben. Ihr Bau und Betrieb war mit zahlreichen Schwierigkeiten verbunden.
  • In Jiuquan ist eine 200 to/a Demonstrationsanlage in Bau. Die Bauarbeiten sind fertig und letztes Jahr hat die Montage der Verfahrenstechnik begonnen. Geplante Inbetriebnahme ist 2025. Inzwischen ist ein baugleicher zweiter Strang in Arbeit, der noch vor 2030 fertiggestellt sein soll.
  • Seit 2018 sind neben den zwei Wiederaufbereitungsanlagen auch zwei Brennelementefabriken für Mischoxid mit einer Kapazität von je 20 to/a in Bau. In ihnen kann das aus der Wiederaufbereitung von abgebrannten Brennelementen aus den Druckwasserreaktoren zurückgewonnene Uran und Plutonium zu neuen Brennelementen verarbeitet werden.
  • In Beishan laufen seit Jahren die vorbereitenden Untersuchungen und Baumaßnahmen für ein geologisches Endlager für die hochaktiven Reststoffe. Geplant ist eine Inbetriebnahme bis 2050.

Genehmigungsverfahren als Entwicklungsbremse

Langsam dämmert es den USA – Demokraten und Republikanern zusammen, was durchaus nicht häufig ist – was sich in Russland und China bereits getan hat. Die beiden bauen nicht nur die Kernkraftwerke in ihrem eigenen Land aus, sondern sind bereits eine schlagkräftige Exportmacht geworden. Dies hat auch weitgehende politische Konsequenzen. Nicht nur, was die Weiterverbreitung von Kernwaffen betrifft. Will man weiterhin an der Spitze bleiben, muß gehandelt werden. Nach amerikanischer Überzeugung geht das nur über Technologiesprünge. Eine ähnliche Situation wie einst in der Raumfahrt. Nach dem notwendigen Ende des Shuttle-Programms frohlockte schon die weltweite Linke über die Abhängigkeit von russischer Raketentechnik. Aber weit gefehlt, man besann sich auf die überlegenen Kräfte der Privatwirtschaft und heute fliegen wiederverwendbare Raketen ins All. Ein Quantensprung, den Russland und sogar China erst in Jahren nachvollziehen können. Wieder einmal ist der Kapitalismus nicht durch staatliche Planwirtschaft zu schlagen. In den USA hat sich bereits eine ganze Szene junger Unternehmen gebildet, die voller Ideen und Tatkraft sind. Wie nicht anders zu erwarten, kommt die staatliche Bürokratie da nicht mit. Ein wesentliches Nadelöhr ist die Genehmigungsbehörde in Gestalt der Nuclear Regulatory Commission (NRC). Zu dieser Problematik ist die Schrift Unlocking Advanced Nuclear Innovation: The Role of Fee Reform and Public Investment der Nuclear Innovation Alliance (NIA) erschienen.

Vorbemerkung

Grundsätzlich muß man festhalten, daß jedwede von der Politik geforderte Vorschrift zu ihrer Einhaltung Kosten in der Form von Arbeitskraft und Ressourcen (Rechner, Teststände etc.) erfordert. Viel besser als die kerntechnische Industrie, hat dies die öko-sozialistische Bewegung verstanden. Durch die Erfindung immer neuer „potentieller Gefahren“ ist es gelungen, die Kernenergie als „unwirtschaftlich“ darzustellen. Deutschland ist dabei international der Meister, durch „Industriepolitik“ die eigenen politischen Phantasmen (Klimakatastrophe, Gefahren der Gentechnik ect.) durchzuziehen. Die handelnden Politiker waschen dabei ihre Hände in Unschuld. Sie setzen ja nur die vorgeblichen „Ängste der Bevölkerung“ um. In Wahrheit mißbrauchen sie Technik und Naturwissenschaft für den „Umbau der Gesellschaft“ in ihrem Sinne und zu ihrem Vorteil (Sonnenbarone, Windmühlen-Verpächter etc.). Die hier gemachten Aussagen gehen daher weit über die Kerntechnik hinaus. Es sind grundsätzliche Überlegungen von großer Tragweite für jede Gesellschaft. Letztendlich geht es immer um die Abwägung von Vorteil (für wen?) und Risiko (nicht nur als Schaden, sondern auch als entgangene Chance).

Notwendige Überwachung

Alle technischen Systeme müssen regelmäßig überwacht werden, damit Unfälle auf ein Minimum begrenzt bleiben. Die Frage ist nur durch wen (Staat oder private Institutionen) und in welchem Umfang (z. B. Hauptuntersuchung beim Kfz oder ständig bei einem Kernkraftwerk). Allgemeiner Maßstab ist hier der mögliche Schaden. Schon hier wird es höchst politisch: Wenn ein Flugzeug abstürzt sind üblicherweise alle Insassen tot. Bei einem Unfall in einem Kernkraftwerk (Fukushima) ist der Sachschaden sehr hoch, aber es sind kaum bis keine Menschenleben zu beklagen. Bei Unfällen in Chemieanlagen (Bophal, BASF in Ludwigshafen) hat es schon tausende Tote und hunderttausende Verletzte gegeben. Der Aufwand für die Überwachung steht allerdings eindeutig nicht im Verhältnis zu den Opferzahlen – Risiko ist für Laien eine empfundene Größe und ist damit politisch beliebig missbrauchbar.

Darüberhinaus muß noch zwischen laufender Überwachung und Zulassung unterschieden werden. Bei der Zulassung eines neuen Produkts (Reaktor, Flugzeug, Medikament, Mobilfunk etc.) bewegt sich die mögliche Bandbreite zwischen „keine Zulassung erforderlich“ bis zur Klärung aller möglichen Auswirkungen in der Zukunft. Beide Grenzwerte sind nicht praktikabel. Beispielsweise ein neues Medikament ohne jede Zulassung auf den Markt zu bringen, wäre grob fahrlässig. Alle Auswirkungen in der Zukunft voraussagen zu wollen, ist prinzipiell unmöglich. Mit diesem Anspruch wäre kein neues Produkt mehr möglich, da man immer neue Bedenken konstruieren könnte. Wie so etwas funktioniert, ist hinlänglich von der „Endlagersuche“ bekannt. Die praktikable Bandbreite liegt also irgendwo dazwischen.

Organisation

Wenn man Genehmigungen als nötig erachtet, stellt sich die Frage der Zuständigkeit. Staatsgläubige werden sofort an eine Behörde denken. Auf China und Russland soll in diesem Sinne gar nicht eingegangen werden. Japan reichte als negatives Beispiel. Ministerien sind immer für den Vollzug des politischen Willens zuständig. Wenn man die Kernenergie politisch fördern wollte, war es logisch, die Genehmigungen sehr nahe an dem Wirtschaftsministerium anzusiedeln. Der Erfolg war in Japan durchschlagend – aber am Ende stand leider auch Fukushima. Wenn man Sicherheit in den Vordergrund stellt, sollte eine Genehmigungsstelle möglichst unabhängig sein, auch vom Staat. Sonst werden sehr schnell z. B. Umweltbelange dem politischen Willen untergeordnet. Aktuell kann man das sehr eindringlich bei Windkraftanlagen in Deutschland beobachten.

Für die Unabhängigkeit ist eine ausreichende finanzielle Ausstattung die Grundlage. Dabei müssen erst die Aufgaben eindeutig definiert werden und anschließend die dafür erforderlichen Mittel bereitgestellt werden. Es muß eine klare Trennung von Anforderung und Ausführung bei strikter Verantwortlichkeit geben. In einer Demokratie ist das Parlament für die Definition der Anforderungen z. B. in der Form von Grenzwerten zuständig. Wie und wodurch diese eingehalten werden, ist allein die Aufgabe der Genehmigungs- und Überwachungsstelle. Die Finanzierung muß nach dem Verursacherprinzip durch die Nutzer erfolgen. Werden die „Gebühren“ staatlich festgelegt und sogar eingetrieben, ergibt sich daraus eine indirekte Einflussnahme wie beim „Staatsfernsehen“ in Deutschland. Man ist voll und ganz von der Festlegung dieser Gebühren abhängig und erliegt damit nur noch den politischen Wünschen. Die Nähe zur Politik wird überlebenswichtig. Faktisch kommt dieses Modell einer Finanzierung aus Steuergeldern gleich.

Insofern war das Modell der Nuclear Regulatory Commission (NRC, ab 1975 zuständig) richtungsweisend. Die NRC erstellt jährlich einen Haushalt. Anfangs wurde der vollständig aus Steuergeldern finanziert. Noch 1978 wurden lediglich 20% durch Gebühren abgedeckt. In dieser Zeit wurden dutzende Lizenzen für Reaktoren bearbeitet. Insofern sollte man bezüglich Russland und China keine vorschnellen Schlüsse ziehen. Hier wie dort, stand die Förderung der Kernenergie im Vordergrund. Nach zahlreichen Diskussionen und Gerichtsverfahren erreichte 1990 die NRC eine 100%ige Finanzierung aus Gebühren. Bis zum Jahr 2007 wurde die Gebührenfinanzierung wieder auf 90% zurückgefahren, da man anerkannte, daß gewisse Aufgaben der NRC nicht unmittelbar der Überwachung dienten. Ein solches System ist jedoch nur so lange stabil, wie der Markt stetig ist. Seit ca. 2015 ist das Budget der NRC um rund 30% zurückgegangen und die NRC hat rund 25% ihres Personals (2020 nur noch 3000 Beschäftigte gegenüber 3900 in 2015) verloren, da Kernkraftwerke geschlossen wurden und kaum noch neue Genehmigungsanträge gestellt wurden. Der Stundensatz schoß in schwindelerregende Höhen von etwa 300 US$. Eine erhebliche Belastung für laufende Kernkraftwerke und Neuzulassungen. Eine sich selbst verstärkende Abwärtsspirale hat eingesetzt. Dieses Modell funktioniert nur für konventionelle Reaktoren (Flotte aus Leichtwasserreaktoren in den USA) und finanzstarke Energieversorger, die Millionen vorfinanzieren können.

Gebühren als Innovationsbremse

Genehmigungsgebühren haben die gleiche Wirkung wie Pigou-Steuern. Es werden (vermeintliche) externe Kosten internalisiert. Typische Beispiele sind hierfür die Alkohol oder Tabaksteuern. Ihr Aufkommen ist zwar für den Staatshaushalt gering, sie entfalten aber eine mächtige Lenkungswirkung durch die relative Verteuerung gegenüber anderen „Vergnügungen“. So hat man durch überzogene Sicherheitsanforderungen bei der Kernenergie systematisch andere Energieformen bevorzugt und gefördert (z. B. fiktives Krebsrisiko durch Unglücke gegenüber tatsächlichem durch Abgase). Dies betrifft schon heutige Reaktoren: Bevor man ein Kernkraftwerk mit jahrelangem Genehmigungsverfahren kauft, kauft man lieber ein Gaskraftwerk von der Stange. Bevor man jedoch gar einen Flüssigsalzreaktor oder einen natriumgekühlten Reaktor mit unkalkulierbaren Genehmigungskosten kauft, nimmt man doch lieber einen zugelassenen Leichtwasserreaktor. Um welche Dimensionen es dabei geht, zeigt das Verfahren für den Small Modular Reactor (SMR) von NuScale. Das Verfahren im engeren Sinne dauerte 3,5 Jahre, mit den erforderlichen Vorstudien rund 10 Jahre. Es sind dadurch über 500 Millionen Dollar Kosten und Gebühren angefallen. Wohlgemerkt, der NuScale-SMR ist „nur“ ein integrierter Druckwasserreaktor mit rund 70 MWel Leistung. Gerade in diesem Marktsegment kann sich keine Gemeinde eine solche Investition leisten. Ohne staatliche Anlauffinanzierung – die im wesentlichen die staatlich verursachten Kosten abdeckt – wird es keinen Erstbesteller geben. In der guten, alten Zeit war das noch „geringfügig“ anders, weil die Energieversorger solche Kosten auf die Vielzahl ihrer Kunden umlegen konnten. Je kleiner der Reaktor, je durchschlagender das Genehmigungsproblem. Daran sind bisher alle Projekte in Alaska gescheitert. Will man ernsthaft den Einsatz von Kleinreaktoren, muß man die Finanzierung der Genehmigungsverfahren ändern.

Bei „innovativen“ Reaktorkonzepten ergibt sich für die NRC noch ein grundsätzliches Problem. Es müssen vorab ganz neue Fachabteilungen (z. B. für Flüssigsalze) aufgebaut werden. Die Grenze zur Forschung ist dabei gleitend. Sollen all diese Aktivitäten voll über Gebühren gedeckt werden, würde das zur Explosion der Stundensätze führen. Dabei ist das geltende Recht besonders hinderlich, da 90% der Ausgaben über Gebühren gedeckt werden müssen, müßten für jeden Dollar Zuschuss, neun weitere Dollar über zusätzliche Gebühren eingetrieben werden. Besonders irreführend ist, daß die Subventionen aus dem Advanced Reactor Demonstration Program (ARDP), die als Subventionen für neue Reaktorkonzepte gedacht sind, fast vollständig als Gebühren an die NRC fließen. So können wenigstens die „Atomkraftgegner“ ihre Legende von der subventionierten Kernenergie aufrecht erhalten. Erschwerend kommt hinzu, daß der latente Personalmangel bei der NRC zu erheblichen Verzögerungen führt. Für junge Unternehmen kann das sehr schnell tödlich wirken, da Investoren wenig Verständnis für nicht eingehaltene Terminpläne haben.

Besonders deutlich zeigt sich die „Abneigung gegen Atomkraft“ im Vergleich zu den fossilen Energien. Sie unterliegen maßgeblich der Überwachung durch die Environmental Protection Agency (EPA), die nur relativ geringe Gebühren erhebt, da sie überwiegend aus Steuermitteln finanziert wird.

Blick über den Zaun

Da die Kerntechnik ein besonders ideologisiertes Gebiet ist, lohnt der Blick auf zwei andere, ebenfalls mit besonderen Risiken und Emotionen versehene Fachgebiete: Die Luftfahrt und Medikamente. Bedenkenswert erscheint die Tatsache, daß in beiden Sektoren jährlich unzählige Tote und Verletzte ziemlich klaglos hingenommen werden. Wahrscheinlich liegt das an den auch von Laien unmittelbar erfahrbaren Vorteilen (Urlaubsflug, Krankheiten), während der „Strom aus der Steckdose“ kommt. Irgendwelchen abstrakten Strahlenrisiken steht für den Laien kein greifbarer Nutzen gegenüber.

Die Federal Aviation Administration (FAA) ist für die Sicherheit der zivilen Luftfahrt in den USA verantwortlich. Sie ist ebenfalls durch Gebühren finanziert. Allerdings werden 85–95% ihrer Ausgaben durch einen Treuhandfond abgedeckt. Dieser wird überwiegend durch Abgaben auf Flugtickets und Treibstoff gespeist. Die Gebühren sind also an der Nutzung orientiert. Durch das Fondsmodell ergibt sich die Möglichkeit notwendige Ausgaben flexibel abzudecken. Dies hat sich bei der außerordentlich schnellen Einführung von Drohnen bewährt (Aufbau neuer Fachabteilungen, Neueinstellung von Fachleuten etc.). Für die Typenzulassung werden keine Gebühren erhoben. Dieses Modell fördert Innovationen und behindert sie nicht durch hohe Ausgaben in der Entwicklungsphase sondern erhebt erst Gebühren bei erfolgreicher Anwendung.

Die Food and Drug Administration (FDA) ist seit 1927 für die Lebensmittel und Arzneimittelüberwachung zuständig. Bis 1992 wurde sie vollständig aus Steuermitteln finanziert. Ab 1992 wurden zusätzlich Gebühren eingeführt. Heute beträgt der Anteil der Gebühren über 40%. Allerdings sind die Ausgaben durch zusätzliche Aufgaben stetig angestiegen. Anders als bei der NRC wurden die Einnahmen nicht geringer (Abschaltung von Kernkraftwerken), sondern stetig angepaßt. So wurde durch den Ausbau die Zeit für Zulassungen verkürzt und ausdrücklich die Neuzulassungen gefördert.

Zusammenfassung

Zulassungs- und Überwachungsinstitutionen sollten möglichst unabhängig sein – ausdrücklich auch von der Politik. Deshalb ist eine Finanzierung durch Gebühren sinnvoll. Es sollte das Nutzerprinzip gelten. Nicht der „Erfinder“ von sicheren Reaktoren sollte bezahlen, sondern der Stromverbraucher. Die höhere Sicherheit kommt der gesamten Bevölkerung zu gute. Deshalb muß eine ausgewogene Belastung der unterschiedlichen Energieträger (Windmühlen und Sonnenkollektoren) durch Gebühren gemäß ihrer Umweltbelastung und ihrer Versorgungssicherheit erfolgen. Kraftwerke sind Teil der Infrastruktur und dienen der „Daseinsfürsorge“ genauso wie Brücken und Straßen. Innovationen bei Reaktoren sind sehr eng mit Forschung verknüpft. Will die Gesellschaft „sicherere“ Reaktoren, muß sie für die Kosten aufkommen. Sei es durch Subventionen in der Genehmigungsphase oder für die Prototypen. Grundsätzlich ist die Frage einer Überregulierung zu klären. Warum kann man bei Autos, Flugzeugen, Schiffen etc. Prototypen bauen und braucht erst eine Zulassung, wenn man damit in den Verkauf geht? Das Risiko kann man heute sehr genau im Voraus abschätzen. Einfacher und genauer jedenfalls, als bei jedem Impfstoff oder Medikament. Allerdings müßte man dafür die Ideologie der „Anti-Atomkraft-Bewegung“ aufgeben.

Wie die Niederlande die Kerntechnik fördern wollen

Die deutsche „Energiewende“ strahlt nun auch bis in die Niederlande. Wenn die Versorgung mit preisgünstiger Grundlast aus dem nahegelegenen rheinischen Braunkohlerevier nicht mehr möglich ist, muß Ersatz her: Erdgas scheidet aus, weil die eigene Förderung stark rückläufig ist und das Gas dringend für Haushalte, Industrie und Landwirtschaft gebraucht wird. Sonne und Wind geht nicht, da schon Deutschland fanatisch auf diese Karte setzt. Wenn in Deutschland Dunkelflaute herrscht, dann auch in den Niederlanden. Was bleibt also anderes als Kernkraftwerke? Im Februar 2021 erschien zu dieser Thematik ein bemerkenswertes Papier der e-lise Stiftung. Dort werden 13 Punkte aufgestellt, die als Appell an die niederländische Regierung gerichtet sind und als Voraussetzung für einen zügigen Ausbau der Kernkraftwerke (bisher nur ein Druckwasserreaktor mit 482 MWel in Borssele seit 1973 in Betrieb) angesehen werden können. Die Punkte sind so grundsätzlich, daß sie im Folgenden wiedergegeben und kritisch gewürdigt werden sollen.

1 Garantien gegen politische Schwankungen anbieten

Richtig, aber traurig ist die Feststellung, daß immer mehr Investoren unwillig sind, Milliarden in langfristige Energieprojekte zu investieren. Ausdrücklich angeführt als schädliches Beispiel wird der „Atomausstieg“ (wörtlich im Original und in der englischen Übersetzung) in Deutschland. Es ist schon beängstigend, wie schon wieder in Europa ≫Privateigentum≪ und ≫Rechtssicherheit≪ als Grundwerte einer freien und demokratischen Gesellschaft gefordert werden müssen. Wie wir heute wissen, war der „Atomausstieg“ nur der erste Schritt in die dunklen Nebel des Sozialismus. Es folgte der „Dieselskandal“, der „Kohleausstieg“ und jüngst in Berlin der „Mietendeckel“. Zwar alles noch irgendwie durch Gerichte geglättet, aber bereits abschreckend genug. Man sollte deshalb mit der Forderung nach besonderen Bürgschaften für Kernkraftwerke äußerst vorsichtig sein. Es geht hier längst nicht mehr um Energieformen, sondern um nichts weniger als um Freiheit und Wohlstand.

Richtig ist, daß die Dramen um den EPR (Olkiluoto, Flamanville gegenüber Taishan) das Vertrauen der Investoren zerstört haben. Richtig ist auch die Feststellung, daß die Politik durch ständige Verschärfung der Anforderungen maßgeblich verantwortlich ist. Insofern ist eine vollständige Genehmigung vor Baubeginn mit über die Bauzeit eingefrorenen Bedingungen zwingend notwendig. Nur so sind Verzögerungen eindeutig zu zu ordnen. Versäumnisse der Verwaltung werden genauso schonungslos aufgezeigt, wie mangelnde Planung (Olkiluoto) und Pfusch der Hersteller (Flamanville). Nur so können Mehrkosten – notfalls vor Gericht – eingetrieben werden. Behörden müssen genau wie Privatunternehmen für Fehlverhalten finanziell haften.

2 Neue Wege finden, damit staatlich gestützte Kredite mit niedrigen Zinsen für den Neubau bereitgestellt werden können

Vordergründig richtig ist die Feststellung eines überdehnten „Marktes“ für elektrische Energie. Die zufällige wetterabhängige Überproduktion verursacht nicht kostendeckende oder sogar negative Preise (Entsorgungskosten). Man sollte endlich aufhören mit dem ökosozialistischen Neusprech vom „Strommarkt“. Bezüglich „alternativer Energien“ handelt es sich um reinrassige Planwirtschaft mit politisch vorgegebenen Produktionsquoten, staatlich garantierten Preisen, Anschlusszwang, Abnahmezwang, alles das bei kostenloser Infrastruktur. Kostenlos wohlgemerkt nur für die politisch gewünschten Neureichen. Die Kosten fallen natürlich an, werden aber voll und ausschließlich zu Lasten der Stromkunden umgelegt. Der Markt fängt erst an der Strombörse an. Dort findet – wenn auch unvollständig – eine Preisbildung durch Angebot und Nachfrage statt. Planwirtschaft und Markt lassen sich aber schon von der Theorie her nicht miteinander verknüpfen. Irgendwann erfolgt – wie bereits in Texas geschehen – die Explosion des Systems durch Mondpreise ($US9 für eine kWh zur Zeit des Kälteeinbruchs). Weitere staatliche Eingriffe werden nötig. Die Todesspirale wird immer enger, wie man es schon von der untergegangenen „DDR“ oder UDSSR her kannte.

Richtig – wenngleich trivial – ist die Feststellung, daß die spezifischen Kosten stark abhängig vom Zinssatz und der Laufzeit der Kredite sind. Da ein Kraftwerk erst Einnahmen erzielt, wenn es ans Netz gehen kann, ist hier Laufzeit mit Bauzeit gleich zu setzen. Dies erklärt schon mal wesentlich, warum die Baukosten von Flamanville gegenüber Taishan (EPR) bzw. Vogtle gegenüber Sanmen (AP1000) mehr als doppelt so hoch sind. Vor allem der Zinseszinseffekt schlägt bei langen Bauzeiten gnadenlos durch. Der Zinssatz für eine Investition setzt sich aus dem allgemeinen Zins (maßgeblich durch die Notenbank bestimmt) und dem individuellen Ausfallrisiko – quasi eine Versicherungsprämie – zusammen. Vereinfachend gesagt: Je höher die Wahrscheinlichkeit ist, daß die Bank ihr Geld nicht wiedersieht, um so höher der Zinssatz. Aus diesem Zusammenhang schlagen die Autoren drei Finanzierungsmodelle vor:

  1. Der Staat tritt als Bauherr auf und finanziert zu den günstigen Zinsen seiner Staatsanleihen (z. Zt. in Deutschland sogar negativer Zins). Bei Fertigstellung verkauft er das Kraftwerk an private Investoren. Entweder zu einem vorher vereinbarten Preis oder nach Angebot und Nachfrage.
  2. Der Staat übernimmt für die erforderlichen Kredite eine Bürgschaft. Der Investor muß für die Bürgschaften eine übliche Gebühr entrichten, bekommt dafür aber nahezu Konditionen einer Staatsanleihe am Kapitalmarkt.
  3. Der Energieversorger arbeitet nach dem RAB-Modell (Regulated Asset Based Finanzierungsmodell). Dabei werden – wie in guter alter Zeit – die Strompreise für die Endkunden staatlich kontrolliert. Alle Kosten müssen nachgewiesen werden (in diesem Fall die vereinbarten Zwischenrechnungen) und werden in vollem Umfang an die Stromkunden weitergegeben. Für seine Kosten und sein Risiko erhält der Energieversorger einen festgelegten „Zinssatz“ vergütet.

Bei Modell 1 übernimmt der Steuerzahler – wie bei vielen anderen Infrastrukturmaßnahmen auch – das volle Risiko. Dies kann nur politisch gerechtfertigt werden, wenn man die Stromversorgung als unverzichtbare Grundleistung für alle Bürger betrachtet. Die Übernahme einer staatlichen Bürgschaft ist rechtlich zweifelhaft (unerlaubte Subvention nach EU-Beihilferecht). Modell 3 ist ein Schritt zurück in – gar nicht so schlechte – alte Zeiten. Dazu müßte sich die Politik aber eingestehen, daß die Sprüche von „Deregulierung“ und „Strommarkt“ nichts als Neusprech oder Luftnummern waren. Da es inzwischen eine ganze neue Klasse Energiewende-Gewinner gibt wohl nur möglich, wenn ein entsprechender Politikerwechsel stattfinden würde.

Gar nicht diskutiert wird eine Aufforderung an die Finanzwirtschaft zur Entwicklung innovativer Modelle. Kraftwerke im Allgemeinen sind Investitionen mit hohem Anlagewert, sehr langen Laufzeiten und über Jahrzehnte genau kalkulierbaren Rückflüssen (bei entsprechender politischer Sicherheit). Also genau das, was beispielsweise Versicherungen und Pensionsfonds benötigen. In der guten alten Zeit nannte man Aktien deutscher Versorger gern „Papiere für Witwen und Waisen“. Heute stellt man mehr oder weniger erstaunt fest, daß der Hersteller Westinghouse (Neubau, Wartung und Reparatur, Brennelemente etc.) kein Pleite-Unternehmen, sondern unter neuer Führung von Brookfield eine unerwartete Ertragsperle ist. Wenn der Staat seinen Klassenkampf-Modus bei der „Atomkraft“ aufgeben würde, wäre auch jede Menge „Risikokapital“ vorhanden. Manch ein Investor würde sein Geld lieber in ein innovatives Kraftwerk stecken, als in einen Lieferservice auf Fahrrädern. Aber auch der Staat könnte Modelle entwickeln, wie im Ausland bereits bei Pipelines (Master Limited Partnership) und dem finnischen Kernkraftwerk Hanhikivi (Mankala-Kooperative; Anteilseigner kommen entsprechend ihrem Kapitalanteil für die Kosten auf und erhalten dafür die entsprechende Energiemenge geliefert) erprobt.

3 Eine Makroökonomische Analyse über die Kosteneinsparungen infolge Kernenergie durchführen

Kernkraftwerke sind sehr kapitalintensiv. Der Bau erfordert unmittelbar eine große Investition, liefert dafür aber über die Laufzeit (60+ Jahre) kontinuierlich und bedarfsgerecht elektrische Energie zu geringsten Produktionskosten. Wegen der langen Planungs- und Bauzeiten erwarten Investoren, daß die Regierung diese Investitionen absichert. Da aber Prognosen über Jahrzehnte nur schwer erstellbar sind, ergeben sich durch die notwendigen konservativen Annahmen vermeintlich hohe Preise im Vergleich zu kurzlebigen Investitionen wie Windmühlen oder Photovoltaik. Die Autoren meinen, daß eine erhebliche Kapitalbeteiligung des Staates Vertrauen schaffen könnte, da dadurch private und öffentliche Investoren im selben Boot sitzen würden und politische Ekstasen weniger verlockend wären.

Die Einsparung von CO2 – Abgaben durch Kernenergie ist trivial. Je höher diese sind, desto (relativ) günstiger ist die damit erzeugte elektrische Energie. Billiger Strom ergibt einen erheblichen Nutzen für private und industrielle Verbraucher. Dabei ist aber zu beachten, daß CO2 – Abgaben politisch sind und damit zeitlich und gesellschaftlich höchst variabel. Viel wichtiger wäre eine Analyse der über die Strompreise hinausgehenden Vorteile der Kernenergie (Versorgungssicherheit, technische Innovationen, überdurchschnittlich attraktive Arbeitsplätze etc.). „Gesellschaftlicher Nutzen“ ist aber prinzipiell ein Wiesel-Wort und damit mit Vorsicht zu genießen. Nicht ohne Grund werden solche Begriffe bevorzugt von Sozialisten erschaffen, um ihren Utopien einen wissenschaftlichen Anspruch zu geben.

4 Zusammenarbeit zwischen Energieversorgern und Lieferanten um eine ausgewogenere Kostenstruktur zu erzielen

Wenn man die Investitionen im „Westen“ (Europa, USA) und „Osten“ (China, Rußland, aber auch Süd-Korea, Indien) für Kernkraftwerke vergleicht, fällt sofort der extreme Unterschied auf. Abgesehen von der schon besprochenen unterschiedlichen Finanzierung fallen aber weitere gravierende Unterschiede auf. Die internen (zusätzlichen) Kosten (Bauüberwachung, Abwicklung der Finanzierung, Rechnungsprüfung etc.) der Eigentümer sind im „Westen“ wesentlich höher. Ebenso die indirekten Kosten (Genehmigungsverfahren, Rechtsstreitigkeiten etc.) für den Eigentümer. Und nicht zuletzt – aber weitaus geringer als wahrscheinlich vermutet – die unterschiedlichen Lohnkosten. Die extrem geringeren Baukosten in China sind auf eine Serienbauweise (erfahrenes und geübtes Personal auf allen Stufen) und nur noch zwei integrierte Konzerne, die sich ihre (unterschiedlichen) Kernkraftwerke „selber“ bauen, zurückzuführen. Hier ist noch eine Menge Einsparpotential im „Westen“ vorhanden. Für integrierte Konzerne gibt es allenfalls noch in den USA eine Perspektive. In Europa ist die industrielle Basis schon viel zu weit weggebrochen. Es kann nur eine engere Zusammenarbeit zwischen Energieversorgern, Herstellern und öffentlicher Verwaltung angestrebt werden.

5 Möglichkeiten zur nationalen und internationalen Zusammenarbeit mit dem Ziel von Serienfertigung ausfindig machen

Es wird richtig festgestellt, daß die massive politische Unterstützung und die immensen Subventionen bei Wind und Sonne das Investitionsrisiko verkleinert haben. Durch diesen seit Jahrzehnten anhaltenden Zustand waren die Kostensenkungen durch Serienproduktion und Prozessoptimierung erst möglich. Es ist allerdings mehr als fragwürdig, wollte man dieses Vorgehen nun auch für die Kerntechnik fordern. Vielmehr sollte man die sofortige Einstellung der Subventionen und Sonderrechte fordern. Der Spuk wäre in kürzester Zeit vorbei. Wie schnell das gehen könnte, zeigt in Deutschland gerade das Auslaufen der ersten Förderprogramme nach 20 Jahren. Obwohl längst bezahlt, werden die Mühlen überwiegend abgerissen, weil mit den erzielbaren Strompreisen nicht einmal die laufenden Betriebskosten abgedeckt werden können! Deutlicher kann man keine Fehlinvestition darstellen – selbst wenn der Wind keine Rechnung schickt.

Ein erster, wesentlicher Schritt wäre die Harmonisierung der Genehmigungsverfahren. Man verlangt auch nicht für jedes Flugzeug oder Auto eine komplett neue Zulassung. Selbstverständlich wird die Genehmigung in anderen Ländern bzw. die Zulassung durch internationale Gremien anerkannt – sonst setzt man sich sehr schnell dem Vorwurf von „Handelshemmnissen“ mit allen Konsequenzen aus. Das heißt nicht, daß man nicht länderspezifische Vorschriften (z. B. über Kühlwasser) einhalten muß. Mit dem nötigen politischen Willen läßt sich das sehr schnell umsetzen, denn in keinem anderen Industriezweig ist die internationale Zusammenarbeit und die laufende Kontrolle durch supranationale Institutionen enger als in der Kerntechnik. Aus dieser Standardisierung ergibt sich folgerichtig auch eine Arbeitsteilung über die Grenzen hinweg. Sind erstmal kalkulierbare Stückzahlen für Komponenten vorhanden, finden sich auch (konkurrierende) Lieferanten. Innerhalb von Europa zeichnet sich für SMR eine enge Kooperation zwischen GB, Polen, Estland, Tschechien, Rumänien, Finnland, Schweden und Irland ab. Die vermeintlich „kleinen Länder“ können als Verband eine mächtige Nachfragemacht entwickeln.

6 Den Verwaltungseinheiten ermöglichen, durch den gemeinsamen Bau von Kernkraftwerken ihre regionalen Energiestrategien umzusetzen.

Dieses Kapitel ist sehr speziell auf die föderale Struktur der Niederlande zugeschnitten. Wichtig ist jedoch die Widerlegung des „grünen Arguments“, daß der Bau von Kernkraftwerken viel zu lange dauert um „klimawirksam“ zu sein und man deshalb mit Wind und Sonne schnellstens Fakten schaffen müsse. Hilfreich für alle „Atomkraftgegner“ ist der Hinweis auf die Bauzeit von fünf Jahren für das KKW Borssele, Fertigstellung 1973. Ebenso die unterschiedlichen natürlichen Vorraussetzungen verschiedener Regionen (Wind an der Nordsee oder in Süddeutschland usw.) und die deshalb notwendigen verschiedenen Lösungsansätze.

7 Energieversorger ermutigen ihre fossilen und Biomassekraftwerke durch Kernkraftwerke zu ersetzen

In den Niederlanden wurden 13 Kraftwerksstandorte (Kohle, Biomasse, Gas) ermittelt, die durch neue Kraftwerke ersetzt werden müssen. Die Leistung beträgt überwiegend unter 1000 MWel und ist damit für SMR geeignet. An neun Standorten könnten jeweils zwei SMR gebaut werden. An diesen Standorten ist die Infrastruktur (Netzanschlüsse, Kühlwasser etc.) bereits vollständig vorhanden. Da an diesen Standorten bereits über längere Zeiten Kraftwerke in Betrieb sind, gibt es gute Kenntnisse über die Umweltbedingungen und reichhaltige Daten und Dokumentationen. Das sind beste Vorraussetzungen für ein schnelles Genehmigungsverfahren. Man Vergleiche dies beispielsweise mit der Situation bei einem Offshore-Windpark.

8 Forschung zum Einsatz der Kernenergie außerhalb der Stromerzeugung anregen

Es wird der Primärenergiebedarf hinterfragt. Elektroenergie ist nicht alles. Es gibt auch einen großen Wärmebedarf für Heizung und Industrie (Rotterdam ist ein großes petrochemisches Zentrum in Europa). Forschung bezieht sich hier auf die Verknüpfung der unterschiedlichen Verbraucher mit verschiedenen Reaktortypen. Auf der Verbrauchsseite gilt es Wasserstoffgewinnung, synthetische Kraftstoffe, Meerwasserentsalzung, Raumwärme, Industriewärme, Stahlerzeugung und Großchemie abzudecken. Bezüglich der Reaktoren sind die notwendigen Temperaturen bereitzustellen und langfristig die Wiederverwendung von „Atommüll“ in schnellen Reaktoren zu ermöglichen (Neudeutsch: cradle-to-cradle strategy).

9 Genehmigungsverfahren für innovative Reaktorkonzepte

Ein grundsätzliches Problem für ein Genehmigungsverfahren besteht in der mangelnden Ausstattung der öffentlichen Verwaltung und der Überwachungsinstitutionen (mit Personal und Technik), sowie mangelnder Erfahrung. Diese Mängel führen zu holprigen und langwierigen Verfahren. Die (unnötig langen) Verfahren wiederum zu mangelnder Unterstützung durch die Öffentlichkeit. Gegenmaßnahmen sind die Übernahme bereits erfolgreicher Zulassungen im Ausland. Es muß nicht alles von vorn gemacht werden, sondern es reicht ein Nachvollziehen im Austausch mit den ursprünglichen Institutionen. Eine sogenannte Module Design Certification (MDC), bei der die Zulassung zweigeteilt ist: Ein Reaktor wird im ersten Schritt grundsätzlich sicherheitstechnisch zugelassen und erst im zweiten Schritt werden die standortspezifischen Einflüsse berücksichtigt. Dabei können international zugelassene Berechnungsverfahren, Spezifikationen usw. übernommen werden. Übergang zu einer risikoorientierten Betrachtung, bei der Industriestandards übernommen werden (z. B der Reaktor muß „nuclear grade“ sein, für die Turbine reicht der übliche und erprobte Standard).

10 Das Wissen über Kernenergie in den Verwaltungen verbessern

Es wird darauf hingewiesen, daß Kerntechnik und Strahlenschutz mehr als den Bau von Kernkraftwerken umfassen. Im Gegenteil wird die Anwendung in Forschung, Medizin und Industrie beständig umfangreicher. Auch in den Niederlanden sind die Fachabteilungen in den Verwaltungen beständig verkleinert bzw. an den Rand gedrängt worden. In Deutschland kam seit Rot/Grün noch die Vereinnahmung durch die „Atomkraftgegner“ hinzu: Funktionierende und mit ausgewiesenen Fachleuten besetzte Behörden wurden systematisch zerstört, indem man gerade die Besten durch Schikanen, Entzug der Mittel usw. in die innere bzw. tatsächliche Kündigung trieb. Die „lukrativen Posten“ wurden anschließend mit ausgewählt unfähigen, aber um so festerer ideologischen Grundhaltung besetzt. Ein probates Mittel: Fachlich überforderte, sind stets besonders fügsam gegenüber Anweisungen von oben. Woher sollten sie auch bei einer Kündigung eine vergleichbar vergütete Position wieder her bekommen? Wie zerstörerisch und nachhaltig das wirkt, zeigt sich gerade wieder im Zusammenhang mit der „Endlagersuche“ in Deutschland. Fachleute der Kerntechnik sind längst in andere Sparten bzw. ins Ausland abgewandert.

11 Seelenfrieden beim Strahlenschutz herstellen

Strahlenschutz gründet auf Berechtigung, Optimierung und Grenzwerten. Die Berechtigung von „Strahlung“ ist z. B. im Bereich der Medizin ethisch allgemein gerechtfertigt. Bei der friedlichen Nutzung der Kernenergie scheiden sich plötzlich die Gemüter. Die Optimierung – lediglich ein anderes Wort für die Abwägung von (angeblichem) Schaden und Nutzen – ist unter Fachleuten selbstverständlich. ALARA (As Low as Reasonably Achievable) ist das täglich Brot eines jeden Strahlenschutzbeauftragten. Beim Arbeitsschutz muß ständig „Strahlengefahr“ gegen andere Gefahren abgewägt werden. Allerdings ist es in unserer europäischen (teilweise) saturierten Wohlstandsgesellschaft dringend notwendig, die „sozioökonomischen“ (wie man heute so sagt) Gesichtspunkte wieder in den Mittelpunkt zu rücken. Spätestens nach den Evakuierungen in Fukushima sollte auch der „Strahlenängstigste“ ins Nachdenken gekommen sein.

Völlig zu Recht, wird von den Autoren die fatale Konsequenz der Linear No Threshold (LNT) Hypothese für die Festlegung von Grenzwerten angeführt. Wenn man fälschlicherweise annimmt, es gäbe keinen Schwellwert für die Strahlungsdosis, ist ein Rennen gegen Null in sich logisch. Schon bei den „Atomkraftgegnern“ gehörte das Narrativ von den wenigen Gramm Plutonium, die ausreichen die ganze Menschheit auszurotten zum festen Bestandteil der Propaganda, mit dem sich trefflich schlichte Gemüter ängstigen ließen. Nur wegen des LNT-Irrglaubens kann man sich vor der Einleitung von Wasser in den Pazifik fürchten, dessen Gehalt an Tritium neunfach unter dem Wert für Trinkwasser (bei lebenslangem Gebrauch) liegt. Nur wegen des LNT-Irrglaubens glaubten tatsächlich viele Menschen an Millionen zusätzlicher Krebstote durch Tschernobyl und Fukushima. Nur wegen des LNT-Irrglaubens konnte der Irrsinn um den Endlagerstandort Gorleben bis heute am Kochen gehalten werden. Nur wegen des LNT-Irrglaubens gruseln sich manche Deutsche vor den Kernkraftwerken in den Nachbarländern.

12 Seelenfrieden in der Gesellschaft herstellen – die „Atommüllfrage“ selbst stellen

Hier wird speziell auf die Situation in den Niederlanden eingegangen. Auch in Deutschland wird der „Atommüll“ gern als Totschlagargument gegen die friedliche Nutzung der Kernenergie eingesetzt. Es ist dringend notwendig, sprachlich präziser mit den auftretenden Formen umzugehen. „Abgebrannte Brennelemente“ sind noch lange kein Müll, genau so wenig wie Altpapier. Sie bestehen aus rund 95% noch weiter verwendbarem Brennstoff in der Form von Uran und Plutonium. Kernenergie ist die einzige Industrie, die von Anbeginn an das „Recycling“ in alle Planungen einbezogen hat. Selbst die Reststoffe der Wiederaufbereitung (Spaltprodukte und Minore Aktinoide) sind nicht unbedingt Restmüll. Schließlich enthalten sie das gesamte Periodensystem mit zahlreichen Wertstoffen. Letztendlich ist die Aufbereitung oder Endlagerung eine rein wirtschaftliche Frage, deren Antwort deshalb von Brennelemente komplett endlagern (Finnland, Schweden) über die Rückgewinnung der Brennstoffe (Frankreich) bis hin zur Gewinnung von Elementen aus dem Restmüll der Wiederaufbereitung (USA, Russland) geht. Für alle Formen der Abfälle gibt es erprobte Lagerkonzepte von geologischen Endlagern (Bergwerk oder Tiefbohrung) bis technischer Langzeitlagerung (Trockenlagerung von Brennelementen). Die ständig wiedergekäute Parole von der ungelösten Atommüllfrage wird durch ihre beständige Beschwörung keinesfalls richtiger. Leider wahr ist allerdings, daß die kerntechnische Industrie zu wenig zur Aufklärung darüber beigetragen hat.

13 Sicherstellen, daß Kernenergie als nachhaltig in die EU-Taxonomie aufgenommen wird

Die EU-Taxonomie ist eine kulturmarxistische Schöpfung um das alte Gespenst des Sozialismus in Europa unter dem neuen Namen „Great Reset“ wieder hoffähig zu machen. Die Illusion der Verelendung der Arbeiterklasse und die daraus resultierende revolutionäre Kraft ist im Wohlstand des Kapitalismus untergegangen (Pol Pot im Pariser Mai 68). Wenn die Zerstörung des gehaßten Systems also nicht von unten erfolgt, muß man es von oben versuchen. Man glaubt soviel vom Kapitalismus verstanden zu haben, daß das über staatlich gelenkte Kreditvergabe gelingt: Private Finanzinvestoren sollen nur noch Kredite für als nachhaltig definierte Energien vergeben dürfen. Was die alte Försterweisheit (wenn man mehr Bäume fällt, als nachwachsen, hat man bald keinen Wald mehr) mit fossilen oder Kernenergie zu tun hat, mögen die Funktionäre wissen. Man hat es allerdings schon mal vor gar nicht all zu langer Zeit als „Peak Oil“ zu verkaufen versucht. Spätestens seit der „Shale Revolution“ in der Gas und Ölindustrie ist es auch um dieses Untergangsszenario still geworden. Im Gegenteil, für kurze Zeit wurde das Erdgas sogar als Heilsbringer gegen die böse Kohle und Kernenergie gepuscht. Das reichte aber noch nicht aus, um die Gesellschaft durchdringend zu schädigen. Deshalb glaubt man nun die Atmosphäre als endlich entdeckt zu haben. Alles ist schädlich, nur Wind und Sonne führen ins (kommunistische) Paradies. Auch das wird wieder scheitern, spätestens wenn die breite Masse merkt, wie sie um ihren hart erarbeiteten und bescheidenen Wohlstand gebracht werden soll.

Es ist zwar legitim sich eine Gleichbehandlung mit Wind und Sonne zu wünschen, aber nicht auf Kosten anderer Energieformen. Wohin die Reise geht, ist klar. Als man in Deutschland aus der Kernenergie ausstieg, stand die Braunkohle (freudig) abseits. Woher sollte der Strom denn sonst kommen? Heute geht auch die Steinkohle in die Arbeitslosigkeit und über die „Klimaschädlichkeit“ von Erdgas wird schon diskutiert. Die Öko-Sozialisten haben ihre Hausaufgaben gemacht: Alles ist mit preisgünstiger Energie möglich – ohne geht nichts. Also äußerste Vorsicht vor falschen Freunden. Es ist an der Zeit, die Stärken der Kerntechnik offensiv in der Gesellschaft zu vertreten und nicht von einer grünen Dividende am Katzentisch der Gesellschaftsveränderer zu träumen.

SMR-2021, Xe-100

Anfang April unterzeichneten X-energy, Energy Northwest, und der Grant County (Washington) Public Utility District (PUD) eine Absichtserklärung einen Hochtemperaturreaktor für geschätzt $2,4 Milliarden als Demonstrationsprojekt bis 2027 zu bauen. Das TRi Energy Partnership – ein Wortspiel aus dem TRISO-Brennstoff bzw. der Tri-Cities area – übernimmt die Projektentwicklung für die Genehmigung, den Bau und Betrieb des Kraftwerks. Der angedachte Standort ist neben dem Kernkraftwerk Columbia, einem 1,174-MWe Siedewasserreaktor nahe Richland im Bundesstaat Washington. An diesem Standort sind alle Voraussetzungen für den Transport (Schiene, Straße, Wasserweg) sowie fachkundiges Personal vorhanden. Damit sind erst einmal alle Bedingungen für eine hälftige Finanzierung (50% Staat, 50% privates Risikokapital) nach dem Advanced Reactor Demonstration Program des „US Energieministeriums“ erfüllt.

Der Entwurf

Der Xe-100 besteht aus zwei Zylindern: Dem Reaktor mit einem Durchmesser von etwa 4,9m und einer Höhe von 19,5m und dem Dampferzeuger mit einem Durchmesser von etwa 6,5m und einer Höhe von 25m. Der Reaktor dürfte etwa 200 to wiegen und der Dampferzeuger etwa 700 to. Beides Maße und Gewichte, wie sie z. B. bei Raffinerien und Chemieanlagen heute üblich sind. Insofern sind Montage und Transport für einschlägige Unternehmen kein Problem. Beide Zylinder sind nur durch ein Doppelrohr für das Helium miteinander verschraubt. Eine solche Einheit soll eine Wärmeleistung von 200 MWth und eine elektrische Leistung von etwa 75 MWel haben. Die Eintrittstemperatur in den Reaktor beträgt 260°C und die Austrittstemperatur 750°C. Um überhaupt mit dem Gas Helium ausreichend Wärme bei akzeptabler Strömungsgeschwindigkeit transportieren zu können (kein Phasenübergang), beträgt der Betriebsdruck 70bar. Damit muß man wieder die Festigkeitsprobleme beherrschen, die sich aus der Kombination von hohem Druck bei hoher Temperatur ergeben. Mit anderen Worten: Die beiden „Zylinder“ werden entsprechend dickwandig und damit teuer. Ähnliches gilt für die spiralförmigen Rohre des Dampferzeugers, da sie auf Werte (165bar, 565°C) konventioneller Kraftwerke ausgelegt sind. Alles technisch beherrschbar, aber schon vom Ansatz her teuer.

Die Leistung eines solchen Moduls ist auch durch das „Kugelhaufen-Prinzip“ begrenzt. Das Ganze funktioniert wie ein Silo: Es werden ständig oben frische Brennstoffkugeln dem Reaktor zugeführt (ca. 175 Kugeln täglich) und unten wieder die entsprechende Menge abgebrannter Brennelemente abgezogen. Da die spezifische Leistung bei diesem Prinzip etwa 30 mal geringer als in einem konventionellen Druckwasserreaktor ist, ergibt sich ein „Haufen“ aus rund 220 000 Kugeln. Je größer jedoch ein Reaktorkern ist, um so mehr neigt er zu einem „Eigenleben“. Die sich ergebenden ungleichen Zustände müssen durch Regelstäbe im Griff behalten werden. Ab einer gewissen Größe ist es aber praktisch unmöglich, Regelstäbe in solch einen Haufen einzufahren ohne die Kugeln und die Regelstäbe zu beschädigen.

Sicherheit

Zentrales Sicherheitselement sind auch hier die TRISO-Brennelemente. In jeder einzelnen „Brennstoffkugel“ (6 cm Durchmesser) befinden sich rund 18 000 einzelne „Brennelemente“. Jedes einzelne Körnchen hat seine eigene Schutzhülle aus mehreren Schichten aus denen Spaltprodukte erst einmal entkommen müssen. Hätten sie es geschafft, müßten sie noch die Speicher- und Schutzschichten der Kugel durchdringen. Erst dann könnten sie ins „Kühlmittel“ Helium – das ständig (mit einfachen Mitteln) überwacht wird – gelangen. Bis an die Umwelt müßten sie dann noch den Druckbehälter, das Gebäude etc. überwinden. Die Sicherheitsfrage konzentriert sich damit auf die Beständigkeit der Kugeln. Die Tests über Bestrahlung und Temperatur sind bereits erfolgreich abgeschlossen. Für die Freisetzung von radioaktiven Stoffen ist die Stabilität von Brennelementen (Harrisburg, Fukushima) maßgeblich. Graphitkugeln können nicht schmelzen, sondern sublimieren (unmittelbare Verdampfung ohne Verflüssigung) bei über 3900°C. Diese Temperatur kann aber unter keinen Umständen (nicht im Betrieb und auch nicht durch Nachzerfallswärme) im Reaktor erreicht werden. Jede einzelne Kugel übernimmt quasi die Funktion des Containments von konventionellen Reaktoren (Verhinderung der Freisetzung radioaktiver Stoffe an die Umgebung).

Die Menge an spaltbarem Material (auf 15,5% angereichertes Uran) bzw. der Spaltprodukte (maximaler Abbrand 160 MWd/kg) ist schon durch das Volumen des Reaktors begrenzt. Es ist nur soviel „Überschussreaktivität“ vorhanden, daß die Veränderungen im Betrieb (z. B. Xenonvergiftung im Lastfolgebetrieb) über die Regelstäbe (2 mal 9 Stück) kompensiert werden können. Selbst wenn alle Regelstäbe vollständig gezogen sind, bricht die Kettenreaktion (stark negativer Temperaturkoeffizent) lange vor Erreichen der zulässigen Temperaturen in sich zusammen – der Reaktor ist „walk away sicher“. Fehlbedienungen sind ausgeschlossen bzw. der Reaktor könnte (zeitweise) ohne Personal betrieben werden. Selbst bei einem Ausfall der Kühlung (entweichen des Heliums) reicht die passive Wärmeabfuhr über Strahlung und Wärmeleitung aus um ein Unglück zu verhindern (Fukushima).

Revolutionärer Bestandteil des Genehmigungsverfahrens wird der Nachweis sein, daß keine unzulässige Strahlenbelastung außerhalb des Betriebsgeländes (400m um den Reaktor im Gegensatz zu 10 Meilen) auftreten kann. Alle erforderlichen Nachweise und Auflagen (Besiedelungsdichte, Evakuierungspläne etc.) für eine Genehmigung würden entfallen. Mit anderen Worten: Ein solcher Reaktor könnte unmittelbar neben einem Wohngebiet (z. B. Fernwärme) oder in einem Industriegebiet (Raffinerie, Chemiepark) gebaut werden.

Geschichte

X-energy wurde 2009 von Dr. Kam Ghaffarian gegründet. Es gelang ihm einige Fachleute mit Erfahrung auf dem Gebiet der Kugelhaufenreaktoren anzuwerben. Leitender Ingenieur z. B. ist Dr. Eben Mulder, der schon in Südafrika in der Entwicklung von Hochtemperaturreaktoren tätig war und einst auf diesem Gebiet in Deutschland promovierte. X-energy wuchs schnell und hatte bis 2017 bereits über $34 Millionen Kapital eingeworben. In diesem Jahr startete das Projekt eines 320 MWel Kraftwerks, bestehend aus vier Reaktormodulen. Federführend beteiligt ist Southern Nuclear (betreibt mehrere Kernkraftwerke und baut Vogtle) als Energieversorger und Burns & McDonnell als Ingenieurunternehmen. Richtungsweisend für andere Industriezweige ist die Entwicklung eines „Digitalen Zwillings“ des Reaktors (separat gefördert durch das Energieministerium). Stark vereinfacht gesagt, ist die gesamte Konstruktion als 3D-Modell digital vorhanden und verknüpft mit einschlägigen Programmen zur probabilistischen Sicherheitsanalyse, virtual reality usw. Ziel ist die systematische Ermittlung von Schwachstellen bereits in der Konstruktionsphase und z. B. der Test von Fertigungsrobotern etc. vorab am digitalen Modell. Dieser Ansatz hat sich bereits als revolutionär bei der Entwicklung von Kampfflugzeugen gezeigt. Wie schon immer, ist die Kerntechnik das Labor des technischen Fortschritts für die gesamte Industrie. Nur hier (außerhalb der Rüstungsindustrie) arbeiten die notwendigen Spitzenkräfte aus unterschiedlichen Disziplinen eng zusammen.

Bei den gasgekühlten Hochtemperaturreaktoren handelt es sich nicht um eine neue Erfindung, sondern eine evolutionäre Entwicklung in verschiedenen Ländern: USA (1944 ORNL, 1966–1974 Peach Bottom, 1967–1988 Fort St. Vrain, ab 2005 NGNP), UK (1966–1975 Dragon), Deutschland (1967–1988 AVR, 1986–1989 THTR), Japan (ab 1998 HTTR) und China (ab 2000 HTR-10). Es kommen über 70 Jahre Forschung und Entwicklung allein in Demonstrationsanlagen zusammen. Dieser Schatz an Daten ist für ein schnelles Genehmigungsverfahren von ausschlaggebender Bedeutung.

Marktpotential

Die Demonstrationsanlage soll aus vier Reaktoren bestehen und eine Leistung von 320 MWel haben. Damit wäre der Beweis für ein funktionstüchtiges Kraftwerk zum Ersatz alter fossiler Kraftwerke an einem gegebenen Standort erbracht. Ob es allerdings eine schlaue Idee ist, ein „Großkraftwerk“ aus zig Modulen zusammenzusetzen, muß sich noch erweisen. Allerdings muß man ganz klar feststellen, daß das Prinzip Kugelhaufenreaktor aus physikalischen Gründen nicht beliebig skalierbar ist. Dieses Reaktorprinzip bleibt nur kleineren Leistungen vorbehalten. Man braucht zur Produktion elektrischer Energie auch keine hohen Temperaturen. Eine Verbesserung des Wirkungsgrades ist bei heutigen Uranpreisen eher eine akademische Fragestellung. Das (bisherige) Alleinstellungsmerkmal liegt vielmehr in der „Walk Away Sicherheit“: Gelingt es, eine Zulassung als Reaktor zu bekommen, der auch bei einem schweren Störfall nur Auswirkungen auf das Betriebsgelände, aber nicht auf die Nachbarschaft hat, eröffnen sich völlig neue Anwendungen:

  • Man kann unmittelbar neben chemischen Anlagen bauen,
  • man kann nukleare Fernwärme nahe Wohngebieten betreiben,
  • man kann einen zeitweiligen Betrieb ohne Personal anstreben,
  • man kann solche SMR dezentral einsetzen, bzw. an abgelegenen Verbrauchsschwerpunkten.

Die Produktion von Heißdampf mit 565°C erlaubt nicht nur den Kauf von Dampfturbinen von der Stange, sondern zielt auch auf typische verfahrenstechnische Anwendungen ab (Raffinerien, Grundchemikalien etc.). So hat X-energy allein in den petrochemischen Anlagen an der Golfküste 41 Dampferzeuger ermittelt. Letztendlich stellt sich die Frage, was eine MWhth bzw. MWhel aus einem Xe-100 Reaktor kostet. Liegt der Preis unterhalb einer Kesselanlage mit Erdgas, läuft das Geschäft in großem Maßstab an. Wenn nicht, ist das Reaktorkonzept eher eine Totgeburt. Die Branche steht nicht zum ersten Mal wieder vor einem Henne-Ei Problem…

Internationale Kontakte

Jordanien ist ein typischer Vertreter von Ländern, deren Mangel an Kühlwasser das Hauptproblem bei der Elektrifizierung ist. Hochtemperaturreaktoren lassen sich auch mit Trockenkühltürmen betreiben. Auch das keine ganz neue Idee: Der THTR in Hamm-Uentrop hatte bereits einen solchen. Schon 2017 hat die Jordan Atomic Energy Commission (JAEC) mit X-energy eine Kooperation abgeschlossen. Zusätzlich haben Saudi Arabien und Jordanien auch Verhandlungen mit China über Hochtemperaturreaktoren geführt.

Letztes Jahr hat X-energy auch ein Genehmigungsverfahren in Kanada gestartet. Es gibt dort die sog. Vendor Design Review (VDR). Ein Verfahren das risikoorientiert ist und drei Schritte umfaßt: Im ersten Schritt wird lediglich geprüft, ob der Reaktor grundsätzlich alle kanadischen Vorschriften erfüllt. Im folgenden zweiten Schritt werden die als kritisch empfundenen Punkte näher betrachtet und diskutiert. In der dritten Phase kann der Antragsteller alle Auflagen aus den vorhergehenden Schritten noch nachbessern. Diese Vorgehensweise erlaubt dem Antragsteller besonders bei innovativen Konzepten jederzeit die Notbremse ziehen zu können, wenn die Kosten explodieren sollten und eine Genehmigung zumindest in weiter Ferne erscheint. Da die Entwicklung des Xe-100 schon weit fortgeschritten ist, werden die ersten beiden Phasen zusammen abgehandelt. Eine Zulassung in Kanada ist für X-energy äußerst wertvoll, da Kanada über eine starke kerntechnische Industrie mit vollständigen Lieferketten verfügt. Die Zulieferer sind aber verständlicherweise erst bereit zu investieren, wenn sie genau wissen, was sie produzieren müssen. So konnte bereits Hatch als Partner für die Detailkonstruktion und den weltweiten Vertrieb gewonnen werden. Ontario Power Generation (OPG) hat in Zusammenarbeit mit anderen Provinzen federführend den (geplanten) Bau eines SMR und den Aufbau der Lieferketten in Angriff genommen. In die engere Betrachtung ist neben dem Xe-100 von X-energy, der Integral Molten Salt Reactor (IMSR) von Terrestrial Energy und der BWRX-300 von General Electric gekommen. Im Moment setzt kein Land außerhalb der USA so konsequent auf die Entwicklung von SMR, wie Kanada. Das macht Sinn, da Kanada mit dem Ausbau seiner Schwerwasserreaktoren mittlerer Größe langsam an die Grenzen stößt. Ein so weites Land mit seinen umfangreichen Bergbauaktivitäten, Ölsänden usw. braucht dringend dezentrale Einheiten. Hinzu kommt der erhebliche Heizwärmebedarf eines nördlichen Landes: Sonne geht gar nicht und mit Windparks hat man nur schlechte Erfahrungen gemacht.

SMR-2021, KP-FHR

Hinter der sperrigen Abkürzung KP-FHR (Kairos Power – Fluoride salt cooled High Temperature Reactor) verbindet sich ein eher neuartiges Konzept, das hohe Temperaturen anstrebt, aber dabei auf erprobte Komponenten setzen will: Die Kombination von TRISO-Brennelementen mit Salzschmelze als Kühlmittel. Ursprünglich wollte man damit eine konventionelle Gasturbine antreiben, indem man Luft auf etwa 700 °C erhitzt und gegebenenfalls noch durch Verbrennung von Erdgas zur Abdeckung von Spitzenlasten weiter erhitzt. Für Kernreaktoren sollte damit ein neues Einsatzgebiet erschlossen werden. Für die Grundlast wäre weiterhin billige Kernenergie eingesetzt worden (Turbine läuft nur mit Luft) und zusätzliches Erdgas bei Lastspitzen (analog eines Nachbrenners bei Flugzeugen). Insgesamt wäre ein hoher Wirkungsgrad durch die erprobte Kombination von Gasturbine mit nachgeschaltetem Dampfkreislauf gewährleistet worden. Wie schon bei anderen Hochtemperaturreaktoren ist die Nutzung von Gasturbinen (vorläufig) gescheitert. Nunmehr geht man auch hier (vorläufig?) nur von einem konventionellen Dampfkreislauf aus. Allerdings mit höheren Dampfzuständen, wie sie in konventionellen Kohlekraftwerken üblich sind.

Der Stand der (finanziellen) Entwicklung

Kairos geht auf Forschungsprojekte an der University of California, Berkeley (UCB), dem Massachusetts Institute of Technology und der University of Wisconsin zurück. Alles unter der Koordination – und finanziellen Förderung – des U.S. Department of Energy im Rahmen eines Integrated Research Project (IRP). Wie so oft, entstehen aus solchen Forschungsprojekten neu gegründete Unternehmen, in denen die maßgeblich beteiligten „Forscher“ ihre Erkenntnisse kommerzialisieren. Selbstverständlich bleiben sie ihren alten Universitäten dabei eng verbunden. Im Falle von Kairos sind die Arbeiten nun soweit fortgeschritten, daß das „Energieministerium“ (schrittweise) einen Prototyp anstrebt. Es soll innerhalb von sieben Jahren der Demonstrationsreaktor „Hermes Reduced-Scale Test Reactor“ auf dem Gelände des East Tennessee Technology Park in Oak Ridge für geplant $629 realisiert werden. Das „Energieministerium“ hat dafür $303 Millionen Dollar fest in seinem Haushalt (verteilt über sieben Jahre) eingestellt. Das Geld wird fällig, wenn Kairos die andere Hälfte von privaten Investoren auftreibt. Dies ist ein in den USA erprobtes pragmatisches Förderungsmodell: Das Risiko wird hälftig von Investoren und Staat geteilt – gegenseitig wirkt die Zusage als Qualitätskriterium. Außerdem kann bei solchen Summen davon ausgegangen werden, daß die Entwicklung zielstrebig vorangetrieben wird. Die privaten Investoren lockt schließlich der wirtschaftliche Erfolg. Anders als in Deutschland, sind Gewinne in den USA nichts unanständiges.

Der Kugelhaufen

Die Kugeln für diesen Reaktor werden wahrscheinlich etwas kleiner (3 cm) als die üblichen TRISO-Elemente (4,3 cm) und enthalten rund 1,5 gr Uran verteilt in 4750 kleinsten mit einer Schutzschicht überzogenen Körnchen. Sie können damit über 11 000 kWh elektrische Energie produzieren, was etwa dem Verbrauch von 8 to Steinkohle oder 17 to Braunkohle entspricht. Wegen ihrer hohen Energiedichte sind diese Elemente nach ca. 1,4 Jahren abgebrannt und müssen ausgewechselt werden. In einem mit Helium gekühlten Hochtemperatur-Reaktor verbleiben die Kugeln etwa 2,5 Jahre und in Leichtwasserreaktoren rund drei Jahre.

Die Kugeln sollen einen etwas anderen Aufbau als klassische TRISO-Elemente haben: Der Kern besteht aus 25 mm porösem Graphit, umgeben von einer Kugelschale aus Brennstoffkörnern und einer äußeren Schutzschicht aus besonders widerstandfähigem Graphit. Die Brennstoffkörner haben einen Durchmesser von lediglich 400 Mikrometern und enthalten auf 19,75% angereichertes Uran. Die Geschwindigkeit mit der Spaltprodukte im Graphit wandern, hängt wesentlich von der Temperatur ab. Da die Betriebstemperatur hier mit 650°C deutlich geringer als beim AVR in Deutschland mit 950°C ist und die Verweilzeit der Kugeln kleiner, kann von einer wesentlich geringeren Verunreinigung des Kühlmittels – hier reaktionsfreudige Salzschmelze, damals Edelgas Helium – ausgegangen werden. Dies ist bei einem Reaktorunglück für die Freisetzung radioaktiver Stoffe in die Umwelt von ausschlaggebender Bedeutung. Die neutronenphysikalische Auslegung des Reaktors ist so angelegt, daß bei etwa 800°C Temperatur die Kettenreaktion ohne Eingriffe in sich zusammenbricht (stark negative Temperaturkoeffizienten). Man könnte also den Reaktor jederzeit verlassen, ohne ihn abzustellen. Demgegenüber sind die Brennelemente bei bis zu 1800°C ohne größere Schäden getestet worden. Der Siedepunkt der Salzschmelze liegt bei nur 1430°C. Dies ergibt zusammen eine wesentlich höhere Sicherheitsmarge als bei Leichtwasserreaktoren.

Das Kühlmittel

Bei diesem Reaktortyp wird weder mit Wasser noch mit Helium, sondern einem geschmolzenen Salz gekühlt. Dies stellt viele sicherheitstechnische Betrachtungen auf den Kopf: Nicht ein unzulässiges Verdampfen des Kühlmittels wird zum Problem, sondern das „Einfrieren“. Das hier verwendete „FLiBe-Salz“ hat einen Schmelzpunkt von 459°C, d. h. alle Komponenten müssen elektrisch beheizbar sein um den Reaktor überhaupt anfahren zu können. Außerdem muß unter allen Betriebszuständen und an allen Orten diese Temperatur sicher aufrecht erhalten bleiben, damit sich keine Ausscheidungen und Verstopfungen bilden. Andererseits ist diese Temperatur so hoch, daß Wartungs- und Inspektionsarbeiten schnell zu einem Problem werden.

Wesentliches Problem ist aber bei allen Salzschmelzen die Korrosion. Zwar hat man heute ein besseres Verständnis der Werkstofftechnik und jahrzehntelange Erfahrungen z. B. in Raffinerien, andererseits liegen aber immer noch keine Langzeiterfahrungen bei Kernreaktoren vor. Hier versucht man zumindest das Problem durch eine scharfe Trennung von Brennelement und Kühlmittel einzugrenzen. Bei einem Kernreaktor hat man es tatsächlich mit dem gesamten Periodensystem zu tun. Wie all diese Stoffe chemisch mit der Salzschmelze, den Reaktorwerkstoffen und untereinander reagieren, ist ein ingenieurtechnischer Albtraum. Deshalb versucht man hier ganz klassisch alle Spaltprodukte etc. im Brennelement zu halten. Andererseits geht man davon aus, daß die Diffusion von Cs137, Silber etc., die zu einem radioaktiven Staub bei mit Helium gekühlten Reaktoren führen, die den gesamten Reaktor verdrecken, besser beherrschbar ist, weil diese „Schadstoffe“ sofort im Salz gelöst werden.

FLiBe ist – wie der Name schon andeutet – ein Salz mit den Bestandteilen Fluor, Lithium und Beryllium. Die Arbeitsschutzvorschriften für Beryllium (Atemschutz, Schutzkleidung etc.), sind nicht kleiner als für radioaktive Stoffe – es ist nur schwerer zu erkennen. Besonders problematisch ist jedoch das Lithium. Lithium hat die unschöne Eigenschaft, daß es durch Neutronen Tritium bildet. Man kann zwar durch eine Anreicherung von Li7 auf 99,995% die Bildung erheblich verringern, aber nicht ausschließen. So bilden FLiBe-Reaktoren etwa 1000 bis 10 000 mal soviel Tritium wie Leichtwasserreaktoren. Dies kann zu grundsätzlichen Schwierigkeiten bei der Genehmigung führen. Auch bei diesem Problem wirkt sich die Trennung von Brennstoff und Kühlmittel positiv aus. Das Graphit zieht das Tritium an und absorbiert es an dessen Oberflächen. Deshalb sind zusätzlich noch Filterkatuschen in den Kühlmittelleitungen vorgesehen.

Der Zwischenkreislauf

Das FLiBe-Salz wird – unabhängig von eindiffundierten Spaltprodukten und Tritium – während seines Durchlaufs durch den Reaktorkern immer radioaktiv. Aus Fluor wird O19(26,9s Halbwertszeit) und N16 (7,1s Halbwertszeit) gebildet. Beides γ-Strahler mit 1,4 MeV bzw. 6,1 MeV. Von ausschlaggebender Bedeutung ist F20 (11,0s Halbwertszeit). Hinzu kommen noch aktivierte Korrosionsprodukte. Um die Bereiche mit Strahlenschutz klein zu halten, ist ein Zwischenkreislauf mit „Sonnensalz“ vorgesehen. Als „solar salt“ bezeichnet man üblicherweise eine Mischung aus 60% Natriumnitrat NaNO3 und 40% Kaliumnitrat KNO3. Sie hat einen Schmelzpunkt von 240°C und eine maximale Temperatur von etwa 565°C. So ist z. B. im Solar-Turmkraftwerk „Solar One“ ein Spitzenlast-Speicher mit zwei Tanks in denen 1400 to Solar-Salz gelagert sind in Betrieb. Diese Anlage kann 107 MWhth speichern und erzeugt damit 11 MWel für drei Stunden. Damit ergibt sich ein weiteres Anwendungsfeld: Bei entsprechender Auslegung der Turbine kann ein solcher SMR auch zur Abdeckung von Lastspitzen im Netz bzw. zur Auskopplung von Wärme für industrielle Zwecke eingesetzt werden.

Der Reaktorkern

Eine weitere Besonderheit gegenüber mit Helium gekühlten Reaktoren ist, daß die Brennstoffkugeln im Reaktor schwimmen. Sie werden deshalb von unten zugeführt und oben wieder abgefischt. Insbesondere die „Abfischmaschine“ ist noch nicht im Detail konstruiert. Sie muß den Reaktor nach oben sicher abdichten, die Kugeln einfangen, transportieren, reinigen und überprüfen – das alles beständig bei 650°C. Für 100 MWel sind etwa 440 000 Brennstoffkugeln (TRISO) und 204 000 Moderatorkugeln (aus reinem Graphit) im Reaktor. Jede Brennstoffkugel durchläuft etwa 8 mal den Reaktor und verbleibt bei voller Leistung rund 1,4 Jahre im Reaktor, bis sie abgebrannt ist (gemeint ist damit, bis das in ihr vorhandene Uran gespalten ist, die Kugel erscheint unverändert). Jede Kugel braucht ungefähr 60 Tage auf ihrem Weg von unten nach oben. Nach dem Abfischen verbleibt sie noch 4 Tage zur Abkühlung, bis sie wieder zurückgeführt wird. Bei voller Leistung müssen etwa 450 Kugeln pro Stunde entnommen und überprüft werden, das ergibt ungefähr 8 Sekunden pro Vorgang. Jeden Tag sind rund 920 Kugeln verbraucht und müssen durch frische ersetzt werden. Für eine vollständige Entleerung ist ein „Schnellgang“ vorgesehen, der etwa 3600 Kugel pro Stunde entnimmt. Abgesehen von Wartungsarbeiten könnte somit der Reaktor kontinuierlich in Betrieb bleiben.

Der Reaktor ist im Wesentlichen ein Zylinder von etwa 3,5 m Durchmesser und 12 m Höhe mit einer Wandstärke von 4 bis 6 cm. Der Kern – die eigentliche Wärmequelle – ist wesentlich kleiner. Er besteht aus einem Doppel-Hohlzylinder. In dessen innerem Ring schwimmen die Brennstoffkugeln, in seinem äußeren Ringraum die Moderatorkugeln. Der Innenraum ist gefüllt mit einem Reflektor aus Graphit in dem sich auch die Regelstäbe befinden. Der gesamte Einbau ist durch Graphitblöcke von dem Reaktortank isoliert. Genau diese festen Einbauten aus Graphit sind eine bekannte Schwachstelle bei all diesen Reaktortypen. Sie sind z. B. auch der Tod der britischen AGR-Reaktoren. Unter ständigem Neutronenbeschuss altert der Graphit. Heute hat man zwar ein besseres Verständnis der Vorgänge – gleichwohl bleibt die Lebensdauer begrenzt. Hier ist deshalb vorgesehen, irgendwann die Graphiteinbauten zu erneuern. Ob das dann wirtschaftlich ist, wird sich zeigen. Im Prinzip sind die Graphit-Volumina aus einzelnen Blöcken zusammengesetzt. Diese besitzen aber wegen der nötigen Einbauten, Kanäle fürs Salz etc. und der zu berücksichtigenden Wärmedehnung eine komplizierte Geometrie und erfordern sehr enge Fertigungstoleranzen. Aber es ist ja der Sinn von SMR, all diese Arbeiten in einer Fabrik und nicht auf der Baustelle auszuführen

Werkstoffe

Alle Hochtemperaturreaktoren tragen das gleiche Problem in sich, die hohen Temperaturen. Mit der Temperatur steigen die Probleme (z B. Zeitstandsfestigkeit, Korrosion) und damit die Kosten exponentiell an. Wäre dies nicht so, hätte man bereits fossile Kraftwerke mit ganz anderen Wirkungsgraden. Es stellt sich deshalb immer die Frage, wofür man überhaupt so hohe Temperaturen braucht. Hier beschränkt man sich bewußt auf eine Spanne von 550°C bis 650°C um nicht vollständig konventionelle Werkstoffe verlassen zu müssen. Man darf ja nicht vergessen, daß alles genehmigungsfähig – d. h. berechenbar und durch Versuche nachweisbar – sein muß. Hierin liegt ja gerade der Charme von Salzschmelzen: Nicht so hohe Temperaturen ohne zusätzliche Druckprobleme, bei hoher Wärmespeicherung. Geplant ist weitesgehend SS 316 (handelsüblicher austenitischer Edelstahl) zu verwenden.

Ein wesentliches Problem aller FLiBE-Reaktoren ist die hohe Tritiumproduktion. Über den Daumen gerechnet, produziert dieser kleine SMR (100 MWel) jeden Tag soviel Tritium, wie ein Leichtwasserreaktor (1000 MWel) in einem ganzen Jahr. Will man auf gleiche Werte kommen, müßte also 99,9% des Tritium zurückgehalten werden. Man setzt hier auf die Absorption am Graphit. Das ändert aber nichts daran, daß Tritium bei solchen Temperaturen sehr gut durch Stahl hindurch diffundiert. Bisher hat man gute Erfahrung mit einer Beschichtung aller Rohrleitungen mit Aluminiumoxid gemacht. Es bildet eine Sperrschicht, die sogar beim Kontakt mit Luft selbstheilend ist. Gleichwohl ist hier noch viel Forschung nötig, wenn man die Aufregung um das Tanklager in Fukushima berücksichtigt. Es könnte sich sonst eine (politisch) unüberwindliche Hürde für die Genehmigung von FLiBe-Reaktoren ergeben.

Einschätzung

Kairos ist ein „Startup“ mit dem Selbstverständnis eines Ingenieurunternehmens. Sie haben nicht vor, jemals einen solchen SMR selbst zu fertigen. Von Anfang an haben sie starke Partner mit ins Boot geholt. So übernimmt Materion die Entwicklung und Herstellung des FLiBe-Salzes und BWXT die Produktion der Brennelemente. Für den kritischen Bereich „Tritium“ sind seit September 2020 die Canadian Nuclear Laboratories (CNL) eingestiegen. Kanada hat mit Tritium große und jahrzehntelange Erfahrungen durch den Betrieb seiner Candu-Reaktoren. Darüberhinaus will Kanada einen SMR in Chalk River bauen. Kairos ist dafür in die engere Wahl gekommen. Das Genehmigungsverfahren (stark unterschiedlich zu den USA) wird von der kanadischen Regierung mit mehreren Millionen gefördert. Seit 2018 läuft das Genehmigungsverfahren in den USA. Nächster Schritt wird der Bau eines kleinen Demonstrationsreaktors im East Tennessee Technology Park (ETTP) in Oak Ridge, Tennessee. Hier geht es vor allem darum, die Kosten für die Serienproduktion modellhaft zu testen.

Es dürften keine „Killer-Kriterien“ mehr im Genehmigungsverfahren auftreten. Dafür liegen zu viele Forschungsergebnisse aus mehreren Jahrzehnten vor. Besonders traurig ist, daß selbst im Genehmigungsverfahren auf die Betriebsergebnisse des AVR in Jülich zurückgegriffen wird. Deutschland hätte sicherlich auch heute noch ein geschätzter Partner sein können, wenn nicht wahnsinnige Laiendarsteller den Weg zurück ins Mittelalter propagiert hätten.

Seit 10 Jahren Fukushima

Eigentlich wollte ich nichts zum „Fukushima-Jubiläum“ schreiben. Es ist alles gesagt. Wer will, kennt die Fakten. Man muß nur ein wenig im Internet stöbern. Wäre da nicht das ZDF hinter dem Busch hervorgekrochen mit seiner Sendung „Der ewige Gau? 10 Jahre Fukushima“. Gäbe es einen Karl-Eduard Richard Arthur von Schnitzler – auch Sudel Ede genannt – Preis, das ZDF hätte ihn mit Sicherheit in der Tasche. In bester Tradition schneidet man alte Aufnahmen des West-Fernsehens neu zusammen und läßt sie von den einschlägig Verdächtigen: Green Peace, Partei Bündnis 90/Die Grünen usw. kommentieren. Selbst der alte Lehrer Arnie Gunderson mit seiner Verschwörungstheorie von dem explodierten Brennelemente-Lagerbecken darf nicht fehlen. Die Verknüpfung „Atombombe“ gleich „Atomkraftwerk“ ist einfach zu verlockend. Als Staatsfunker braucht man nicht einmal elementare handwerkliche Fähigkeiten zu beachten: Eine simple Google-Abfrage und man hätte Aufnahmen des besenreinen Lagerbeckens von Block 4 senden können. Ausgewogenheit – also die Berücksichtigung von Pro und Kontra – ist mit der Einführung der Wohnungssteuer „Rundfunkgebühr“ sowieso nicht mehr nötig. Man dient nur seinem Herrn, der die nächste Gebührenerhöhung festsetzt. Sollen die Zuschauer doch abschalten, wenn sie soviel Propaganda nicht ertragen.

Was geschah am 11. März 2011?

Um 14:46 (Japan Standard Time) erschütterte das “Tohoku Earthquake” den Osten Japans mit einer Magnitude von 9.0 auf der Richterskala. Das Epizentrum lag etwa 130 km östlich der Oshika Halbinsel in 24 km Tiefe. Quelle war ein Sprung der ineinander verhakten nordamerikanischen und pazifischen Platte. Dieser Sprung löste einen Tsunami aus, der über die japanische Küste hereinbrach. Er zerstörte mehr als eine Million Gebäude, tötete 19 729 Menschen, weitere 2 559 Opfer blieben bis heute vermißt und verletzte 6 233 Menschen zum Teil schwer. Ganze Landstriche waren innerhalb von Minuten dem Erdboden gleich gemacht. Für uns Mitteleuropäer eine unvorstellbare Naturkatastrophe von apokalyptischem Ausmaß.

Im Zusammenhang mit dem Reaktorunglück ist nur von Bedeutung, daß solche Tsunamis in Japan nicht unwahrscheinlich sind. Mit anderen (deutlichen) Worten: Dieses Kraftwerk hätte so nie an diesem Ort gebaut werden dürfen. Dies war unter Fachleuten – bitte nicht verwechseln mit „Atomexperten“ – bekannt. Es gab sogar einige wenige, die unter Inkaufnahme erheblicher beruflich Konsequenzen dabei nicht mitgespielt haben.

Die Ereignisse im Kernkraftwerk

Im Kernkraftwerk Fukushima waren drei der sechs Blöcke in Betrieb. Block 4 war bereits vollständig entladen für einen Brennstoffwechsel mit Wartungsarbeiten. Die Blöcke 5 und 6 waren in Vorbereitung zum Wiederanfahren nach erfolgtem Brennelementewechsel. Durch das Erdbeben wurden alle sechs Hochspannungstrassen unterbrochen. Die Notstromdiesel zur Eigenversorgung im Inselbetrieb starteten.

Für das Verständnis der Abläufe ist wichtig, daß zuerst alles nach Plan verlief: Durch die Erdbebensensoren wurde eine Schnellabschaltung ausgelöst und auch in Fukushima startete die Notversorgung – wie in fast allen japanischen Kernkraftwerken. Es wäre nichts passiert, wenn die Flutwelle nicht gekommen wäre oder man das Kraftwerk „wasserdicht“ gebaut hätte. Der Vorgang einer Schnellabschaltung infolge eines Erdbebens ist in Japan Routine. Die Betriebsmannschaft war allerdings bezüglich des Tsunami so ahnungslos, daß sie sogar die Abkühlung des Blocks 1 noch verzögerte, um – wie erwartet – möglichst schnell wieder ans Netz zu kommen. Dies war leider eine fatale Fehlentscheidung, wie sich bald herausstellen sollte. Es verstrich fast eine wertvolle Stunde in Ahnungslosigkeit. Hier zeigt sich, wie wichtig ein Kommunikationssystem ist, das auch bei schweren Naturkatastrophen intakt bleibt: Wäre die Betriebsmannschaft über die Gefahr eines schweren Tsunami informiert worden, hätte sie mit Sicherheit ganz anders reagiert. Bei den Reaktoren 2 und 3 wurde die Isolation der Reaktoren von dem konventionellen Teil des Kraftwerks automatisch durchgeführt und die notwendigen Notkühlsysteme ausgelöst. Bis zu diesem Zeitpunkt waren alle drei Reaktoren in einem sicheren Zustand und auch die Notkühlung funktionierte wie geplant.

Etwa 50 Minuten nach dem Erdbeben (das hätte die „goldene Stunde“ sein können) brach eine Wasserwand auf das Kraftwerk ein und schlug alle Außeneinrichtungen der Blöcke 1 bis 4 kurz und klein. Dies war die Folge des bekannten Konstruktionsfehlers: Die Lage des Kraftwerks über dem Meeresspiegel war viel zu niedrig. Bereits in den etwas abgelegenen (neueren) Blöcke 5 und 6 waren die Zerstörungen wesentlich geringer. Sämtliche Kühlwasserpumpen der Blöcke 1 bis 4 sind abgesoffen und damit war keine Außenkühlung mehr möglich. Die Notstromdiesel, die Schaltanlagen und alle Batterien im Keller des Turbinengebäudes wurden durch das hereinbrechende Meerwasser zerstört. Zunächst überlebten die Diesel von Block 2 und 4, bis sie durch die zerstörten Schaltanlagen außer Gefecht gesetzt wurden. Die Batterien von Block 3 hielten noch durch, bis sie erschöpft waren. Es gab sogar einen zusätzlichen luftgekühlten Generator für den Block 6 – wenn man nur den Strom hätte nutzen können. Durch den totalen Stromausfall (station blackout) war die Mannschaft blind und kraftlos. Man hatte bald keine Informationen durch die Messgeräte mehr und konnte auch keine elektrischen Stellglieder mehr betätigen. So ließ sich das Ventil, welches man im Block 1 geschlossen hatte, um die Abkühlung zu verringern, nun nicht mehr öffnen. Hilfe von außen ließ auf sich warten, weil die Feuerwehr erstmal die zerstörten und verschütteten Straßen räumen mußte um sich zum Kraftwerk vorkämpfen zu können. Die Kernschmelze setzte etwa 5 Stunden später in Block 1 ein. Unter den hohen Temperaturen zersetzten sich die Brennstabhüllen durch eine chemische Reaktion zwischen Wasserdampf und Zirconium. Der Kern des Reaktors – eine Konstruktion mit Toleranzen von weniger als einem Millimeter – fällt nun unkontrolliert in sich zusammen. Da die Nachzerfallswärme immer noch weiter wirkt, schmelzen Teile sogar auf. Es entsteht ein „Corium“, eine Legierung aus allen Bauteilen des Kerns, die nach dem Erkalten eine lavaähnliche Schlacke bildet. Deren Beseitigung ist die zentrale Herausforderung des Rückbaus. Man hat nicht mehr eine verfahrenstechnische Anlage vor sich, sondern einen Stahlbehälter mit einer harten, widerborstigen Masse, die man zerkleinern und bergen muß. Sinnvollerweise wird dies erst in Jahrzehnten mit noch zu entwickelnden Robotern erfolgen.

Durch den ansteigenden Druck wurde der Deckel im Reaktor 1 undicht und es entwich Wasserstoff in das obere Stockwerk. Eine ganz normale Industriehalle und kein „Betonbunker“, wie er in modernen Kraftwerken üblich ist. Etwa nach 24 Stunden explodierte das gebildete Knallgas und lieferte die spektakulären und immer wieder gern gezeigten Bilder. Nur hat dies nichts mit Kerntechnik zu tun, sondern ist eher ein Vorgeschmack auf die viel gepriesene „Wasserstoffwirtschaft“.

Im Block 2 funktionierte die Notkühlung noch drei Tage. Allerdings stieg auch dort Druck und Temperatur an, weil durch den Ausfall der Kühlwasserpumpen die Wärme nicht mehr an die Umwelt abgegeben werden konnte. Der Versuch einer Druckentlastung damit die Feuerwehr Wasser einleiten konnte, scheiterte und es kam ebenfalls zu einer Teilschmelze. Allerdings weniger schlimm als in Block 1. Es gab auch keine Knallgasexplosion, da der „Schuppen“ über dem Reaktordruckbehälter schon durch die Explosion in Block 1 soweit zerstört war, daß der Wasserstoff abziehen konnte.

In Block 3 konnte man mittels Strom aus Batterien die Notkühlung noch etwas steuern. Da aber die Wärmesenke Meerwasser nicht mehr zur Verfügung stand, kam es auch dort zu einer Kernschmelze. Hier strömte das gebildete Knallgas nicht nur in den „Schuppen“ oberhalb des Blocks 3, sondern auch über die gemeinsamen Lüftungskanäle in den „Schuppen“ des gar nicht in Betrieb befindlichen Block 4. Wieder zwei spektakuläre Explosionen von Knallgas. Nun waren alle „Schuppen“ zerstört wie nach einem Bombenangriff und der Schutt in alle Brennelemente-Lagerbecken gefallen. Um die Brennelemente bergen zu können, muß erstmal der Schutt beräumt werden. Davor wiederum mußten erstmal neue Gebäude gebaut werden um etwaige Verseuchungen bei den Bergungsarbeiten zu verhindern. Das alles brauchte und braucht Zeit.

Der Irrsinn der Evakuierung

Völlig überhastet und von „Strahlungsangst“ getrieben, ordnete man großräumige Evakuierungen an. Infolge dieser Evakuierungen kam es zu zahlreichen Todesfällen, weil man Schwerkranke von Intensivstationen und hochbetagte Pflegefälle einem Transport und Notunterkünften aussetzte. Nachweislich ist aber kein Mensch durch Strahlung gestorben. Die Strahlungsdosen sind so gering, daß man nicht einmal mit einer erhöhten Rate von Krebsfällen rechnen kann. Anfangs lagen die Strahlendosen im Sperrgebiet bei 50 bis 100mSv/year. Durch Dekontaminierung wurden die Werte auf 1 bis 20 mSv/year gesenkt. Ein wahnsinniger Aufwand, der eher an „Buße“ als an Strahlenschutz erinnert.

So ist es halt, wenn man den Weg der Wissenschaft verläßt und sich dem Populismus hingibt. Geht man den Agitatoren von Green Peace und Co auf den Leim, wird es einem nicht vergönnt, sondern die Berge von abgetragenem – und sorgfältig in Säcke verpacktem – Mutterboden (!) werden als tödliche Strahlenquellen genüßlich vorgeführt. Man hinterfragt keine Sekunde die Prognosen über „Strahlentote“ und „Krebsopfer“ unmittelbar nach dem Unglück. Nein, die gleichen Angstmacher dürfen von der „Beinahe-Katastrophe“ in Tokio schwadronieren. Man sollte das tunlichst nicht einfach als Spinnereien ewig Unbelehrbarer abtun. Ganz im Gegenteil, es ist die Vorbereitung für z. B. den Kampf gegen den Bau von Kernkraftwerken nahe Danzig. Die Antifanten müssen rechtzeitig aufgestachelt werden. Mit Angst läßt sich nicht nur hervorragend regieren, sondern auch Spannungen mit (nicht folgsamen) Nachbarländern schüren. Die „Energiewende“ ist längst zu einem politisch-wirtschaftlichen Geschwür geworden, neben dem jede „Masken-Affäre“ wie Tauschgeschäfte unter Kindern auf dem Schulhof anmuten. Gerade dieses Filmchen und die darin auftretenden Darsteller sind ein Beispiel dafür, wie inzwischen eine ganze Generation „Angstmacher“ sich lukrative Posten ergattert hat, die diese wahrscheinlich nie mit ihren studierten Berufen hätten erreichen können.

Die Moritat vom Atommüll

Unsere Filmschaffenden vom ZDF-Kollektiv „schneide und sende“ haben beharrlich alte Wochenschauberichte von Arbeitsmännern, die durch Ruinen kraxeln, endlosen Tanklagern, Berge von Plastiksäcken etc. zusammengeschnitten. Man kennt diesen Arbeitsstil noch von der Berichterstattung über Trump: Immer wurde nur Material anderer (gleichgesinnter) Sender „nachgesendet“, niemals jedoch eine Rede von Trump im Original gesendet. Ist das einfach nur Faulheit oder hat Betreutes-Denken-TV Angst, die Zuschauer könnten zu viel von der tatsächlichen Welt erfahren? Wo sind die Aufnahmen vom Kraftwerksgelände heute, wo man sich längst ohne jede Schutzkleidung bewegen kann? Wo sind die Aufnahmen von den Ingenieuren vor Ort in ihren Computer Räumen (von denen manche deutsche Universität nur träumen kann), die die Arbeiten steuern und überwachen? Es wird doch sonst so gern von künstlicher Intelligenz, Robotertechnik, Simulationstechnik etc. geschwätzt. All das hätte man im Einsatz in der Ruine von Fukushima filmen können. Dazu hätte man sich vor Ort noch mit den führenden internationalen Fachleuten auf diesen Gebieten unterhalten können. Paßt natürlich alles nicht in das ideologisch gewünschte Bild einer sterbenden Technik. Ahnungslose Rentner (die Zielgruppe des ZDF) hätten sonst noch glauben können, sie hätten einen Bericht von der Hannover Messe gesehen.

Stattdessen Luftbilder von einem Tanklager. Eigentlich ein Beweis, wie umsichtig man vorgeht. Man hat nicht einfach das radioaktive Wasser ins Meer gekippt – was nebenbei gesagt, kein großer Schaden gewesen wäre – sondern hat es aufwendig zur Aufbereitung zwischengelagert. Hat man so etwas schon mal bei einem Unfall in einem Chemiewerk gesehen? Wie wäre es gewesen, wenn man mal die Reinigungsanlagen gefilmt hätte und die betreuenden Wissenschaftler z. B. aus Russland und Frankreich befragt hätte, wieviel Gehirnschmalz dafür notwendig war, Konzentrationen in Trinkwasserqualität zu erzielen? Stattdessen minutenlanges Gejammer über Tritium. Aber Vorsicht, das Narrativ vom unbeherrschbaren Atommüll hätte bei manch einem Zuschauer hinterfragt werden können.

Die Konsequenzen

Die Welt hat nach Fukushima erstmal den Atem angehalten. Man ist wie nie zuvor in der Technikgeschichte zusammengerückt und hat die tragischen Ereignisse analysiert. Heute gehen selbstverständlich russische, chinesische und amerikanische Fachleute gegenseitig in ihren Kernkraftwerken ein und aus. Suchen Schwachstellen und beraten sich gegenseitig. Dies geschieht über alle politischen Gegensätze und Spannungen hinweg. Fukushima war ein Ereignis für die Kerntechnik, wie der Untergang der Titanic für die Seefahrt. Schrecklich, aber nicht zerstörend. Nur unsere Führerin hat den „Mantel der Geschichte wehen gespürt“. Sie, die als so bedächtig dargestellte, hat sofort fest zugegriffen. Man könnte auch sagen, wie ein Skorpion tödlich zugestochen, um ihre öko-sozialistischen Träume zu beschleunigen. Milliardenwerte mit einem Federstrich vernichtet und Deutschland international ins Abseits gespielt. Chapeau Frau Merkel, sie werden ihren Platz in der Geschichte einnehmen.

SMR-2021 Einleitung

Die Kerntechnik bekommt gerade einen unerwarteten Aufschwung: Immer mehr junge Menschen drängen in die einschlägigen Studiengänge, es entstehen unzählige neu gegründete Unternehmen und es steht plötzlich auch viel privates Kapital zur Verfügung. Darüberhinaus zeigt dieser Winter in Texas auch dem gutgläubigsten Menschen, daß eine Stromversorgung (nur) aus Wind, Sonne und Erdgas ein totes Pferd ist.

  • Texas ist nahezu doppelt so groß wie Deutschland, hat aber nur etwa ein Drittel der Einwohner, die sich überwiegend in einigen Großstädten ballen. Windparks waren deshalb höchstens ein Thema für Vogelfreunde und Landschaftsschützer. Texas ist darüberhinaus auch noch sehr windreich durch seine Lage „zwischen Golf und mittlerem Westen“.
  • Texas liegt etwa auf der „Breite der Sahara“ (Corpus Christi 27°N, Amarillo 35°N; Kanarische Inseln 28°N, Bagdad 33°N). Mal sehen, wann in Deutschland wieder von der Photovoltaik in der Sahara gefaselt wird.
  • In Texas kommt das Erdgas aus der Erde. Trotz der inzwischen gigantischen Verflüssigungsanlagen für den Export, muß immer noch Erdgas abgefackelt werden. Das alles ändert aber nichts an der Tatsache, daß im Ernstfall nur das Gas am Anschluss des Kraftwerks zählt. Kommt noch parallel zum Strombedarf der Bedarf für die Gebäudeheizungen hinzu, ist schnell die Grenze erreicht. Wohl gemerkt, das Gas kommt in Texas aus der Erde und nicht aus dem fernen Russland.

Das Kapital ist bekanntlich ein scheues Reh. Nach den Milliarden-Pleiten in Texas wird man sich schnell umorientieren. Darüberhinaus fängt die Bevölkerung an zu fragen, warum man eigentlich zig Milliarden Steuergelder mit Wind und Sonne versenkt hat.

Was sind SMR?

SMR (Small Modular Reactor) sind kleine Kernkraftwerke mit einer elektrischen Leistung von bis zu 300 MWel. Eine ziemlich willkürliche Grenze, die auf kleine Reaktoren abzielt, die gerade noch mit der Eisenbahn (in den USA) transportierbar sein sollen. Eine weitere Untergruppe sind Mikroreaktoren mit einer elektrischen Leistung von bis zu etwa 10 MWel. Bei den bisherigen Kernkraftwerken hat man immer größere Leistungen (z. B. EPR mit 1650 MWel) angestrebt, um die in der Verfahrenstechnik üblichen Skaleneffekte zu erzielen. Problem dabei ist, daß man einen erheblichen Montageaufwand auf der Baustelle hat, da alle Bauteile sehr groß werden. Bei den SMR geht man umgekehrt den Weg, das Kraftwerk weitesgehend in Fabriken in Serie zu fertigen und zu testen. Es steht also Kosteneinsparung durch Skaleneffekte gegen Serienfertigung (wie z. B. im Flugzeugbau). Welcher Weg letztlich kostensparender ist, kann vorab gar nicht gesagt werden. Vielmehr kann durch SMR ein völlig neuer Markt der „kleinen Netze“ erschlossen werden. Das betrifft beileibe nicht nur Schwellenländer, sondern vielmehr lernen wir in Deutschland gerade, welche enormen Netzkosten entstehen, wenn man zentrale Windparks baut. Ferner ist die Finanzierung wegen des kleineren (absoluten) Kapitalbedarfes weniger risikoreich und damit leichter handhabbar. Ein „Kraftwerk von der Stange“ erfordert eine wesentlich kürzere Zeitspanne – also Vorfinanzierung – von der Bestellung bis zur Inbetriebnahme. Hinzu kommt, daß die kleineren Bauteile auch nur kleinere Fertigungsanlagen erfordern. Beispielsweise baut Indien zur Zeit 15 Schwerwasserreaktoren, da dafür alle Komponenten im eigenen Land hergestellt werden können. Der ursprünglich angedachte Bau von konventionellen Druckwasserreaktoren wurde aufgegeben, da dafür wesentliche Komponenten (z.B. Reaktordruckbehälter) im Ausland gegen Devisen gekauft werden müßten. Aus gleichem Grund treffen SMR auch in Europa (z. B. Tschechien, Großbritannien) auf großes Interesse.

Die Sicherheitsfrage

Bei kleineren Kraftwerken kann man näher an die Städte heranrücken und damit Kraft-Wärme-Kopplung in vorhandenen Fernwärmenetzen abgasfrei betreiben. Finnland z. B. plant mittelfristig die vorhandenen Kraftwerke in den Ballungszentren durch SMR zu ersetzen. Analog gelten die gleichen Überlegungen für Fernkälte und Meerwasserentsalzungsanlagen z. B. in der Golfregion. Will man jedoch in der Nähe von Großstädten bauen, müssen solche Kernkraftwerke zwingend „walk away“ sicher sein, damit sie überhaupt genehmigungsfähig sind. Dazu gehört insbesondere der Verzicht auf eine aktive Notkühlung. Reaktoren kleiner Leistung kommen dem physikalisch entgegen: Um die Leistung zu produzieren, ist eine entsprechende Anzahl von Kernspaltungen notwendig. Bei der Kernspaltung entstehen radioaktive Spaltprodukte, die auch nach der Abschaltung noch Zerfallswärme produzieren. Bei kleinen Reaktoren ist diese Nachzerfallswärme so gering, daß sie problemlos passiv abgeführt werden kann – oder anders ausgedrückt, die Temperatur im abgeschalteten Reaktor steigt nur so weit an, daß keine Grenzwerte erreicht werden. Dies war z. B. beim Unfall in Fukushima völlig anders. Dort hat die Nachzerfallswärme gereicht, um eine Kernschmelze auch noch nach der Abschaltung der Reaktoren auszulösen.

Damit Kernkraftwerke in oder in unmittelbarer Nähe zu Städten akzeptiert werden, muß faktisch gewährleistet sein, daß keine (nennenswerte) Radioaktivität das Betriebsgelände überschreitet. Damit an dieser Stelle kein Missverständnis entsteht: Es gibt keine absolute Sicherheit. Es wird auch zukünftig Unfälle in Kernkraftwerken geben, genauso wie immer wieder Flugzeuge abstürzen werden. Trotzdem fliegen Menschen. Der Mensch ist nämlich durchaus in der Lage, Risiken und Vorteile für sich abzuwägen – solange er nicht ideologisch verblödet wird. Selbst eine ideologische Verblödung kann aber nicht unendlich lange aufrecht erhalten werden: Gerade durch Tschernobyl und Fukushima sind die Märchen der „Atomkraftgegner“ von „Millionen-Toten“ etc. als Propaganda entlarvt worden. Auffällig still ist es in den letzten Jahren um die „Gefahren durch Atomkraft“ geworden. Übrig geblieben ist einzig die Lüge von dem „Millionen Jahre strahlenden Atommüll, für den es keine Lösung gibt“. Auch dieser Unsinn wird sich von selbst widerlegen.

Die Vielzahl der Entwürfe

Es gibt unzählige Entwürfe von Kernreaktoren. Jeder Professor, der etwas auf sich hält, erfindet einen neuen Reaktor zu Übungszwecken. Der Weg zu einem Kernkraftwerk ist aber lang. Irgendwann stirbt die überwiegende Anzahl wegen irgendwelcher unvorhergesehenen Detailprobleme. Hier werden nur Entwürfe betrachtet, für die ausreichend Unterlagen aus Genehmigungsverfahren, Veröffentlichungen etc. zur Verfügung stehen. Immerhin blieben noch über 90 Konzepte übrig, die sich auf dem Weg zu einem Prototypen befinden. Für jedes einzelne Konzept wurde bereits mindestens ein zweistelliger Millionenbetrag investiert und ein Unternehmen gegründet. Als erstes soll etwas Systematik in dieses Angebot gebracht werden. In späteren Folgen werden dann einzelne Entwürfe näher vorgestellt und diskutiert werden.

Neutronenspektrum

Je langsamer Neutronen sind, je höher ist die Wahrscheinlichkeit einer Spaltung eines U235 – Kerns. Demgegenüber können alle schnellen Neutronen auch Kerne von U238 bzw. anderer Aktinoiden spalten. Schnelle Reaktoren haben den Vorteil, daß sie mit „Atommüll“ (so verunglimpfen „Atomkraftgegner“ immer die abgebrannten Brennelemente aus Leichtwasserreaktoren) betrieben werden können. Eine verlockende Perspektive: Betrieb der Kernkraftwerke mit „Abfall“, bei gleichzeitiger Entschärfung der „Endlagerproblematik“ auf wenige Jahrzehnte bis Jahrhunderte. Nur hat alles seinen Preis, gerade kleine Reaktoren (im räumlichen Sinne, nicht nur im übertragenen, bezogen auf die Leistung) sind schwierig als schnelle Reaktoren zu bauen. Es ist deshalb nicht verwunderlich, daß 59 Entwürfe mit thermischem Spektrum und nur 20 als schnelle Reaktoren ausgeführt sind.

Die angestrebten geringen Abmessungen (Transport) sind faktisch auch bei thermischen Reaktoren nur über eine höhere Anreicherung realisierbar. Mit der bei heutigen Druckwasserreaktoren üblichen Anreicherung von weniger als 5% lassen sich kaum SMR bauen. Man hat deshalb den neuen Standard HALEU mit einer Anreicherung von knapp unter 20% eingeführt. Der Begriff „thermisch“ im Zusammenhang mit der Geschwindigkeit von Neutronen bezieht sich auf die Geschwindigkeitsverteilung der brownschen Molekularbewegung. Je höher deshalb die Betriebstemperatur eines Reaktors ist, um so höher auch die Geschwindigkeit der Neutronen und damit um so geringer die Wahrscheinlichkeit einer Spaltung eines Urankernes. Deshalb sind „Hochtemperaturreaktoren“ schon wegen der neutronenphysikalischen Auslegung anspruchsvoller.

Moderatoren

Wenn man Neutronen abbremsen will, benötigt man einen Moderator. Bei den Leichtwasserreaktoren ist das das Arbeitsmedium Wasser. Die einfachste Konstruktion ist der Siedewasserreaktor, bei dem der im Reaktor erzeugte Dampf unmittelbar die Turbine antreibt (5 Entwürfe). Demgegenüber wird beim Druckwasserreaktor erst in einem zusätzlichen Wärmeübertrager der Dampf erzeugt (24 Entwürfe). Eine gewisse Sonderstellung nehmen Schwerwasserreaktoren ein, in denen Deuterium die Funktion des Moderators übernimmt (2 Entwürfe). Bei Mikroreaktoren kommen noch andere Moderatoren zum Einsatz.

Kühlmittel

Bei thermischen Reaktoren kommen Wasser, Helium und Salzschmelzen zur Anwendung. Bei Wasser sind die erreichbaren Temperaturen durch die abhängigen Drücke begrenzt (31 Entwürfe). Für eine reine Stromerzeugung ist das jedoch kein Hinderungsgrund. Will man hohe Temperaturen erreichen, bleibt Helium (20 Entwürfe) oder eine Salzschmelze (13 Entwürfe). Bei beiden kommt man mit relativ geringem (Helium) oder gar Atmosphärendruck (Salze) aus. Will man schnelle Reaktoren bauen, bleibt nur Helium (2 Entwürfe), Blei (9 Entwürfe), Natrium (5 Entwürfe) oder Salzschmelzen (3 Entwürfe). Tauscht man Wasser gegen andere Kühlmittel, wird man zwar den hohen Druck und den Phasenübergang los – was oft als Sicherheitsgewinn dargestellt wird – handelt sich aber damit eine Menge neuer Probleme ein: Einfrieren bei Raumtemperatur (Blei und Salzschmelzen), Korrosion (Blei und Salzschmelzen), Staub (Helium), Brandgefahr (Natrium), Zeitstandsfestigkeit usw. Es verwundert deshalb nicht, daß die Überzahl der Entwürfe bei Wasser als Moderator und Kühlmittel bleibt. Durch die überragenden thermodynamischen Eigenschaften des Wasser-Dampf-Kreisprozesses ist das für eine Stromproduktion auch kein Hinderungsgrund. Oft gehörte Argumente von möglichen höheren Wirkungsgraden sind bei den geringen Brennstoffkosten eher Scheinargumente. Anders sieht es mit der Entwicklung von schnellen Reaktoren aus. Blei und Natrium haben hier eine überragende Stellung. Allerdings sind die Preise für Natururan immer noch im Keller und die Zwischenlagerung abgebrannter Brennelemente ist ebenfalls konkurrenzlos billig. In einigen Jahren könnte jedoch ein geschlossener Brennstoffkreislauf aus politischen Gründen (Angst vor Atommüll) zum Renner werden. Momentan liegt Russland bei dieser technischen Entwicklung mit großem Abstand vorn. Die USA haben das erkannt und starten gerade eine beeindruckende Aufholjagd.

Brennstoff

Standard ist immer noch Uran. Bei schnellen Reaktoren kann man den „Abfall“ der konventionellen Reaktoren weiter nutzen. Thorium bleibt vorläufig auch weiter ein Exot. Das Uran kann in unterschiedlichen chemischen Verbindungen (metallisch, Uranoxid, Urannitrid, Legierungen usw.) im Reaktor verwendet werden und in unterschiedlichen geometrischen Formen (als Brennstäbe, als TRISO-Elemente, im Kühlmittel aufgelöst usw.) eingebaut werden. Der Brennstoff ist in seiner chemischen Zusammensetzung und seiner geometrischen Form bestimmend für die maximale Betriebstemperatur. Ferner ist er das erste Glied der Sicherheitskette: Er bindet während des Betriebs die Spaltprodukte und soll diese auch bei einem Störfall zurückhalten. SMR benötigen wegen der höheren Anreicherung mehr Natururan und sind wegen der höheren Trennarbeit teurer in der Herstellung als konventionelle Brennelemente.

Die Hersteller

Mit deutlichem Abstand sind die beiden führenden Länder in der Entwicklung von SMR Russland und die USA.

Alle Projekte befinden sich in einer unterschiedlichen Realisierungsphase von Konstruktion, Genehmigungsverfahren, über Bau bis Probebetrieb. Der chinesische SMR vom Typ ACPR50S (Druckwasserreaktor in klassischer Bauweise mit 50 MWel) ist fast fertiggestellt. Er soll bei Serienfertigung als schwimmender Reaktor auf einem Ponton verwendet werden. Der argentinische SMR Carem (integrierter Druckwasserreaktor mit 30 MWel) ist eine Eigenentwicklung und soll 2023 in Betrieb gehen.

Land LWR Gas Blei Natrium Salz Summe
Argentinien– – – – 1
China– – 7
Dänemark– – – – 
Finnland– – – 
Frankreich1– – – 
GB1– – – 
Indonesien– – – 
Japan– 
Kanada– – 
Luxemburg– – – – 
Russland11 – 17 
Schweden– – – – 
Südafrika– – – – 
Süd Korea– – – 
USA21 
Summe29 17 13 – 
Betrachtete SMR-Entwürfe nach Ländern und Typen geordnet.

Der chinesische HTR-PM (Hochtemperaturreaktor, Kugelhaufen mit Helium, 105 MWel) befindet sich im Testbetrieb. Sein Vorläufer HTR-10 von der Tsinghua University, China (Kugelhaufen mit 2,5 MWel) ist seit 2018 in Betrieb. Der japanische HTTR 1 (prismatischer Hochtemperaturreaktor, Helium, 30 MWth) ist seit 2007 mit Unterbrechungen für Umbauten in Betrieb. Der russische RITM-200M (modularer Druckwasserreaktor mit 50 MWel) ist seit 2020 auf Eisbrechern in Betrieb und soll bis 2027 in Ust-Kuyga in Sibirien als Kraftwerk in Betrieb gehen. Der russische KLT-40S (Druckwasserreaktor in klassischer Bauweise, 35 MWel) ist zweifach auf einem schwimmenden Ponton seit 2020 in Pevek in Chukotka als Heizkraftwerk in Betrieb.

LEU, HALEU und HEU

Im Zusammenhang mit Meldungen über Kernwaffen im Iran, Kernreaktoren im Weltall und moderne Kernkraftwerke geistern diese Abkürzungen durch die Medien. Warum ist es so gefährlich, daß der neue Präsident Jo Biden flugs die Iran-Politik seines Vorgängers wieder rückgängig macht, wo selbst manche europäischen Politiker ihrer einstigen Beschlüsse nicht mehr so sicher sind? Warum hat man sich weltweit über Jahre bemüht, Forschungsreaktoren umzubauen? Fragen, die man nur beantworten kann, wenn man sich näher mit der Anreicherung von Uran beschäftigt.

Der Zweck der Anreicherung

U235 ist das einzige in der Natur vorkommende Isotop mit dem sich eine selbsterhaltende Kettenreaktion erzeugen läßt. Auch das andere Isotop U238 läßt sich zwar spalten, ist aber so stabil, daß man beliebig viel davon zusammenpacken kann ohne eine Kettenreaktion auslösen zu können. Leider besteht Natururan aus über 99,27% U238 und nur zu etwa 0,7211% aus U235. Will man damit einen Kernreaktor bauen, muß man einen erheblichen technischen Aufwand betreiben um die freiwerdenden Neutronen abzubremsen (Moderator aus Deuterium oder Graphit) und ein recht großes Volumen zur Verfügung stellen, damit wenig Neutronen ausfließen können. Will man (wirtschaftliche Gründe) oder muß man (Kernwaffe oder Reaktor für ein Kriegsschiff) möglichst klein bauen, braucht man eine entsprechend höhere Konzentration von U235. So ist z. B. der Kern eines Reaktors eines Atom-U-Boots kleiner als ein Kühlschrank und liefert zig MW für einen Zeitraum von mehreren Jahrzehnten ohne „nachladen“ zu müssen. Dafür ist dann allerdings auch hochangereichertes Uran HEU (High Enriched Uranium) nötig. Für kommerzielle Kernkraftwerke reicht LEU (Low Enriched Uranium) mit einer Anreicherung zwischen etwa 3 bis 5% aus.

Eine Kernwaffe muß bei dem heutigen Stand der Luftabwehr so klein sein, daß sie von einer Rakete transportiert werden kann. Die erste Atombombe für Hiroshima – scherzhaft Little Boy genannt – wog noch über vier Tonnen und war 3,2 m lang. Sie enthielt einen Kern aus 64 kg auf 80% angereichertes Uran. Ihre Sprengkraft mit etwa 13 Kilotonnen TNT (Trinitrotoluol) war noch recht klein. Wohlgemerkt, ist dies der Stand der Technik der 1940er-Jahre. Für einen Raketeneinsatz zwar viel zu groß, gleichwohl als „Terror-Waffe“ beispielsweise in einem LKW, auf einem Fischerboot oder in einem Verkehrsflugzeug äußerst bedrohlich. Bei solch einer Verwendung hilft auch die Abschreckung nur sehr bedingt. Die Konstruktion von Little Boy ist so simpel, daß schon damals die USA auf einen Test verzichtet haben. Terroristen lieben Überraschungen…

Zentrifugen

Es gibt praktisch nur eine Möglichkeit durch die Ausnutzung des Dichteunterschiedes das Natururan zu trennen. Vorher muß es jedoch noch in ein Gas verwandelt werden. Man nutzt dazu die chemische Verbindung Uranhexafluorid (UF6). Es hat den Vorteil, daß Fluor nur als ein Isotop in der Natur vorkommt, also das Massenverhältnis nicht verfälscht. Ferner besitzt es bei Raumtemperatur einen geringen Dampfdruck von 100 mbar. Allerdings wird durch die sechs Fluoratome der Massenunterschied bei den Uranmolekülen noch geringer. Es sind deshalb enorme Kräfte nötig, um eine Trennung zu erzielen. Heute wird nahezu 100% der Urantrennung weltweit mit Zentrifugen durchgeführt.

Eine Uran-Zentrifuge ist ein sehr schnell rotierender Hohlzylinder. In ihm baut sich ein für die beiden Isotope unterschiedlicher Druckanstieg nach dem Boltzmannschen Verteilungsgesetz für den Partialdruck auf: Der Druckanstieg für ein schweres Isotop ist steiler als für ein leichtes, wodurch eine Entmischung eintritt. Entscheidend für die Trennleistung ist die Umfangsgeschwindigkeit als Funktion der Drehzahl und des Durchmessers. Die Umfangsgeschwindigkeit ist jedoch durch die Festigkeit (etwa bei Aluminium <400, Stahl <500, Faserverstärkte Werkstoffe <700 m/s) begrenzt. Um den Trenneffekt zu verstärken, kann man durch Beheizung der Unterseite und Kühlung der oberen Seite noch eine Sekundärströmung in der Zentrifuge anregen. Allerdings ist die Leistung nicht beliebig steigerbar, da das Konzentrationsprofil mit steigender Umfangsgeschwindigkeit immer mehr vom idealen Verlauf abweicht (schmale Gasschicht am Rande, Hochvakuum in der Mitte). Zentrifugen sind nur schwer herzustellen (notwendige Einhaltung engster Toleranzen) und zu betreiben (Elastizität, die zu Eigenschwingungen und Resonanzen führt). Einmal die falsche Drehzahl und die Zentrifuge ist Totalschaden. Dies haben die Iraner durch eine Cyber-Attacke auf die Steuerung zu spüren bekommen. Je hochwertiger die Zentrifugen, desto kleiner die Gesamtanlage und desto geringer der Energieverbrauch.

Trennleistung

In eine Stufe i strömt ein Massenstrom (Feed Fi) mit der Konzentration (xF) rein und wird in einen Produktstrom (Produkt Pi mit xP) und einen Abfallstrom (Waste Wi mit xw) aufgeteilt. Wie vorher gezeigt, kann die Anreicherung in einer einzelnen Zentrifuge nur sehr begrenzt sein. Deshalb schaltet man eine große Zahl Zentrifugen hintereinander. Der Produktstrom einer Stufe ist dann der Eingangsstrom der nächst folgenden Zentrifuge und deren Abfallstrom wird wieder dem Eingang der vorhergehenden Stufe zugeführt. Die erste Erkenntnis ist nun, daß man viel Feed (im zivilen Bereich ist das Natururan) hinzufügen muß, wenn man viel von einem entsprechenden Produkt herstellen will. Dies ist keinesfalls trivial, wie später noch gezeigt wird. Entscheidend ist aber die Konzentrationsverschiebung zwischen Produkt und Abfall. So kann man in einer zivilen Anlage die Kosten optimieren. Der Eingang ist Natururan und das Produkt gefordert (z.B. 3 bis 5% Anreicherung für Leichtwasserreaktoren). Man ist aber frei in der Wahl der Abreicherung: Ist Natururan teuer, reichert man mehr ab, ist es hingegen billig, verzichtet man auf Abreicherung und kann dadurch mit der gleichen Anlage eine größere Menge Produkt herstellen. Oder anders gesagt, wollte man dem Natururan alle Isotopen U235 vollständig entziehen, bräuchte man eine Anlage mit unendlich vielen Stufen. In der Praxis hat man Waste (Abgereichertes Uran) mit einer Konzentration von 0,2 bis 0,36%.

Nun kommt man zur Frage der notwendigen Konzentrationsverschiebung und dem Weg zur Bombe. Wenn man auf direktem Weg vorgeht, braucht man ungeheuer große Anlagen mit entsprechendem Kapitaleinsatz. Viel wichtiger aber, das Ansinnen fällt sofort auf und führt zu internationalen Reaktionen und man ist extrem verwundbar. Schlauer ist, man geht in Schritten vor. Dies soll an einer „Rückwärtsbetrachtung“ einer Bombe vom Typ „Little Boy“ verdeutlicht werden. Will man die 64kg auf 80% angereichertes Uran in einem Durchgang erzeugen, muß man eine Anlage bauen, die rund 15 000 kg Natururan verarbeiten kann. Geht man aber von Uran mit bereits 20% Anreicherung als Feed aus, benötigt man ungefähr 250kg Feed und eine Anlage, die weniger als ein Zehntel so groß ist (z. B. Anzahl der Zentrifugen). Will man verstehen, warum die (offizielle) Ankündigung des Iran Uran auf 20% anreichern zu wollen, soviel Aufregung ausgelöst hat, liegt hier die Antwort. Eine so relativ kleine Menge kann man gut verstecken und eine weitere „kleine“ Anreicherungsanlage kann man unterirdisch sicher geschützt bauen. Man braucht(e) lediglich Zeit. Und was politisch noch viel wichtiger ist, man kann einfältigen Gemütern vorspielen, daß man nur an einer friedlichen Nutzung interessiert ist und mit 20% ja (vermeintlich) meilenweit von einer Bombe entfernt. In Wirklichkeit aber, kann man zu jedem gewünschten Zeitpunkt in wenigen Monaten zu einer Bombe kommen. Man hatte diesen Zusammenhang durchaus 2015 in dem „Joint Comprehensive Plan of Action (JCPOA)“ eingearbeitet, indem man dem Iran nur eine Anreicherung auf 3,67% für 15 Jahre gestattete. Diese Produktion sollte lediglich für den Betrieb von Kernkraftwerken dienen. Der springende Punkt war, daß stets nur 300 kg davon in der Form von UF6 im Lande verbleiben sollten. Alles weitere Material mußte laut Vertrag unverzüglich ins Ausland (z. B. zur Herstellung von Brennelementen in Rußland) verbracht werden. Nur, gut geglaubt, ist noch lange nicht konsequent umgesetzt. Die Hoffnung, durch eine Rückkehr zum JCPOA, auch in den Zustand von 2015 zurückkehren zu können, ist schlichtweg lächerlich. Der einzig gangbare Weg war, durch wirtschaftliche Sanktionen das Mullah-Regime so stark unter Druck zu setzen, daß es von der Bombe abschied nehmen müßte. Kehren jetzt auch die USA zum Kuschelkurs der Europäer zurück, ist die Frage einer iranischen Bombe nur noch eine Frage der (sehr kurzen) Zeit.

Die momentane Situation

Nach Aussage der IAEA hat Iran um die Jahreswende offiziell mitgeteilt, daß es zukünftig Uran auf 20% anreichern werde. Dies geht auf ein Gesetz zurück, das das iranische Parlament (Majles) im Dezember verabschiedet hat. Darin wird die Atomic Energy Organisation of Iran (AEOI) angewiesen, in der unterirdischen Anlage Fordo mindestens 120 kg jährlich auf 20% angereichertes Uran zu produzieren. Am 4. Januar wurde die Anlage bereit mit einem Feed von 4,1% (Anmerkung: nach dem JCPOA durfte nur bis 3,67% angereichert werden.) im Beisein eines Inspektors der IAEA beschickt, der höchstpersönlich die Siegel an den Tanks entfernte. Die sechs Kaskaden in Fordo wurden in zwei Stränge umgebaut und umfassen 1044 Zentrifugen vom Typ IR-1 (Anmerkung: je mehr Zentrifugen in Reihe geschaltet werden, um so höher kann man anreichern; je mehr Kaskaden parallel laufen, um so mehr Menge kann man produzieren). Nach der Aussage des „IAEA Director General“ Grossi ist diese Anlage nun in der Lage, über 10kg 20%-Uran monatlich zu produzieren. Inzwischen hat der Chef der AEOI Ali Akbar Salehi sogar voller Stolz verkündet, daß der Iran inzwischen 0,5 kg/Tag mit 20% Anreicherung produziert (Anmerkung: 30 x 0,5 = 15kg pro Monat). In der üblichen Scheinheiligkeit wird behauptet, das geschehe nur, um daraus Brennstoff aus Urannitrid für Forschungszwecke herzustellen. Bereits dies wäre ein weiterer Verstoß gegen das JCPOA, in dem sich Iran verpflichtet hat, bei Bedarf für die Forschung, solches Uran aus dem Ausland zu importieren (dies wäre kontrollierbar) und eben nicht selbst eine Anreicherungsanlage dafür zu betreiben. Ferner ist der Iran das einzige Land, das Inspektoren der IAEA zukünftig per Gesetz den Zutritt verbietet (nur Nord Korea läßt keine Inspektoren ins Land). Man kann das nur als Verschärfung des Kurses werten, da ohnehin nach dem JCPOA eine Anmeldung von mindestens 14 Tagen erforderlich war und als militärisch deklarierte Anlagen ausgeschlossen waren. Aber die Paukenschläge kommen in immer engeren Abständen: Behrouz Kamalvandi, ein Sprecher der AEOI verkündete bei einem Besuch des Parlamentssprechers Mohammad Bagher Qalibaf in der Anreicherungsanlage Fordo, daß in wenigen Monaten in der Anreicherungsanlage Natanz weitere 1000 Zentrifugen in Betrieb gehen. Man ist offensichtlich in den Bestrebungen soweit fortgeschritten, daß man nicht einmal mehr den Schein aufrecht erhalten muß. Es geht nur noch darum, die eigene Bevölkerung einzuschwören.

und nun…

Bereits nach fünf Jahren kann der Iran die Früchte des JCPOA ernten. Es ist bereits eingetreten, was manche Kritiker erst in 15 Jahren befürchtet haben: Der Iran hat seine Zentrifugen weiterentwickelt und beträchtliche Mengen (schwach) angereichertes Uran auf Vorrat produziert. Er hat sich unter dem Radar – insbesondere der Europäer – bereits heute in eine Position gebracht, in der er in Monaten zu einer Atombombe gelangen kann. Hinzu kommt noch das Glück „einer dritten Amtszeit“ der Obama-Administration. Trump hätte die Mullahs in weiteren vier Jahren zurück an den Verhandlungstisch zwingen können. Kein Mensch kann erwarten, daß (der ehemalige Vizepräsident) Biden seinen eigenen Vertrag heute für schlecht erklären wird. Insofern ist es kein Zufall, daß sich das Regime in Teheran bereits im ersten Monat seiner Präsidentschaft aus der Deckung wagen konnte. Europa macht auf Corona. Deutschlands Führer haben gerade ihr Holocaust-Gedenken pflichtschuldig hinter sich gebracht, ordentlich Beifall geklatscht für die Suche nach Hitleristen in der AfD-Bundestagsfraktion. Wie war das noch mal mit Heiko Maas? War er nicht nach eigenem Bekunden wegen Ausschwitz in die Politik gegangen? Ist dieser Mann wirklich (nur) so schrecklich ungebildet und beratungsresistent? Nach seinen Grußadressen für den Iran und dem permanenten Abstimmungsverhalten von Deutschland in der UNO können langsam Zweifel aufkeimen.

Was aber soll Israel machen? Geschichte wiederholt sich nicht, sagt man. In einer Frage auf Leben und Tod sollte man solchen Weisheiten nicht trauen. Was die „Endlösung der Judenfrage“ betrifft, spricht das Mullah-Regime jedenfalls die gleiche Sprache wie Hitler-Deutschland. Noch einmal sich selbst betrügen und das öffentlich gesagte und geschriebene als sicherlich nicht so ernst gemeint abtun? Helfen Sie Herr Außenminister, Herr Bundespräsident, Frau Bundeskanzler: Was genau verstehen Sie unter „Antisemitismus“ und dem Lippenbekenntnis „Nie Wieder“? Wenn Israel politisch so allein gelassen wird, wie im Moment, bleibt keine andere Möglichkeit als ein Präventivschlag. Der wird diesmal in einem handfesten Krieg ausarten. So gesichert und verteilt wie die Nuklearindustrie im Iran ist, reicht ein Luftschlag nicht aus. Mit Sicherheit wird der Iran mit verheerenden Raketenangriffen durch seine Hilfstruppen in den Nachbarländern antworten. Hat die Schlacht erst einmal begonnen, ist jede Planung über den Haufen geworfen. Innerhalb von Tagen kann der gesamte nahe und mittlere Osten in Flammen aufgehen. Wie sich die arabischen Staaten verhalten ist nicht so sicher, jedenfalls nicht auf der Seite des auch sie bedrohenden Iran.

Als die einzige Möglichkeit den ablaufenden Wahnsinn zu stoppen, erscheint eine vollständige Isolation des Mullah-Regimes durch Europa und die USA. China und Rußland werden sich zurückhalten, da auch sie kein Interesse an einer Nuklearmacht Iran haben. Nicht einmal an einer Konfrontation mit einem entschlossenen Europa und den USA. Es kann nur eine einzige Forderung geben: Aufgabe aller nuklearen Rüstungsprogramme (einschließlich des zugehörigen Raketenprogramms) und Zerstörung aller Einrichtungen unter internationaler Kontrolle. Solange das nicht geschieht, totale wirtschaftliche Blockade des Iran, abgesichert durch ein robustes militärisches Mandat. Freiheit und Frieden sind nicht selbstverständlich, sie müssen hin und wieder auch verteidigt werden. Wobei in diesem Falle, Deutschland eine ganz besondere historische Verantwortung hat.

Die Verschlimmbesserung der Stromversorgung

Ein weiterer Akt in „Unserer-Demokratie“ wurde am 22.12.2020 16:06 Uhr mit dem Entwurf eines Steuerbare-Verbrauchseinrichtungen-Gesetz aufgeführt. In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Wasserstoff und Kernenergie

Nun ist der Hype um Wasserstoff auch bis zu den Kernkraftwerken durchgedrungen. Warum auch nicht? Wenn der Staat Subventionen austeilt, greift man halt gerne zu. Bisher ist Wasserstoff (H2) überwiegend ein Grundstoff für die Düngemittel-Industrie (Ammoniak NH3) und zur Veredelung in der Petrochemischen-Industrie (z. B. Entschwefelung von Kraftstoffen, Methanolherstellung etc.). Heute werden über 95% aus fossilen Energieträgern – hauptsächlich aus Erdgas durch Dampfreformierung – und knapp 5% über Elektrolyse als Nebenprodukt z. B. bei der Chlor-Elektrolyse gewonnen. Nachdem sich nun auch bei „Energiewendern“ die Erkenntnis rumspricht, daß man für die Stromproduktion durch Windmühlen Wind benötigt und bei der Photovoltaik zumindest Tageslicht, kommt man auf die Schnapsidee Wasserstoff als Energieträger im großen Maßstab einzusetzen. Die neuen Zauberwörter der Schlangenölverkäufer sind „Wasserstoffwirtschaft“ und „Sektorenkopplung“: Man will nicht nur elektrische Energie während der Dunkelflauten aus Wasserstoff herstellen, sondern ihn auch als Kraftstoff, zur Gebäudeheizung und für alle möglichen industriellen Anwendungen einsetzen. Auf solch eine Kopfgeburt kann nur einer kommen, für den Thermodynamik lediglich ein Wort mir 13 Buchstaben ist.

Hans im Glück

Wasserstoff kommt in der Natur praktisch nur in chemischen Verbindungen (Wasser H2 O, Erdgas CH4 usw.) vor. Diese müssen erstmal geknackt werden um Wasserstoff zu gewinnen. Dazu ist viel Energie nötig. Will man Wasser mittels Elektrolyse zerlegen, benötigt man etwa 4,4 kWh pro Normkubikmeter Wasserstoffgas. Verbrennt man diesen einen Normkubikmeter wieder, kann man nur 3,0 kWh (unterer Heizwert) zurückgewinnen. Geschieht dies in einem modernen Kombikraftwerk (Wirkungsgrad 60%) werden daraus nur 1,8 kWh elektrische Energie zurückgewonnen. Wohlgemerkt, hier wurde noch kein einziger Kubikmeter transportiert oder gespeichert. Beides ist – ob verdichtet oder verflüssigt – nur mit beträchtlichem Energieaufwand möglich. Wie man es auch dreht und wendet, in der Praxis bekommt man nur rund 1/3 zurück – oder anders ausgedrückt haben sich die Stromkosten (ohne jede Investition für die Elektrolyse) schon allein wegen der Umwandlungsverluste verdreifacht.

Man hat uns ja inzwischen beigebracht, daß der Wind – wie schon vorher die Sonne – keine Rechnung schickt. Gleichwohl sind gewaltige Investitionen in die Errichtung von Windparks notwendig. Hinzu kommen noch Betriebs- und Wartungskosten, die ebenfalls nicht gering sind, wie man heute gelernt hat. Alle Kosten müssen jedenfalls durch die Stromerlöse und Subventionen wieder eingebracht werden. Unter Grundlast in einem Netz versteht man die kleinste Leistung die immer anliegt – 24 Stunden am Tag, 7 Tage die Woche. Will man die Grundlast durch Windmühlen abdecken, braucht man dafür etwa die 8–9 fache installierte Leistung. Der Grund ist trivial: Wenn kein Wind weht, wird auch kein Strom produziert, egal wie viele Windmühlen man gebaut hat! Will man in schwachen Zeiten zu füttern, muß man die erforderliche Menge elektrischer Energie vorher produziert haben. In 2019 betrug die Arbeitsausnutzung der Windmühlen in Deutschland 28% (installierte Leistung 53,912 GW, Stromproduktion 131,8 TWh). Leider muß man die hierfür produzierte Energie speichern und bekommt über den Weg Wasserstoff nur etwa 1/3 zurück (siehe oben). Hinzu kommen selbstverständlich noch die Investitionen für die Elektrolyse, die Speicher und das Backup-Kraftwerk. Man könnte es auch anders formulieren: Wer den Menschen vorgaukelt, es wäre eine (wirtschaftliche) Stromversorgung nur mit Wind und Sonne möglich, der lügt. Es ist deshalb kein Zufall, daß alle einschlägigen „Energiewender*Innen“ immer von Zwangsabschaltungen – sprachlich getarnt als „Smart-Meter“ – und Konsum- und Wohlstandsverzicht – sprachlich getarnt als „Energieeffizienz“ – schwadronieren.

Transport und Speicherung

Wasserstoff ist ein Gas mit extrem geringer Dichte: Ein ganzer Kubikmeter wiegt noch nicht einmal 90 Gramm. Es muß deshalb verdichtet oder verflüssigt werden um es überhaupt transportieren und lagern zu können. Wenn man es auf 700 bar verdichtet (Industriestandard für PKW) hat es gerade mal einen Energiegehalt von 1,32 kWh/Liter. Selbst wenn man es durch Abkühlung auf -253°C verflüssigt, beträgt sein Energiegehalt gerade mal 2,34 kWh/Liter. Zum Vergleich: Benzin hat einen Energiegehalt von rund 8,7 kWh/Liter.

Selbst für den Transport in Rohrleitungen oder der Speicherung in Kavernen muß es verdichtet werden. Jede Verdichtung erfordert eine Menge elektrische Energie und ist immer mit erheblichen Verlusten verbunden. Wenn es in Pipelines strömt, entstehen ebenfalls Verluste durch Reibung. Man bevorzugt deshalb für sehr lange Strecken eine Verflüssigung und Tankschiffe. Allerdings werden für die Verflüssigung von Wasserstoff allein rund 35% seiner Energie benötigt. Spätestens hier sollte der geneigte Leser verstehen, warum wir uns in einer Welt von Mineralölen und Erdgas bewegen. Oder anders ausgedrückt, welche brutalen Konsequenzen drohen, wenn wir alle Fahrzeuge auf Wasserstoff umstellen wollen. Das Gerede von „Sektorkopplung“ (Strom aus Wind und Sonne wird benutzt um Kraftstoffe und andere Energieträger herzustellen) ist nur ein weiteres Neusprechwort für „Mobilitätsverzicht“. Ganz davon zu schweigen, daß Deutschland viel zu klein ist, um es mit der erforderlichen Anzahl von Windmühlen zupflastern zu können. Bahnt sich hier schon wieder das „Volk ohne Raum“ an?

Wasserstoff durch Kernenergie

Hat man erst einmal die Konsequenzen des „Grünen Wasserstoffs“ verstanden, ist die Produktion durch vorhandene Druckwasserreaktoren nicht mehr so abwegig. Immer unter der Voraussetzung, man lehnt die Produktion aus fossilen Energieträgern ab. Das erste Argument liefert die Arbeitsausnutzung (Kernkraftwerk 90%, Windmühlen in Deutschland 28%) oder mit anderen Worten, wie viel Wasserstoff man mit einer gegebenen Anlage produzieren kann. Das zweite Argument sind die Energiekosten. Wärmeenergie ist immer billiger als elektrische Energie. Dies ist der Grund, warum heute rund 95% des Wasserstoffs aus Erdgas hergestellt werden. Aber auch bei der Elektrolyse kann man durch erhöhte Temperaturen elektrische Energie einsparen. Bei einem Kraftwerk ist die Auskopplung von Wärme kein Problem. Der Anbau an konventionelle Kernkraftwerke ist hier nur der erste Schritt. Kommen (später) Reaktoren mit höheren Betriebstemperaturen zum Einsatz, wird der Vorteil noch gravierender. In fernerer Zukunft könnten Hochtemperaturreaktoren sogar den Weg über chemische Verfahren (z. B. Jod-Schwefelsäure) gehen.

Das U.S. Department of Energy (DOE) fördert eine Dampf-Elektrolyse-Anlage an einem Kernkraftwerk (wahrscheinlich Prairie Island Nuclear Generating Station von Xcel Energy) in USA mit $13,8 Millionen. Xcel Energy verfügt über einen hohen Anteil von Windenergie mit dem entsprechend stark schwankenden Angebot. Eine Fragestellung soll deshalb sein, ob man Energie aus dem Reaktor auskoppeln kann, ohne diesen bei Windspitzen abregeln zu müssen. Dies wäre damit die erste unmittelbare Kopplung von Wind- und Kernenergie bei einem Versorger. Böse Zungen könnten auch sagen: Eine den Markt verzerrende Subvention der Windenergie soll durch Subventionen bei einem vorhandenen Kernkraftwerk geheilt werden.

Ein zweites Förderprogramm des DOE über $12,5 Millionen unterstützt die Kooperation von FuelCell Energy of Danbury mit dem Idaho National Laboratory. Ziel ist die Entwicklung von Festkörper-Elektrolyse-Zellen mit hohem Wirkungsgrad und geringen Kosten als 200 bis 500 MW Module zur Nachrüstung bei Kernkraftwerken. Es soll der Wechsel zwischen Wasserstoffherstellung und Stromproduktion demonstriert werden, um Kernkraftwerken ein zweites wirtschaftliches Standbein zu erschließen.

Ausblick

Im Jahr 2019 wurden weltweit 69 Millionen to Wasserstoff in Raffinerien und Düngemittelfabriken verbraucht. Der Markt ist also vorhanden. Allerdings wird nur sehr wenig Wasserstoff über größere Entfernungen transportiert. Wegen der bekannten Transportschwierigkeiten wird er unmittelbar in der Nähe der Verbraucher erzeugt. Es gibt allerdings bedeutende regionale Pipeline-Systeme z. B. in den USA an der Golfküste, die verschiedene Chemiezentren untereinander verbinden. In dieser Region ist ein bedeutender Ausbau für „Blauen Wasserstoff“ geplant. Dabei wird der aus den reichlich vorhandenen Erdgasvorkommen über Dampfreformierung gewonnen. Das dabei anfallende CO2 ist beileibe kein Abfall, sondern kann an die Ölproduzenten in dieser Region verkauft werden. Ein doppeltes Geschäft wird möglich: Einsparung von CO2 – Abgaben und zusätzliche Ölförderung aus bereits erschöpften Quellen. Damit ist auch klar, warum die Erdgasindustrie immer ein Förderer der „Alternativ-Energien“ war und ist. Man weiß sehr genau über die Dunkel-Flauten bescheid. Erdgas ist der Energieträger, der mit den geringsten Investitionen Backup-Kraftwerke erlaubt – jede Windmühle und jeder Sonnenkollektor bedeutet also zusätzlichen Absatz. Es gibt momentan auch kein Henne-Ei-Problem: Man kann den Absatz an Wasserstoff schnell durch Beimischung zum Erdgas steigern. Es laufen bereits Verhandlungen über neue Spezifikationen. Es scheint möglich, bis zu 20% Wasserstoff ohne große Modifikationen an den Pipelines und Verbrauchern unter mischen zu können. Auch hier wird klar, wer größtes Interesse an der Einführung von CO2 – Abgaben hat.