Nukleare Fernwärme

Neuerdings rückt die Kerntechnik wieder in den Zusammenhang mit „Luftverbesserung“. Besonders in China wird über den Ersatz von Kohle nachgedacht.

Der Raumwärmebedarf

Die Heizung bzw. Kühlung von Gebäuden wird oft unterschätzt. Alle reden von Verkehr und Stromerzeugung. In Wirklichkeit werden aber ein Viertel bis ein Drittel des gesamten Energieverbrauches für unsere Gebäude benötigt. Unter dem Gesichtspunkt von Luftschadstoffen (z. B. Stickoxide, Feinstaub etc.) ist besonders problematisch, daß die Energiewandlung unmittelbar in unseren Städten stattfindet und das auch noch in unzähligen Einzelfeuerstätten (hiermit sind auch die „Zentralheizungen“ gemeint). Die einzelnen Heizkessel – oder gar Holzöfen – können keine kontrollierte Verbrennung gewährleisten oder gar eine Rauchgaswäsche benutzen. Zudem werden ihre Abgase in geringer Höhe flächig abgegeben. Eine hohe Luftbelastung gerade in Ballungsgebieten ist die Folge. Eine Erkenntnis, die schon unsere Urgroßväter hatten. Man begann deshalb schon Ende des 19. Jahrhunderts mit dem Bau zentraler Heizwerke.

Das Wärmenetz

Die angestrebte Raumtemperatur liegt bei etwa 20 °C. Es ist also ausgesprochene „Niedertemperaturwärme“. Hinzu kommt noch ein ganzjähriger Brauchwasserbedarf mit etwa 60 °C (Legionellen). Will man auch Kaltwasser für Klimaanlagen damit erzeugen, ist eine Temperatur von 130°C (Absorptions-Kälteanlagen) zu empfehlen. Damit ergeben sich schon die Randbedingungen für ein Rohrleitungsnetz.

Die Strömungsgeschwindigkeit ist begrenzt. Somit hängt die transportierbare Wärmeleistung von dem verwendeten Rohrdurchmesser und der Temperaturspreizung zwischen Vor- und Rücklauf ab. Alles eine Kostenfrage. Hat man sehr hohe Leistungen pro Grundstück (z. B. Hochhäuser in Manhattan) und dazu noch beengte Straßenverhältnisse, bleibt sogar nur Dampf als Transportmedium übrig. Zumindest in Deutschland hat sich eine maximale Vorlauftemperatur im Netz von 130 °C bis 150 °C als optimal erwiesen. Die Vorlauftemperatur im Netz wird proportional zur Außentemperatur geregelt. In manchen Regionen hat man noch ein drittes Rohr als „Konstantleiter“, an dem die Brauchwasserbereiter und die Klimaanlagen angeschlossen sind. Dadurch kann man im Sommer den Heizungsvorlauf komplett abstellen. Alles eine Frage der vorhandenen Bausubstanz.

Heizwerk oder Kraftwärmekopplung

Das Problem ist, daß das gesamte System für die maximale Leistung (kältester Tag in einer Region) ausgelegt sein muß. Diese tritt aber nur an wenigen Tagen auf. Die ohnehin hohen Kapitalkosten führen zu hohen Fixkosten, die wegen der geringen Anzahl von Vollbenutzungsstunden zu vergleichsweise hohen spezifischen Heizkosten führen. Als einzige Stellschraube bleiben die Brennstoffkosten.

Man ist deshalb schon frühzeitig auf die Idee gekommen, Kraftwerke mitten in den Städten zu bauen, um die Leitungskosten (Strom und Wärme) gering zu halten. Die Kraftwerke liefen auch als Kraftwerke und haben das ganze Jahr über elektrische Energie erzeugt. Sie haben ihre Kosten über die Stromproduktion eingespielt. Zusätzlich zu den normalen Kondensatoren hat man noch „Heizkondensatoren“ als Quelle für das Fernwärmenetz eingebaut. In diesen Heizkondensatoren wurde ein Teil des Dampfes (in Abhängigkeit von der Außentemperatur) zur Beheizung niedergeschlagen. Da dieser Dampf nicht mehr vollständig seine Arbeit in der Turbine verrichten konnte, ging die Stromproduktion etwas zurück. Dieser Rückgang wurde dem Kraftwerk vom Fernwärmenetzbetreiber vergütet. Es war quasi dessen „Brennstoffpreis“.

Zusätzlich hatte man auch immer schon reine Heizwerke, die nur Wärme für die Fernwärme erzeugt haben. Die geringen Kapitalkosten eines solchen „Warmwasserkessels“ lohnten sich schon immer als Reserve oder zur Spitzenlasterzeugung an wenigen Tagen eines Jahres.

Die nukleare Heizung

Soweit zur Fernwärme im Allgemeinen. Jetzt zu der Frage, was eine Umstellung auf Kernspaltung bringen kann. Der Brennstoffpreis des Urans ist konkurrenzlos gering. Geringer noch als Kohle. Es gibt fast keine Belastung durch Transporte (Kohle, Asche, Heizöl etc.). Es gibt keine Luftbelastung durch Abgase. Es besteht eine enorm hohe Versorgungssicherheit und Preisstabilität (Heizkosten als „zweite Miete“). Dagegen spricht eigentlich nur „die Angst vor dem Atom“. Diese ist aber zum Glück unterschiedlich ausgeprägt. Man kann sie sogar noch beträchtlich verringern. Um die notwendigen technischen Aspekte wird es im Weiteren gehen.

Kernkraftwerke als Wärmequelle

Technisch gesehen, besteht kein Unterschied zwischen einem Kernkraftwerk und einem fossilen Kraftwerk. Man könnte problemlos z. B. ein Kohlekraftwerke durch ein Kernkraftwerk ersetzen. Es gibt aber ein juristisches Hindernis: Das Genehmigungsverfahren. Bisher muß man immer noch davon ausgehen, daß es schwere Störfälle gibt (z. B. Fukushima), die einen Teil der Radioaktivität austreten läßt und somit die unmittelbare Umgebung belasten könnte. Dafür ist der Nachweis von Evakuierungszonen und Plänen notwendig. Spätestens seit Fukushima weiß man zwar, daß die Annahmen über Freisetzungsraten viel zu konservativ waren, aber das tut der Argumentation der Angstindustrie keinen Abbruch. Die jahrzehntelange Gehirnwäsche „Millionen-Tote, zehntausend-Jahre-unbewohnbar“ hat sich zumindest in den Industrieländern festgesetzt.

Will man Kernkraftwerke in Ballungsgebieten bauen, müssen neue Reaktortypen her, die als „inhärent sicher“ betrachtet werden. Außerdem empfiehlt es sich, kleinere Reaktoren (SMR) zu bauen, um zu lange Rohrleitungen (Kosten und Wärmeverluste) zu vermeiden. Gerade in den letzten Wochen wurde in diesem Sinne ein Durchbruch erzielt: Die US-Genehmigungsbehörde hat dem Reaktor der Firma NuScale bescheinigt, daß er ohne elektrische Hilfsenergie auch bei schwersten Störfällen auskommt. Es handelt sich um einen kleinen (50 MWel) Reaktor, der selbst in einem wassergefüllten Becken steht. Er ist also stets von ausreichend Kühlwasser umgeben. Alle Einbauten (Druckhaltung, Dampferzeuger etc.) befinden sich im Druckgefäß (keine Rohrleitungen), das von einem Containment nach dem Prinzip einer Thermosflasche umgeben ist. Er benötigt keine Pumpen zur „Notkühlung“, da er schon im Normalbetrieb ausschließlich im Naturumlauf (warmes Wasser steigt auf und sinkt nach der Abkühlung wieder in den Reaktorkern zurück) funktioniert. Ein solches Kernkraftwerk bietet ein geringeres Risiko für seine Nachbarn, als jedes Gas- oder Ölkraftwerk. Genau solche Kraftwerke befinden sich aber zahlreich mitten in deutschen Großstädten. Seit Jahrzehnten lebt ihre Nachbarschaft relativ angstfrei damit – Geräusche und Abgase inbegriffen.

Den deutschen „Grün-Wähler“ wird das alles nicht überzeugen. Er ist unerschütterlich in seinem Öko-Glauben. Warum auch nicht? Man diskutiert ja auch nicht mit einem Katholiken über die unbefleckte Empfängnis der Jungfrau Maria oder mit einem Hindu über die Heiligkeit von Kühen. In den Weiten Sibiriens wird die Kernenergie schon heute positiv bewertet. In ähnlichen Regionen Kanadas und den USA wird sie aus gleichen Gründen (Versorgungssicherheit auch bei -40 °C) ernsthaft in Erwägung gezogen. In den bevölkerungsreichen Metropolen Chinas steht die Luftverschmutzung im Vordergrund. Die reale Gefahr von Lungenkrebs und Herz- Kreislauferkrankungen durch Smog wird dort gegen die eingebildete „Strahlengefahr“ abgewogen. Selbst im Großraum Helsinki prüft man den Ersatz der fossilen Fernheizwerke durch Kernenergie. Sonne geht gar nicht und Wind nur sehr eingeschränkt in diesen nördlichen Breiten.

Nukleare Heizwerke

Seit Anbeginn der Kernkraftnutzung gab es die Idee von reinen Heizwerken. Die reine Wärmeproduktion kann einige Vorteile haben: Schließlich verbrennt man ja auch Gas in einem einfachen Heizkessel und setzt nicht alles Gas in „rotierenden Öfen“ (Blockheizkraftwerk) zur gleichzeitigen Stromerzeugung ein. Schon nach den „Ölkrisen“ der 1970er Jahre, setzte sich z. B. der Schweizer Professor Seifritz für ein solches Konzept ein. Er ging damals von der Verwendung erprobter Komponenten aus Kernkraftwerken (Druckbehälter, Brennelemente etc.) zum Bau eines abgespeckten Heizreaktors aus. Durch die „Überdimensionierung“ erhoffte er sich einen zusätzlichen Sicherheitsgewinn, der zu einer Akzeptanz bei der Politik führen würde. Die Grundüberlegung ist noch heute so gültig, wie vor nunmehr 50 Jahren: Ersatz fossiler Brennstoffe durch Uran. Damals wie heute, standen der Ölpreis und die Luftverschmutzung in den Städten im Vordergrund.

Um den Ansatz von Professor Seifritz zu verstehen, ist etwas Physik notwendig. Ein typischer Druckwasserreaktor eines Kernkraftwerks hat eine Wärmeleistung von etwa 4000 MWth. Viel zu viel für ein Fernheizwerk. Geht man aber mit der Leistung um mehr als eine Größenordnung runter – läßt den Reaktor quasi nur im Leerlauf laufen – hat man einen entsprechenden Sicherheitsgewinn in allen Parametern. Bis überhaupt die Betriebszustände eines – zigfach erprobten – Druckwasserreaktors erreicht werden, müßte eine Menge schief gehen. Man hätte genug Zeit den Reaktor abzustellen.

Bei einer so geringen Leistung, könnte man handelsübliche Brennelemente viel länger im Reaktor belassen bis sie „abgebrannt“ wären (Versorgungssicherheit, Preisstabilität etc.).

Ein Druckwasserreaktor in einem Kernkraftwerk arbeitet mit einem Betriebsdruck von etwa 155 bar und einer Wassertemperatur von etwa 325 °C. Beides recht ordentliche Werte. Wie sehe es bei einem Heizreaktor aus? Gehen wir von einer Vorlauftemperatur im Netz von 150 °C aus (Einsatz von Absorptionsanlagen zur Klimatisierung um das Netz auch im Sommer besser auszulasten). Damit das Wasser noch flüssig bleibt und nicht verdampft ist ein Betriebsdruck von mindestens 5 bar nötig. Geben wir noch mal 30 °C als treibende Temperaturdifferenz für die Wärmeübertrager im Heizreaktor drauf, kommen wir auf eine Betriebstemperatur von 180 °C. Dafür ist ein Betriebsdruck von mindestens 10 bar nötig. Ein beträchtlicher Sicherheitsgewinn.. Vor allen Dingen entfallen alle Hochdruck-Sicherheitseinrichtungen: Was man nicht hat, kann auch nicht kaputt gehen.

Noch eleganter erscheint ein Heizreaktor auf der Basis eines Siedewasserreaktors. Man bräuchte – da keine Turbine vorhanden ist – auch keinerlei Einbauten zur Dampftrocknung und keine Umwälzpumpen. Einfacher und sicherer geht nicht.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

Nachbemerkung

Fernheizungsnetze erfordern sehr hohe Investitionen, haben dafür kaum Betriebskosten und halten Jahrzehnte. Sie sind somit anderen Infrastrukturen, wie Trinkwasser- und Abwassernetzen sehr ähnlich. Gleichwohl gibt es schon heute weltweit unzählige Fernwärmenetze, die kontinuierlich erweitert werden. Der Markt für Wärmeerzeuger ist somit gewaltig. Auch die in Deutschland so beliebte „Plastikverpackung“ von Neubauten tut dem keinen Abbruch. Was braucht man also, um eine solche Entwicklung zu fördern?

  • Man benötigt möglichst kleine Heizreaktoren. Die Netzkosten fressen sonst sehr schnell etwaige Kosteneinsparungen bei den Reaktoren auf.
  • Die Reaktoren müssen sehr einfach und robust sein. Sie müssen standardisiert sein und in großen Stückzahlen in Fabriken hergestellt werden.
  • Es sollte weitgehend auf genehmigte Verfahren und Bauteile aus der Kernkraftwerkstechnik zurückgegriffen werden. Nur so kann man die kostspieligen und langwierigen Genehmigungsverfahren in den Griff bekommen.
  • Die Reaktoren müssen inhärent sicher sein und vollautomatisch betrieben werden können.
  • Sie müssen komplett und ständig fernüberwacht werden.
  • Die Anforderungen an Umgebung und Personal müssen vor Beginn des ersten Projekts neu definiert, öffentlich diskutiert und rechtssicher verabschiedet sein.
  • Bei jedem Standort müssen die Anwohner frühzeitig einbezogen werden. Nur durch Aufklärung kann man die einschlägige Angstindustrie und ihre Kumpane aus der Politik abwehren. Skandinavien und Frankreich bieten hierfür zahlreiche Beispiele und erprobte Vorgehensweisen.

Manchem mag das alles phantastisch vorkommen. Nur, ist die Diskussion nicht nur in China losgetreten worden. Sie läuft bereits auch in Osteuropa und Skandinavien. Es mag in Deutschland noch ein paar Jahre dauern, aber dann wird die Mehrheit der Bevölkerung erkennen, wie sie systematisch von Politikern und Schlangenölverkäufern mit der „Energiewende“ betrogen worden ist. Ist dieser Punkt erst erreicht, wird das Pendel ruckartig in seine alte Lage zurückkehren.

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Der Wahnsinn geht weiter

Wer immer noch nicht glauben mag, daß Planwirtschaft schneller wuchert als Krebs, hat die Mitteilungen Energie: Bestätigung des Reservekraftwerkbedarfs der Bundesnetzagentur noch nicht gelesen. Inzwischen gibt es eine Verordnung über „Reservekraftwerke“. Immerhin werden hier die „Gebühren“ für zusätzliche Kraftwerke mit bis zu 7800 MWel geregelt, die wir Stromverbraucher zahlen müssen.

Das neu erschaffene Handelsgut der Reservekraftwerke

Irgendwann hat auch jedes Kraftwerk sein Lebensende erreicht: Meist nicht aus technischen Gründen (ein Kraftwerk muß bis zuletzt gewartet werden), oft aus technologischen Gründen, überwiegend aus wirtschaftlichen Erwägungen und neuerdings sogar aus politischen Gründen (Ausstieg aus der Kernenergie). Normalerweise – wie gesagt, bis auf Kernkraftwerke in Deutschland – eine auf betriebswirtschaftliche Daten fußende unternehmerische Entscheidung. Mit einfachen Worten: Wenn die laufenden Kosten, die erzielten Einnahmen übersteigen, wird es stillgelegt. Nun hat man auch früher solche Kraftwerke (eher einzelne Blöcke in einem Großkraftwerk) nicht sofort abgerissen, sondern sie erst einmal in die sogenannte „Kaltreserve“ überführt. Unter „Kaltreserve“ versteht man sorgsam gepflegte Einheiten, die man innerhalb weniger Tage wieder in Betrieb setzen kann. Das kostet natürlich zusätzlich Geld. Quasi eine Versicherungsprämie gegen Ausfälle von Kraftwerken (unerwartete Schäden, Umbau- und Wartungsmaßnahmen etc.). Wieviel und welche Blöcke man in der Kaltreserve belässt, ist wieder eine betriebswirtschaftliche Entscheidung. Weil das so ist, werden stets die Einheiten mit den höchsten Unterhaltungskosten – meist die ältesten – Einheiten endgültig abgerissen. An dieser Stelle muß man verstehen, daß der notwendige Umfang der Kaltreserve ausschließlich in der Verantwortung des jeweiligen Betreibers liegt. Wer seinen Kraftwerkspark optimal betreibt, auf dem Stand der Technik hält und stets gut wartet, kommt mit einer entsprechend kleinen Reserve aus. Wer über den richtigen Brennstoffmix verfügt, braucht unerwartete Preisschwankungen nicht zu fürchten.

Die Politik hat nun durch ihre Vorgaben (Ausstieg aus der Kernenergie, Wunschenergie Wind und Sonne), die vorher beschriebenen Zusammenhänge außer Kraft gesetzt. Damit die Politik nun ihren Willen durchsetzen kann, muß sie die Entscheidung übernehmen, welche Kraftwerke stillgelegt werden dürfen. Da aber Enteignungen in unserem Wirtschaftssystem (noch) schwer durchsetzbar sind, mußte eine Krücke gefunden werden. Will oder muß ein Betreiber ein Kraftwerk abschalten, muß er sich dies genehmigen lassen. Dies stellt für sich schon einen schwerwiegenden Eingriff in das Grundrecht auf Eigentum, Gewerbefreiheit und Vertragsfreiheit dar. Um das durchziehen zu können, muß man zumindest eine akzeptable Entschädigung vorsehen. Das Wirtschaftsgut „Reservekraftwerk“ war geboren. Ein weiteres, von Politikerhand erschaffenes, planwirtschaftliches Monster, welches weitere Monster gebären wird!

Was genau, ist ein Reservekraftwerk?

Wenn der Politik – vertreten durch die Bundesnetzagentur – die endgültige Abschaltung eines Kraftwerks missfällt, wird es zu einem Reservekraftwerk erklärt. Ein Reservekraftwerk darf ausdrücklich nicht mehr von seinem Eigentümer benutzt werden, muß aber stets und in vollem Umfang (Personal, Wartung, Prüfungen etc.) durch ihn unterhalten werden. Lediglich der zuständige Übertragungsnetzbetreiber entscheidet, wann, wie oft, für wie lange, das Kraftwerk betrieben werden soll. Für einen solch schweren Eingriff in das Recht auf Eigentum, muß es natürlich eine Entschädigung geben. Diese Kosten werden auf alle Stromverbraucher über das Netzentgeld umgelegt. Ganz neben bei, ist das eine weitere Verschleierung der tatsächlichen Kosten der Windenergie! Die Festlegung der Entschädigung wird im heute üblichen Neusprech als „Durchführung eines Interessenbekundungsverfahrens “ bezeichnet. Dahinter verbirgt sich folgende Problematik: Die Entschädigung muß ausgehandelt werden. Wenn ein Eigentümer – aus welchen Gründen auch immer – partout kein Reservekraftwerk haben will, kann er sich durch die Nennung eines überhöhten Preises schützen. Deshalb wird schon mal vorsorglich mit der Keule „Gewährleistung der Sicherheit und Zuverlässigkeit des Elektrizitätsversorgungssystems“ gedroht. Andererseits ist die Bundesnetzagentur in einer eher schwachen Position, da bestimmte Kraftwerke aus bekannten technischen Gründen faktisch eine Monopolstellung besitzen. In der Praxis werden die Verhandlungen eher in größter Harmonie verlaufen. Handelt es sich doch um ein klassisches StGeschäft zu Lasten Dritter: Wir Stromkunden müssen auf jeden Fall zahlen, sitzen aber gar nicht am Verhandlungstisch.

Wozu braucht man überhaupt Reservekraftwerke?

In einem Stromnetz müssen zu jedem Zeitpunkt und an jedem Ort Energieverbrauch und Produktion in einem Gleichgewicht sein. Vor dem Zeitalter des Ökologismus hat man deshalb die Kraftwerke so nah wie möglich an den Verbrauchsschwerpunkten gebaut. Teilweise sogar in den Städten (Berlin, Hamburg, München etc.) und hat dabei die Abwärme noch für die Fernheizung verwendet. Insbesondere für die Windenergie wurde zu deren Förderung die Standortwahl freigegeben. Der Strom muß nun irgendwie zum Verbraucher fließen. Die Windparks wurden und werden bevorzugt in Norddeutschland oder sogar im Meer errichtet. Inzwischen hat man dort erhebliche Überkapazitäten. Der Abfallstrom muß auf biegen und brechen (Abnahmezwang) in Süddeutschland und im Ausland entsorgt werden. Genau dieser Abfallstrom ist aber das Hauptproblem! Nicht die Dunkelflaute, von der inzwischen sogar in der breiteren Öffentlichkeit geredet wird ist der Grund für neue Leitungen und Reservekraftwerke. Wenn kein Wind weht und keine Sonne scheint, kann der Bedarf problemlos mit dem vorhandenen Stromnetz und den (noch) vorhandenen Kraftwerken abgedeckt werden. Nur wenn der Wind – ausnahmsweise – mal etwas stärker weht, ergibt sich sofort ein Problem für jedes Stromnetz! Selbst ein immer weiter betriebener Netzausbau ist deshalb keine Lösung. Auch wenn man das Stromnetz so erweitert, daß auch Windenergiespitzen immer transportiert werden können, ist das nur an wenigen Stunden im Jahr nötig und damit völlig unwirtschaftlich.

An dieser Stelle scheint ein kleiner Einschub zum Umweltschutz nötig. Niemand kann große Mengen elektrischer Energie ohne Verluste quer durch Deutschland verschieben. Schon heute betragen allein die Verluste im Übertragungsnetz (das ist nur das Hochspannungsnetz!) an „Starkwindtagen“ 1500 MWel.! Wie die Simulationen der Bundesnetzagentur zeigen, werden diese mit dem Ausbau der Windenergie beständig ansteigen.

Ein weiteres Zauberwort: „Redispatch“

Redispatch ist, wenn man bestimmte Kraftwerke im Netz runter regelt, um die Flüsse innerhalb des Netzes zu verändern. Natürlich muß man diese Minderleistung an anderer Stelle zusätzlich einspeisen. Dazu dienen die Reservekraftwerke und deshalb haben auch nur die Übertragungsnetzbetreiber eine Verfügung über sie. Man kann sich das (stark vereinfacht) so vorstellen: Wenn eine Übertragungsleitung an ihre Grenzen zu stoßen droht, kann man die Kraftwerke vor der Leitung etwas abregeln. Natürlich fehlt diese Leistung am anderen Ende, was zumindest dort zu Spannungseinbrüchen und Frequenzschwankungen führen würde. Als Gegenmaßnahme muß das Reservekraftwerk dort, die fehlende Leistung ersetzen. An dieser Stelle sei daran erinnert, daß bereits für den Winter 2015/2016 eine Reserveleistung von geschätzt 6,7 bis 7,8 GWel. eingekauft werden muß. Die Kosten hierfür sind noch nicht bekannt. Immerhin entspricht das rund sieben Kernkraftwerken und eine solche Leistung kauft man auch in Deutschland nicht beim Kaufmann um die Ecke.

Es muß noch einmal ganz deutlich gesagt werden, das Problem ist nicht, wenn der Wind nicht weht (Dunkelflaute), sondern wenn er mal weht! Bereits jetzt haben wir bei Starkwind ein Exportsaldo von 12,1 GW. Bei Dunkelflaute (meist am Wintertag) ergibt sich nur ein Importsaldo von -2,1 GW. Die eigenen Kraftwerke reichen (noch) aus, um Deutschland zu versorgen. Im Gegensatz dazu, muß der Abfallstrom bei stärkerem Wind erst einmal zu den Grenzen transportiert werden, bevor er anschließend im Ausland teuer entsorgt werden kann.

Milchmädchen und der CO2 – freie Windstrom

Bis vor wenigen Jahren, wurde man von den Schlangenölverkäufern der Windindustrie immer brüsk abgeschmettert, wenn man von der Dunkelflaute sprach. Obwohl jedem, der sich mit den meteorologischen Daten auseinandergesetzt hat, vollkommen klar war, daß der Wind eben nicht immer weht. Gerade im Winter, wenn der Stromverbrauch am höchsten ist, treten immer wieder großräumige Hochdruckwetterlagen in Europa auf. Heute sind diese Meßdaten der Windstromproduktion von jedermann im Netz einsehbar.

Wenn man den einschlägigen Umfragen glauben mag, ist die (gut verdienende) Mehrheit in Deutschland gern bereit, höhere Strompreise zu bezahlen, wenn sie dadurch das Weltklima retten darf. So eine Art von Ablasshandel halt. Allerdings werden auch immer mehr Gutmenschen stutzig über einen vermeintlichen Widerspruch: Kaum ein Tag vergeht, an dem nicht über neue Rekorde an der Ökostrom-Produktionsfront berichtet wird – nur die CO2 – Produktion sinkt nicht parallel dazu! Nur die Schlangenölverkäufer jubeln noch über jede zusätzliche CO2 – freie Kilowattstunde aus Windstrom.

Windstrom ist nur so lange „CO2 – frei“, wie er den Windpark noch nicht verlassen hat. Selbst hartgesottene „Öko’s“ wissen aber, daß er im Windpark ohne jeden Wert ist. Er muß noch auf einem hunderte Kilometer langen Weg bis zu den Verbrauchsstellen im In- und Ausland gelangen. Ohne konventionelle Kraftwerke, läßt sich aber kein „Zappelstrom“ transportieren. Inzwischen kann man aber auch dies messen! Je höher die Produktion von Windstrom an verbrauchsfernen Standorten ist, um so höher ist die CO2.-Freisetzung um diesen Strom über weite Strecken transportieren zu können. Da kommt auch kein Netzausbau hinterher.

Planwirtschaft gegen Realität

Es ist politisch gewollt, noch mehr Windparks im Meer zu bauen. Gleichzeitig will man aus der Kernenergie aussteigen. Der Ersatz dieser Kraftwerke durch (fossile) Neubauten ist unerwünscht. Es beginnt der Kampf gegen die noch vorhandenen Kohlekraftwerke. All das zusammen genommen, führt zu einem gigantischen Park von Reservekraftwerken mit steigendem CO2.-Ausstoß. Letztendlich zum Zusammenbruch des Strommarktes mit anschließender Verstaatlichung.

Man kann schon heute die Entwicklung in Echtzeit an der Strombörse verfolgen. Jedes mal, wenn der Wind etwas stärker weht, fallen die Strompreise an der Börse synchron. Einziger Grund ist der politisch verursachte Abnahmezwang. Wenn man in einem Markt eine Überversorgung herbeiführt, fallen die Preise so lange, bis genug Marktteilnehmer die Produktion einstellen. Schon heute werden für etliche Stunden sogar negative Preise erzielt. Nichts weiter, als eine Entsorgungsgebühr für die Vernichtung der Überproduktion. Je tiefer die Preise fallen, um so mehr Produzenten können ihre Kosten nicht mehr decken und stellen die Produktion ein. Dies betrifft im derzeitigen System ausschließlich die fossilen Kraftwerke. Denn die Windstromerzeuger erhalten auch weiterhin ihren Garantiepreis für ihre garantiert abgenommene elektrische Energie! Dies haben ausschließlich die Politiker zu verantworten, denn sie haben diesen Irrsinn in Gesetzesform gegossen.

Es gibt offensichtlich noch immer genug schlichte Gemüter, die diesen Zusammenhang gut finden. Sie glauben tatsächlich, daß so immer weniger fossile Energie verbraucht wird, wodurch das „Klima gerettet wird“. Das Gegenteil ist der Fall! Je mehr Windenergie produziert werden soll, um so mehr fossile Energie (bei gleichzeitigem Verzicht auf Kernenergie) muß eingesetzt werden. Nicht nur bei Dunkelflaute muß der Strom in konventionellen Kraftwerken produziert werden, sondern auch bei jeder wetterabhängigen Überproduktion müssen vermehrt fossile Kraftwerke zum Transport des Windstroms zu den Entsorgungsstätten eingesetzt werden. Was heute schon an Sonn- und Feiertagen oder in der Nacht passiert, wird bei weiterem Ausbau bald ständig Realität sein. Es gibt keinen Ausweg aus diesem Dilemma:

  • Regelt man die Windmühlen mit zunehmendem Wind ab, wird deren Auslastung immer schlechter und es erhöhen sich beständig die Stromkosten bei den Verbrauchern. Man zahlt dann nur noch für Windmühlen, die in der Landschaft herumstehen. Wie lange die Wähler so etwas dulden, kann man vielleicht aus der Geschichte lernen. Wer kennt nicht mehr die Bilder von Obst- und Gemüseüberproduktion, die zur Stabilisierung der Preise gleich untergepflügt wurden oder die man gegen Gebühr auf der Müllkippe entsorgt hat.
  • Man versucht die Überschußenergie gleich in den Windparks zu speichern, bis sie auch tatsächlich benötigt werden. Bei dieser Energiewandlung gingen dann gleich rund die Hälfte der Produktion wieder verloren. Der zweite Hauptsatz läßt sich durch Ideologie nicht aushebeln! Abgesehen von den gigantischen Investitionen, die hierfür nötig wären. Die Butterberge und Fleischberge der planwirtschaftlichen europäischen Landwirtschaft waren Nicklichkeiten dagegen.
  • Man versucht wie bisher, die Überschüsse im Ausland zu entsorgen. Für die immer weiter entfernten Abnehmer sind immer mehr Hochspannungsleitungen nötig, auf denen immer mehr elektrische Energie gleich „verbraten“ wird. Trotzdem wird man immer mehr Reservekraftwerke benötigen, um die Netze überhaupt betreiben zu können. Logischerweise werden die Betreiber immer ihre ältesten und umweltverschmutzenden Kraftwerke den Übertragungsnetzbetreibern vermieten.

Es gibt nur eine Möglichkeit diesen Wahnsinn zu stoppen. Man macht sofort Schluß damit. Dies kann aber nur die Politik leisten, weil sie dieses Monster der Planwirtschaft erst erschaffen hat.

Die europaweite Dimension

Die Idee, den Stromabfall gegen Gebühr im Ausland zu entsorgen, war ziemlich dämlich. Polen ist bereits dabei, seine Grenzen dicht zu machen. Man ist es leid, kostenlos Strom über Tschechien nach Bayern und Österreich zu transportieren. Auch die Idee Reservekraftwerke in Polen anzumieten, war ziemlich kurz gedacht. Weder sind die Polen bereit, ihre Souveränität für ein Linsengericht an die Deutschen zu verkaufen, noch die dadurch zusätzlich entstehenden Belastungen in ihrem Netz zu tragen. Einzig Greenpeace hätte sich wahrscheinlich einen Ast gelacht: Die als besonders umweltfreundlich bekannten (abgenutzten alten) Kohlekraftwerke in Polen von Deutschland weiter am Leben gehalten, um den „Grünen Strom“ von der Ostsee nach Österreich und weiter zu verkaufen.

Besonders lustig ist auch, daß ausgerechnet Deutschland nun darüber nachdenkt, den Stromhandel mit Skandinavien und Österreich zu begrenzen. Leider weht auch der Wind in Dänemark, wenn er in Norddeutschland weht. Weil ganz Norddeutschland bereits mit Windstrom verstopft ist, tut jede zusätzlich Kilowattstunde, die Dänemark in Deutschland entsorgen will, besonders weh. Langsam merkt man, daß sich Deutschland zu einem Transitland für elektrische Energie entwickelt. Man findet es inzwischen auch nicht mehr so prickelnd, daß deutsche Stromverbraucher für lukrative Geschäfte zwischen Österreich, Ungarn und Italien bezahlen müssen. Deutscher Stromabfall wird billig von Österreich aufgekauft und gewinnbringend an das alte KuK-Gebiet weiterverscherbelt. Inzwischen fließen bereits 8,5 GW nach Österreich. Tendenz weiter steigend. Alles ein Ergebnis des politisch gewollten „Ein-Zonen- Modells“, in dem die örtliche Entfernung per Ukas außer Kraft gesetzt wurde. Strom soll überall gleich teuer sein. Transportkosten müssen zur Verschleierung aus anderen Töpfen bezahlt werden.

Auch das „Vorangehen“ hat sich als blöde Idee herausgestellt. Frankreich z. B. ist inzwischen auch in das Windgeschäft eingestiegen. Dumm nur, daß dort die geographischen Bedingungen (z. B. Atlantikküste) wesentlich günstiger als in Bayern und im Schwabenland sind, somit die Produktionskosten auch geringer. Warum sollte Frankreich also zusätzlichen Windstrom aus Deutschland importieren? Es sei denn, Michel ist bereit, die Subventionen weiter hoch zu schrauben.

Völlig verschlafen haben unsere Politiker beim „Vorangehen“ den Netzausbau in Ost-West-Richtung. Man war zu sehr von der Idee besessen, die Kernkraftwerke in Süddeutschland abzuschalten und durch Windstrom zu ersetzen. Inzwischen hat man durch die politisch verordnete Überproduktion Strompreise an der Börse erzeugt, die (teilweise) unter den Brennstoffkosten liegen. Daraus ergeben sich erbliche Stromflüsse in Ost-West-Richtung. Ein Netzausbau auch in diese Richtung, ist unvermeidbar! Deutschland wird ein Land der „Stromautobahnen“ und „Reservekraftwerke“. Ist das, das „tolle Europa“, was man uns immer zu verkaufen versucht hat? Gut gemeint, ist noch lange nicht, gut gemacht.

Halbzeit bei GenIV

Nach zehn Jahren der internationalen Zusammenarbeit bei der Entwicklung von Reaktoren der sogenannten „vierten Generation“ erschien eine Überarbeitung der Ursprünglichen Fahrplanes aus dem Jahre 2002 erforderlich.  In der letzten Dekade ist viel geschehen: Dies betrifft die Zusammensetzung und Forschungsintensität der Mitglieder, die bereits gewonnenen Erkenntnisse und nicht zuletzt die Veränderung der äußeren Randbedingungen (Shale Gas Boom, Fukushima, etc.).

Es ist bei den ursprünglich ausgewählten sechs Konzepten geblieben. Neue sind nicht hinzugekommen. Mehrere teilnehmende Länder haben bedeutende Mittel in die Entwicklung natriumgekühlter Reaktoren mit einem schnellen Neutronenspektrum (sodium-cooled fast reactor, SFR) und gasgekühlten Reaktoren mit möglichst hoher Betriebstemperatur (very-high-temperature reactor, VHTR) investiert.

Die restlichen vier Konzepte: Mit Wasser im überkritischen Zustand gekühlte Reaktoren (SCWR), bleigekühlte Reaktoren mit schnellem Neutronenspektrum (LFR), gasgekühlte Reaktoren mit schnellem Neutronenspektrum (GFR) und mit Salzschmelzen gekühlte Reaktoren wurden – mehr oder weniger – auf Sparflamme entwickelt.

Ziele

Weiterhin gelten als zentrale Anforderungen an die sogenannte vierte Generation folgende vier Bereiche:

  • Nachhaltigkeit
  • Sicherheit und Verfügbarkeit
  • Wirtschaftliche Wettbewerbsfähigkeit
  • nicht zur Produktion von Waffen geeignete Technologien und ein physikalischer Schutz gegen jedwede Einwirkungen von Außen (Naturkatastrophen, Terrorismus etc.).

Interessant ist in diesem Zusammenhang die Definition der vier Generationen: Die ersten Reaktoren der Baujahre 1950–1960 (z. B. Shippingport, Dresden, MAGNOX usw.) werden als Demonstrationskraftwerke verstanden und sind bereits stillgelegt. Die zweite Generation umfaßt die Baujahre 1970–1990 und stellt die überwiegend heute im Betrieb befindlichen Leichtwasser- und Schwerwasserreaktoren dar. Die dritte Generation wird als die Leichtwasserreaktoren der Baujahre 1990–2000 definiert, wobei die Reaktoren nach dem Jahr 2000 als Generation III+ bezeichnet werden. Sie stellen eine evolutionäre Weiterentwicklung der Druck- und Siedewassertechnologie dar. Die Vielzahl unterschiedlichster Reaktortypen der Anfangsjahre hat sich also auf lediglich zwei Bauarten verengt. Die Weiterentwicklungen der schwerwassermoderierten, der gasgekühlten und der metallgekühlten Reaktoren ist – zumindest, was die Stückzahlen anbetrifft – auf das Niveau von Demonstrationsanlagen zurückgefallen. Erst ab dem Jahr 2030 wird von der Einführung einer vierten Generation ausgegangen.

Als die zentralen Ziele für die vierte Generation wird dabei die Verringerung der Gesamtkosten über den Lebenszyklus eines Kraftwerks, eine nochmals verbesserte Sicherheit, ein möglichst großer Schutz vor missbräuchlicher Nutzung (Waffen, Terrorismus) und eine erhebliche Verringerung des (Atom)mülls gesehen.

Abgebrannte Brennelemente

Nach einer gewissen Zeit ist jedes Brennelement in einem Reaktor nicht mehr nutzbar und muß ausgetauscht werden. Im Sprachgebrauch der „Atomkraftgegner“ ist es dann „Atommüll“ der zudem auch noch für Jahrtausende tödlich sein soll. In Wirklichkeit sind in einem „abgebrannten“ Brennelement eines Leichtwasserreaktors noch über 95% Brennstoff enthalten. Dieser Brennstoff muß und kann recycled werden. Aber selbst die übrig bleibenden Spaltprodukte sind keinesfalls wertlos. Aus wirtschaftlichen Gründen lohnt meist keine sofortige Aufbereitung. Es empfiehlt sich daher, diesen Atommüll (Müll in Bezug auf eine energetische Verwertung) für längere Zeit sicher zu lagern um ein Abklingen der Radioaktivität abzuwarten. Durch eine Nachbehandlung des Abfalls in geeigneten Reaktoren (mit schnellem Neutronenspektrum oder sog. Transmutation) kann diese notwendige Lagerzeit auf wenige hundert Jahre beschränkt werden. Eine „Endlagerung“ ist weder nötig noch sinnvoll. Das übrig bleibende „Erz“ – mit hohem Gehalt wertvollster Materialien – kann anschließend dem normalen Wirtschaftskreislauf zugeführt werden.

Die Aufgabe der nahen und mittleren Zukunft liegt in der Entwicklung und Realisierung solcher Kreisläufe mit möglichst geringen Kosten. Das bisher vorliegende „Henne-Ei-Problem“ beginnt sich gerade von selbst zu lösen: Es gibt inzwischen weltweit große Mengen abgebrannter Brennelemente, die eine Aufbereitung mit unterschiedlichsten Verfahren im industriellen Maßstab möglich machen. Viele dieser Brennelemente sind bereits soweit abgelagert (die Strahlung nimmt in den ersten Jahren besonders stark ab), daß sich ihre Handhabung stark vereinfacht hat.

Ein „Endlager“ – besser ein Lager mit sicherem Einschluß über geologische Zeiträume – ist nur für die Abfälle nötig, deren Aufbereitung zu kostspielig wäre. Dieser Weg wird bereits für Abfälle aus der Kernwaffenproduktion beschritten. Dafür reicht aber maximal ein „Endlager“ pro Kernwaffenstaat aus.

In naher Zukunft wird sich ein weltweiter Austausch ergeben: Es wird unterschiedliche Wiederaufbereitungsanlagen in verschiedenen Ländern geben. Die Kraftwerksbetreiber können diese als Dienstleistung nutzen. Die dabei wiedergewonnen Wertstoffe werden auf speziellen Märkten gehandelt werden. Wer zukünftig beispielsweise einen „Brutreaktor“ bauen möchte, kann sich das für die Erstbeladung notwendige Plutonium auf diesem Markt zusammenkaufen. Wem die Mengen langlebiger Aktinoiden zu groß werden (Lagerkosten) kann diese an Betreiber von schnellen Reaktoren oder Transmutationsanlagen zur „Verbrennung“ abgeben. Es wird sich genau so ein Markt für „nukleare Müllverbrennungsanlagen“ etablieren, wie er heute für Industrie- und Hausmüll selbstverständlich ist.

Ebenso wird es kommerzielle „Endlager“ geben, die gegen (teure) Gebühren Restmengen aufnehmen, die sich anderweitig nicht mehr wirtschaftlich verwenden lassen. Gerade Deutschland ist weltweit führend in Erwerb und Endlagerung von hoch toxischen Abfällen in ehemaligen Salzbergwerken. Hier ist es auch sprachlich gerechtfertigt, von Endlagern zu sprechen, da die dort eingelagerten Stoffe – anders als radioaktive Stoffe – nie verschwinden werden. „Gefährlich“ ist (zumindest in Deutschland) halt nur eine Frage des ideologischen Standpunktes.

Die sechs Systeme

Im Jahre 2002 wurden aus über 100 Vorschlägen sechs Konzepte ausgewählt. Leitgedanke dabei war, aus verschiedenen Reaktortypen symbiotische Systeme zu bilden. Beispielsweise durch die Verknüpfung von Leichtwasserreaktoren mit Reaktoren mit schnellem Neutronenspektrum, sodaß der „Abfall“ des einen Reaktortyps als Brennstoff für den anderen dienen kann. In diesem Sinne, konzentrierte man sich nicht auf die Entwicklung eines einzelnen neuen Reaktors, sondern wählte sechs Konzepte aus, aus denen ein weltweites Netz aufgebaut werden könnte. Jeder einzelne dieser sechs ausgewählten Konzepte hat ganz spezielle Vor- und Nachteile, die es jedem Land ermöglichen sollte, für seinen speziellen Bedarf, das geeignete Modell auswählen zu können. Es geht also eher darum, Möglichkeiten zu eröffnen, als Konzepte fest zu schreiben. Dies ist ein sehr flexibler und (theoretisch) Kosten sparender Ansatz, da jedes Land seine besonderen Stärken (Werkstofftechnik, Fertigungstechnik, Datenverarbeitung etc.) in die gemeinsame Forschung und Entwicklung einbringen kann, ohne sich ein komplettes Entwicklungsprogramm für einen einzelnen Reaktor aufbürden zu müssen. Insbesondere auch kleinen Ländern, mit beschränkten Ressourcen steht es offen, sich zu beteiligen.

Die ursprünglich ausgewählten Konzepte sind alle in den letzten zehn Jahren verfolgt worden und sollen auch weiter entwickelt werden. Allerdings haben sich durch neue Erkenntnisse und einem unterschiedlichen finanziellen Einsatz in den beteiligten Ländern, der ursprünglich geplante Zeitplan etwas verschoben. Die Entwicklung wurde in jeweils drei Phasen unterteilt.

Zeitplan

Für alle sechs Reaktortypen sollten die Machbarkeitsstudien als erste Phase bereits abgeschlossen sein. Bei der Machbarkeitsstudie sollten alle relevanten Probleme geklärt worden sein und insbesondere für kritische Eigenschaften, die später sogar eine Aufgabe erforderlich machen könnten, zumindest Lösungswege aufgezeigt werden. Für Salzbadreaktoren glaubt man diese Phase nicht vor 2025 und für gasgekühlte Reaktoren mit schnellem Neutronenspektrum, nicht vor 2022 abschließen zu können.

In der Durchführungsphase sollten alle Materialeigenschaften, Berechnungsverfahren etc. entwickelt und als Prototypen getestet und optimiert sein. Diese Phase wurde bisher bei keinem Konzept abgeschlossen. Am weitesten vorn im Zeitplan, liegen der mit Natrium gekühlte schnelle Reaktor (erwartet 2022) und der mit Blei gekühlte schnelle Reaktor (erwartet 2021).

Aus heutiger Sicht wird deshalb kein Reaktor die Demonstrationsphase bis zum Jahr 2030 abschließen können. Bevor eine kommerzielle Anlage in Angriff genommen werden kann, muß wenigstens ein Demonstrationskraftwerk (einschließlich dem erforderlichen Genehmigungsverfahren!) errichtet worden sein und einige Jahre Betriebserfahrung gesammelt haben. Selbst in Ländern mit durchweg positiver Einstellung zur Nutzung der Kernenergie und einem gewissen Pioniergeist (ähnlich der 1950er Jahre) dürfte dies ein ehrgeiziges Ziel sein. Zumal kein wirklicher Zeitdruck vorliegt: Es gibt genug Natururan zu günstigen Preisen, die Mengen abgebrannter Brennelemente sind immer noch so gering, daß kein Kostendruck zur Beseitigung von „Atommüll“ existiert und der Bedarf an Prozeßwärme mit hoher Temperatur kann problemlos durch kostengünstiges Erdgas gedeckt werden. Es bleibt die Erzeugung elektrischer Energie: Die kann aber problemlos und kostengünstig (im Vergleich zu Kohlekraftwerken mit Abgaswäsche) durch konventionelle Leichtwasserreaktoren erzeugt werden. China stellt dies eindrucksvoll unter Beweis.

Fukushimas Auswirkungen

Fukushima hat die Bedeutung für eine nach den Regeln der Technik entsprechende Auslegung und Bauweise gezeigt. Die Lehren aus dem Unglück beeinflussen nicht nur die in Betrieb befindlichen Kraftwerke, sondern auch zukünftige der vierten Generation. Schädigende Einflüsse von außen müssen bauartbedingt von den Reaktoren fern gehalten werden (z. B. Baugrund oberhalb von möglichen Flutwellen) und die Nachzerfallswärme muß auch über längere Zeit und in jedem Falle sicher abgeführt werden (z. B. passive Wasserkühlung aus oberen Tanks ausreichender Dimension).

Für die Reaktoren der vierten Generation sind umfangreiche Forschungsarbeiten zur Beantwortung dieser Fragen notwendig. Dies betrifft insbesondere das Verhalten der andersartigen Kühlmittel (Helium, Natrium, Blei etc.) und die teilweise wesentlich höheren Temperaturen (Werkstoffe, Temperaturschocks etc.). Hinzu kommt die höhere Energiedichte in den Kernen und etwaige Brennstoffkreisläufe in unmittelbarer Nähe.

Gasgekühlter schneller Reaktor (GFR)

Bei dem GFR (Gas-cooled Fast Reactor) handelt es sich um einen mit Helium gekühlten Reaktor mit schnellem Neutronenspektrum. Durch schnelle Neutronen lassen sich alle Aktinoiden – also alle radioaktiven Elemente mit langen Halbwertszeiten – spalten. Dies ist heute der Hauptgrund, warum man diese Entwicklung verfolgt. Man könnte mit solchen Reaktoren die „Endlagerfrage“ eindeutig beantworten: Man braucht faktisch kein Endlager mehr, weil sich das Problem der potentiellen „Gefahr durch strahlenden Atommüll“ auf technische Zeiträume von weniger als 300 Jahren reduziert. Damit ist auch klar, warum sich die „Anti-Atomkraftbewegung“ mit besonderer Vehemenz – und auch Gewalttätigkeit – gegen den Bau solcher Reaktoren gewandt hat. Würden solche Reaktoren mit Wiederaufbereitung abgebrannter Brennelemente eingesetzt, wäre ihnen ihr Totschlagargument von angeblich über Millionen Jahre zu sichernden Endlagern entzogen. Die (deutsche) Scharade einer „Standortsuche“ wäre schlagartig zu Ende.

Ein mit Helium gekühlter Reaktor mit schnellem Neutronenspektrum hat jedoch einen systembedingten Nachteil: Wegen des angestrebten Neutronenspektrums darf ein solcher Reaktor nur geringe Mengen an Materialien enthalten, die Neutronen abbremsen. Idealerweise würde er nur aus Brennstoff und Kühlmittel bestehen. Seine Fähigkeit „Wärme“ zu speichern, ist sehr gering. Jede Leistungsänderung führt somit zu starken und schnellen Temperaturänderungen. Ein ernster Nachteil bei einem Verlust des Kühlmittels. Allein die Nachzerfallswärme könnte zu schwersten Schäden führen. Ebenso ist eine passive Nachkühlung kaum realisierbar. Helium ändert – anders als Wasser – nur geringfügig seine Dichte bei Temperaturänderungen. Man wird daher immer auf aktive Nachkühlung angewiesen sein. Die Ereignisse von Fukushima haben die Genehmigungsfähigkeit dieses Reaktorprinzips nicht unbedingt erhöht.

In nächster Zukunft müssen Gebläse bzw. Turbinen entwickelt werden, die Helium mit hoher Temperatur (Betriebstemperatur 850 °C) und unterschiedlichen Drücken (zwischen 1 und 70 bar) zuverlässig befördern können. Für die Kreisläufe zur Abführung der Nachzerfallswärme sind sicherheitsrelevante Ventile zu entwickeln und zu testen. Es sind zuverlässige Antriebskonzepte für die Notkühl-Gebläse zu entwickeln. Nach den Erfahrungen in Fukushima keine ganz einfache Aufgabe.

Die infrage kommenden Legierungen und Keramiken für die Brennelemente sind ausgiebig zu testen. Gleiches gilt für die Hüllrohre. Es müssen im Störfall Temperaturen von etwa 2000 °C sicher beherrscht werden.

Mit der bisherigen Entwicklung sind die Probleme eher größer geworden. Es wird deshalb nicht mit einem Abschluss der Machbarkeitsstudien in den nächsten zehn Jahren gerechnet. Wegen der Langfristigkeit ist der Einsatz der Mittel eher verringert worden.

Bleigekühlter schneller Reaktor (LFR)

Bei dem Lead-cooled Fast Reactor (LFR) handelt es sich um einen Reaktor, der flüssiges Blei als Kühlmittel verwendet. Blei besitzt einen sehr hohen Siedepunkt (1743 °C), sodaß man mit diesem Reaktortyp sehr hohe Temperaturen ohne nennenswerten Druckanstieg erzeugen kann. Allerdings ist Blei bei Umgebungsbedingungen fest, weshalb man den gesamten Kreislauf stets auf über 328 °C halten muß. Es gibt also zusätzlich den neuen Störfall „Ausfall der Heizung“. Blei ist chemisch recht beständig und reagiert – wenn überhaupt – ohne große Wärmefreisetzung mit Luft oder Wasser. Es schirmt Gammastrahlung sehr gut ab und besitzt ein gutes Lösungsvermögen (bis 600 °C) für Jod und Cäsium. Ferner trägt die hohe Dichte von Blei eher zu einer Rückhaltung als einer Verteilung von radioaktiven Stoffen bei einem schweren Störfall bei. Allerdings stellt die Undurchsichtigkeit und der hohe Schmelzpunkt bei allen Wartungsarbeiten und Sicherheitsinspektionen eine echte Herausforderung dar. Die hohe Dichte von Blei erschwert den Erdbebenschutz und erfordert neue (zugelassene) Berechnungsverfahren. Nach wie vor, ist die Korrosion von Stahl in heißem Blei mit Sauerstoff ein großes Problem. Hier ist noch sehr viel Forschung und Entwicklung nötig, bis ein dem heutigen Niveau von Leichtwasserreaktoren entsprechender Zustand erreicht wird.

In sowjetischen U-Booten wurden Reaktoren mit einem Blei-Wismut-Eutektikum (niedrigerer Schmelzpunkt) verwendet. Die dort (meist schlechten) gesammelten Erfahrungen sind nicht direkt auf das LFR-Konzept übertragbar. Die Reaktoren sind wesentlich kleiner, haben eine geringere Energiedichte und Betriebstemperatur und eine geringere Verfügbarkeit. Außerdem arbeiteten sie mit einem epithermischen und nicht mit einem schnellen Neutronenspektrum. Der Vorteil des geringeren Schmelzpunktes einer Blei-Wismut-Legierung ist nicht ohne weiteres auf eine zivile Nutzung übertragbar, da durch den Neutronenbeschuß Polonium-210 gebildet wird. Es handelt sich dabei um einen starken Alphastrahler (Halbwertszeit 138 Tage), der den gesamten Kühlkreislauf kontaminiert.

Im Moment werden im Projekt drei verschiedene Konzepte verfolgt: Ein Kleinreaktor mit 10 bis 100 MWel in den USA (Small Secure Transportable Autonomous Reactor or SSTAR), ein Reaktor mit 300 MWel in Russland (BREST) und ein Reaktor mit mehr als 600 MWel in Europa (European Lead Fast Reactor or ELFR – Euratom).

Wenn man einen solchen Reaktor als Brüter betreiben will, benötigt man eine Mindestleistung. Je größer, je effektiver. Ein kleiner Reaktor, wie z. B. der SSTAR, ist nur als reiner „Aktinoidenbrenner“ geeignet. Allerdings kann er sehr lange ohne einen Brennstoffwechsel betrieben werden. Will man Spaltmaterial erbrüten, ist ein häufiger Brennstoffwechsel unvermeidlich. Es empfiehlt sich deshalb, einen entsprechenden Brennstoffzyklus zu entwickeln. Es wird auf den Bau mehrere Reaktoren mit einer gemeinsamen Wiederaufbereitungsanlage hinauslaufen. Das Verfahren zur Wiederaufbereitung hängt wiederum von dem Brennstoffkonzept des Reaktors ab.

Ein besonderes Konzept, im Zusammenhang mit Blei, ist die Entwicklung einer Spallationsquelle (Japan, MYRRHA in Belgien usw.). In einem Beschleuniger wird ein Strahl von Protonen auf über 1 GeV beschleunigt und auf flüssiges Blei geschossen. Beim Auftreffen auf ein Bleiatom „verdampft“ dieses seine Kernelemente. Es wird eine große Anzahl von Neutronen frei. Diese Neutronen werden von einem Mantel aus Aktinoiden absorbiert. Diese eingefangenen Neutronen führen teilweise zu einer Spaltung oder einer Umwandlung. Durch die Spaltungen wird – wie in jedem Kernreaktor – Wärme frei, die anschließend konventionell genutzt werden kann. Es entsteht aber keine selbsterhaltende Kettenreaktion. Wird der Beschleuniger abgeschaltet, brechen auch sofort die Kernreaktionen in sich zusammen. Es handelt sich hierbei also um eine Maschine, die primär der Stoffumwandlung und nicht der Energieerzeugung dient. Durch die Verwendung von Blei als „Neutronenquelle“ und Kühlmittel sind aber alle Erfahrungen und Probleme unmittelbar übertragbar.

Am weitesten scheint die Entwicklung in Russland vorangeschritten zu sein. Man entwickelt einen bleigekühlten Reaktor mit 300 MWel (BREST-300) und betreibt die Weiterentwicklung der U-Boot-Reaktoren mit Blei-Wismut-Eutektikum als Kühlmittel (SVBR-100). Beide Reaktoren sollen bis zum Ende des Jahrzehnts erstmalig kritisch werden. In Europa plant man eine Demonstrationsanlage mit 300 MWth (Advanced Lead Fast Reactor European Demonstrator, ALFRED).

Salzbadreaktoren (MSR)

Salzbadreaktoren (Molten Salt Reaktor, MSR) werden in zwei Gruppen eingeteilt: Reaktoren, bei denen der Spaltstoff im Salz selbst gelöst ist und Reaktoren, bei denen das flüssige Salz nur als Kühlmittel dient (Fluoride salt-cooled High-temperature Reactor, FHR).

Zwischen 1950 und 1976 gab es in den USA ein umfangreiches Entwicklungsprogramm, aus dem zwei Prototypen erfolgreich hervorgingen (Aircraft Reactor Experiment, ARE und Molten Salt Reactor Experiment, MSRE). Anfangs konzentrierte man sich in der Entwicklung auf Salzbadreaktoren mit thermischem Neutronenspektrum.

Ab 2005 entwickelte sich eine Linie, die von in Salz gelöstem Brennstoff und Spaltprodukten ausging. Als Kühlmittel soll ebenfalls Salz dienen. Das Neutronenspektrum soll schnell sein. Von dieser Kombination verspricht man sich einerseits das Erbrüten von Spaltstoff (z. B. Uran-233 aus Thorium-232) und andererseits das kontinuierliche „Verbrennen“ von Minoren-Aktinoiden mit dem Ziel eines relativ kurzlebigen „Atommülls“, der nur noch aus Spaltstoffen besteht. Durch das Salzbad möchte man hohe Betriebstemperaturen bei nahezu Umgebungsdruck erreichen. Bis zum Bau eines Reaktors, ist jedoch noch ein langer Weg zurück zu legen: Es müssen die chemischen (Korrosion) und thermodynamischen Zustandsdaten für solche n-Stoff-Salze bestimmt werden. Es müssen Verfahren zur kontinuierlichen Entgasung der Salzschmelze entwickelt werden, da ein großer Teil der Spaltprodukte (zumindest bei der Betriebstemperatur) gasförmig ist. Für das flüssige Salzgemisch müssen gekoppelte neutronenphysikalische und thermohydraulische Berechnungsverfahren geschaffen werden. Für die radioaktiven Salzgemische sind zahlreiche Sicherheitsversuche zur Datensammlung und Absicherung der Simulationsmodelle nötig. Die Chemie und Verfahrenstechnik der Aufbereitung während des Reaktorbetriebs muß praktisch noch vollständig getestet werden.

Natriumgekühlter schneller Reaktor (SFR)

Der Sodium-cooled Fast Reactor (SFR) verwendet flüssiges Natrium als Kühlmittel. Natrium hat nahezu ideale Eigenschaften: Relativ geringer Schmelzpunkt (98 °C), aber hoher Siedepunkt (890 °C), sehr gute Wärmeleitfähigkeit (140 W/mK) bei annehmbarer Wärmekapazität (1,2 KJ/kgK). Es hat keine korrosiven Eigenschaften, reagiert aber heftig unter Wärmefreisetzung mit Luft und Wasser. Bisher wurden bereits 17 Reaktoren gebaut und drei weitere befinden sich in Russland, Indien und China im Bau.

Ursprüngliches Ziel war die Erschaffung eines „schnellen Brüters“. Mit ihm sollte mehr (thermisch) spaltbares Plutonium erzeugt werden, als dieser Reaktortyp zu seinem Betrieb benötigte. Dieses zusätzlich gewonnene Plutonium sollte dann zum Start weiterer Reaktoren verwendet werden. Inzwischen gibt es aus dem Betrieb von Leichtwasserreaktoren und der Rüstungsindustrie mehr als genug Plutonium auf der Erde. Darüber hinaus sind die Natururanvorräte nahezu unerschöpflich. Deshalb hat sich die Zielrichtung in den letzten Jahren verschoben. Die benutzten Brennelemente aus Leichtwasserreaktoren werden von „Atomkraftgegnern“ abfällig als „Atommüll“ bezeichnet. In Wirklichkeit sind aber das gesamte enthaltene Uran und Plutonium (weit über 95 %) vollständig zur Energiegewinnung nutzbar. Gerade aus dem wertvollsten Material – dem Plutonium – wird wegen dessen langer Halbwertszeit der Bedarf eines Endlagers und dessen „sicherer Einschluß über Millionen von Jahre“ konstruiert. Selbst die Spaltprodukte – als tatsächlicher Abfall der Energieerzeugung durch Kernspaltung – sind (wirtschaftlich) nutzbar.

Man geht heute von einer Erstbeladung eines schnellen natriumgekühlten Reaktors mit einem Gemisch aus Uran und knapp 20% Plutonium aus. Das Plutonium gewinnt man aus den abgebrannten Brennelementen der Leichtwasserreaktoren. Die abgebrannten Brennelemente eines solchen schnellen Reaktors werden nach angemessener Zwischenlagerung in einem elektrochemischen Prozeß (wie z. B. bei der Kupfer- und Aluminiumproduktion) wieder aufbereitet. Bei diesem Wiederaufbereitungsverfahren liegt der Schwerpunkt in der Gewinnung möglichst reiner (kurzlebiger) Spaltprodukte. Alle langlebigen Aktinoiden werden wieder in den neuen Brennelementen weiter verwendet. Das „verbrauchte“ Uran und Plutonium wird dabei durch „Atommüll“ aus Leichtwasserreaktoren ergänzt. Ein solcher Reaktor gleicht also einer „Müllverbrennungsanlage“, in der ja auch „gefährliche Stoffe“ unter gleichzeitiger Stromerzeugung beseitigt werden.

Natriumgekühlte Reaktoren können in beliebiger Größe gebaut werden. Lediglich wenn man Brennstoff erbrüten will (d. h. mehr Plutonium produzieren als man verbraucht) muß der Reaktor geometrisch groß sein, um Neutronenverluste zu vermeiden. Gerade „Aktinoidenbrenner“ können sehr klein und kurzfristig gebaut werden. Die Entwicklung bezieht sich auf die Kombination aus Brennstoff (oxidisch, metallisch, karbidisch und Nitride möglich) und die Wiederaufbereitung (naßchemisch, pyrotechnisch). Es gilt die optimale Kombination aus Werkstoffen und Verfahren zu finden. Ferner sind homogene Brennstoffe und spezielle heterogene Anordnungen zur Verbrennung von Minoren-Aktinoiden denkbar. Diese Anordnungen koppeln wieder auf die Neutronenphysik, die Regelung und damit letztendlich auf die Sicherheit zurück.

Reaktor mit überkritischem Wasser (SCWR)

Wird Wasser oberhalb des kritischen Punktes (374,12 °C bei 221,2 bar) verwendet, ändert es radikal seine chemischen und physikalischen Eigenschaften. Entscheidend ist die kontinuierliche Änderung der Dichte. Es gibt nicht mehr das gleichzeitige Auftreten von Dampf und Flüssigkeit (z. B. Blasen) in einem Behälter.

Ziel von „überkritischen Kesseln“ ist die Steigerung des Wirkungsgrades. So sind heute in modernen Kohlekraftwerken Wirkungsgrade von 46 % möglich. Für den Supercritical-water-cooled reactor (SCWR) ist ein Wirkungsgrad von 44 % angestrebt. Die leidvolle Entwicklungsgeschichte bei konventionellen Kraftwerken hat jedoch gezeigt, daß die Steigerung von Druck und Temperatur mit erheblichen Werkstoffproblemen und damit Kosten verbunden ist. Solange Kernbrennstoffe so billig wie heute sind, scheint dieser Weg bei Reaktoren zumindest wirtschaftlich nicht sinnvoll.

Die gesamte Sicherheitstechnik muß neu durchdacht und experimentell bestätigt werden. Es gibt keine lokale Selbstregelung durch Dampfblasenbildung mehr. Die Gefahr von überhitzten Stellen im Kern muß schon im Normalbetrieb sicher beherrscht werden. Die Notkühlsysteme müssen bei einem Druckabfall sowohl im überkritischen Zustand, als auch im Zwei-Phasenbereich voll wirksam sein. Man kann sich nicht mehr auf den Wasserstand als Stellgröße verlassen, sondern muß auf den Durchfluß übergehen, was wesentlich schwerer zu realisieren ist. Die Wasserchemie ist im überkritischen Zustand wesentlich anders und schwerer zu beherrschen.

Bisher wurden nur Tests mit Komponenten ausgeführt. Man hofft auf dieser Basis in den nächsten fünf Jahren eine Entscheidung für den Bau eines Prototyps fällen zu können. Bis zu einem kommerziell nutzbaren Reaktor dürften noch weit über 20 Jahre vergehen.

Hösttemperaturreaktor (VHTR)

Der Very-High-Temperature Reactor (VHTR) ist eine Weiterentwicklung eines mit Helium gekühlten Reaktors mit thermischem Neutronenspektrum. Es gibt die – ursprünglich in Deutschland entwickelte – Anordnung der Brennelemente als Kugelhaufen oder eine prismatischer Anordnung. Ziel war immer das Erreichen von Betriebstemperaturen von nahezu 1000 °C. Dieser Reaktortyp sollte primär als Wärmequelle in der Verfahrenstechnik (Kohleveredlung etc.) dienen. In diesem Sinne war ein Meilenstein immer das Erreichen einer Temperatur von 950 °C, bei der eine rein thermische Zerlegung von Wasser über einen Schwefel-Jod-Prozeß möglich ist. Dies war als Fundament einer „Wasserstoffwirtschaft“ gedacht. In Deutschland wurde das Konzept einer „kalten Fernwärme“ entwickelt, in dem Methan im Kreislauf läuft und beim Verbraucher lediglich chemisch zerlegt wird und die Bestandteile anschließend wieder mit der Hilfe der Wärme des Kernreaktors wieder zusammengesetzt werden. Der Charme dieses Konzepts liegt in der Fähigkeit, Energie über große Entfernungen mit geringen Verlusten (wie ein Erdgasnetz) transportieren und auch speichern zu können. Stellt man das „Erdgas“ synthetisch aus Kohle her, kann man dieses Gas in das vorhandene Erdgasnetz einspeisen. Interessanterweise wird dieser Gedanke in China aus den gleichen Gründen, wie damals in Deutschland, wieder aufgegriffen: Luftverschmutzung durch Kohle, bei (noch) geringen eigenen Erdgasvorkommen.

Die Entwicklung von Höchsttemperaturreaktoren ist im wesentlichen ein Werkstoffproblem. Wobei nicht übersehen werden darf, daß mit steigender Temperatur der Aufwand und die Kosten exponentiell ansteigen. Allerdings kann diese Entwicklung evolutionär durchgeführt werden. China scheint offensichtlich diesen Weg eingeschlagen zu haben. Ausgehend vom (Nachbau) des deutschen Kugelhaufenreaktors begibt man sich schrittweise vorwärts.

SMR Teil 3 – Innovative Reaktoren

Es gibt inzwischen unzählige Reaktorentwürfe. Es gehört praktisch zum guten Ton einer jeden Forschungsstätte sich mit einer neuen Studie zu schmücken. Je nach Mitteln und Background, reichen (meist) auch Variationen bekannter Prinzipien aus.

Es ist daher sinnvoll, auch bei der Betrachtung „kleiner“ Reaktoren (SMR) den potentiellen Markt nicht außer acht zu lassen. Die Domäne der Kernenergie ist und bleibt die Erzeugung elektrischer Energie. Dies liegt einerseits an der universellen Verwendbarkeit von „Strom“ und andererseits an Gewicht und Volumen eines Kernreaktors. Die Untergrenze für den technisch/wirtschaftlichen Einsatz ist ein Schiff.

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die „Endlichkeit“ von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

  • Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.
  • Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der „kleinen“ Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach „hohen Temperaturen“ hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit „billiger“ Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. „Schnelle Brüter“.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden.

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel.eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet.

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth. komplett und fertig mit Brennstoff beladen auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in „netzfähigen Strom“ erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines „Schulbusses“ hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften wäre selbst ohne Wiederaufbereitung, der „Atommüll“ um 80% geringer als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein „Energieversorger“ mietet sich quasi für 30 Jahre eine „Stromerzeugungseinheit“ und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine „Atommüllprobleme“…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als „Starter“ rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem „unendlichen“ Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer „schneller“ Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor mit einer thermischen Leistung von 840 MWth und 311 MWel. Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel. zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf „schnelle“ Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten „abgebrannten“ Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel. produziert über ein ganzes Jahr – kann man „irgendwo“ lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B~4 C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

  1. Über einen Bypass der Turbine durch den normalen Dampfkreislauf des Kraftwerks.
  2. Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.
  3. Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das „obere Stockwerk“ des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos „an die Luft können“, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was „Atomkraftgegner“ als „Atommüll“ bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit „Bomben-Plutonium“ aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem „Atommüll“ aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt „zwischenlagert“. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth. haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines „schnellen“ Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

  • Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.
  • Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.
  • Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

  • Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall „(lokale) Unterkühlung“ mit entsprechenden Konsequenzen für das Genehmigungsverfahren.
  • Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.
  • Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.
  • Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).
  • Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.
  • Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis – auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren –. dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den „Atomkraftgegnern“ werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC-100 und wer weiß noch, welche sonst alle….

 

 

SMR Teil 2 – Leichtwasserreaktoren

Leichtwasserreaktoren haben in den letzten zwanzig Jahren täglich mehr Energie produziert, als Saudi Arabien Öl fördert. Sie sind die Arbeitspferde der Energieversorger. Kein anders Reaktorkonzept konnte bisher dagegen antreten.

Sieger der ersten Runde des Förderungsprogramm des Department of Energy (DoE) war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Sicherlich kein Zufall, sind doch (fast) alle kommerziellen Reaktoren Leichtwasserreaktoren und B&W ist der Hoflieferant der US-Navy – hat also jahrzehntelange Erfahrung im Bau kleiner Druckwasserreaktoren.

Die Gruppe der kleinen Druckwasserreaktoren

Bei konventionellen Druckwasserreaktoren sind um das „nukleare Herz“, dem Reaktordruckgefäß, die Dampferzeuger (2 bis 4 Stück), der Druckhalter und die Hauptkühlmittelpumpen in einer Ebene gruppiert. Diese Baugruppen sind alle mit dem eigentlichen Reaktor durch dicke und kompliziert geformte Rohrleitungen verbunden. Eine solche Konstruktion erfordert langwierige und kostspielige Montagearbeiten unter den erschwerten Bedingungen einer Baustelle. Die vielen Rohrleitungen bleiben für die gesamte Lebensdauer des Kraftwerks „Schwachstellen“, die regelmäßig gewartet und geprüft werden müssen. Der gesamte Raum muß in einem Containment (Stahlbehälter aus zentimeterdicken Platten) und einer Stahlbetonhülle (meterdick, z. B. gegen Flugzeugabstürze) eingeschlossen werden.

Bei einem Small Modular Reaktor (SMR) stapelt man alle erforderlichen Komponenten vertikal übereinander und packt sie alle zusammen in einen Druckbehälter. Dadurch entfallen die vielen Rohrleitungen und Ventile zu ihrer Verbindung. Was es gar nicht gibt, kann auch nicht kaputt gehen. Der „größte – im Sinne eines Auslegungskriteriums – anzunehmende Unfall“ (GAU, oft zitiert und kaum verstanden), der Verlust des Kühlmittels, wird weniger wahrscheinlich und läßt sich einfacher bekämpfen. Allerdings sind bei dieser „integrierten Bauweise“ die Größen der einzelnen Komponenten begrenzt, will man noch eine transportierbare Gesamteinheit haben. Will man ein Kraftwerk mit heute üblicher Leistung bauen, muß man daher mehrere solcher Einheiten „modular“ an einem Standort errichten.

Geht man von diesem Konstruktionsprinzip aus, erhält man ein röhrenförmiges (kleiner Durchmesser, große Länge) Gebilde. Die Länge – als Bauhöhe umgesetzt – läßt sich hervorragend für passive Sicherheitskonzepte nutzen. Die schlanke Bauweise erlaubt es, den kompletten Reaktor in eine Grube zu versenken: Durch die unterirdische Bauweise hat man einen hervorragenden Schutz gegen alle Einwirkungen von außen (EVA) gewonnen.

Das Grundprinzip der Anordnung übereinander, eint diese Gruppe. Gleichwohl, sind im Detail eine Menge Variationen möglich und vielleicht sogar nötig. So meldete allein nuSkale diesen Monat voller Stolz, daß sie über 100 verschiedene Patente in 17 Ländern für ihren Reaktor angemeldet haben. Inzwischen dürften die SMR-Patente in die Tausende gehen. Nach einer sterbenden Industrie sieht das jedenfalls nicht aus.

Das mPower Konzept

Das „Nuclear Steam Supply System“ (NSSS) von Babcock & Wilcox (B&W) ist besonders schlank geraten: Es hat eine Höhe von über 25 m bei einem Durchmesser von 4 m und wiegt 570 (ohne Brennstoff) bzw. 650 to (mit Brennstoff). Damit soll es in den USA noch auf dem Schienenweg transportierbar sein. Seine Wärmeleistung beträgt 530 MWth und seine elektrische Leistung 155 MWel (mit Luftkondensator) oder 180 MWel bei Wasserkühlung. Ein komplettes Kraftwerk mit zwei Blöcken und allen erforderlichen Hilfs- und Nebenanlagen (300 – 360 MWel) soll einen Flächenbedarf von etwa 16 ha haben. Damit ist die Hauptstoßrichtung klar: Der Ersatz bestehender, alter Kohlekraftwerke.

Das Core besteht aus 69 Brennelementen mit 2413 mm aktiver Länge in klassischer 17 x 17 Anordnung bei einer Anreicherung von weniger als 5 % U235.. Hierbei zielt man auf die kostengünstige Weiterverwendung handelsüblicher Brennelemente für Druckwasserreaktoren ab. Bei diesem kleinen Reaktor kann man damit Laufzeiten von rund 4 Jahren zwischen den Nachladungen erreichen. Durch die Doppelblockbauweise ergibt sich somit eine extrem hohe Arbeitsausnutzung von (erwartet) über 95%. Das integrierte Brennelementelagerbecken kann Brennelemente aus 20 Betriebsjahren aufnehmen.

Die Turmbauweise erlaubt vollständig passive Sicherheitseinrichtungen, wodurch ein Unglück wie in Fukushima (völliger Stromausfall) von vornherein ausgeschlossen ist. Die Brennelemente sitzen ganz unten im Druckbehälter. Darüber kommt die gesamte Steuereinheit (Regelstäbe und ihre Antriebe) und darüber die Dampferzeuger. Ganz oben sitzen die acht Umwälzpumpen und der Druckhalter. Bei einem Stromausfall würden die Regelstäbe sofort und vollautomatisch durch die Schwerkraft in den Reaktorkern fallen und diesen abschalten. Die – im ersten Moment noch sehr hohe – Nachzerfallswärme erwärmt das Kühlwasser weiter und treibt durch den entstehenden Dichteunterschied das Kühlwasser durch den inneren Kamin nach oben. In den höher gelegenen Dampferzeugern kühlt es sich ab und sinkt im Außenraum des Reaktorbehälters wieder nach unten: Ein Naturumlauf entsteht, der für die sichere und automatische Abfuhr der Restwärme sorgt.

Als „Notstrom“ werden nur entsprechende Batterien für die Instrumentierung und Beleuchtung etc. vorgehalten. Große Notstromaggregate mit Schalt- und Hilfsanlagen werden nicht benötigt. Auch hier gilt wieder: Was es gar nicht gibt, kann im Ernstfall auch nicht versagen!

Westinghouse SMR (NextStart Alliance)

Westinghouse hat den ersten Druckwasserreaktor überhaupt entwickelt (Nautilus Atom-U-Boot 1954), das erste kommerzielle Kernkraftwerk (Shippingport 1957) gebaut und ist bei fast allen (westlichen) Druckwasserreaktoren Lizenzgeber. Es ist also nicht überraschend, wenn der Marktführer auch in diesem Segment dabei ist. Die NextStart SMR Alliance ist ein Zusammenschluss mehrerer Energieversorger und Gemeinden, die bis zu fünf Reaktoren im Ameren Missouri’s Callaway Energy Center errichten will.

Der Westinghouse SMR soll eine Leistung von 800 MWth und mindestens 225 MWel haben. Er unterscheidet sich von seinem Konstruktionsprinzip nicht wesentlich vom vorher beschriebenen B&W „Kleinreaktor“. Seine Zykluszeit soll 24 Monate betragen (bei Verwendung der Brennelemente des AP1000). Seine Lastfolgegeschwindigkeit im Bereich von 20 bis 100% Auslegungsleistung beträgt 5% pro Minute. Der Reaktor kann selbstregelnd Lastsprünge von 10 % mit einer Rate von 2% pro Minute dauerhaft ausregeln. Das alte Propagandamärchen der „Atomkraftgegner“ von den „unflexiblen AKW’s“ trifft auch bei diesen Reaktortypen nicht zu. Im Gegenteil dreht Westinghouse den Spieß werbewirksam um und offeriert diesen Reaktor als (immer notwendiges) Backup für Windkraft- und Solaranlagen zur CO2 – freien Stromversorgung.

Westinghouse integriert in das Containment noch einen zusätzlichen Wasservorrat und bekämpft auch noch passiv einen völligen Verlust des Kühlwasserkreislaufes. Damit dieser Störfall eintreten kann, müßte das Druckgefäß des SMR zerstört worden sein. In diesem Fall könnte das Wasser auslaufen und würde sich im Sumpf des Containment sammeln. Damit jeder Zeit der Kern des Reaktors mit Wasser bedeckt bleibt (und nicht wie in Fukushima und Harrisburg teilweise und zeitweise trocken fallen kann), wird automatisch Wasser aus den Speichern im Containment zusätzlich hinzugefügt. Alle Systeme sind so bemessen, daß sich der Reaktor auch nach einem schweren Unglück selbst in einen sicheren Zustand versetzt und mindestens für die folgenden 7 Tage keines menschlichen Eingriffs bedarf.

Wenn nur der Strom total ausfällt, aber das Reaktordruckgefäß nicht geplatzt ist, funktioniert die passive Notkühlung in drei gestaffelten Ebenen. Solange der normale Kühlkreislauf (Kühlturm oder Kühlwasser) noch Wasser enthält, wird über diesen durch Verdunstung die Nachzerfallswärme abgeführt. Versagt dieser sekundäre Kreislauf des Kraftwerks, tritt die innere Notkühlung in Kraft. Das kalte und borierte Wasser in den Nottanks strömt in den Reaktor. Gleichzeitig kann das heiße Wasser den Reaktor verlassen und in die Notkühlbehälter zurückströmen – es entsteht ein Naturumlauf. Damit das Wasser in den Notkühlbehältern auch weiterhin „kalt“ bleibt, besitzt jeder dieser Behälter im oberen Teil einen Wärmeübertrager. Diese Wärmeübertrager sind außerhalb des Containment mit „offenen Schwimmbecken“ verbunden, die durch Verdunstung die Energie an die Umwelt abgeben können. Bricht auch dieser Kühlkreislauf in sich zusammen, kann die Wärme immer noch durch Verdampfung des Wassers im Sumpf des Containment und durch anschließende Kondensation an der Oberfläche des Containment abgeführt werden.

Ausdrücklich wird der Markt für diesen Reaktortyp auch in der Fernwärmeversorgung und zur Meerwasserentsalzung gesehen. Peking hat z. B. viele Kohleheizwerke, die stark zur unerträglichen Luftverschmutzung beitragen. Es ist also kein Zufall, daß bereits Kooperationsverhandlungen laufen.

NuScale

Diese Variante ist aus einem durch das U.S. Department of Energy (USDOE) geförderten Forschungsprojekt am Idaho National Environment & Engineering Laboratory (INEEL) und der Oregon State University (OSU) hervorgegangen. Im Jahre 2008 hat dieses „Startup“ einen Genehmigungsantrag bei der US Nuclear Regulatory Commission (USNRC) für einen 45 MWel. Reaktor gestellt. Im Jahr 2011 ist das Unternehmen praktisch vollständig von FLUOR übernommen worden. Es besteht zudem eine sehr enge Verbindung mit Rolls-Royce.

Das NuScale Modul hat nur eine thermische Leistung von 160 MWth und eine elektrische Leistung von mindestens 45 MWel.. Bei einem Durchmesser von 4,5 m, einer Höhe von 24 m und einem Gewicht von 650 to ist es aber fast genau so groß, wie die beiden schon vorgestellten SMR. Die geringe Energiedichte führt zu einer starken Vereinfachung. Das Unternehmen gibt die spezifischen Investitionskosten mit weniger als 5.000 $/kW an.

Bei dem Konzept handelt es sich um einen Zwitter aus Siedewasser- und Druckwasserreaktor. So etwas ähnliches gab es auch schon in Deutschland, unter der Bezeichnung FDR, als Antrieb der Otto Hahn. Dieses Konzept hat sich schon damals als sehr robust und gutmütig erwiesen. Der NuSkale SMR kommt völlig ohne Umwälzpumpen aus. Man nimmt im Reaktorkern einen etwas höheren (als bei einem reinen Druckwasserreaktor üblichen) Dampfanteil in Kauf, bekommt dafür aber einen großen Dichteunterschied (bezogen auf das „kalte“ Eintrittswasser), der hervorragend einen Naturumlauf anregt. Allerdings erzeugt man keinen Dampf, den man direkt auf die Turbine gibt (wie bei einem Siedewasserreaktor), sondern „beheizt“ damit nur die zwei in dem Reaktordruckgefäß integrierten Dampferzeuger. Man hat also wie bei einem konventionellen Druckwasserreaktor einen physikalisch voneinander getrennten Primär- (durch den Reaktorkern) und Sekundärkreislauf (über die Turbine).

Das NuScale-Konzept bricht radikal mit einigen Gewohnheiten:

  • Man geht von bis zu zwölf Reaktoren aus, die zu einem Kraftwerk mit dann mindestens 540 MWel. zusammengefaßt werden Sie sollen in zwei Reihen zu sechs Reaktoren in einem „unterirdischen Schwimmbecken“ angeordnet werden. Bei einem Ladezyklus von 24 Monaten, könnte somit alle zwei Monate ein Brennelementewechsel erfolgen. Bei einem zusätzlichen „Reservemodul“ könnte das Kraftwerk nahezu mit 100 % Arbeitsausnutzung durchlaufen. Die „Auszeit“ eines konventionellen Kernkraftwerk entfällt. Ebenso wird die Personalspitze(üblicherweise mehr als 1000 Leute beim Brennelementewechsel) vermieden. Der Brennelementewechsel mit seinen Wiederholungsprüfungen wird zu einem stetigen „Wartungsprozess“ umgestaltet. Dies kann zu beträchtlichen Kosteneinsparungen führen.
  • Durch den Verzicht von Umwälzpumpen wird die Konstruktion noch einmal stark vereinfacht.
  • Durch die Aufstellung in einem „großen Schwimmbecken“ sind die Reaktoren vor Erdbeben und Druckwellen praktisch vollkommen geschützt. Überflutungen (Fukushima) sind kein Sicherheitsrisiko mehr, da ja die Reaktoren ohnehin ständig im Wasser stehen.
  • Die Reaktoren verzichten vollständig auf Wechselstrom (Fukushima) und benutzen lediglich passive Sicherheits- und Kühlsysteme. Elektrische Energie ist nur für die Instrumentierung und Beleuchtung notwendig. Relativ kleine Batterien sind hierfür ausreichend. Der Batterie- und Kontrollraum befindet sich im unterirdischen Teil des Kraftwerks.
  • Selbst wenn es zu einer Beschädigung des Reaktorkerns kommen würde (Fukushima), würden radioaktive Stoffe im Schwimmbecken und Reaktorgebäude zurückgehalten werden. Außerdem beträgt das radioaktive Inventar in jedem Modul weniger als 5% eines konventionellen Reaktors. Somit ist auch die bei einem Unfall abzuführende Restwärme entsprechend klein.
  • Im Containment herrscht Vakuum. Eine Bildung explosiver Gase (Fukushima) ist somit ausgeschlossen. Es wirkt wie eine Thermosflasche. Zusätzliche Isolierungen sind nicht erforderlich. Andererseits würde es bei einer Zerstörung des eigentlichen Druckbehälters, den entweichenden Dampf aufnehmen und eine „Wärmebrücke“ zum umgebenden Wasser herstellen.

Die überragende sicherheitstechnische Philosophie dieses Konzeptes ist, daß sich auch nach schwersten Zerstörungen (z. B. Tsunami in Fukushima) der Reaktor ohne menschliche Eingriffe selbsttätig in einen sicheren Zustand überführt und dort ohne jeden (nötigen) Eingriff ewig verbleibt! Dies mag noch einmal an der „Notkühlung“ verdeutlicht werden: Wenn die äußere Wärmesenke entfällt (Ausfall der Kühlwasserpumpen in Fukushima durch den Tsunami), alle Stromquellen ausfallen (Zerstörung der Schaltanlagen und Notstromaggregate durch die Flutwelle in Fukushima), dient das „Schwimmbecken“ zur Aufnahme der Nachzerfallswärme. Es ist so bemessen, daß sein Wasserinhalt durch Erwärmung und Verdunstung den Reaktorkern sicher kühlt. Selbst, wenn man kein Wasser nachfüllen würde, wäre es erst nach etwa einem Monat leer. Dann aber, ist die Nachzerfallswärme bereits so stark abgeklungen (< 400 kW pro Modul), daß die „Luftkühlung“ in dem nun leeren Wasserbecken, sicher ausreichen würde.

Das Brennelementelagerbecken ist zur Aufnahme von 15 Betriebsjahren ausgelegt. Es befindet sich ebenfalls im unterirdischen Teil und kann für mindestens 30 Tage ohne zusätzliches Wasser auskommen (Fukushima). Es besteht aus einem Edelstahlbecken in einer Stahlbetonwanne. Stahlbecken und Betonwanne sind seismisch von einander isoliert, sodaß auch schwerste Erdbeben praktisch wirkungslos für die gelagerten Brennelemente sind.

Die NuScale Konstruktion ist ein schönes Beispiel, wie man Jahrzehnte alte Entwürfe der Leichtwasserreaktoren noch einmal ganz neu durchdenken kann. Es ist der radikalste Ansatz unter den zur Genehmigung eingereichten Konzepten. Die Wahrscheinlichkeit für eine schwere Beschädigung des Reaktorkerns mit teilweiser Kernschmelze – wie in Harrisburg und Fukushima geschehen – verringert sich auf unter ein Ereignis in zehn Millionen Betriebsjahren. Selbst wenn es eintreten würde, wären die Auswirkungen auf die Umwelt noch geringer. Es wird bereits diskutiert, ob bei diesem Reaktortyp überhaupt noch eine „Sicherheitszone“ mit potentieller Evakuierung der Anwohner, erforderlich ist. Jedenfalls gibt es in USA bereits ein reges Interesse zahlreicher Gemeinden und Städte zur dezentralen, kostengünstigen, umweltschonenden und krisensicheren (Wirbelstürme, Tornados, etc.) Versorgung mit Strom und Fernwärme.

Holtec international

Einem klassischen Reaktor noch am ähnlichsten, ist das von Holtec im Jahre 2012 eingereichte Konzept des „Holtec Inherently-Safe Modular Reactor“ (HI-SMUR) mit einer geplanten Leistung von 145 MWel.. Er besteht aus den klassischen drei Baugruppen: Reaktor, Dampferzeuger und Druckhalter. Der Druckbehälter ist ein fast 32 m langes Gebilde, welches in einer brunnenförmigen Grube versenkt ist. Es ist mit den Dampferzeugern entweder durch ein „Rohrstück“ (senkrechte Variante) verbunden oder die waagerechten Dampferzeuger sind direkt angeschweißt. Liegende Dampferzeuger sind nur bei russischen Konstruktionen gebräuchlich. Werden stehende Dampferzeuger verwendet, baut dieser Typ oberirdisch noch einmal 28 m hoch.

Der Entwurf ist sehr eigenwillig. Man hat ursprünglich waagerechte Dampferzeuger mit separater Überhitzung vorgesehen. Angeblich kann man durch eine angestrebte Überhitzung auf handelsübliche Industrieturbinen zurückgreifen. Man verzichtet auf Umwälzpumpen, bei gleichzeitig großem Abstand vom Siedezustand. Man ist deshalb auf eine sehr große Temperaturspreizung (TE = 177 °C und TA = 302 °C bei p = 155 bar) angewiesen. Eine regenerative Speisewasservorwärmung ist praktisch ausgeschlossen. Das ganze ähnelt eher einer Dampflokomotive, als einem modernen Kraftwerk.

Das Brennstoffkonzept ist auch etwas ungewöhnlich. Es ist keine Borierung zur Kompensation der Überschußreaktivität vorgesehen. Das heißt, es muß alles über abbrennbare Gifte (Gd und Er) geschehen. Der gesamte Brennstoff soll sich in einer Kartusche aus nur 32 Brennelementen befinden. Bei einem so kleinen Core dürfte der Neutronenfluß nur sehr schwer in den Griff zu bekommen sein bzw. jeder Brennstab müßte eine individuelle Anreicherung erhalten. Man will die Kassette nach 100 h (Nachzerfallswärme) in einem Stück auswechseln. Ein Brennelementewechsel soll so weniger als eine Woche dauern. Gleichwohl, soll die Zykluszeit 42 Monate betragen. Wenn sich nicht einige revolutionäre Erfindungen dahinter verbergen, die bisher noch nicht öffentlich zugänglich sind, dürfte eher der Wunsch der Vater sein.

Bisher kooperiert Holtec mit Shaw und Areva. Ein Prototyp wäre auf der Savannah River Site des DoE’s geplant. Die Bauzeit wird mit nur 2 Jahren, bei Kosten von nur 675 Millionen US-Dollar angegeben. Man wird sehen.

Carem

Anfang Dezember 2013 wurde der Auftrag für das Reaktordruckgefäß des „Central Argentina de Elementos Modulares“ CAREM-Reaktor erteilt. Es handelt sich dabei um ein 200 to schweres, 11 m hohes Gefäß mit einem Durchmesser von 3,5 m. Es ist für den Prototyp eines argentinischen SMR mit einer Leistung von 25 MWel gedacht. Später soll dieser Reaktor eine Leistung von 100 bis 200 MWel. erreichen. Es handelt sich ebenfalls um eine voll integrierte Bauweise, mit ausschließlich passiven Sicherheitseinrichtungen.

Schwimmender SMR aus Russland

Der staatliche russische Hersteller Rosenergoatom baut in Petersburg eine Barge mit zwei Reaktoren, die nach Chukotka in Sibirien geschleppt werden soll, um dort Bergwerke mit Energie zu versorgen. Die Reaktoren sind eine zivile Abwandlung der KLT-40S Baureihe für Eisbrecher, mit einer Leistung von 35 MWel. Vorteil dieses „Kraftwerks“ ist, daß es auf einer seit Jahren erprobten Technik basiert. Die russische Eisbrecherflotte versieht zuverlässig ihren Dienst im nördlichen Eismeer. Ein nicht zu unterschätzender Vorteil bei der Versorgung entlegener Gegenden.

Sehr Interessant ist das Geschäftsmodell. Eine solche barge wird fix und fertig zum Einsatzort geschleppt. Der Kunde braucht nur für den Stromanschluss an Land zu sorgen. Weitere Investitionen oder Unterhaltskosten fallen für ihn nicht an. Nach drei Jahren wird die barge für einen Brennelementewechsel und notwendige Wiederholungsprüfungen abgeschleppt und durch eine andere barge ersetzt. Da bei einem Kernkraftwerk die Brennstoffkosten ohnehin eine untergeordnete Rolle spielen, kann der Kunde das Kraftwerk für eine pauschale Jahresgebühr mieten. Ob und wieviel Strom er verbraucht, braucht ihn nicht mehr zu kümmern. Eine feste Kalkulationsgrundlage, die für Öl- und Minengesellschaften höchst verlockend ist. Als einzige Hürde in westlichen Regionen erscheint lediglich (noch) das „Made in Russia“. Jedenfalls hat er keine Vorauszahlungen zu leisten, hat keinerlei Reparaturkosten und braucht sich nicht um die Entsorgung des „Atommülls“ zu kümmern. Russland kann seinen „Heimvorteil“ des geschlossenen Brennstoffkreislaufs voll ausspielen.

Parallel hat Russland noch ein größeres Modell mit 300 MWel auf der Basis des VBER-300 PWR Druckwasserreaktors in der Entwicklung.

Abschließender Hinweis

Dieser Artikel kann und soll nur einen Überblick über den Stand der internationalen Entwicklung geben. Wer bis hierhin nicht durch so viel Technik abgeschreckt worden ist, dem empfehle ich, einfach mal die Typen und Hersteller zu googeln. Besonders die Seiten der Hersteller verfügen über zahlreiche Zeichnungen und Animationen. Zwar ausnahmslos in Englisch, aber mit der Grundlage dieses Artikels lassen sie sich hoffentlich auch für nicht Techniker verstehen.

 

SMR Teil 1 – nur eine neue Mode?

Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht

In letzter Zeit wird wieder verstärkt über „kleine, bausteinförmig aufgebaute Kernkraftwerke“ diskutiert. Wie immer, wenn es ums Geld geht, war der Auslöser ein Förderungsprogramm des Department of Energy (DoE) in den USA. Hersteller konnten sich um einen hälftigen Zuschuss zu den Kosten für das notwendige Genehmigungsverfahren bewerben. Der Gewinner bekommt vom amerikanischen Staat fünf Jahre lang die Kosten des Genehmigungsverfahrens und die hierfür notwendigen Entwicklungs- und Markteinführungskosten anteilig ersetzt. Es gibt die Förderung nur, wenn das Kraftwerk bis 2022 fertig ist (es handelt sich also um kein Forschungs- und Entwicklungsprogramm) und man muß sich zusammen mit einem Bauherrn bewerben.

Sieger der ersten Runde war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Eine sehr konservative Entscheidung: Babcock & Wilcox hat bereits alle Reaktoren der US Kriegsschiffe gebaut und besitzt deshalb jahrzehntelange Erfahrung im Bau kleiner (militärischer) Reaktoren. Bechtel ist einer der größten internationalen Ingenieurfirmen mit dem Schwerpunkt großer Bau- und Infrastrukturprojekte. Tennessee Valley Authority ist ein öffentliches Energieversorgungsunternehmen. Wie groß die Fördersumme letztendlich sein wird, steht noch nicht fest. Die in der Öffentlichkeit verbreiteten 452 Millionen US-Dollar beziehen sich auf das gesamte Programm und nicht jeden Hersteller. Insofern war die Entscheidung für den Kandidaten, mit dem am weitesten gediehenen Konzept, folgerichtig.

Die Wirtschaftlichkeit

An dieser Stelle soll nicht auf den Preis für eine kWh elektrischer Energie eingegangen werden, da in diesem frühen Stadium noch keine ausreichend genauen Daten öffentlich zugänglich sind und es rein spekulativ wäre. Es sollen viel mehr ein paar qualitative Überlegungen angestellt werden.

Man geht von deutlich unter einer Milliarde US-Dollar pro SMR aus. Auch, wenn man nur eine Stückzahl von 100 Stück annimmt, ergibt das den stolzen Umsatz von 100 Milliarden. Dies entspricht in etwa dem „Modellwert“ in der Flugzeugindustrie. Damit wird sofort klar, daß das keine Hinterhof-Industrie werden kann. Der Weltmarkt wird unter einigen wenigen Konsortien von der Größenordnung Boing oder Airbus unter sich aufgeteilt werden! Wer zu lange wartet, hat praktisch keine Chance mehr, in diesen Markt einzusteigen. Ob Europa jemals noch ein Konsortium wie Airbus schmieden kann, ist mehr als fraglich. Die Energieindustrie wird wohl nur noch von den USA und China bestimmt werden.

Es ergeben sich auch ganz neue Herausforderungen für die Finanzindustrie durch die Verlagerung des Risikos vom Besteller zum Hersteller. Bisher mußte ein Energieversorger das volle Risiko allein übernehmen. Es sei hier nur das Risiko einer nicht termingerechten Fertigstellung und das Zinsänderungsrisiko während einer Bauzeit von zehn Jahren erwähnt. Zukünftig wird es einen Festpreis und kurze Bauzeiten geben. Die Investition kann schnell wieder zurückfließen. Daraus erklärt sich der Gedanke, ein Kernkraftwerk heutiger Größenordnung zukünftig aus bis zu einem Dutzend einzelner Anlagen zusammen zu setzen. Sobald der erste Reaktor in Betrieb geht, beginnt der Kapitalrückfluss. Man spielt plötzlich in der Liga der Gaskraftwerke!

Damit stellt sich aber die alles entscheidende Frage: Wer ist bereit, das finanzielle Risiko zu tragen? China hat sich durch den Bau von 28 Kernkraftwerken eine bedeutende Zulieferindustrie aufgebaut. Auch die USA verfügen über eine solche. Das Risiko auf verschiedene Schultern zu verteilen, ist ein probates Mittel. Europa müßte sich unter – wahrscheinlich französisch-britischer Führung – mächtig sputen, um den Anschluß nicht zu verlieren. Im Moment sieht es eher so aus, als wenn Frankreich, Großbritannien und die USA gleichermaßen um die Gunst von China buhlen.

Um es noch einmal in aller Deutlichkeit zu sagen: Europa fehlt es nicht an technischen Möglichkeiten und an Finanzkraft, sondern am politischen Willen. Es ist das klassische Henne-Ei-Problem: Ohne ausreichende Bestellungen, ist keiner bereit, in Fertigungsanlagen zu investieren. Wer aber, sollte diesen Mut aufbringen, ausgerechnet in Deutschland, wo es keinen Schutz des Eigentums mehr gibt, wo eine Hand voll Politiker nach einem Tsunami im fernen Japan, mit einem Federstrich, Milliarden vernichten können und die breite Masse dazu auch noch Beifall klatscht?

Fertigung in einer Fabrik

Bisher wurden Kernreaktoren mit immer mehr Leistung gebaut. Inzwischen wurde beim EPR von Areva fast die 1700 MWel erreicht. Man macht damit Kernkraftwerke und ihre Komponenten selbst zu einem Nischenprodukt. Nur wenige Stromnetze können so große Blockgrößen überhaupt verkraften. Andererseits wird der Kreis der Zulieferer immer kleiner. Es gibt weltweit nur eine Handvoll Stahlwerke, die überhaupt das Rohmaterial in der erforderlichen Qualität liefern können. Hinzu kommen immer weniger Schmieden, die solch große Reaktordruckgefäße, Turbinenwellen, Schaufeln etc. bearbeiten können. Je kleiner die Stückzahlen und der Kreis der Anbieter wird, um so teurer das Produkt.

Es macht aber wenig Sinn, kleine Reaktoren als verkleinertes Abbild bisheriger Typen bauen zu wollen. Dies dürfte im Gegenteil zu einem Kostenanstieg führen. Will man kostengünstige SMR bauen, muß die gesamte Konstruktion neu durchdacht werden. Man muß praktisch mit dem weißen Blatt von vorne beginnen. Typisches Beispiel ist die Integration bei einem Druckwasserreaktor: Bei der konventionellen Bauweise ist jede Baugruppe (Druckgefäß, Dampferzeuger, Umwälzpumpen, Druckhalter) für sich so groß, daß sie isoliert gefertigt und transportiert werden muß und erst am Aufstellungsort durch Rohrleitungen miteinander verbunden werden kann. Damit wird ein erheblicher Arbeits- und Prüfaufwand auf die Baustelle verlegt. Stundensätze auf Baustellen sind aber wegen ihrer Nebenkosten stets um ein vielfaches höher, als in Fabriken. Gelingt es, alle Baugruppen in das Druckgefäß zu integrieren, entfallen alle notwendigen Montagearbeiten auf der Baustelle, weil ein bereits fertiger und geprüfter „Reaktor“ dort angeliefert wird. Bauteile, die es gar nicht gibt (z. B. Rohrleitungen zwischen Reaktordruckgefäß und Dampferzeugern) müssen auch nicht ständig gewartet und wiederholt geprüft werden, was auch noch die Betriebskosten erheblich senkt.

Wenn alle Bauteile wieder „kleiner“ werden, erweitert sich auch automatisch der potentielle Herstellerkreis. Die Lieferanten können ihre Fertigungsanlagen wieder besser auslasten, da sie nicht so speziell sein müssen. Es ist wieder möglich, eine nationale Fertigung mit akzeptablen Lieferzeiten zu unterhalten.

Durch die Fertigung von Bauteilen in geschlossenen Hallen ist man vor Witterungseinflüssen (oder schlicht Dreck) geschützt, was die Kosten und das Ausschussrisiko senkt. Eine Serienfertigung führt durch den Einsatz von Vorrichtungen und die Umlage von Konstruktions- und Entwicklungskosten etc. zu geringeren Kosten. Die Standardisierung senkt Schulungskosten und erhöht die Qualität.

In der Automobilindustrie ist die Teilung in Markenhersteller und Zulieferindustrie üblich. Gelingt es Bauteile für Kernkraftwerke zu standardisieren, kann sich auch eine kerntechnische Zulieferindustrie etablieren. Ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken ist dem erforderlichen „nuclear grade“ geschuldet. Es ist kein Einzelfall, daß ein und das selbe Teil für Kernkraftwerke durch diesen Status (Dokumentation, Zulassung etc.) oft ein Vielfaches des „handelsüblichen“ kostet. Ein wesentlicher Schritt für den Erfolg, ist dabei die klare Trennung in „sicherheitsrelevante“ und „sonstige“ Teile. Eine Vorfertigung und komplette Prüfung von Baugruppen kann dabei entscheidend sein. Wird beispielsweise das Notkühlsystem komplett passiv ausgelegt – also (fast) keine elektrische Energie benötigt – können die kompletten Schaltanlagen usw. in den Zustand „normales Kraftwerk“ entlassen werden.

Was ist die richtige Größe?

Die Bandbreite der elektrischen Leistung von SMR geht etwa von 40 bis 300 MWel. Die übliche Definition von „klein“ leitet sich von der Baugröße der Zentraleinheit ab. Sie sollte noch in einem Stück transportierbar sein. Dies ist eine sehr relative Definition, die sich beständig nach oben ausweitet. Es werden heute immer größere Einheiten (Ölindustrie, Schiffbau usw.) auch über Kontinente transportiert. Der Grundgedanke bei dieser Definition bleibt aber die Zusammenfassung eines „kompletten“ Reaktors in nur einem Teil und die Funktionsprüfung vor der Auslieferung, in einer Fabrik.

Sinnvoller erscheint die Definition nach Anwendung. Grundsätzlich sind Insellösungen und die Integration in vorhandene Netze unterscheidbar. Besonders abgelegene Regionen erfordern einen erheblichen Aufwand und laufende Kosten für die Energieversorgung. Auf diese Anwendung zielt beispielsweise das russische Konzept eines schwimmenden Kernkraftwerks. Die beiden je 40 MWel Reaktoren sollen nach Chuktoa in Ost-Sibirien geschleppt werden und dort Bergwerke versorgen. Sehr großes Interesse existiert auch im kanadischen Ölsandgebiet. Ein klassischer Anwender war früher auch das US-Militär. Es besitzt wieder ein verstärktes Interesse, abgelegene Militärstützpunkte durch SMR zu versorgen. Langfristig fallen in diese Kategorie auch Chemieparks und Raffinerien.

Kernkraftwerke unterliegen – wie alle anderen Kraftwerke auch – prinzipiell einer Kostendegression und Wirkungsgradverbesserung mit steigender Leistung. Es ist deshalb bei allen Kraftwerkstypen eine ständige Vergrößerung der Blockleistungen feststellbar. Heute wird die maximale Leistung hauptsächlich durch das Netz bestimmt. Man kann die Grundregel für Neuinvestitionen (stark vereinfacht) etwa so angeben:

  • Baue jeden Block so groß, wie es das Netz erlaubt. Das Netz muß Schnellabschaltungen oder Ausfälle vertragen können.
  • Baue von diesen Blöcken auf einem Gelände so viel, wie du kannst. Wieviel Ausfall kann das Netz bei einem Ausfall einer Übertragungsleitung verkraften? Wie kann die Brennstoffversorgung am Standort gewährleistet werden (Erdgaspipeline, Eisenbahnanschluss, eigener Hafen etc.)? Wie groß ist das Kühlwasserangebot und wie sind die Randbedingungen bezüglich des Umweltschutzes?

Aus den vorgenannten Überlegungen ergeben sich heute international Blockgrößen von 200 bis 800 MWel, bei zwei bis acht Blöcken an einem Standort.

Wie groß der potentielle Markt ist, sieht man allein an der Situation in den USA. Dort müssen wegen verschärfter Bestimmungen zur Luftverschmutzung (Mercury and Air Toxic Standards (MATS) und Cross-State Air Pollution Rule (CSDAPR)) bis 2016 rund 34 GWel Kohlekraftwerke vom Netz genommen werden. Neue Kohlekraftwerke dürfen praktisch nicht mehr gebaut werden. Die Umstellung auf Erdgas kann wegen der erforderlichen Gasmengen und des daraus resultierenden Nachfragedrucks nur eine Übergangslösung sein. Da die „alten Kohlekraftwerke“ relativ klein sind, würde ein Ersatz nur durch „große“ Kernkraftwerke einen erheblichen Umbau der Netzstruktur erforderlich machen. Eine schmerzliche Erfahrung, wie teuer Zentralisierung ist, macht gerade Deutschland mit seinem Programm „Nordseewind für Süddeutschland“. Insofern brauchen SMR auch nur mit „kleinen“ Kohlekraftwerken (100 bis 500 MWel) konkurrieren, die der gleichen Kostendegression unterliegen.

Das Sicherheitskonzept

Bei der Markteinführung von SMR gibt es kaum technische, aber dafür um so größere administrative Probleme. Aus diesem Grund rechtfertigt sich auch das staatliche Förderprogramm in den USA. Die Regierung schreibt zwingend eine Zulassung und Überwachung durch die NRC vor. Dieses Verfahren muß vollständig durch die Hersteller und Betreiber bezahlt werden. Die Kosten sind aber nicht nur (mit dem jedem Genehmigungsantrag innewohnenden) Risiko des Nichterfolges versehen, sie sind auch in der Höhe unkalkulierbar. Die Prüfung erfolgt in Stundenlohnarbeit, zu Stundensätzen von knapp 300 US-Dollar! In diesem System begründet sich ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken. Die NRC hat stets – nicht ganz uneigennützig – ein offenes Ohr für Kritik an der Sicherheit von Kernkraftwerken. Mögen die Einwände auch noch so absurd sein. Als „gute Behörde“ kann sie stets „Bürgernähe“ demonstrieren, da die Kosten durch andere getragen werden müssen, aber immer den eigenen Stellenkegel vergrößern. Dieses System gerät erst in letzter Zeit in das Licht der Öffentlichkeit, nachdem man erstaunt feststellt, um wieviel billiger und schneller beispielsweise in China gebaut werden kann. Nur mit geringeren Löhnen, läßt sich das jedenfalls nicht allein erklären.

Die „Massenproduktion“ von SMR erfordert völlig neue Sicherheitskonzepte. Auf die technischen Unterschiede wird in den weiteren Teilen noch ausführlich eingegangen werden. Die Frage ist eher, welches Niveau man als Bezugswert setzt. Einem überzeugten „Atomkraftgegner“ wird nie ein Kraftwerk sicher genug sein! Im Gegenteil ist die ständige Kostentreiberei ein zentrales „Kampfmittel“. Allerdings wird durch die Erfolge von China und Korea das Märchen von der „ach so teuren Atomkraft“ immer schwerer verkaufbar. Selbst in einem tiefgläubigen Land wie Deutschland, muß man daher immer mehr auf andere Strategien (z. B. angeblich ungelöste „Entsorgung“) ausweichen. Sollte man jedoch das heute erreichte Sicherheitsniveau als Grenzwert setzen, lassen sich bei den meisten SMR-Konzepten bedeutende Kostenvorteile erreichen. Es ist nicht auszuschließen, daß das – außerhalb Deutschlands – so gesehen wird. Andererseits kann man durch zusätzliche Sicherheitsmaßnahmen die Auswirkungen auf das Umfeld auch bei schwersten Störfällen so stark begrenzen, daß ein Einsatz innerhalb des Stadtgebiets z. B. zur Fernwärmeversorgung akzeptabel wird. Könnte sogar sein, daß SMR in Städten mit starker Luftverschmutzung hoch willkommen sind.

Es gibt aber durchaus einige offene Fragen. Je mehr Standorte es gibt, um so aufwendiger ist die Organisation eines lückenlosen Überwachung- und Bewachungssystems. Heute hat jedes US-Kernkraftwerk zwischen 400 und 700 Festangestellte. Allein die „eigene Privatarme“ umfaßt durchschnittlich 120 Mann. Für jeden Reaktor gibt es ständig zwei – vom Energieversorger zu bezahlende – NRC-Kontrolleure.

International sind Abkommen zu treffen, die sich über die gegenseitige Anerkennung von Zulassungen und Prüfungen verständigen. Es macht keinen Sinn, wenn jedes Land von neuem das gesamte Genehmigungsverfahren noch einmal wiederholt. Bisher gilt eine NRC-Zulassung international als „gold standard“. Es würde sich lohnen, wenn die Kerntechnik sich hierbei an der internationalen Luftfahrt orientiert. Ebenfalls ein Bereich mit sehr hohen Sicherheitsanforderungen.

Nach allgemeiner Auffassung sollten die Lieferketten in „nuclear“ und „non nuclear“ unterteilt betrachtet werden. Die Lieferketten für alle sicherheitstechnisch bedeutenden Teile (Brennelemente, Dampferzeuger, Kühlmittelpumpen usw.) müssen schon sehr früh in der Genehmigungsphase stehen, da ihre Entwürfe unmittelbar mit der Sicherheit verbunden sind. Die Zulieferer müssen sehr eng mit dem eigentlichen Kraftwerkshersteller verknüpft werden. Es ergibt sich ein ähnliches Geschäftsmodell, wie in der Automobilindustrie. Dort werden die Zulieferer mit ihrem speziellen Wissen und Erfahrungen möglichst früh und eng in den Entwicklungsprozess einbezogen. Diese Lieferketten sollten für die Bauartzulassung (vorübergehend) festgeschrieben werden. Es sollten Bauteile gebaut und eingehend geprüft werden. Während dieses Prozesses sind alle Produktionsschritte und Prüfverfahren genau zu dokumentieren, um den Herstellerkreis später ausweiten zu können. Alle sonstigen Bestandteile des Kraftwerks können im Industriestandard und nach lokalen Gegebenheiten unmittelbar nach der jeweiligen Auftragsvergabe vergeben werden.

Hinweis

Dieser erste Teil beschäftigt sich mehr mit den grundsätzlichen Eigenheiten sog. „Small Modular“ Reaktoren. Die Betonung liegt hier auf der energiewirtschaftlichen Betrachtung. Es folgt ein zweiter Teil, der sich näher mit der Technik von SMR in der Bauweise als Leichtwasserreaktor beschäftigt. Ein dritter Teil wird auf die ebenfalls im Bewerbungsverfahren befindlichen schnellen Reaktoren eingehen.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….