Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Jetzt Braunkohle

Nachdem man die Abschaltung der Kernkraftwerke in Deutschland durchgesetzt hat, konzentriert sich die „Öko-Bewegung“ nun auf die Braunkohle.

Die erschreckenden Parallelen zur „Anti-Atomkraft-Bewegung

Die Bilder aus der Lausitz vom Pfingstwochenende gleichen erschreckend denen aus Gorleben: Besetzte Eisenbahnlinien und Erstürmung des Geländes. Das Vorgehen ist immer gleich und wird zwangsläufig in Ausschreitungen enden, auch wenn es diesmal noch glimpflich abging.

Genau wie bei der „Anti-Atomkraft-Bewegung“ steht am Anfang die Schaffung von Ängsten: Dort die „Strahlenangst“, hier die „Klimakatastrophe“. Diese Ängste treiben dann gutgläubige Menschen zu „Protestaktionen“, die wiederum die (eigentlich bekannten) Hooligans als Deckung für ihre Gewaltorgien benötigen.

Es ist aber nicht nur die Aufführung gleich, sondern auch das Theaterstück selbst, welches „Gesellschaftsveränderung“ heißt. Dies wird meist von den Betroffenen gar nicht durchschaut. Wenn man noch vor wenigen Jahren auf den wahren Hintergrund der „Anti-Atomkraft-Bewegung“ hingewiesen hat, wurde man eher mitleidig angeschaut und von den Kombinatsleitern belehrt, es sei ihnen egal, womit sie Umsatz machen würden. Ihr Herz hinge nicht an der Kernenergie. Oh heilige Einfalt! Der Gipfel der Unterwürfigkeit war dann das „Vor-Weg-Gehen“ bei der „Energiewende“. Jeder private Kapitalgeber hätte solchen Vorständen wegen ihrer andauernden Kapitalvernichtung längst den Stuhl vor die Türe gesetzt. In der typisch deutschen Art, versucht der sich über den Dividendenausfall erstaunt gebende Stadtkämmerer, lieber die Bäder und Theater zu schließen und der Kombinatsleiter wünscht sich dringend weitere Subventionen wegen der Arbeitsplätze. Man könnte auch sagen: Macht nichts, zahlen tut immer der Bürger. Von der Hand zu weisen ist diese Einstellung nicht, macht doch der Bürger immer die gleichen Kreuze in der Wahlkabine – jedenfalls bisher. Man könnte auch sagen: Selbst Schuld.

Energiewende einmal anders gedacht

Stellen sie sich einmal vor, sie hätten von der grandiosen Idee erfahren, man könnte mit Wind und Sonne elektrische Energie erzeugen. Geht nicht, meinen sie? Doch, dazu müssen sie sich nur auf das geistige Niveau eines bekannten SPD-Politikers herablassen: „Die-Sonne-schickt-keine-Rechnung“. Sie besorgen sich also Angebote über Windmühlen und alle möglichen Sonnenkollektoren. Jetzt rechnet ihnen jede Bank – wirklich jede – vor, daß sie ihren teuren Strom nicht verkaufen können. Dafür haben sie eine Lösung parat: Ihnen gut bekannte Politiker vom Typ „Kleiner-Klassenkämpfer“, die immer sofort dabei sind, wenn sie die Worte Profite, Konzerne und Kapitalisten vernehmen. Das „Erneuerbare-Energien-Gesetz“ ist geboren. Auf geht’s, für nur eine Eiskugel im Jahr die verhaßten Energiekonzerne in die Knie zwingen.

Als „links gebildeter“ Mensch wissen sie natürlich, daß man den Profit maximiert, indem man die Konkurrenz ausschaltet. Sie werden sich also auf die Kernenergie und Kohle einschießen, da sie weltweit die preiswertesten Energiearten zur Stromerzeugung sind. Allerdings haben sie noch ein gewaltiges Problem: Sie können überhaupt keine Stromversorgung mit ihrem System gewährleisten. Sie wissen das ganz genau. Es kann nicht schaden, ein paar Nebelkerzen in der Form Pump-Speicher, Power to Gas (hört sich doch echt cool an) und Elektromobilität zu werfen. Einfältige Menschen, gibt es bekanntlich mehr als genug. All das ändert aber nichts daran, daß sie dringend ein System brauchen, das eine sichere Stromversorgung für sie herstellt. Sie wissen ganz genau, die Forderung nach ausreichend Speichern zum Ausgleich des Wetters würde ihre profitable Geschäftsidee wie eine Seifenblase platzen lassen. Sie würden an den Kosten ersticken und sogar ihre Freunde aus der Politik müßten sich von ihnen abwenden.

Sie sind aber nicht allein. Sie können auf Erfahrungen z. B. aus den USA zurückgreifen und sich mächtige Verbündete suchen, die sie aus Eigennutz kräftig fördern. Schon in den 1960er Jahren fühlte sich die gesamte Industrie (Öl und Kohle) für fossile Energieträger durch die Kernenergie bedroht. Sie war billig, sauber und unerschöpflich. Man nahm Geld in die Hand und förderte damit z. B. massiv die – durch Teststoppabkommen etc. – sterbende „Anti-Atombomben-Bewegung“. Green Peace ward erschaffen. Man kann den durchschlagenden Erfolg nur verstehen, wenn man das geschichtliche Umfeld (Mai 68, Vietnamkrieg, Kalter Krieg etc.) einbezieht.

In den 1970er Jahren wurde die Ölindustrie durch die zwei Ölkrisen 1973 und 1976 arg gebeutelt. „King Coal“ drohte wieder zu erstarken. Durch die guten Erfahrungen im Kampf gegen die Kernenergie, förderte man erneut „Umweltaktivisten“. Der Ansatz hieß „Alternative Energien“ mit Erdgas und Öl als back up für schlechtes Wetter. Die Lichtgestalt aller Sonnenanbeter war Amory B. Lovins mit seinem Rocky Mountain Institute. Wichtiger Verbündeter gegen Kohle war der Sierra Club. Über ihn gelang der direkte Weg zu Hollywood. In den 1980er Jahren liefen unzählige Filme über den „Treibhauseffekt“ im US-Fernsehen. Vor allem Exxon hatte kein Problem, offen mit seinem „guten Namen“ zu werben. Gründungsmitglied und Vorsitzende der Grünen (nach ihrem Austritt aus der SPD) war eine gewisse Petra Kelly. Sie hatte schon 1968 ihr Handwerk im Präsidentschaftswahlkampf von Bobby Kennedy gelernt. Ein Schelm, wer nur an Zufälle denkt.

Warum Braunkohle?

Kernenergie und Braunkohle sind die preiswertesten Energieträger zur Stromerzeugung. Will man ein Energieversorgungsunternehmen vernichten, muß man genau diese Bereiche bekämpfen. Als erfahrener „Gesellschaftsveränderer“ kann man das natürlich nicht so offen aussprechen, will man doch nicht die viel beschworene „gesellschaftliche Mitte“ verprellen. Das bekannte Erfinden von „Phantasiekosten“ (Endlagerung, Waldsterben etc.) verfängt ebenfalls nur bei sehr schlichten Gemütern. Gerade Jugendliche lassen sich besonders leicht vor den Karren spannen, wenn man ihnen das Gefühl gibt, sie würden „die Welt retten“. Dieses Gefühl ist besonders wichtig für die unvermeidbare Konfrontation mit der lokalen Bevölkerung. Es muß ein moralisches Überlegenheitsgefühl geschaffen werden: Hier, der „edle Demonstrant“, der selbstlos kein Risiko scheut zum Wohle der Menschheit und dort, die tumbe Landbevölkerung, die sich vor Veränderung fürchtet und nur an ihr Auskommen denkt. Ganz besonders zwielichtig ist das Verhalten der Gewerkschaften: Die Funktionäre – überwiegend in der Doppelrolle des Parteimitglieds und Gewerkschaftsfunktionärs – halten sich vornehm zurück. Schließlich sind in ihrem Selbstverständnis Gewerkschaften in erster Linie politische Organisationen und höchsten zweitrangig „Arbeitnehmervertreter“. Diese Auffassung ist fester Bestandteil aller sozialistischen Systeme. Genosse, du mußt verstehen, wir müssen erstmal den Sozialismus verwirklichen und dazu sind auch Opfer – wie dein Arbeitsplatz – nötig. Aber versprochen, wenn der Öko-Sozialismus erstmal verwirklicht ist, wird auch deine Region ein Paradies werden. Ähnlichkeiten mit der Vergangenheit sind rein zufällig.

Die Parolen

Als erster Schritt, kann es nicht schaden, die Parolen der Aktivisten zu hinterfragen:

  • Braunkohletagebaue zerstören die Landschaft. Dies muß jeder selbst beurteilen. Die Zeiten, wo man nach dem Abbau Mondlandschaften hinterlassen hat, sind längst vorbei. Viele finden die neu gestaltete Landschaft (z. B. Seen) sogar reizvoller. Natur gab es vorher und nachher nicht. Alles war und ist Kulturlandschaft, also von Menschen gestaltet.
  • Dörfer werden zerstört. Dieses Argument ist besonders zynisch. Die Braunkohle gibt tausenden Menschen Arbeit. Wenn man den Bergbau einstellt, fallen die Arbeitsplätze weg. Neue sind nicht in Sicht, schon gar nicht für die speziellen Berufsgruppen. Die ganze Region wird in Dauerarbeitslosigkeit und Abwanderung versinken. Dörfer und Kleinstädte werden zu Geisterstädten werden und dem natürlichen Zerfall preisgegeben. Will man so den Nährboden für radikale Organisationen schaffen?
  • Braunkohle ist minderwertig. Richtig ist, daß Braunkohle einen geringen Heizwert hat. Der Transport von Rohbraunkohle lohnt sich daher nur über kurze Strecken. Andererseits ist sie im Tagebau sehr wirtschaftlich zu fördern. Wird sie in Kraftwerken in unmittelbarer Nähe verfeuert, ist der Transport kein Kostenfaktor.
  • Braunkohle hat einen geringen Heizwert. Braunkohle hat einen hohen Ascheanteil und einen hohen Wassergehalt. Der Aschegehalt spielt bei der Verfeuerung in einem Kraftwerk in der Nähe des Bergwerks keine große Rolle. Die Asche geht unmittelbar mit dem Abraum zurück in die Grube.
  • Braunkohle setzt besonders viel CO2 frei. Moderne Steinkohlekraftwerke haben einen Wirkungsgrad von etwa 46%, moderne Braunkohlekraftwerke von etwa 43%. Der Unterschied ist auf den hohen Wassergehalt zurückzuführen. Bei einer Vortrocknung mittels Abdampf (zusätzliche Anlagekosten) kann der Wirkungsgrad nahezu gleich sein.
  • Braunkohle setzt besonders viel Schadstoffe frei. Dies gilt für „schornsteinlose“ Kraftwerke nach deutschen Umweltschutzstandards nicht mehr. In ihnen wird die Asche (enthält z. B. Schwermetalle) durch Filter abgeschieden und die Abgase anschließend gewaschen (z. B. Abscheidung der Schwefelsäure). Die Produktion von Stickoxiden kann bereits durch die Gestaltung der Verbrennung (Temperatur und Sauerstoffgehalt) eingehalten werden. Eine zusätzliche Entstickung über Katalysatoren ist meist nicht nötig. Prinzipiell kann man heute ein Braunkohlekraftwerk genauso „sauber“ betreiben, wie ein (deutsches) Gaskraftwerk. Entscheidend ist immer nur, was im Betrieb (!) hinten raus kommt (Meßwerte).
  • Kohlekraftwerke sind nicht regelbar. Dies ist – zumindest für moderne Kohlekraftwerke – ein reines Propagandamärchen der Wind- und Sonnenlobby. Hier wird immer bewußt Technik und Betriebswirtschaft durcheinander geschmissen. Der „Zappelstrom“ kann überhaupt erst durch konventionelle Kraftwerke in ein brauchbares Produkt verwandelt werden. Dies allein, zeigt schon, wie haltlos diese Behauptung ist. Natürlich ist es ein wirtschaftlicher Unsinn, die kapitalintensiven Braunkohlekraftwerke abzuregeln, damit der ideologisch geforderte Wind- und Sonnenstrom Vorrang hat. Volkswirtschaftlich wäre es vielmehr sinnvoll, die „regenerativen Anlagen“ abzustellen. Wer ein nicht konkurrenzfähiges Produkt herstellt, muß halt aus dem Markt aussteigen. Dies muß endlich auch genauso für einen „Stromhersteller“ gelten, wie für jeden Bäcker an der Ecke.

Reaktortypen in Europa – Teil5, ESBWR

Der ESBWR (Economic Simplified Boiling Water Reactor) ist die bisherige Krönung in der Evolution der Leichtwasserreaktoren. Es ist ein Reaktor der Generation III+ und erfüllt sicherheitstechnisch bereits die Ziele der vierten Generation: Passive und inhärente Sicherheit, die die Anlage stets selbstständig in einen sicheren Zustand überführt.

Geschichte

Bereits nach dem Reaktorunglück von TMI in Harrisburg begann man in den USA das Genehmigungsverfahren für einen stark vereinfachten Reaktor, den SBWR (Simplified Boiling Water Reactor). Nachdem man über eine halbe Milliarde Dollar Entwicklungs- und Genehmigungskosten investiert hatte, mußte man erkennen, daß dieser Reaktor mit 670 MWel schlicht zu klein und damit unverkäuflich war. Im nächsten Schritt legte man mehr Wert auf die „Wirtschaftlichkeit (Economic)“ und erhöhte die Leistung auf 1600 MWel. Ein weiteres Jahrzehnt mit unzähligen Prüfungen verging. Seit letztem Jahr liegen endlich alle Genehmigungen für den Typ vor. Es fehlt nur noch ein Kunde mit einem konkreten Bauauftrag. Inzwischen gibt es auch dazu Verhandlungen in USA, Polen und Indien. Wie immer, wird der „mutige Investor“ gesucht, der bereit ist in eine neue Technik (first of a kind) zu investieren. Dabei ist die Technik alles andere als revolutionär, sondern im Gegenteil strikt evolutionär. Man hat Schritt für Schritt auf in der Praxis bewährte Bauteile zurückgegriffen. Dies sei nur am Rande bemerkt, für all die Erfinder, die immer nach revolutionären Konzepten schreien. Erfinden und in allen Details den Nachweis der Funktionstüchtigkeit erbringen, sind zwei völlig verschiedene Dinge. Zumindest der Nachweis der Funktionstüchtigkeit – nach den Maßstäben der Kerntechnik – erfordert Jahrzehnte und verschlingt somit immense Summen. Vergleichbares gibt es nur in der zivilen Luftfahrt. Auch dort sind revolutionäre Flugzeugentwürfe nur etwas für Universitäten und Medien.

Anforderungen

Alle bisherigen Erfahrungen mit Kernkraftwerken – insbesondere die Unglücke in Harrisburg, Tschernobyl und Fukushima – haben zu folgenden Anforderungen für einen sicheren und wirtschaftlichen Betrieb geführt:

  • Je weniger Bauteile man hat, je weniger kann kaputt gehen (Schaden) und je weniger muß gewartet und überwacht werden (Wirtschaftlichkeit).
  • Je einfacher („kiss = keep it simple stupid“) das Kraftwerk ist, je einfacher ist es auch zu bedienen – dies gilt für die Automatik, wie auch für das Personal.
  • Je mehr man auf Naturkräfte (Schwerkraft, Speicherung etc.) bei der Sicherheitstechnik setzt, um so sicherer ist ihre Verfügbarkeit im Ernstfall.
  • Je unabhängiger man von äußeren Einflüssen ist (Netzanschluss, Kühlwasser etc.), je weniger können solche „Einwirkungen von außen“ (Tsunami, Wirbelsturm, aber auch Flugzeugabsturz, Terror etc.) zu Schäden beim Kraftwerk führen.
  • Je passiver die Sicherheitsketten sind, je weniger muß man sich auf eine hohe Bereitschaft des Schichtpersonals verlassen. Gerade in Ausnahmesituationen (Erdbeben mit Tsunami) brauchen Menschen Zeit sich darauf umzustellen.
  • Wenn man bewußt von dem Versagen aller Sicherheitssysteme ausgeht und offensiv solche Ereignisse durchspielt, kann man trotzdem die Schäden für die Umwelt noch weiter mindern.

Nur die konsequente Umsetzung der vorausgehenden Punkte hat zu der gewaltigen Steigerung der Sicherheit beim ESBWR geführt. Hatte die „Fukushima-Generation“ noch eine Wahrscheinlichkeit von einer Kernschmelze in 100.000 Betriebsjahren, so liegt diese Wahrscheinlichkeit beim ESBWR bei etwa einer Kernschmelze in 170.000.000 Betriebsjahren. Spätestens nach den Ereignissen von Tschernobyl und Fukushima legt man großen Wert auf die Freisetzung von Radioaktivität nach dem Versagen aller Sicherheitseinrichtungen (z. B. Beschädigung des Containment etc.). Man kann durch geeignete Maßnahmen auch in einem solchen schweren – und unwahrscheinlichen – Unfall, die Freisetzung von radioaktiven Stoffen erheblich verringern. Simulationen für Standorte in USA haben ergeben, daß selbst in Betrachtungszeiträumen von einer Milliarde Jahren (berücksichtigt die geringe Wahrscheinlichkeit der Ereignisse) in einer Entfernung von 800 m (!) keine Dosen über 1 Sv auftreten würden. Natürlich können solche Berechnungen „Atomkraftgegner“ nicht überzeugen. Sie halten auch nach Tschernobyl und Fukushima tapfer an ihrem Glauben von Millionen-Tote-für-zehntausende-Jahre-unbewohnbar fest. Was soll’s, es gibt auch heute noch Menschen, die an Hexen glauben.

Der Naturumlauf

Die Idee einen Siedewasserreaktor ohne Umwälzpumpen zu bauen, ist keinesfalls neu. Allerdings waren die ursprünglichen Modelle, wie z. B. Dodewaard (183 MWth) und Humboldt Bay (165 MWth) geradezu winzig gegenüber einem ESBWR (4500 MWth). Gleichwohl haben sie in den Jahrzehnten ihres Betriebs wertvolle Erkenntnisse und Messreihen geliefert, die als Referenz für die Auslegungsprogramme des ESBWR dienen. Dodewaard war von 1969 bis 1997 am Netz und hat trotz seiner bescheidenen Leistung von 55 MWel fast 11000 GWhelStrom produziert.

Wenn man einen Reaktor mit Naturumlauf bauen will, muß man die treibende Kraft der Umwälzpumpen durch einen Kamineffekt ersetzen: Es steht nur die Dichtedifferenz zwischen kaltem Abwärtsstrom und dampfhaltigem Aufwärtsstrom zur Verfügung. Um überhaupt genug Druck erzeugen zu können, damit man die Reibung in den Bauteilen überwinden kann, ist eine erhebliche Bauhöhe erforderlich. Genau das war aber in den Anfangsjahren das Problem. Man konnte solch große Druckgefäße – zumindest wirtschaftlich – nicht herstellen. Es bot sich deshalb an, besser Umwälzpumpen zu verwenden. Heute haben sich die Verhältnisse umgekehrt. Es gelang praktisch das im ABWR verwendete Druckgefäß auch im ESBWR zu verwenden. Es mußte allerdings für den Kamin oberhalb des Reaktorkerns, von 21,7 auf 27,6 m verlängert werden. Solch schlanke Behälter haben Vor- und Nachteile. Für die Gebäudehöhe und den Erdbebenschutz ist eine solche Länge eher nachteilig. Allerdings ergibt sich auch ein sehr großes Wasservolumen, was sich positiv bei Störfällen auswirkt.

Der Kern des ESBWR ist gegenüber dem ABWR größer (1590 gegenüber 1350 Brennelemente) und flacher (3,0 m gegenüber 3,7 m aktive Brennstablänge). Dies ist auf die höhere Leistung (4500 gegenüber 3926 MWth.) und die anderen thermohydraulischen Bedingungen zurückzuführen. Wegen der höheren Anzahl der Brennelemente erhöht sich auch die Anzahl der Regelstäbe (269 gegenüber 205). Diesem Mehraufwand ist die Einsparung von zehn internen Umwälzpumpen gegen zu rechnen.

Der Rechenaufwand

Einfach anmutende natürliche Systeme, sind meist wesentlich schwieriger zu beschreiben, als technische Systeme. Technische Anlagen, wie z.B. Pumpen, können definierte Randbedingungen schaffen, die eine Berechnung oft stark vereinfachen. Nur auf Naturkräfte beruhende Systeme sind die hohe Schule der Simulation. Schnell stößt man bei der notwendigen räumlichen und zeitlichen Auflösung an die Grenzen heutiger Rechner. Hinzu kommt hier eine sehr große Anzahl von Gleichungen, da die Thermohydraulik und die Neutronenphysik sich sehr stark gegenseitig beeinflussen.

Man muß es eigentlich nicht besonders erwähnen, hier hat man es mit einer Genehmigungsbehörde zu tun und bewegt sich nicht als freischaffender Künstler in der Welt von Klimamodellen oder Wirtschaftsprognosen. Hier muß man nicht nur sein Programm offen legen, sondern auch noch nachweisen, daß es richtig rechnet. Dazu müssen zahlreiche Messreihen an 1:1 Modellen nachgerechnet werden, um Unterprogramme (z. B. Druckverlust in einem Brennelement) zu testen. Ist diese Hürde – zur Zufriedenheit der Genehmigungsbehörde – erfolgreich genommen, geht es daran, Versuche an bereits gebauten Reaktoren nachzurechnen. Erst wenn der Genehmigungsbehörde kein Testfall mehr einfällt, ist das Programm zugelassen. So etwas kann dauern, schließlich arbeitet die Behörde im Stundenlohn für einen Stundensatz von 280 US-Dollar. So viel zum Thema: Junge Unternehmen entwickeln einen innovativen Reaktor. Die alten Zeiten eines Admiral Hyman G. Rickover, für den der Reaktor der USS Nautilus noch mit Rechenschieber, Bleistift und ganz viel Hirn ausgelegt wurde, sind lange vergangen.

Allein die Anpassung des vorhandenen Programms an die Besonderheiten des ESBWR soll bei GE mehr als 100 Mann-Jahre gedauert haben. Erst dann konnten für alle möglichen geforderten Zustände, die Leistungen, Durchflüsse, Dampfzustände und Dampfanteile, Blasenkoeffizienten, die Leistungsdichte und -verteilung, sowie die Stabilität (z.B. Xenon-Schwingungen) nachgewiesen werden.

Führt man sich diesen Aufwand vor Augen, wird einsichtig, warum die Entwicklung evolutionär verläuft. Man hat versucht, soviel wie möglich vom ABWR beim ESBWR weiter zu verwenden. Nicht einmal ein Verbund von internationalen Konzernen aus GE, Hitachi und Toshiba kann es sich heute noch erlauben, die Entwicklung eines kommerziellen Reaktors mit einem weißen Blatt Papier zu beginnen. Ob das nun gut oder eher schlecht ist, mag jeder für sich selbst entscheiden.

Die Notkühlung

Nach dem Unglück in Fukushima sind zwei Ereignisse in den Mittelpunkt der Sicherheitsüberlegungen gerückt:

  1. Der Verlust der Hauptwärmesenke. In Fukushima wurden durch die Flutwelle die Kühlwasserpumpen und Einlaufbauwerke zerstört. Damit ging die Fähigkeit zur Abfuhr der Nachzerfallswärme verloren. Für sich genommen, schon ein wesentlicher Schritt zur Kernschmelze.
  2. Verlust (nahezu) jeglicher Stromversorgung. Durch die Schnellabschaltung infolge der Erdstöße war die Eigenversorgung weg, durch die großräumigen Verwüstungen durch die Naturkatastrophe, die Stromversorgung über das Netz und durch die Flutwelle wurden die Schaltanlagen und Notstromdiesel zerstört.

Wie hätte sich nun ein ESBWR in einer solchen Ausnahmesituation verhalten? Er verfügt über eine zusätzliche Wärmesenke für den Notfall, die vollständig unabhängig vom normalen Kühlwassersystem funktioniert: Die Außenluft. Der Auslegungsphilosophie folgend, sich nur auf Naturkräfte zu verlassen, handelt es sich dabei um offene „Schwimmbecken“ oberhalb des Sicherheitsbehälters. Das Volumen ist so bemessen, daß es für mindestens 72 Stunden reicht. Die Temperatur ist – unabhängig von den Umweltbedingungen – durch die Verdampfung auf maximal 100 °C begrenzt. Es kann jederzeit – auch von außen durch die Feuerwehr – aus verschiedenen Tanks nachgefüllt werden.

Das nur mit der Schwerkraft betriebene Notkühlsystem ECCS (Emergency Core Cooling System) besteht aus vier voneinander unabhängigen Zügen. In jeweils einem „Schwimmbecken“ oberhalb des Sicherheitsbehälters befinden sich zwei Kondensatoren. Diese bestehen aus je zwei übereinander angeordneten Sammlern, die durch zahlreiche dünne Rohre verbunden sind. Von dem Reaktordruckgefäß steigt eine Leitung zu den Sammlern auf. Im Kondensator kühlt sich das entweichende Dampf/Wassergemisch ab und strömt über den (kalten) Rücklauf wieder dem Reaktordruckgefäß zu. Es entsteht ein natürlicher Kreislauf, der sich selbst antreibt. Im Normalbetrieb ist die „warme“ Dampfleitung stets offen. Jede „kalte“ Rückleitung ist durch je zwei parallele Ventile verschlossen. Aus Gründen der Diversität ist ein Ventil elektrohydraulisch und das jeweils andere pneumatisch über einen Druckgasspeicher betrieben. Die Ventile befinden sich in einer „fail-safe“ Stellung: Während des Betriebs werden sie durch die Kraft der Hydraulik oder des Gases geschlossen gehalten. Geht der Druck weg – aus welchen Gründen auch immer, gewollt oder nicht – geben die Ventile den Weg frei. Wegen der Redundanz, reicht ein Ventil aus, um den gesamten Strom durchzulassen. Da die Kondensatoren und die Rückleitung vollständig mit „kaltem“ Wasser gefüllt sind, rauscht dieses Wasser infolge der Schwerkraft in den Reaktordruckbehälter und der Kondensator saugt dadurch ein „warmes“ Gas- und Dampfgemisch aus dem Reaktorgefäß nach. Ein Naturumlauf ist entfacht. Dieser läuft solange, wie der Kern Nachzerfallswärme produziert und die Außenluft diese Wärme abnimmt.

Wenn das nukleare System irgendwo ein Leck hat, würde irgendwann der Kern trocken fallen. Das entweichende Wasser muß sofort ersetzt werden. Zu diesem Zweck gibt es innerhalb des Sicherheitsbehälters große Wassertanks. Damit aber das Wasser in freiem Fall nachströmen kann, muß zuerst der Druck im System abgebaut werden. Hierfür gibt es 8 Sicherheitsventile, 10 Abblaseventile (die zeitweilig durch pneumatische Antriebe geöffnet werden können) und 8 Druckentlastungsventile unmittelbar am Reaktordruckgefäß. Letztere enthalten verschweißte Membranen, durch die sie dauerhaft dicht und wartungsfrei sind. Wenn sie öffnen müssen, „durchschneidet“ ein Kolben die Dichtung. Dieser Kolben wird durch Gas, welches pyrotechnisch in einem Gasgenerator erzeugt wird, bewegt. Es ist das gleiche Prinzip, wie bei einem „Airbag“ im Auto – ein sehr kleiner „Signalstrom“ reicht zur Zündung aus und erzeugt über die „Sprengkraft“ eine sehr große Gasmenge. Diese Ventile sind so gebaut, daß sie den Weg vollständig frei geben, nicht verstopfen können und sich nicht wieder schließen lassen.

Der Energieabbau und die Kühlung geschieht in mehreren miteinander verknüpften Schritten:

  1. Aus den diversen Abblaseventilen strömt (zumindest am Anfang) ein Dampfstrahl mit hoher Energie und Geschwindigkeit. Dieser wird feinverteilt in Wasserbecken eingeblasen. Diese sog. Kondensationskammern befinden sich unten im Sicherheitsbehälter.
  2. Durch die Kondensation fällt der Dampf in sich zusammen und bildet wieder Wasser. Die Verdampfungswärme geht dabei an das Wasser der Kondensationskammer über. Würde man das Wasser nicht kühlen, wäre irgendwann Schluß damit. Der Zeitraum hängt von der Nachzerfallswärme und dem Wasservolumen ab.
  3. Das Wasser in den Kondensationskammern kann auf verschiedenen Wegen gekühlt werden. Der wichtigste Weg ist über die weiter oben beschriebenen Kondensatoren.
  4. Damit der Reaktorkern stets sicher gekühlt ist, sind die Wasservolumina in den Kondensationskammern und Speichern so bemessen, daß der Kern auch dann unter Wasser bleibt, wenn sich das Wasser im Sicherheitsbehälter ausbreitet. Dieser Zustand kann auch absichtlich herbeigeführt werden.
  5. Um eine Kettenreaktion sicher und dauerhaft zu verhindern, wird zusätzlich aus Speichern borhaltiges (Neutronengift) Wasser eingesprüht.

Der „Supergau“

Im Gegensatz zu den Anfängen der Kernkraftwerkstechnik diskutiert man schon heute im Zulassungsverfahren ganz offensiv das Versagen aller Sicherheitseinrichtungen: Einerseits setzt man sich dabei mit den Auswirkungen der dadurch freigesetzten Radioaktivität auf die Umgebung auseinander und andererseits beschäftigt man sich mit Möglichkeiten diese Auswirkungen trotzdem abzumildern.

Ein typischer Fall ist das Versagen des Sicherheitsbehälters. Man versucht alles erdenkliche zu tun um dies zu verhindern, beschäftigt sich aber trotzdem mit diesem Ereignis. Ein Schritt diesen Unfall abzumildern, ist die gesteuerte Ableitung über Filter und den Abgaskamin. Durch die Kaminhöhe verdünnt sich die Abgaswolke beträchtlich. Durch das Vorschalten von geeigneten Filtern kann die Schadstoffmenge zusätzlich gemindert werden.

Ähnlich verhält es sich mit dem Kern: Durch redundante, passive Kühlsysteme versucht man den Brennstoff und die Spaltprodukte im Reaktordruckgefäß zu halten. Trotzdem untersucht man auch ein Versagen des Druckbehälters. Wie Fukushima gezeigt hat, ist auch beim Versagen der Notkühlung nicht mit einem „China Syndrom“ (Hollywood Phantasie, nach der sich der schmelzende Kern immer weiter in den Untergrund frisst) zu rechnen. Trotzdem geht man von einem Schmelzen des Stahlbehälters wie bei einem Hochofenabstich aus. Die Grube des Reaktorgefässes ist deshalb als „feuerfester Fußboden“ (BiMAC, Basemat Internal Melt Arrest and Coolability device) ausgeführt. Unterhalb einer feuerfesten Schicht befindet sich ein Rohrleitungssystem, welches – quasi wie bei einer Fußbodenheizung – diese Schicht kühlt. Dieser „Fußboden“ ist bezüglich seiner Konstruktion und Leistung für den 4-fachen Kerninhalt ausgelegt. Zusätzlich könnte die Grube mit dem im Sicherheitsbehälter vorhandenem Wasser vollständig geflutet werden, um die Spaltprodukte größtenteils darin zurückzuhalten.

Leistungsregelung

Normalerweise geschieht die Leistungsregelung bei Siedewasserreaktoren über die Steuerstäbe und die Umwälzpumpen. Die Steuerstäbe dienen nur zum Anfahren und bis etwa 50% der Auslegungsleistung. Im Bereich oberhalb 60% wird die Leistung nur noch über die Umwälzpumpen durchgeführt. Die Steuerstäbe dienen dann nur noch zur Kompensation des Abbrands.

Beim ESBWR kann der Reaktor durch langsames ziehen der Steuerstäbe auf Temperatur gebracht werden. Da im Siedebereich Temperatur und Druck miteinander gekoppelt sind, steigt auch der Druck im nuklearen System entsprechend an. Würde man keinen Dampf entnehmen, würde der Druck im „Kessel“ immer weiter ansteigen bis die Sicherheitsventile ansprechen. Natürlich wird so bald wie möglich Dampf entnommen, um die Turbine und das gesamte nukleare System damit aufzuwärmen. Wenn man aber Dampf entnimmt, muß die gleiche Menge durch Speisewasser ersetzt werden. Das Speisewasser wird im Betriebszustand auf 216°C vorgewärmt. Dies geschieht in sechs Stufen. Man entnimmt dazu an bestimmten Stellen der Turbine eine gewisse Menge Dampf. Dies ist sinnvoll, da der jeweils entnommene Dampf bereits Arbeit geleistet hat und sich somit der Wirkungsgrad verbessert. Man nennt diese Strategie „Carnotisierung“.

Der ESBWR hat gegenüber einem normalen Siedewasserreaktor (z. B. ABWR) eine siebte Vorwärmstufe, die mit frischem Dampf aus dem Reaktor beheizt wird. Normalerweise wird sie deshalb umgangen. Wenn man beispielsweise mit dieser Stufe die Speisewassertemperatur auf 252°C erhöht, geht die Leistung des Reaktors – bei gleicher Position der Steuerstäbe – auf 85% zurück. Umgekehrt könnte man die Steuerstäbe etwa so weit einfahren, daß nur noch rund 50% der Auslegungsleistung erzeugt wird. Würde man nun die Speisewassertemperatur auf 180°C absenken, würde sich wieder die ursprüngliche Leistung einstellen. Es ergibt sich somit im Bereich zwischen 50% bis 100% Leistung ein umfangreiches Feld, in dem sich die Leistung durch Kombination von Steuerstabstellungen und Speisewassertemperatur regeln läßt.

Die physikalische Ursache ist bei allen Siedewasserreaktoren die Abhängigkeit der Abbremsung der Neutronen von der Dichte des Moderators. Bei Reaktoren mit Umwälzpumpen wird die Dichte durch „ausspülen“ von Dampfblasen aus den Brennelementen erhöht, bei Naturumlauf durch das Absenken der mittleren Temperatur.

Wegen seiner Leistung von 1600 MWel. dürfte dieser Reaktor eher in der Grundlast eingesetzt werden. Gleichwohl ist ein täglicher Lastfolgebetrieb vorgesehen und genehmigt. So sind z. B. die Steuerstäbe für eine Betriebsdauer von 10 Jahren bei täglichem Lastwechsel zugelassen. Idealerweise fährt man mit diesem Reaktor aber mit konstant volle Leistung. Wegen seiner Stabilität und seiner passiven Notkühlung ist er sogar für den Betrieb durch nur einen Bediener konstruiert und zugelassen!

Ausblick

Im nächsten Teil werden die Schwerwasserreaktoren vorgestellt. Es ist bereits beschlossen, einen weiteren solchen Reaktor in Kooperation mit China, in Rumänien zu errichten.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

SMR Teil 1 – nur eine neue Mode?

Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht

In letzter Zeit wird wieder verstärkt über „kleine, bausteinförmig aufgebaute Kernkraftwerke“ diskutiert. Wie immer, wenn es ums Geld geht, war der Auslöser ein Förderungsprogramm des Department of Energy (DoE) in den USA. Hersteller konnten sich um einen hälftigen Zuschuss zu den Kosten für das notwendige Genehmigungsverfahren bewerben. Der Gewinner bekommt vom amerikanischen Staat fünf Jahre lang die Kosten des Genehmigungsverfahrens und die hierfür notwendigen Entwicklungs- und Markteinführungskosten anteilig ersetzt. Es gibt die Förderung nur, wenn das Kraftwerk bis 2022 fertig ist (es handelt sich also um kein Forschungs- und Entwicklungsprogramm) und man muß sich zusammen mit einem Bauherrn bewerben.

Sieger der ersten Runde war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Eine sehr konservative Entscheidung: Babcock & Wilcox hat bereits alle Reaktoren der US Kriegsschiffe gebaut und besitzt deshalb jahrzehntelange Erfahrung im Bau kleiner (militärischer) Reaktoren. Bechtel ist einer der größten internationalen Ingenieurfirmen mit dem Schwerpunkt großer Bau- und Infrastrukturprojekte. Tennessee Valley Authority ist ein öffentliches Energieversorgungsunternehmen. Wie groß die Fördersumme letztendlich sein wird, steht noch nicht fest. Die in der Öffentlichkeit verbreiteten 452 Millionen US-Dollar beziehen sich auf das gesamte Programm und nicht jeden Hersteller. Insofern war die Entscheidung für den Kandidaten, mit dem am weitesten gediehenen Konzept, folgerichtig.

Die Wirtschaftlichkeit

An dieser Stelle soll nicht auf den Preis für eine kWh elektrischer Energie eingegangen werden, da in diesem frühen Stadium noch keine ausreichend genauen Daten öffentlich zugänglich sind und es rein spekulativ wäre. Es sollen viel mehr ein paar qualitative Überlegungen angestellt werden.

Man geht von deutlich unter einer Milliarde US-Dollar pro SMR aus. Auch, wenn man nur eine Stückzahl von 100 Stück annimmt, ergibt das den stolzen Umsatz von 100 Milliarden. Dies entspricht in etwa dem „Modellwert“ in der Flugzeugindustrie. Damit wird sofort klar, daß das keine Hinterhof-Industrie werden kann. Der Weltmarkt wird unter einigen wenigen Konsortien von der Größenordnung Boing oder Airbus unter sich aufgeteilt werden! Wer zu lange wartet, hat praktisch keine Chance mehr, in diesen Markt einzusteigen. Ob Europa jemals noch ein Konsortium wie Airbus schmieden kann, ist mehr als fraglich. Die Energieindustrie wird wohl nur noch von den USA und China bestimmt werden.

Es ergeben sich auch ganz neue Herausforderungen für die Finanzindustrie durch die Verlagerung des Risikos vom Besteller zum Hersteller. Bisher mußte ein Energieversorger das volle Risiko allein übernehmen. Es sei hier nur das Risiko einer nicht termingerechten Fertigstellung und das Zinsänderungsrisiko während einer Bauzeit von zehn Jahren erwähnt. Zukünftig wird es einen Festpreis und kurze Bauzeiten geben. Die Investition kann schnell wieder zurückfließen. Daraus erklärt sich der Gedanke, ein Kernkraftwerk heutiger Größenordnung zukünftig aus bis zu einem Dutzend einzelner Anlagen zusammen zu setzen. Sobald der erste Reaktor in Betrieb geht, beginnt der Kapitalrückfluss. Man spielt plötzlich in der Liga der Gaskraftwerke!

Damit stellt sich aber die alles entscheidende Frage: Wer ist bereit, das finanzielle Risiko zu tragen? China hat sich durch den Bau von 28 Kernkraftwerken eine bedeutende Zulieferindustrie aufgebaut. Auch die USA verfügen über eine solche. Das Risiko auf verschiedene Schultern zu verteilen, ist ein probates Mittel. Europa müßte sich unter – wahrscheinlich französisch-britischer Führung – mächtig sputen, um den Anschluß nicht zu verlieren. Im Moment sieht es eher so aus, als wenn Frankreich, Großbritannien und die USA gleichermaßen um die Gunst von China buhlen.

Um es noch einmal in aller Deutlichkeit zu sagen: Europa fehlt es nicht an technischen Möglichkeiten und an Finanzkraft, sondern am politischen Willen. Es ist das klassische Henne-Ei-Problem: Ohne ausreichende Bestellungen, ist keiner bereit, in Fertigungsanlagen zu investieren. Wer aber, sollte diesen Mut aufbringen, ausgerechnet in Deutschland, wo es keinen Schutz des Eigentums mehr gibt, wo eine Hand voll Politiker nach einem Tsunami im fernen Japan, mit einem Federstrich, Milliarden vernichten können und die breite Masse dazu auch noch Beifall klatscht?

Fertigung in einer Fabrik

Bisher wurden Kernreaktoren mit immer mehr Leistung gebaut. Inzwischen wurde beim EPR von Areva fast die 1700 MWel erreicht. Man macht damit Kernkraftwerke und ihre Komponenten selbst zu einem Nischenprodukt. Nur wenige Stromnetze können so große Blockgrößen überhaupt verkraften. Andererseits wird der Kreis der Zulieferer immer kleiner. Es gibt weltweit nur eine Handvoll Stahlwerke, die überhaupt das Rohmaterial in der erforderlichen Qualität liefern können. Hinzu kommen immer weniger Schmieden, die solch große Reaktordruckgefäße, Turbinenwellen, Schaufeln etc. bearbeiten können. Je kleiner die Stückzahlen und der Kreis der Anbieter wird, um so teurer das Produkt.

Es macht aber wenig Sinn, kleine Reaktoren als verkleinertes Abbild bisheriger Typen bauen zu wollen. Dies dürfte im Gegenteil zu einem Kostenanstieg führen. Will man kostengünstige SMR bauen, muß die gesamte Konstruktion neu durchdacht werden. Man muß praktisch mit dem weißen Blatt von vorne beginnen. Typisches Beispiel ist die Integration bei einem Druckwasserreaktor: Bei der konventionellen Bauweise ist jede Baugruppe (Druckgefäß, Dampferzeuger, Umwälzpumpen, Druckhalter) für sich so groß, daß sie isoliert gefertigt und transportiert werden muß und erst am Aufstellungsort durch Rohrleitungen miteinander verbunden werden kann. Damit wird ein erheblicher Arbeits- und Prüfaufwand auf die Baustelle verlegt. Stundensätze auf Baustellen sind aber wegen ihrer Nebenkosten stets um ein vielfaches höher, als in Fabriken. Gelingt es, alle Baugruppen in das Druckgefäß zu integrieren, entfallen alle notwendigen Montagearbeiten auf der Baustelle, weil ein bereits fertiger und geprüfter „Reaktor“ dort angeliefert wird. Bauteile, die es gar nicht gibt (z. B. Rohrleitungen zwischen Reaktordruckgefäß und Dampferzeugern) müssen auch nicht ständig gewartet und wiederholt geprüft werden, was auch noch die Betriebskosten erheblich senkt.

Wenn alle Bauteile wieder „kleiner“ werden, erweitert sich auch automatisch der potentielle Herstellerkreis. Die Lieferanten können ihre Fertigungsanlagen wieder besser auslasten, da sie nicht so speziell sein müssen. Es ist wieder möglich, eine nationale Fertigung mit akzeptablen Lieferzeiten zu unterhalten.

Durch die Fertigung von Bauteilen in geschlossenen Hallen ist man vor Witterungseinflüssen (oder schlicht Dreck) geschützt, was die Kosten und das Ausschussrisiko senkt. Eine Serienfertigung führt durch den Einsatz von Vorrichtungen und die Umlage von Konstruktions- und Entwicklungskosten etc. zu geringeren Kosten. Die Standardisierung senkt Schulungskosten und erhöht die Qualität.

In der Automobilindustrie ist die Teilung in Markenhersteller und Zulieferindustrie üblich. Gelingt es Bauteile für Kernkraftwerke zu standardisieren, kann sich auch eine kerntechnische Zulieferindustrie etablieren. Ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken ist dem erforderlichen „nuclear grade“ geschuldet. Es ist kein Einzelfall, daß ein und das selbe Teil für Kernkraftwerke durch diesen Status (Dokumentation, Zulassung etc.) oft ein Vielfaches des „handelsüblichen“ kostet. Ein wesentlicher Schritt für den Erfolg, ist dabei die klare Trennung in „sicherheitsrelevante“ und „sonstige“ Teile. Eine Vorfertigung und komplette Prüfung von Baugruppen kann dabei entscheidend sein. Wird beispielsweise das Notkühlsystem komplett passiv ausgelegt – also (fast) keine elektrische Energie benötigt – können die kompletten Schaltanlagen usw. in den Zustand „normales Kraftwerk“ entlassen werden.

Was ist die richtige Größe?

Die Bandbreite der elektrischen Leistung von SMR geht etwa von 40 bis 300 MWel. Die übliche Definition von „klein“ leitet sich von der Baugröße der Zentraleinheit ab. Sie sollte noch in einem Stück transportierbar sein. Dies ist eine sehr relative Definition, die sich beständig nach oben ausweitet. Es werden heute immer größere Einheiten (Ölindustrie, Schiffbau usw.) auch über Kontinente transportiert. Der Grundgedanke bei dieser Definition bleibt aber die Zusammenfassung eines „kompletten“ Reaktors in nur einem Teil und die Funktionsprüfung vor der Auslieferung, in einer Fabrik.

Sinnvoller erscheint die Definition nach Anwendung. Grundsätzlich sind Insellösungen und die Integration in vorhandene Netze unterscheidbar. Besonders abgelegene Regionen erfordern einen erheblichen Aufwand und laufende Kosten für die Energieversorgung. Auf diese Anwendung zielt beispielsweise das russische Konzept eines schwimmenden Kernkraftwerks. Die beiden je 40 MWel Reaktoren sollen nach Chuktoa in Ost-Sibirien geschleppt werden und dort Bergwerke versorgen. Sehr großes Interesse existiert auch im kanadischen Ölsandgebiet. Ein klassischer Anwender war früher auch das US-Militär. Es besitzt wieder ein verstärktes Interesse, abgelegene Militärstützpunkte durch SMR zu versorgen. Langfristig fallen in diese Kategorie auch Chemieparks und Raffinerien.

Kernkraftwerke unterliegen – wie alle anderen Kraftwerke auch – prinzipiell einer Kostendegression und Wirkungsgradverbesserung mit steigender Leistung. Es ist deshalb bei allen Kraftwerkstypen eine ständige Vergrößerung der Blockleistungen feststellbar. Heute wird die maximale Leistung hauptsächlich durch das Netz bestimmt. Man kann die Grundregel für Neuinvestitionen (stark vereinfacht) etwa so angeben:

  • Baue jeden Block so groß, wie es das Netz erlaubt. Das Netz muß Schnellabschaltungen oder Ausfälle vertragen können.
  • Baue von diesen Blöcken auf einem Gelände so viel, wie du kannst. Wieviel Ausfall kann das Netz bei einem Ausfall einer Übertragungsleitung verkraften? Wie kann die Brennstoffversorgung am Standort gewährleistet werden (Erdgaspipeline, Eisenbahnanschluss, eigener Hafen etc.)? Wie groß ist das Kühlwasserangebot und wie sind die Randbedingungen bezüglich des Umweltschutzes?

Aus den vorgenannten Überlegungen ergeben sich heute international Blockgrößen von 200 bis 800 MWel, bei zwei bis acht Blöcken an einem Standort.

Wie groß der potentielle Markt ist, sieht man allein an der Situation in den USA. Dort müssen wegen verschärfter Bestimmungen zur Luftverschmutzung (Mercury and Air Toxic Standards (MATS) und Cross-State Air Pollution Rule (CSDAPR)) bis 2016 rund 34 GWel Kohlekraftwerke vom Netz genommen werden. Neue Kohlekraftwerke dürfen praktisch nicht mehr gebaut werden. Die Umstellung auf Erdgas kann wegen der erforderlichen Gasmengen und des daraus resultierenden Nachfragedrucks nur eine Übergangslösung sein. Da die „alten Kohlekraftwerke“ relativ klein sind, würde ein Ersatz nur durch „große“ Kernkraftwerke einen erheblichen Umbau der Netzstruktur erforderlich machen. Eine schmerzliche Erfahrung, wie teuer Zentralisierung ist, macht gerade Deutschland mit seinem Programm „Nordseewind für Süddeutschland“. Insofern brauchen SMR auch nur mit „kleinen“ Kohlekraftwerken (100 bis 500 MWel) konkurrieren, die der gleichen Kostendegression unterliegen.

Das Sicherheitskonzept

Bei der Markteinführung von SMR gibt es kaum technische, aber dafür um so größere administrative Probleme. Aus diesem Grund rechtfertigt sich auch das staatliche Förderprogramm in den USA. Die Regierung schreibt zwingend eine Zulassung und Überwachung durch die NRC vor. Dieses Verfahren muß vollständig durch die Hersteller und Betreiber bezahlt werden. Die Kosten sind aber nicht nur (mit dem jedem Genehmigungsantrag innewohnenden) Risiko des Nichterfolges versehen, sie sind auch in der Höhe unkalkulierbar. Die Prüfung erfolgt in Stundenlohnarbeit, zu Stundensätzen von knapp 300 US-Dollar! In diesem System begründet sich ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken. Die NRC hat stets – nicht ganz uneigennützig – ein offenes Ohr für Kritik an der Sicherheit von Kernkraftwerken. Mögen die Einwände auch noch so absurd sein. Als „gute Behörde“ kann sie stets „Bürgernähe“ demonstrieren, da die Kosten durch andere getragen werden müssen, aber immer den eigenen Stellenkegel vergrößern. Dieses System gerät erst in letzter Zeit in das Licht der Öffentlichkeit, nachdem man erstaunt feststellt, um wieviel billiger und schneller beispielsweise in China gebaut werden kann. Nur mit geringeren Löhnen, läßt sich das jedenfalls nicht allein erklären.

Die „Massenproduktion“ von SMR erfordert völlig neue Sicherheitskonzepte. Auf die technischen Unterschiede wird in den weiteren Teilen noch ausführlich eingegangen werden. Die Frage ist eher, welches Niveau man als Bezugswert setzt. Einem überzeugten „Atomkraftgegner“ wird nie ein Kraftwerk sicher genug sein! Im Gegenteil ist die ständige Kostentreiberei ein zentrales „Kampfmittel“. Allerdings wird durch die Erfolge von China und Korea das Märchen von der „ach so teuren Atomkraft“ immer schwerer verkaufbar. Selbst in einem tiefgläubigen Land wie Deutschland, muß man daher immer mehr auf andere Strategien (z. B. angeblich ungelöste „Entsorgung“) ausweichen. Sollte man jedoch das heute erreichte Sicherheitsniveau als Grenzwert setzen, lassen sich bei den meisten SMR-Konzepten bedeutende Kostenvorteile erreichen. Es ist nicht auszuschließen, daß das – außerhalb Deutschlands – so gesehen wird. Andererseits kann man durch zusätzliche Sicherheitsmaßnahmen die Auswirkungen auf das Umfeld auch bei schwersten Störfällen so stark begrenzen, daß ein Einsatz innerhalb des Stadtgebiets z. B. zur Fernwärmeversorgung akzeptabel wird. Könnte sogar sein, daß SMR in Städten mit starker Luftverschmutzung hoch willkommen sind.

Es gibt aber durchaus einige offene Fragen. Je mehr Standorte es gibt, um so aufwendiger ist die Organisation eines lückenlosen Überwachung- und Bewachungssystems. Heute hat jedes US-Kernkraftwerk zwischen 400 und 700 Festangestellte. Allein die „eigene Privatarme“ umfaßt durchschnittlich 120 Mann. Für jeden Reaktor gibt es ständig zwei – vom Energieversorger zu bezahlende – NRC-Kontrolleure.

International sind Abkommen zu treffen, die sich über die gegenseitige Anerkennung von Zulassungen und Prüfungen verständigen. Es macht keinen Sinn, wenn jedes Land von neuem das gesamte Genehmigungsverfahren noch einmal wiederholt. Bisher gilt eine NRC-Zulassung international als „gold standard“. Es würde sich lohnen, wenn die Kerntechnik sich hierbei an der internationalen Luftfahrt orientiert. Ebenfalls ein Bereich mit sehr hohen Sicherheitsanforderungen.

Nach allgemeiner Auffassung sollten die Lieferketten in „nuclear“ und „non nuclear“ unterteilt betrachtet werden. Die Lieferketten für alle sicherheitstechnisch bedeutenden Teile (Brennelemente, Dampferzeuger, Kühlmittelpumpen usw.) müssen schon sehr früh in der Genehmigungsphase stehen, da ihre Entwürfe unmittelbar mit der Sicherheit verbunden sind. Die Zulieferer müssen sehr eng mit dem eigentlichen Kraftwerkshersteller verknüpft werden. Es ergibt sich ein ähnliches Geschäftsmodell, wie in der Automobilindustrie. Dort werden die Zulieferer mit ihrem speziellen Wissen und Erfahrungen möglichst früh und eng in den Entwicklungsprozess einbezogen. Diese Lieferketten sollten für die Bauartzulassung (vorübergehend) festgeschrieben werden. Es sollten Bauteile gebaut und eingehend geprüft werden. Während dieses Prozesses sind alle Produktionsschritte und Prüfverfahren genau zu dokumentieren, um den Herstellerkreis später ausweiten zu können. Alle sonstigen Bestandteile des Kraftwerks können im Industriestandard und nach lokalen Gegebenheiten unmittelbar nach der jeweiligen Auftragsvergabe vergeben werden.

Hinweis

Dieser erste Teil beschäftigt sich mehr mit den grundsätzlichen Eigenheiten sog. „Small Modular“ Reaktoren. Die Betonung liegt hier auf der energiewirtschaftlichen Betrachtung. Es folgt ein zweiter Teil, der sich näher mit der Technik von SMR in der Bauweise als Leichtwasserreaktor beschäftigt. Ein dritter Teil wird auf die ebenfalls im Bewerbungsverfahren befindlichen schnellen Reaktoren eingehen.