Die „Dual Fluid“ Erfindung

oder Verschwörungstheoretiker versus Erfindermesse

Seit ein paar Wochen tobt im Internet ein Streit zwischen den „Reaktorerfindern“ des Instituts für Festkörper-Kernphysik gGmbH (http://dual-fluid-reaktor.de) und den „Preisstiftern“ des Greentec-Awards 2013 (http://www.greentec-awards.com). Soweit ein Außenstehender nachvollziehen kann, geht es um die Bewerbung von A bei B um irgendeine Auszeichnung. Leider wurde der „Dual Fluid Reaktor“ von A nachträglich durch B disqualifiziert, weil er angeblich die Ausschreibungsbedingungen gar nicht erfüllt. Damit hätte sich das Interesse des Autors bereits vollständig erschöpft, wenn nun nicht in allen möglichen Blogs Partei für die eine oder andere Seite ergriffen würde. Inzwischen wird die Angelegenheit zum Glaubenskrieg Pro oder Kontra Kernenergie hochstilisiert. Von beiden Lagern wird soviel Blödsinn verbreitet, daß es dem Autor notwendig erscheint, ein paar erklärende Worte zu versuchen.

Grundsätzliches

Jedes Kernkraftwerk braucht einen Brennstoff und ein Arbeitsmedium. Für die (großtechnische) Stromerzeugung hat sich bis zum heutigen Tag nur der von einer Turbine angetriebene Generator durchgesetzt. Bei den Turbinen überwiegt die Dampfturbine und in wenigen Fällen die „Luftturbine mit innerer Verbrennung“, meist kurz „Gasturbine“ genannt. Für Kernkraftwerke scheidet die zweite aus. Deshalb funktionieren alle Kernkraftwerke mit Dampfturbinen. Wie bestimmend der Wasser-Dampf-Kreislauf für Kernkraftwerke ist, hat sich vor nicht all zu langer Zeit wieder an der Weiterentwicklung des mit Helium gekühlten Kugelhaufenreaktors gezeigt: China und Deutschland haben erfolgreich auf Dampfturbinen gesetzt, das Konsortium in Südafrika ist kläglich an der Entwicklung einer mit Helium betriebenen Gasturbine gescheitert.

Beim Brennstoff wird die Sache schon bedeutend vielfältiger: Man hat unterschiedliche Stoffe (z. B. Uran, Thorium, Plutonium) in unterschiedlichen chemischen Verbindungen (Uranoxid, -nitrid, -karbid, metallisch) und Aggregatzuständen (feste Tablette, wässrige Lösung, geschmolzene Salze) verwendet. Jede Brennstoffart hat ihre ganz charakteristischen Vor- und Nachteile, die in jedem konkreten Anwendungsfall abgewogen werden müssen. Den idealen Brennstoff gibt es nicht!

Ein wenig Neutronenphysik

Prinzipiell kann man jedes „schwere Element“ mit Neutronen spalten. Allerdings ist die Wahrscheinlichkeit für eine Spaltung nicht nur eine Stoffeigenschaft, sondern hängt auch von der Geschwindigkeit der auftreffenden Neutronen ab. Man unterscheidet deshalb in der Neutronenphysik bei jedem Isotop noch Absorptions-, Streu- und Spaltquerschnitte als Maß für die Wahrscheinlichkeit, was nach einem Zusammenstoß mit einem Atomkern passiert. Diese Querschnitte sind darüber hinaus keine einzelnen Werte, sondern Funktionen der Neutronengeschwindigkeit. Umgangssprachlich ausgedrückt: Wild gezackte Kurven.

Im Zusammenhang mit der „Atommüllproblematik“ kann also festgestellt werden, man kann alle Aktinoide – also insbesondere, die gefürchteten, weil sehr langlebigen Bestandteile der benutzten Brennelemente, wie Plutonium etc. – in (speziellen) Reaktoren spalten und damit unwiederbringlich aus der Welt schaffen. Alle Spaltprodukte wären nach rund 300 Jahren verschwunden. Es geht also nicht um ein etwas anderes Endlager, sondern um eine Beseitigung unter gleichzeitiger Energiegewinnung. Erforderlich ist bei einem solchen „Reaktor zur Beseitigung von langlebigen Aktinoiden“ ein hartes Neutronenspektrum. Die Neutronen dürfen nach ihrer Entstehung möglichst wenig abgebremst werden. Wie alle Erfahrungen international gezeigt haben, läßt sich das am wirksamsten mit einem natriumgekühlten schnellen Reaktor realisieren. Dafür ist kein „Salzbad“ zwingend notwendig.

Das einzige, in der Natur vorkommende Isotop, welches in der Lage ist eine Kettenreaktion einzuleiten, ist Uran-235. Hinzu kommen noch die beiden künstlich hergestellten Isotope Plutonium-239 (gewonnen aus Uran-238) und gegebenenfalls Uran-233 (gewonnen aus Thorium). Ohne wenigstens eines der drei, funktioniert kein Reaktor! Will man darüber hinaus einen Reaktor zur Beseitigung von (allen) Aktinoiden bauen, müssen diese Isotopen in hoher Konzentration (mindestens zweistellig) vorliegen, da ihre Einfangquerschnitte für diese Neutronengeschwindigkeiten sehr klein sind. Das andere Ende der Möglichkeiten, wie z. B. Schwerwasserreaktoren, können sogar mit Natururan (U-235 – Gehalt 0,7%) und Thoriummischungen betrieben werden. Unsere heutigen Leichtwasserreaktoren werden optimal mit einer Anreicherung von etwa 3 bis 5% betrieben.

Die Uranfrage

In der 1950er-Jahren gab es weltweit eine Uranknappheit. Man glaubte daher, ohne „Brüter“ keine friedliche Nutzung der Kernenergie schaffen zu können. Man kannte das Dilemma, daß man ausgerechnet für „Brüter“, also Reaktoren, die mehr Plutonium herstellen, als sie bei der Kernspaltung selbst verbrauchen, große Mengen Spaltmaterial benötigte. „Verdoppelungszeit“ war das Wort der Stunde. Gemeint ist damit der Zeitraum, der vergeht, bis so viel Plutonium erbrütet, wiederaufbereitet und verarbeitet ist, bis man damit einen zweiten Reaktor zusätzlich in Betrieb nehmen kann.

Eine Analyse des Problems führte zu flüssigen Brennstoffen. Bei einer Flüssigkeit kann man kontinuierlich einen Strom abzweigen und wieder aufbereiten. Wässrige Uranlösungen waren nicht zielführend, da man die unkontrollierbaren Ablagerungen im Reaktor nicht in den Griff bekam. Man ging zu geschmolzenem Salz über. In diesen Salzbädern konnte man auch Thorium – als weitere Rohstoffquelle – erschließen.

Thorium als Alternative

Um es gleich vorweg zu nehmen, um Thorium zu nutzen, braucht man keinen Salzbadreaktor. Dies hat Kanada/Indien (CANDU) und Deutschland (THTR) erfolgreich unter Beweis gestellt. Andererseits braucht man für Salzbadreaktoren nicht zwingend Thorium. Es geht auch mit Uran. Ein Mißverständnis, das oft in der Öffentlichkeit zu hören ist.

Zurück zum „Brüten“. Viele Spaltstoffe sind „parasitär“. Sie absorbieren einen Teil der bei der Spaltung frei gewordenen Neutronen. Diese sind dann sowohl für eine weitere Spaltung – um die Kettenreaktion überhaupt in Gang zu halten – oder eine Umwandlung von Uran oder Thorium unwiederbringlich verloren. Neutronen sind aber äußerst kostbar. Bei der Spaltung werden nur zwei bis drei freigesetzt. Eines braucht man für die nächste Spaltung (Kettenreaktion), die anderen könnten „brüten“. An dieser Stelle wird klar, warum es so schwer ist einen „Brüter“ zu bauen, bzw. die „Verdoppelungszeit“ grundsätzlich sehr lang ist: Zwei Neutronen sind weg (für die nächste Spaltung und um das gespaltene Atom zu ersetzen), es bleibt für einen Mehrwert nur die Stelle hinter dem Komma.

Zurück in die 1950er-Jahre: Man glaubte an eine Knappheit von Natururan, welches auch noch strategisch wichtig war (atomare Aufrüstung im kalten Krieg). Man wußte ferner, daß die „Verdoppelungszeiten“ für „schnelle Brüter“ sehr lang waren und deshalb der Ausbau der Nutzung der Kernenergie gefährdet schien. Ferner wußte man, daß die Vorräte an Thorium etwa vier mal so groß, wie die Welt-Uranvorräte sein mußten. Wenn dies auch nichts über die wirtschaftliche Gewinnung aussagt.

Bei Thorium kommt noch der Vorteil hinzu, daß die „Neutronenausbeute“ bei Spaltung durch schnelle oder langsame Neutronen nicht so verschieden ist. Hohe „Konversionsraten“ sind relativ einfach möglich. Dies war der zweite Vorteil – neben der hohen Betriebstemperatur – des deutschen THTR-Reaktor-Konzepts. Man benötigte eine relativ kleine Impfung mit hoch angereichertem Uran oder Plutonium, um den Reaktor zu starten. Der größte Teil der Energie wurde dann aus dem selbst umgewandelten Thorium erzeugt. Hoher Abbrand, bei geringem Einsatz von kostbarem Uran-235 bzw. Plutonium.

Salzbadreaktor

Wenn man einen Reaktor mit flüssigem Brennstoff bauen will, kommt man sehr schnell –und immer wieder – auf die sogenannten FLiBe-Salze. Eine Mischung auf der Basis von Fluor, Lithium und Beryllium. Sie haben geringe Einfangquerschnitte (wirken also kaum parasitär für die Neutronen), besitzen einen geringen Schmelzpunkt (sehr wichtig bei jeder Inbetriebsetzung) und sind (einigermaßen) nicht korrosiv.

Allerdings ist es zumindest diskussionswürdig, ob die in der Öffentlichkeit angeführten Vorteile überhaupt solche sind. Die Herstellung des „Betriebsmediums“ innerhalb eines Kraftwerks ist nicht unproblematisch. Ein Kraftwerk ist keine Chemiefabrik. Es sei nur darauf hingewiesen, daß Beryllium und seine Verbindungen hoch giftig und krebserregend sind. Die Aufrechterhaltung eines stets homogenen Brennstoffs von gleichbleibender chemischer und neutronenphysikalischer Qualität, ist eine echte Herausforderung.

Gut ein Drittel der Spaltprodukte sind Gase. Bei festen Brennelementen ist deren sicherer Einschluß im gasdicht verschweißten Rohr ein zentraler Bestandteil der Sicherheitsphilosophie. Bei einer Flüssigkeit perlen sie naturbedingt und unkontrollierbar aus. Es muß deshalb ständig ein Teilstrom ausgeschleust werden, aus dem durch Strippung mit Helium die gasförmigen (bei dieser Temperatur) Bestandteile abgeschieden werden. Diese sind hochradioaktiv und müssen sicher zurückgehalten werden. Die Abgasstrecke ist schon in einer konventionellen Wiederaufbereitungsanlage eine recht komplexe Angelegenheit. Hier kann aber nicht mit „abgelagertem“ Brennstoff, sondern muß stets mit frischem gearbeitet werden.

Die Salze sind auch nicht ganz billig. Auch hier nur ein Hinweis: Natürliches Lithium besteht aus 92,5% Lithium-7 und 7,5% Lithium-6. Lithium-6 sollte aber nicht verwendet werden, weil aus ihm durch Neutroneneinfang Tritium entsteht. Tritium ist in der Kerntechnik äußerst unbeliebt, da es mit Sauerstoff „radioaktives“ Wasser bildet, das aus dem biologischen Kreislauf praktisch nicht mehr zu entfernen ist. Deshalb muß das natürliche Lithium erst aufwendig angereichert werden. Bisher ging das großtechnisch nur unter Verwendung von Quecksilber. In Oak Ridge ist man seit Jahrzehnten damit beschäftigt, die Quecksilberverseuchung aus der Lithiumanreicherung wieder zu beseitigen.

Aufbereitung durch Pyroprocessing

In letzter Zeit findet bei der Wiederaufbereitung ein Paradigmenwechsel statt. Es steht nicht mehr die Gewinnung von möglichst reinem Uran bzw. Plutonium im Vordergrund, sondern die Gewinnung möglichst reiner Spaltprodukte. Je reiner die Spaltprodukte, je kürzer die Lebensdauer des „Atommülls“. Ein „Endlager“ wäre überflüssig. Je „schmutziger“ das Plutonium, je ungeeigneter zur Waffenproduktion.

Ein Favorit in diesem Sinne, ist das Pyroprocessing. Im Prinzip ist es das gleiche Verfahren, wie bei der Kupfergewinnung. Die Metalle (Uran, Plutonium und im Idealfall alle minoren Aktinoide) wandern von der Atommüll-Elektrode zur Rein-Metalle-Elektrode. Die Spaltprodukte bleiben im Elektrolyt zurück. Das Aktinoidengemisch wird zu neuen Brennelementen verarbeitet. Es ist für die Waffenherstellung ungeeignet.

Auch hierfür ist kein Salzbadreaktor erforderlich. Es wurde erfolgreich für den mit Natrium gekühlten IFR eingesetzt. Man könnte sogar konventionelle Brennelemente aus Leichtwasserreaktoren damit aufbereiten. Es ist lediglich eine Zusatzstufe zur Reduktion der Uranoxide notwendig. Die Koreaner arbeiten mit Hochdruck an dieser Schiene. Sie benötigen dieses Aufbereitungsverfahren, wegen der besonderen politischen Situation auf der koreanischen Halbinsel.

Fazit

In der Kürze eines solchen Artikels läßt sich die Breite der Kerntechnik nur anreißen. Es gibt in der Technik kein gut, sondern lediglich ein besser oder schlechter geeignet – und das ist in jedem einzelnen Anwendungsfall neu zu beurteilen. Es nutzt überhaupt nichts, wenn irgendwelche Trolle Diskussionen führen, wer den besseren Reaktor kennt. Solche Diskussionen sind genauso kindisch, wie die üblichen Argumentationsschlachten der Sonnenmännchen für ihre „regenerativen Energien“. Was die „Erfindung des Dual Fluid Reaktors“ betrifft, handelt es sich eher um den Entwurf für ein neues Perry Rhodan Heft, als um ein Patent für einen genehmigungsfähigen Reaktor. Dies ändert aber auch nichts an der Schwachsinnigkeit der Begründung der Ablehnung. Warum sagt „GreenTec Awards“ nicht einfach: Wir mögen keine Kernenergie, basta! Dies wäre völlig legitim. Unanständig wird die Sache erst dadurch, daß man die Entscheidung krampfhaft versucht zu begründen und dabei sogar Tatsachen verdreht.

Brennstoffbank

Die International Atomic Agency (IAEA) hat bereits mehrere Treffen mit Regierungsstellen in Kasachstan zur Einrichtung einer Brennstoffbank abgehalten. Ziel der Verhandlung ist die Einrichtung eines international zugänglichen Lagers für leicht angereichertes Uran (Low Enriched Uran project, LEU-project). Es wurden zwölf technische Aufgabenbereiche zur erforderlichen Klärung festgelegt, von denen einige, wie z. B. Fragen zu Erdbeben, bereits in Bearbeitung sind. Ende Mai hat die IAEA ihre Mitgliedsstaaten über den Fortschritte offiziell informiert.

Ausgestaltung

Eigentümer und Verwalter der Brennstoffbank auf kasachischem Boden wird die IAEA sein. Das Lager soll anfangs Material für die Erstbeladung von zwei bis drei Leichtwasser-Reaktoren enthalten. Alle Mitgliedsstaaten der IAEA, die sich ausdrücklich verpflichten auf eigene Anreicherung und Wiederaufbereitung zu verzichten, können im „Ernstfall“ auf die Lagerbestände zurückgreifen. Sie würden dann aus dem Bestand mit Brennstoff zu aktuellen Weltmarktpreisen versorgt. Anschließend würde die Brennstoffbank wieder unverzüglich ihre Reserven durch Zukäufe am Weltmarkt aufstocken.

Die Brennstoffbank übernimmt also die Funktion einer (politischen) Rückversicherung. Ein Staat ohne eigene Anreicherung, wäre wirtschaftlich und politisch erpressbar, wenn man ihm bei „Nachladebedarf“ eine Belieferung ganz verweigern würde oder nur zu überhöhten Preisen leisten würde. Dies ist die klassische – und leider nicht ganz von der Hand zu weisende – Argumentation z. B. Irans für sein eigenes Zentrifugenprogramm gewesen. Die Versorgungssicherheit hat sogar Deutschland bewogen, eigene Anreicherungsanlagen auf deutschem Boden zu betreiben. Die „politische Glaubwürdigkeit“ ist nur ein schwaches Argument beim Verzicht auf Kernwaffen. Demgegenüber ist der völlige Verzicht auf Anreicherung und Wiederaufbereitung ein eindeutiges und leicht zu kontrollierendes Bekenntnis. Staaten die bereit sind, so konsequent zu handeln (bisher nur die Vereinigten Arabischen Emirate), müssen dafür von der internationalen Gemeinschaft abgesichert werden.

Im Sinne einer Versicherung reichen hierfür recht kleine Mengen aus. Die hohe Energiedichte von Uran erfordert einen Brennelementewechsel nur in großen zeitlichen Abständen (alle 12 bis 24 Monate) und es können leicht (kleinere) Mengen selbst vorgehalten werden. Der Versuch einer Erpressung ist somit durch die garantierte Verfügbarkeit aus der Brennstoffbank von vornherein zum Scheitern verurteilt. Dieses Konzept lebt mehr von der „Abschreckung“ als von der realen Lieferung. Es steht und fällt allerdings mit der Glaubwürdigkeit der Garantie. Deshalb ist eine strikte internationale Kontrolle und Absicherung nötig. Im Umkehrschluß gilt, daß kein Staat zur zivilen Nutzung der Kernenergie „doppeldeutige“ Anlagen oder Verfahren mehr benötigt.

Entstehung

Das Verfahren geht auf die Nuclear Threat Initiative (NTI) zurück. Eine regierungsunabhängige und gemeinnützige Privatorganisation. Sie wurde 2001 von Ted Turner (Begründer von CNN und WTBS) und Sam Nunn (demokratischer Senator von Georgia 1972–1997) begründet. Sie versteht sich als aktiv handelnde Organisation. Ihre erste spektakuläre Aktion war 2002 die Finanzierung und Organisation eines Transports von fast 50 kg hoch angereichertem Uran aus einem „Forschungsinstitut“ in der Nähe von Belgrad zurück nach Rußland. Dort wurde es mit Natururan verschnitten und anschließend in zivilen Reaktoren zur Stromerzeugung verbraucht. NTI trug maßgeblich zur Gründung und deren Finanzierung des World Institute for Nuclear Security (WINS) bei. WINS hat sich zum Ziel gesetzt, die Sicherheit vor Diebstahl und jedweden Mißbrauch von nuklearem Material durch Terroristen oder Staaten zu verbessern. In dieser Organisation sind neben Behördenvertretern auch private Unternehmen organisiert, die sich gegenseitig unterstützen, austauschen und beraten. Inzwischen haben auch Norwegen und Kanada beträchtliche finanzielle Unterstützung zugesagt.

Diese Organisationen sind ein schönes Beispiel für die Wirksamkeit von privater Initiative. Durch die Mobilisierung von privaten Mitteln (Stiftungen) konnte unmittelbar und mit durchschlagendem Erfolg mit der Arbeit begonnen werden. Der „private Charakter“ ermöglichte die Zusammenkunft und Mitarbeit losgelöst von politischer Blockbildung. Regierungen sind auf solch sensiblen Gebieten handlungsunfähig. Sie können bestenfalls auf erfolgreiche Züge aufspringen. Für grundlegende Veränderungen in festgefahrenen Sektoren sind immer Einzelpersonen notwendig. Politische Parteien etc. müssen auf die vermeintlich geltenden Meinungen Rücksicht nehmen und sind stets ihren Lagern verpflichtet.

Modellcharakter

Seit der ersten Stunde der Nutzung der Kernenergie besteht immer der Konflikt zwischen „friedlich“ und „militärisch“. Die Kernenergie ist leider erst als Massenvernichtungswaffe der breiten Öffentlichkeit bekannt geworden. Die Nutzung als nahezu unerschöpfliche Energiequelle erschien erst nachträglich aufgesetzt. Mehr als 40 Jahre „Kalter Krieg“ mit Lügen und Propaganda wirken bis heute fort. „Angst vor dem Atom“ war und ist ein wesentlicher Stellvertreter in der „Systemfrage“. Hierin liegt aber auch die Chance: Die beiden Blöcke gibt es in ihrer ursprünglichen Form nicht mehr und zahlreiche neue Akteure sind auf der Weltbühne erschienen. Es ist Zeit für ein neues Zeitalter der Aufklärung.

Ohne Übertreibung kann man sagen, daß die Bevölkerungsentwicklung inzwischen für die Menschheit einen mindestens so brisanten Stellenwert, wie die „Atombombe“ besitzt. Entweder die Menschheit ist in der Lage, der Mehrheit einen akzeptablen Lebensstandard zu bieten oder sie wird im Elend versinken. Dabei ist es egal, ob sie in einem atomaren Inferno oder endlosen „Religionskriegen“ oder schlichtweg Umweltkatastrophen versinkt. Eine – nicht die einzige, aber die wesentliche – Herausforderung ist dabei, die ausreichende Versorgung mit preiswerter Energie. An dieser Stelle muß – insbesondere in Deutschland – mal wieder betont werden, daß „ausreichend“, „preiswert“ und „umweltschonend“ absolut gleichrangige Kriterien sind! Die Bevorzugung nur eines Kriteriums, ist für die Menschheit kontraproduktiv und wird entgegen des (hier durchaus unterstellten) guten Willens, geradewegs in die Katastrophe führen. Man kann es in jedem Entwicklungsland studieren: Armut und Umweltzerstörung (z. B. Abholzung von Urwäldern) gehen Hand in Hand, Luftverschmutzung ist und war die Folge „billiger Technik“ (Kohlekraftwerke ohne Filter, Autos ohne Abgasbehandlung).

Energieverbrauch pro Kopf und Wohlstand sind untrennbar miteinander verbunden. Alles Geschwafel von „Energieeffizienz“ ist nur eine Umschreibung für Verzicht. Wer kann und soll in einer Weltordnung verzichten, in der rund zehn Prozent der Menschen den Löwenanteil der Energie verbrauchen? Selbst wenn wir, in den Wohlstandsregionen Europas und USA, auf die Hälfte der Energie verzichten würden, würde diese Umverteilung die Milliarden von „ein Dollar pro Tag Verdienern“ nicht aus ihrem Elend herausführen können. Andererseits würde eine solche „Effizienzsteigerung“ bei uns wahrscheinlich zu Aufständen führen, denn auch hier leben nicht alle Menschen auf der „Sonnenseite“. Davon abgesehen, werden uns Chinesen und Afrikaner immer weniger um unsere Meinung fragen. Sie werden tun, was sie für richtig halten und das ist auch gut so.

Wenn man die Welt realistisch und mal nicht nur durch eine rosarote ökologische Brille betrachtet, bleibt nur die Erkenntnis, daß der Verbrauch von fossilen Energien (insbesondere Kohle) und Kernenergie auf absehbare Zeit noch zunehmen muß und wird. Ja, gerade wenn man den Zuwachs im Verbrauch fossiler Energien eindämmen will, wird man die Kernenergie weiter ausbauen müssen. „Regenerative“ sind bestenfalls ergänzende Energieträger und sind wegen ihrer Unstetigkeit und ihrer geringen Energiedichte und den daraus resultieren Kosten als Ersatz völlig ungeeignet. Es ist zu bezweifeln, ob die Menschheit jemals so reich sein wird, daß sie sich „regenerative Energien“ leisten können wird. In Wahrheit, wird sie sich dann, nahezu auf ihre Anzahl im vorindustriellen Zeitalter zurück schrumpfen müssen. Wer bestimmt, wer ausscheiden muß?

Das Dilemma zwischen friedlicher und militärischer Nutzung bleibt somit weiter bestehen. Man kann weder eine Waffentechnologie der 1940er Jahre dauerhaft geheim halten, noch läßt sich der größere Teil der Menschheit dauerhaft gängeln. China ist ein deutliches Beispiel. Wer glaubt noch ernsthaft daran, China Vorschriften machen zu können, wieviel von welcher Energieform es nutzen darf? Bestenfalls führt es eine Selbstbeschränkung auf 4 Milliarden to Kohle pro Jahr selbst durch. Um dieses Ziel einhalten zu können, muß es Kernkraftwerke in Serie bauen. Es ist zum Erfolg in der Kerntechnik verdammt. Unzählige „Schwellenländer“ blicken mit großen Erwartungen auf diese Entwicklung. Vorbild wird China und nicht das „Wendeland“ Deutschland sein.

Wenn es aber so ist, wie es ist, wird man Wege finden müssen, ein atomares Wettrüsten zu verhindern. Auch Nord Korea und Iran wird seine Nachahmer finden. Wenigstens den gutwilligen Nationen muß man Möglichkeiten bieten, nicht zwangsweise mitmachen zu müssen. Insofern ist der freiwillige Verzicht der Vereinigten Emirate auf ein atomares Wettrüsten mit seinem Nachbarn Iran, ein Hoffnungsschimmer. Es ist auch kein Zufall, daß die Unterstützung dafür von Privat und nicht aus „Regierungskreisen“ kommt. Wahrscheinlich auch nicht, daß eine „junge Nation“ aus dem ehemaligen Sowjetreich begeistert den Vorschlag für eine Brennstoffbank aufgegriffen hat.

Wie man einen Reaktor kaputt repariert

Der amerikanische Energieversorger Southern California Edison’s gab am 7.6.2013 bekannt, sein Kernkraftwerk San Onofre nuclear plants (SONGS) endgültig still zu legen. Ausschlaggebend war die Feststellung der Atomaufsicht (NRC), daß sie mindestens ein Jahr für die endgültige Entscheidung benötigen würde, ob das Kraftwerk mit reduzierter Leistung wieder ans Netz gehen dürfte. Zu den technischen Details später. Wer der NRC einfach nur Unfähigkeit unterstellt, macht sich die Sache zu einfach. Es ist – das auch aus Deutschland hinlänglich bekannte – geschickte Taktieren und Ausnutzen von „Gesetzeslücken“ durch „Atomkraftgegner“. Letztendlich ging es um die juristische Spitzfindigkeit, ob für den Betrieb mit 70% Leistung gegenüber 100% Leistung eine neue Betriebsgenehmigung erforderlich ist. Wenn dies der Fall wäre, müßte ein entsprechendes öffentliches Anhörungsverfahren durchgeführt werden, welches wiederum die Einhaltung von Mindestfristen erforderlich macht. Kein Unternehmen kann eine Entscheidung über mehrere Milliarden Dollar über Jahre in der Schwebe halten. Es tritt daher die alte Kaufmannsregel in Kraft: Ein Ende mit Schrecken, ist besser als ein Schrecken ohne Ende.

Geschichte

Das Kernkraftwerk besteht aus drei Reaktoren. Block 1 hatte eine Leistung von 456 MWe und war 25 Jahre in Betrieb (1968 bis 1992). Er befindet sich im Zustand des „sicheren Einschlusses“ und dient dem restlichen Kraftwerk als atomares Zwischenlager. Die Blöcke 2 und 3 mit einer Nettoleistung von zusammen 2150 MWe gingen im August 1983 und April 1984 in Betrieb. Sie haben eine Betriebserlaubnis bis ins Jahr 2022. Ein entscheidender Punkt in diesem Drama.

SONGS liegt ziemlich genau zwischen San Diego und Los Angeles im südlichen Kalifornien. Eine immer noch wachsende Region mit latentem Mangel an elektrischer Energie und hoher Luftverschmutzung. Ein Ersatz durch ein Kohlekraftwerk scheidet aus. Selbst der Neubau von Gaskraftwerken (z. Zt. extrem billiges Erdgas in USA) wird schwierig werden. Der Bau einer neuen Starkstromleitung wird ebenfalls sehr teuer und befindet sich noch in der Prüfung. Seit der Ausserbetriebnahme der beiden Reaktoren liegt der Strompreis in Südkalifornien bereits permanent rund 5 Dollar pro MWh über dem Preis in Nordkalifornien. Das alles war lange bekannt bzw. absehbar.

Da man sich zu einem rechtzeitigen Neubau eines Kernkraftwerks nicht durchringen wollte, entschloss man sich – wie einst in Deutschland – zu einer „Laufzeitverlängerung“ um weitere 20 Jahre. Dabei war klar, daß für einen wirtschaftlichen Betrieb und eine Betriebsgenehmigung umfangreiche Modernisierungen nötig waren. Dickster Brocken war hierbei die Erneuerung der Dampferzeuger für über 500 Millionen Dollar. Wegen der Abmessungen grundsätzlich ein heikles Unterfangen. Auch der Crystal River Nuclear Plant ist durch einen solchen Umbau zum Totalschaden geworden. Die ursprünglich gedachte Lebensdauer von 30+ Jahren, hat genau in der Schwierigkeit des Austausches der Großkomponenten (Dampferzeuger, Druckgefäß etc.) ihre Begründung. Die „Laufzeitverlängerung“ bei Reaktoren der ersten und zweiten Generation ist wirtschaftlich immer fragwürdig gewesen und bleibt es auch heute. Irgendwann wird die ständige Modernisierung bei jedem Auto und Flugzeug zu einem „Groschengrab“. Ein „Oldtimer“ wird zwangsläufig zu einem Luxusgut. Dies gilt besonders, wenn es den ursprünglichen Hersteller (Combustion Engineering CE) gar nicht mehr gibt und die Konstruktion eher exotisch war. CE baute grundsätzlich nur zwei (sonst 2, 3 oder 4 üblich, je nach Leistung) Dampferzeuger in seine Reaktoren ein. Deshalb waren die Dampferzeuger von SONGS die voluminösesten überhaupt. Eine Tatsache, die der Anbieter Mitsubishi Heavy Industries (MHI) ganz offensichtlich unterschätzt hat.

Technik der Dampferzeuger

Die Dampferzeuger sind neben dem Reaktordruckbehälter die größten und schwergewichtigsten Komponenten eines Druckwasserreaktors. Sie liegen innerhalb des Sicherheitsbehälters, der bestimmungsgemäß möglichst dicht sein soll. Will man sie austauschen, muß eine entsprechend große Montageöffnung in den Sicherheitsbehälter und die äußere Betonhülle (danach außergewöhnliche Abplatzungen im Spannbeton bei Crystal River) gebrochen werden.

Um die Vorgänge bei SONGS zu verstehen, muß man sich den Aufbau eines solchen Dampferzeugers vor Augen führen. Er ist das Bindeglied zwischen dem Wasserkreislauf des eigentlichen Reaktors und dem Dampfkreislauf der Turbine. Das heiße Wasser aus dem Reaktor strömt innerhalb der U-förmigen Rohre und überträgt dabei seine Wärme an das äußere Wasser des Dampfkreislaufes. Innerhalb der Rohre (primärseitig) sind die Verhältnisse noch einfach zu berechnen. Außerhalb (sekundärseitig) sind die Verhältnisse wegen der Verdampfung sehr kompliziert. Wie in einem Kochtopf bilden sich unzählige Dampfblasen, die sich ausdehnen, aufsteigen und dabei noch Wasser mitreißen. Es kommt dadurch zu erheblichen mechanischen Belastungen für die Rohre und alle Einbauten. Die Rohre sind nur sehr dünn (etwa 2 cm) und mehrere Meter lang. Ohne geeignete Abstützungen würden sie wie Grashalme im Wind hin und her geschlagen und durch permanentes Zusammenschlagen beschädigt. Die Auslegung und Fertigung solcher Abstandsplatten ist recht kompliziert, denn jeder Spalt zwischen Rohr und Abstandshalter bzw. Bodenplatte ist ein Ort der Korrosion. Durch die Korrosion werden die Rohre ebenfalls geschwächt bzw. eingebeult. Man verwendet deshalb recht exotische Legierungen (früher Inconel 600, heute Inconel 690) und eine komplexe Wasserchemie. Schäden lassen sich trotzdem nicht vermeiden. Bei jeder Inspektion werden die Rohre einzeln überprüft. Wenn ihre Wandstärke um ⅓ dünner geworden ist, werden sie durch Pfropfen dauerhaft verschlossen. Damit das überhaupt geschehen kann, sind ursprünglich 10 bis 20 Prozent mehr Rohre vorhanden, als für die Auslegungsleistung benötigt werden. Während des Betriebs gibt es eine Leckageüberwachung.

Bei der Inbetriebnahme der neuen Dampferzeuger traten unerwartete Vibrationen auf. Solche Vibrationen deuten immer auf einen erhöhten Verschleiß hin. Man stellte daher die Reaktoren ab und begann eine mehrmonatige Untersuchung. Das Ergebnis war ein Verschluß bereits geschädigter Rohre und die Entdeckung eines wahrscheinlichen Fehlers in der Konstruktion von MHI (Falsche Berechnung der Strömungszustände sekundärseitig). Wichtigste Erkenntnis war aber, daß die Vibrationen erst oberhalb einer Leistung von 70% auftraten. Es wurde der NRC daher vorgeschlagen, die Reaktoren für sechs Monate mit einer maximalen Leistung von 70% wieder in Betrieb zu nehmen und dann erneut auf Verschleiß zu prüfen. Gleichzeitig wurden Entwicklungsarbeiten für eine Ertüchtigung der Wärmetauscher durch MHI eingeleitet.

Das Ende

Am 13. Mai knickte das Atomic Safety and Licensing Board (ASaLB) Panel vor Friends of the Earth (FoE) ein. Für alle, die nicht so vertraut sind mit der Materie, ein Einschub: FoE ist einer der ältesten und einflussreichsten „Kampfeinheiten der Anti-Atomkraftbewegung“ oder noch treffender formuliert: Der Solarindustrie. Ihr erster Angestellter war Amory Lovins, der Guru aller Sonnenanbeter. Sich in Kalifornien mit dem Sierra Club und FoE anzulegen, ist ungefähr so, wie gegen Putin in Moskau zu demonstrieren. Der Sierra Club kämpft neuerdings nicht nur gegen Kernenergie, sondern auch massiv gegen die Kohlenindustrie. Dafür kommen die größten Spender aus dem Gassektor. Bei dem ASaLB handelt es sich um eine rein juristische Institution. Technik spielt dort keine Rolle. Insofern dürfte der Urteilsspruch nicht überraschen:

  1. Der Antrag auf eine Begrenzung der Leistung auf 70% entspricht nicht der Genehmigung und stellt eine schwerwiegende Änderung dar,
  2. Block 2 kann nicht sicher mit der genehmigten Leistung betrieben werden, deshalb muß die Genehmigung erneuert werden,
  3. Eine Wiederinbetriebnahme dieser Dampferzeuger in ihrem aktuellen Zustand mit nur 70% Leistung ist außerhalb geschichtlicher Erfahrung und der zeitweise Betrieb mit verringerter Leistung entspricht einem Versuch oder Test, für den es einer gesonderten Genehmigung bedarf.

Moral von der Geschichte: Juristen haben sich schlau aus der Schusslinie gebracht, Problem an die NRC delegiert, Kosten zahlen die Stromkunden, Luftverschmutzung nimmt weiter zu, aber Hauptsache die Solar- und Gasindustrie ist zufrieden gestellt.

Ganz neben bei, verlieren auch noch 900 Angestellte von den bisher 1500 Angestellten des Kraftwerks über Nacht ihre Arbeit.

Konsequenzen

Irgendwann ist jedes Kernkraftwerk am Ende seiner wirtschaftlichen Lebensdauer angekommen. Wer nicht den Mut besitzt ein neues zu bauen, begibt sich unter Umständen auf dünnes Eis: Ein massiver Umbau ist mit erheblichen Risiken verbunden. Ein Abriss und Neubau ist oft günstiger. Eine an und für sich Alltagserfahrung.

Fairerweise muß man aber sagen, daß ein Neubau heutzutage ein sehr langwieriges und kostspieliges Unterfangen ist. Das hat überhaupt nichts mit Technik und Betriebswirtschaft zu tun, sondern ist ausschließlich politisch verursacht. Wer das nicht glauben mag, sollte sich einmal die unterschiedlichen Planungs- und Bauzeiten für gleiche Reaktortypen in unterschiedlichen Ländern anschauen. Die teilweise abenteuerlichen Umbauten in USA sind ein Ergebnis für „vorhandene Standort-Genehmigungen“ und die wohlwollende lokale Unterstützung bei bestehenden Reaktoren im Gegensatz zum Risiko einer von „Anti-Atomgruppen“ verängstigten Bevölkerung an neuen Standorten.

Ein neues Phänomen – auch in Deutschland – ist die Mobilisierung von Rücklagen. Entgegen jahrzehntelanger Propaganda, sind die finanziellen Rücklagen für die Beseitigung der „Atomruinen“ so gewaltig bemessen gewesen, daß es verlockend geworden ist, sie zu heben. Im Falle SONGS betragen sie mehr als 2 Milliarden Dollar. Inzwischen steht eine auf „Abbruch“ spezialisierte Industrie weltweit zur Verfügung.

Das größte Hemmnis (nur in einigen Ländern !!) für die Investitionen in Kernkraftwerke ist die zeitliche Unkalkulierbarkeit. Sie muß über Risikozuschläge und zusätzliche Finanzierungskosten bedient werden. SONGS ist ein typisches Beispiel: Es geht beim Umbau etwas technisch schief. Die Konsequenz ist ein Stillstand der Arbeiten von mindestens einem Jahr aus rein juristischen Gründen. Es gibt aber ausdrückliche keine Garantie für diese Frist und das Ergebnis ist offen. Wahrscheinlich sind eher neue Verzögerungen, da sich die erfahrensten „Anti-Atomkraft-Kämpfer“ eingeschaltet haben. Jeder Tag Stillstand kostet aber dem Energieversorger mehr als eine Million Dollar pro Tag!

Der Restwert des Kernkraftwerks betrug rund 1,5 Milliarden Dollar. Die Umbauaktion schlägt mit weiteren 500 Millionen zu Buche. Allerdings beginnen nun juristische Auseinandersetzungen, wieviel davon MHI zu tragen hat und wieviel zusätzlich von Versicherungen übernommen wird. Man kann es aber drehen und wenden wie man will, letztendlich tragen die Stromkunden den Schaden. Das ist auch gut so. Kalifornien ist bereits einmal durch seine völlig verquaste Energiepolitik an den Rand des Staatsbankrott getrieben worden. Der folgende politische Erdrutsch führte zu einem Gouverneur Schwarzenegger.

Baubeginn für zweiten Reaktor

Ende März erfolgte der offizielle Baubeginn des zweiten Reaktorblocks für das Kernkraftwerk Barakah in Abu Dhabi in der Vereinigten Arabischen Emiraten (UAE). Baubeginn für den ersten Block war im July 2012. Die Blöcke 3 und 4 sollen folgen. Alle vier Reaktoren sollen in den Jahren 2017 bis 2020 ans Netz gehen. Im Jahre 2009 wurde der Auftrag für knapp 16 Milliarden Euro an ein koreanisches Konsortium vergeben. Samsung, Hyundai und Doosan Heavy Industries werden dieses Kraftwerk mit 5600 MWe errichten. Bemerkenswert ist der spezifische Preis von deutlich unter 3000 EUR/kW. Der erwartete Strompreis wird mit rund 2 Cent/kWh angegeben. Für diesen Preis kann man heute in Deutschland nicht mal mehr Strom aus Braunkohle produzieren. So viel nur zum „energiegewendeten“ Industriestandort Deutschland im Jahre 2020.

Warum Kernenergie im Ölland?

In allen Golfstaaten hat in den letzten Jahren eine bemerkenswerte Industrialisierung statt gefunden: Riesige petrochemische Anlagen, Stahlwerke, Kupfer und Aluminiumhütten etc. Basis ist und bleibt der Reichtum an Öl und Erdgas. Man setzt allerdings konsequent auf den verstärkten Export von veredelten Produkten an der Stelle von Rohstoffen. Verknüpft ist das alles mit einer rasant wachsenden Bevölkerung und zunehmendem Wohlstand. So verdoppelt sich der Strombedarf in den Emiraten etwa alle zehn Jahre. Hinzu kommt noch ein riesiger Bedarf an Trinkwasser, der ausschließlich über energieintensive Meerwasser-Entsalzungsanlagen gewonnen werden muß.

In allen Golfstaaten begann die Elektrifizierung mit Ölkraftwerken. Schon in den 1970er Jahren ergab sich ein neuer Zielkonflikt: Das Rohöl (in Weltmartktpreisen) wurde immer teurer und gleichzeitig nahmen die Umweltprobleme durch das Abfackeln der Begleitgase immer mehr zu. Folgerichtig wurde eine Umstellung auf Gaskraftwerke betrieben. Man konnte in den Emiraten mit dieser Politik zwei Ziele erreichen: Gewinnung zusätzlicher Ölmengen für den Export und Umweltschutz. Es wurden Kombikraftwerke in Serie gebaut: Mit dem Erdgas werden Gasturbinen betrieben und deren Abgas anschließend in Dampfkesseln zur weiteren Stromerzeugung genutzt. Zusätzlich sind die Dampfturbinen mit Anzapfungen zur Auskoppelung von Niedertemperaturdampf versehen, der in Enstspannungsverdampfern Trinkwasser aus Meerwasser erzeugt. Dieser Verbund auf der Basis (einst) billig vorhandenen Brennstoffs war so günstig, daß in den Emiraten beispielsweise Aluminiumwerke betrieben werden können. Sonst eher eine Domäne billiger Wasserkraft. Inzwischen ist jedoch der Gasverbrauch so stark angestiegen, daß z. B. Erdgas aus dem benachbarten Katar importiert werden muß. Und schon drückt auch hier der Weltmarktpreis für Erdgas auf die Eigenerzeugung. Umfangreiche Studien kamen zu dem Ergebnis, daß der weiter steigende Strom- und Trinkwasserbedarf sinnvoll nur durch (importierte) Kohle oder Kernkraft gedeckt werden kann.

Man wählte als ersten Schritt den Einstieg in eine erprobte Technik: Die Kernenergie. Im zweiten Schritt ist für Dubai ein Kohlekraftwerk mit CO2-Abscheidung geplant. Auch hier wird ein mehrfacher Nutzen angestrebt: Das abgeschiedene Kohlendioxid soll in „alte“ Ölfelder zur zusätzlichen Ölgewinnung verpreßt werden. Überkritisches Kohlendioxid ist einer der besten Lösungsmittel überhaupt. In Texas wird diese Methode bereits in großem Maßstab angewendet, um vermeintlich „trockene“ Ölfelder weiter zu entölen. Dort ist diese Methode wirtschaftlich, weil man große natürliche Kohlendioxidvorkommen in unmittelbarer Nähe der Ölfelder hat. In Norwegen fördert man stark kohlendioxidhaltiges Erdgas. Das Kohlendioxid wird nach Abscheidung ebenfalls wieder in die Lagerstätte verpreßt um den Lagerstättendruck aufrecht zu erhalten. Was die „unterirdische Lagerung von CO2“ betrifft, handelt es sich also um eine seit langem erprobte Technologie. Bleibt noch die Abscheidung im Kraftwerk: Einst auch eine verfahrenstechnische Domäne Deutschlands – bis „Grüne“ meinten, daß CO2 ganz, ganz böse und gefährlich sei. Mal sehen, welches Land den Auftrag für das Kraftwerk erhält. Aber der Deutsche Michel wird sich trotzdem glücklich schätzen, wenn er für sein Erdgas und Benzin noch ein weiteres „CO2-Zertifikat“ oben drauf kaufen darf, zur Wohlstandsförderung in den Ölstaaten. Er hat es halt nicht besser verdient.

Warum nicht Sonne?

Nun, alle Golfstaaten bauen durchaus „Sonnenkraftwerke“. Nur leider scheint auch in der Wüste nachts keine Sonne. Zwar gibt es ein paar mehr Sonnenstunden dort, aber leider ist es auch bedeutend wärmer und alle Verfahren zur Stromgewinnung knicken mit steigender Temperatur ein. Man kann dort also gar nicht so viel mehr elektrische Energie mit einem Sonnenkollektor gewinnen. Um die gleiche Energie, wie ein Kernkraftwerk mit seiner Arbeitsverfügbarkeit von 90 % zu gewinnen, benötigte man gigantische Flächen, Speicher und riesige Mengen Wasser zur Kühlung und/oder Reinigung. Tatsachen, die gerne von „Sonnenmännchen“ in ihren Werbebroschüren verschwiegen werden. Insofern kann auch in der Golfregion Sonnenenergie nur ergänzend eingesetzt werden. Eine Vollversorgung ist – nicht nur aus wirtschaftlichen Gründen – illusorisch.

Es gibt auch reichlich Wind in der Golfregion. Nur bläst der Wind noch zufälliger und wenn er bläst, ähnelt er mehr einem Sandstrahlgebläse. Außerdem macht es wenig Sinn, seine Küsten zu „verspargeln“, wenn man auch den Tourismus fördern will. Alles in allem, eher schlechte Bedingungen für „Alternativtechnik“.

Die Emirate sind der Musterfall für alle wüstenähnlichen Regionen. Wer glaubte, man könne diese Regionen zur Stromversorgung von Europa nutzen, ist einem Märchen aufgesessen. Die Mittel reichen nicht einmal für eine Selbstversorgung dieser Länder. Es ist daher kein Zufall, daß gerade die aufstrebenden Nationen in Kernkraftwerken ihre einzige Möglichkeit sehen. Hinzu kommt in diesen Ländern die notorische Trinkwasserknappheit. Meerwasserentsalzung ist die einzige Alternative. Wenn all diese Länder hierfür Kohle einsetzen wollten, würde der Weltmarkt aus den Fugen geraten. Die heimischen Gas- und Ölvorkommen (so weit vorhanden) werden als Devisenbringer ohnehin dringend benötigt.

Proliferation

Die UAE sind auch in politischer Hinsicht ein Musterfall: Um gar nicht erst den Verdacht zu erwecken, nach Kernwaffen zu streben, haben sie sich verpflichtet auf Urananreicherung und Wiederaufbereitung zu verzichten. Im Gegenzug garantiert man ihnen die Versorgung mit Brennstoff. Dies ist ein Modell, auf das sich auch andere Länder einlassen können und wahrscheinlich auch müssen, wenn sie die volle Unterstützung der Weltgemeinschaft genießen wollen. Iran ist das krasse Gegenbeispiel.

Zumindest der letzte Punkt ist auch für Deutschland von Vorteil. Die Gespensterdebatte um ein „Atommüll-Endlager“ ist überflüssig geworden, da sich kurz über lang ein internationaler Markt für Wiederaufbereitung herausbilden wird. Wie schnell das geschieht, hängt allein von der Wachstumsgeschwindigkeit der Kernenergie und von den Preisen für Natururan ab. Der Tag wird nicht mehr so fern sein, wo Deutschland seine „Uran- und Plutoniumvorräte“ auf dem Weltmarkt verkaufen kann. Deshalb bauen ähnlich kleine Länder, wie Schweden und Finnland auch „rückholbare Endlager“. Man vergräbt zwar durchaus Schätze, aber stets um sie sicher zu lagern und nicht um sie zu vergessen. Abgenutzte Brennelemente sind Wertstoffe und kein Müll.

Dampferzeuger aus China

Anfang Mai wurde der erste in China gefertigte Dampferzeuger für einen EPR (European Pressurized Water Reactor) auf der Baustelle in Taishan (140 km westlich von Hong Kong) angeliefert. Was ist daran so bemerkenswert? Nun, der EPR ist der modernste Reaktor (sog. Generation III+) von Areva. Ursprünglich eine gemeinsame Entwicklung von Deutschland und Frankreich. Er sollte die Weiterentwicklung der bis dahin modernsten Reaktoren (Konvoi und N4) in beiden Ländern sein. Dieser Typ verkörpert über mehrere Jahrzehnte gewachsene Erfahrung in Bau und Betrieb. Außerhalb von China sind nur zwei weitere Reaktoren (Olkiluoto in Finnland und Flamanville in Frankreich) z. Zt. im Bau. Man kann mit Fug und Recht sagen, dieses Modell ist das mit Abstand anspruchsvollste Projekt, was der europäische Anlagenbau (noch) zu bieten hatte. In seiner Komplexität und seinen technischen Anforderungen höchstens noch mit dem Airbus vergleichbar. Eine Nation, die solche Kernkraftwerke bauen kann, ist auch jederzeit auf allen anderen Gebieten der Anlagentechnik (Chemieanlagen, Raffinerien, Spezialschiffbau etc.) ein ernsthafter Konkurrent. Wer andererseits freiwillig aus der „Hochtechnologie“ aussteigt, leitet unweigerlich die Deindustrialisierung ein. Der Fortschritt kennt nur eine Richtung: Wer die Entwicklung (freiwillig oder unfreiwillig) einstellt, muß gnadenlos auf dem Weltmarkt aussteigen. Der Niedergang der DDR ist ein schönes Beispiel dafür. Letztendlich führt das „Rumwursteln im Mangel“ immer auch zu einem gesellschaftlichen Zusammenbruch.

Der Dampferzeuger als technisches Objekt

Was macht den Dampferzeuger eines Kernkraftwerks so besonders, daß weniger als eine Hand voll Länder dazu in der Lage sind? Die schiere Größe und die Komplexität. Trauriges Beispiel hierfür, sind die von Mitsubishi aus Japan neu gelieferten Dampferzeuger für das Kraftwerk San Onofre in USA. Sie waren in kürzester Zeit schwer beschädigt, was zu einem mehrmonatigen Ausfall des Kraftwerks geführt hat. Wahrscheinlicher Grund: Falsche Berechnung der Strömungsverhältnisse. Wieder einmal, ist die Kerntechnik der Antrieb für die Entwicklung verbesserter Simulationsprogramme. Die heute in vielen Industriezweigen verwendeten Thermo-Hydraulischen-Simulationen (Verknüpfte Berechnung von Strömungen und Wärmeübertragung) würde es ohne die Kerntechnik schlicht nicht geben. Die hierfür nötigen „Super-Computer“ ebenfalls nicht. Wer meint, aus dieser Entwicklung aussteigen zu können, endet zwangsläufig bei den bemitleidenswerten „Klimamodellen“ aus der Berliner Vorstadt, mit denen man uns weiß machen möchte, man könne die „Welttemperatur“ auf einige zehntel Grad genau berechnen.

Viel unmittelbarer ist der Zusammenhang auf der „mechanischen“ Seite. Ein solcher Dampferzeuger hat ein Gewicht von etwa 550 to bei einer Länge von 25 Metern. Wer solche Massen wie ein rohes Ei heben, transportieren und auf den Millimeter genau absetzen kann, braucht sich auch vor anderen Baumaßnahmen nicht zu fürchten. Dies erfordert eine entsprechende Infrastruktur und vor allem „Fachkräfte“ mit jahrelanger praktischer Erfahrung. Viel entscheidender ist jedoch, die Fertigung solch großer Teile, in der erforderlichen Präzision, aus speziellen Materialien. Bisher ist der Bau von Bearbeitungszentren eine Domäne der deutschen Werkzeugmaschinenindustrie. Was geschieht aber, wenn Europa den Schwermaschinenbau immer mehr aufgibt? Die Werkzeugmaschinenhersteller werden ihren Kunden nach Asien folgen müssen.

Die Kerntechnik war stets ein Hort für die Verarbeitung exotischer Werkstoffe. Die Dampferzeuger sind ein typisches Beispiel. Sie müssen die gesamte im Reaktor erzeugte Wärme übertragen und daraus Dampf erzeugen. Dazu ist eine entsprechende Druckdifferenz und Wärmeübertragungsfläche nötig. Ein Druckwasserreaktor muß wegen der Neutronenphysik mit flüssigem Wasser betrieben werden. Eine Turbine mit Dampf. Damit das Wasser bei einer Temperatur von rund 330 °C noch flüssig bleibt, muß es unter einem Druck von etwa 155 bar stehen. Der damit hergestellte Dampf von knapp 300 °C hat aber nur einen Druck von etwa 78 bar. Diese enorme Druckdifferenz von etwa 80 bar muß sicher beherrscht werden. Für solch hohe Drücke kommen praktisch nur dünne Rohre in Frage, denn die Wärme soll ja durch die Rohrwand hindurch übertragen werden. Solche Dampferzeugerrohre haben eine Wandstärke von lediglich einem Millimeter, bei einem Außendurchmesser von weniger als 2 Zentimetern. Wie kann man aber fast 24.000 Liter pro Sekunde durch solch enge Rohre pumpen? Nur indem man tausende Rohre parallel schaltet und genau das ist die nächste Herausforderung: Zehntausende Röhren müssen pro Reaktor hergestellt, gebogen, befestigt und abgedichtet werden. Das Material muß eine gute Wärmeleitung besitzen, bei möglichst hoher Festigkeit und Korrosionsbeständigkeit. Hinzu kommen noch jede Menge Einbauten und Instrumentierung. So etwas kann man nur in einer Fabrik bauen, die eher einem Labor oder Krankenhaus gleicht, aber nicht in einer Schlosserei. Mit hoch qualifizierten (und deshalb auch gut bezahlten) Fachkräften.

Die gesellschaftlichen Konsequenzen

Die ersten vier Dampferzeuger für den Block Taishan 1 wurden noch komplett bei bei Areva in Chalon-StMarcel gefertigt. Die weiteren vier für Taishan 2 kommen bereits aus chinesischer Fertigung. Das Lerntempo ist bemerkenswert. Entscheidend ist aber folgendes: Niemand baut eine eigene Fabrik für nur vier Dampferzeuger. Ein solcher Schritt macht nur Sinn, wenn man vor hat, noch ganz viele zu bauen. Zuerst lockt der eigene Inlandsmarkt. Für Areva dürfte sich schon dieses Geschäft mit dem Wissenstransfer erledigt haben. Der chinesische Markt für Kernkraftwerke ist gegenüber dem europäischen gigantisch. China kann also in kürzester Zeit Kostenvorteile durch Serienproduktion erzielen. Mit diesen Kostenvorteilen wird es in spätestens einem Jahrzehnt massiv auf den Weltmarkt drücken. China wird aber auch die eingekaufte Technik weiterentwickeln. Die „kleine“ Areva hat langfristig keine Chance mitzuhalten. Wenn nicht jetzt massiv umgedacht wird, hat Europa in weniger als einer Generation eine weitere Schlüsseltechnik verspielt: Nach dem Bau von Computern wird auch der Kraftwerksbau aus Europa verschwinden und mit ihm im Fahrwasser, ganze Industriezweige. Aber wahrscheinlich ist das der wahre Grund für die „Energiewende“: Es geht nicht um ein bischen „Ökologismus“ sondern schlicht weg (mal wieder) um „Gesellschaftsveränderung“.

Fukushima, zwei Jahre danach

Jahrestage dienen immer der Erinnerung und der Bilanzen. So auch im Falle des Reaktorunglücks in Fukushima. Zahlreiche Veröffentlichungen sind bisher erschienen. Nach zwei Jahren erscheint es an der Zeit, die ersten grundsätzlichen Konsequenzen zu ziehen.

Was geschah

Vor zwei Jahren erschütterte ein selten starkes Erdbeben den Norden der japanischen Inseln. Erdbeben sind in Japan Routine. Was allerdings überraschte, war die Schwere und der Ort des Geschehens: Ein solch schweres Beben hatte man in absehbarer Zeit eher im Süden erwartet. Die Folge dieses küstennahen Bebens war ein außergewöhnlich heftiger Tsunami. Auch das nicht selbstverständlich für ein Meeresbeben. Alles in allem, eher ein Jahrtausendereignis. Gleichwohl bekannt, wenn auch selten. Geologen kannten mehrere Ereignisse mit hohen Flutwellen in dieser Gegend in den letzten Jahrtausenden. Die Flutwelle überspülte das gesamte Kraftwerk und zerstörte dabei alle Außenanlagen. Die Bedienungsmannschaft gehörte zu den wenigen, die mangels geeigneter Kommunikationsmittel die Warnungen vor dem Tsunami gar nicht mitbekommen haben. Wertvolle Zeit zwischen den Erdstößen und der Flutwelle ist verstrichen und es wurden sogar unangemessene Entscheidungen gefällt. Die Wasserwand traf das Kraftwerk und seine Mannschaft unerwartet und mit unvorstellbarer Gewalt. Wie war es möglich, daß ein Kernkraftwerk buchstäblich überrollt werden konnte? Es war ganz einfach auf zu niedrigem Grund gebaut worden. Man hatte sogar während der Bauzeit noch Gelände abgetragen, um die Baustelle einfacher zu gestalten. Es wurden zwar anschließend Flutmolen gebaut, aber leider viel zu niedrig. Man wußte das seit langem, hatte aber auf „kleine Wellen“ gewettet, da das Kraftwerk ohnehin in einigen Monaten still gelegt werden sollte. Hinzu kam eine von sich aus schon nicht besonders robuste und veraltete Konstruktion und eine im Laufe der Jahrzehnte nicht mehr besonders geschulte Mannschaft. Solche Ketten sind leider nicht außergewöhnlich: Viele – für sich genommen unbedeutende Fehlentscheidungen – können sich in einem Unglücksfall zur Katastrophe auswachsen. Es entstand ein immenser materieller Schaden. Die Kosten übersteigen (damals) notwendige Investitionen um Größenordnungen.

Entweder man macht es richtig oder man läßt es bleiben

Die Standortbedingungen waren sehr genau bekannt. Ein „wird schon gut gehen“, darf es in der Kerntechnik nicht geben. Ein Kernkraftwerk hätte an diesem Standort besser nicht gebaut werden sollen. Da man es trotzdem gemacht hat, hätte man es gegen solche Flutwellen sichern müssen. Spätestens nach Tschernobyl war bekannt, daß es nicht besonders schlau ist, einen Reaktor in eine einfache Industriehalle zu stellen. Hätte das Kraftwerk eine übliche Betonhülle gegen Einwirkungen von außen gehabt, wäre es durch eine „kleine“ Wasserstoffexplosion nicht in sich zusammengefallen. Die Lagerbecken für Brennelemente wären heute nicht mit Bauschutt verschüttet und hätten längst geleert werden können. Ebenso fragwürdig ist der Bau „Wand an Wand“ von Reaktoren, die über zahlreiche Keller, Gänge und Rohrleitungen so miteinander verbunden sind. Wie sich gezeigt hat, können sich im Schadensfall schädliche Gase und radioaktive Flüssigkeiten ungehindert ausbreiten.

Schon Anfang der 1970er Jahre wurde das sehr geringe Volumen des Sicherheitsbehälters bei diesem Reaktormodell kritisiert. Man forderte deshalb Druckentlastungsventile, über die ein etwaiger Überdruck kontrolliert abgebaut werden könnte. Politisch tat man sich damit sehr schwer: Der Sicherheitsbehälter sollte doch eine Freisetzung von Radioaktivität verhindern. Jetzt sollte er geöffnet werden? Dies glaubte man der Öffentlichkeit nur schwer verständlich machen zu können. Ähnliches galt für das Betriebspersonal: Seine wichtigste Aufgabe ist es, die Freisetzung von Radioaktivität zu vermeiden. Was würde mit ihm geschehen, wenn es das Ventil zu „leichtfertig“ öffnen würde?

Spätestens nach dem Unfall in Harrisburg war es eine Tatsache, daß Brennstäbe trocken fallen können und es dann zur Bildung von Wasserstoff kommen kann. Um eine Explosion im Sicherheitsbehälter zu verhindern, wurde dieser während des Betriebs mit Stickstoff gefüllt. Tritt aber nach der Bildung von Wasserstoff, Gas aus dem Sicherheitsbehälter aus, kann es an der frischen Luft zu einer Explosion kommen. Alles seit Jahrzehnten bekannt und durch Experimente bestätigt.

Die Hauptursache war jedoch der Ausfall der Stromversorgung über eine zu lange Zeitdauer. Durch die Flutwelle war großflächig das Stromnetz zerstört. Das Kraftwerk hätte sich also mehrere Tage selbst versorgen müssen. Da das Einlaufbauwerk mit den Kühlwasserpumpen zerstört war, war mangels Kühlung eine Eigenversorgung des Kraftwerks unmöglich. Die Flutwelle hatte nicht nur die Notstromdiesel außer Gefecht gesetzt, sondern auch einen „großen Kurzschluß“ in den Schaltanlagen verursacht. Unmittelbare Hilfe von außen (z. B. Feuerwehr, Fachleute usw.) war erst später möglich, da die gesamte Infrastruktur im Bezirk großflächig und gründlich zerstört war. Die Betriebsmannschaft mußte sich im entscheidenden Zeitraum mit Batterien und Taschenlampen „durchwursteln“. Eine Situation, die (bislang) in keinem Handbuch beschrieben war. Das alles unter einer enormen psychischen Belastung: Es war sehr schnell klar, wie zerstörerisch dieser Tsunami gewesen sein mußte und fast alle hatten ihre Familien in den nahe gelegenen Orten. Diese Kombination von totalem Stromausfall und schweren Schäden im eigenen Kraftwerk, bei gleichzeitiger Isolation von der Außenwelt, hatte es bis dahin noch nicht gegeben.

Das Positive am Unfall

Der Tsunami in Japan war eine der verheerendsten Naturkatastrophen, die ein Industrieland je getroffen hat. Schon die hohe Zahl an Toten und Vermissten spricht für die enorme Gewalt und Ausdehnung. Trotzdem sind nur vier von über fünfzig Reaktoren Totalschaden. Der überwiegende Teil ist nur leicht oder gar nicht beschädigt worden. Selbst bei dem schweren Unfall in Fukushima, ist kein Mensch durch Strahlung schwer geschädigt oder gar getötet worden. Insgesamt ein sehr positives Ergebnis. Bei Kernkraftwerken handelt es sich offensichtlich um recht robuste Anlagen.

Besonders positiv ist, daß eine deutliche Lernkurve zu verzeichnen ist: Je jünger die Anlagen, um so geringer die Schäden. Selbst die Kraftwerke der 1960er Jahre, die aus heutiger Sicht eine Menge Nachteile aufweisen, hatten so viele eingebaute „Sicherheiten“, daß sie zwar einen solchen Tsunami nicht überstanden haben, aber trotzdem nur eine geringe Gefährdung ihrer Umwelt darstellen.

Die Japaner sind tatkräftig dabei, ihr „Missgeschick“ in eine Chance umzuwandeln: Haben sie bereits mehrfach den Beweis geliefert, daß sie erfolgreich Kernkraftwerke in Erdbebenregionen bauen und betreiben können, sind sie jetzt dabei, der Welt zu zeigen, wie man mit einer „Nuklearkatastrophe“ verantwortungsvoll umgeht. Die Ruine wird zielstrebig und umweltschonend beseitigt. Und dies geschieht alles öffentlich und unter „kritischer Begleitung“ unserer „Atomkraftgegner“, die ihr Geschäftsmodell der Verbreitung von Angst langsam schwinden sehen. Die Story von „Millionen Toten, für zehntausende Jahre unbewohnbar“ hat sich als schlechte Propaganda erwiesen. Schlecht deshalb, weil inzwischen von jedem als maßlose Übertreibung erkennbar.

Lehren, die gezogen werden müssen

Fukushima hätte nicht passieren müssen. Dies ist die einhellige Schlussfolgerung in allen bisherigen Untersuchungsberichten. Wie aber, konnte es geschehen, daß man das Risiko einer bekannt hohen Flutwelle förmlich ausblendete? Seit der Planung, wurde immer wieder von namhaften Geologen (keine selbsternannten „Atomexperten“) auf die mögliche Höhe einer Flutwelle an diesem Standort hingewiesen. Bei dem Kraftwerk in Fukushima handelte es sich um eine veraltete Konstruktion. Allein in den USA sind von diesen „alten Typen“ noch über 30 Stück in Betrieb. Allerdings mit einem entscheidenden Unterschied: Die konstruktiven Schwachstellen wurden herausgearbeitet und durch Nachrüstmassnahmen zumindest entschärft. Gleiches geschah z. B. in Schweden.

In Japan hat die „Atomaufsicht“ völlig versagt. Schlimmer: Wie man sich heute eingesteht, mußte sie versagen, weil sie von ihrer Konzeption her so angelegt war. Der japanische Staat ist vom Selbstverständnis her, ein fürsorglicher Staat. Er ist für das Wohl der Nation maßgeblich verantwortlich und sorgt deshalb für die ausreichende und sichere Versorgung mit Energie. Insofern war es in sich logisch, auch die Kernenergie von der Planung bis zum Betrieb möglichst eng zu verknüpfen. Anfangs ein Erfolgsrezept, denn Kerntechniker sind nicht per Knopfdruck zu erschaffen. Schon die Ausbildung dauert überdurchschnittlich lang und erfordert spezielle Qualifikationen. Heute spricht man treffend vom „Nuclear Village“ in Japan, in dem jeder mit jedem irgendeine Beziehung unterhält. Dieses System gipfelt im „Amakudari“ (etwa: vom Himmel herabsteigen) japanischer Behörden. Damit ist gemeint, daß Staatsbedienstete vor dem endgültigen Ruhestand noch einmal in die Privatwirtschaft wechseln um „richtig Geld zu machen“. Sie nutzen dann für ihre neuen Dienstherren ihre „Behördenerfahrung“ und ihre Kontakte. Man kann sicherlich nicht erwarten, daß solche „Kontrolleure“ ihre zukünftigen Brötchengeber durch „Übereifer“ verprellen wollen. Außerdem versucht man eine Lösung für die häufige Rotation zu finden. Für japanische Beamte ist alle zwei bis drei Jahre eine Versetzung üblich. Damit ist eine „Waffengleichheit“ bei der fachlichen Qualifikation zwischen Prüfer und Antragsteller kaum möglich. Dem Beamten bleibt aus Unsicherheit meist nichts anderes übrig, als dem Antragsteller in seiner Argumentation zu folgen. Nur so ist es erklärlich, warum z. B. die Anwendung der Wahrscheinlichkeitsanalyse so lange in Japan immer wieder verhindert werden konnte. Ein Beamter liebt keine Unsicherheiten, sondern wird immer einen konkreten Zahlenwert aus irgendeiner Vorschrift bevorzugen.

Bevor an dieser Stelle das Gefühl aufkommt, in Deutschland sei alles besser, nur mal einige Denkanstöße: Glaubt wirklich jemand, daß in Deutschland ein „Karrierebeamter“ noch wagt, ausschließlich nach wissenschaftlichen Erkenntnissen den Salzstock in Gorleben zu beurteilen, wo doch politisch alles auf „Anti-Gorleben“ gebürstet ist? Wo war der Aufschrei, als unter Rot-Grün systematisch Aufsichtsbehörden mit „kritischen Wissenschaftlern“ (ein Synonym für nachweislich fachlich unqualifiziert, aber mit richtiger politischer Gesinnung) in Führungspositionen besetzt wurden? Wer sollte heute noch Forschungsgelder für kerntechnische Fragestellungen beantragen, wo der „Atomausstieg“ doch beschlossene Sache ist und Forschungsgelder eher für „Gender-Problematik“ abzugreifen sind? Hier geht es nicht um einzelne Personen, sondern um Strukturen, die absehbar (wieder) in die Katastrophe führen. Ideologische Vorgaben und Wissenschaft schließen sich grundsätzlich aus.

Selbst im angeblichen Mutterland des Kapitalismus scheint einiges aus dem Ruder gelaufen zu sein. Zwar haben die USA eine ziemlich unabhängige und selbstbewusste „Atomaufsicht“, aber diese werkelt in Stundenlohnarbeit, zum Stundensatz von knapp 300 $, bei Genehmigungen jahrelang vor sich hin. Dort sitzen auch die Spezialisten, die sich beispielsweise ihr halbes Leben mit Rohren bei Dampferzeugern von Druckwasserreaktoren beschäftigt haben und deshalb auch die verwickelsten Fälle (San Onofre) in kurzer Zeit lösen. Aber mal ehrlich, wer möchte diesen Damen und Herren in Stundenlohnarbeit die Genehmigung eines gasgekühlten Wärmeübertragers vorlegen? Zwar gilt auch hier, die Kosten des einen, sind das Einkommen des anderen, aber mit einem entscheidenden Unterschied: Unübliche Kosten (alle bauen ja schließlich Leichtwasserreaktoren) lassen sich nicht auf dritte, die Stromkunden, abwälzen. Ein solches System ist extrem innovationsfeindlich. Das hat auch die amerikanische Regierung erkannt und versucht nun durch Milliardenprogramme (z. B. SMR-Reaktoren) diesen Fehler mehr schlecht als recht zu heilen – und was kommt raus? Überraschung: Kleine Druckwasserreaktoren, wie man sie eigentlich schon seit Jahrzehnten für die Marine baut.

Nun haben die USA wenigstens noch die „Nationale Sicherheit“, für die man eigentlich immer Gelder auftreiben kann und weitestgehend ungehindert forschen und entwickeln kann. Oder müssen wir uns doch eher auf „Gelenkte Demokratien“ verlassen, wo ein Diktator, in seiner unendlichen Weisheit, vielleicht doch neue Reaktortypen entwickeln läßt? Auszuschließen ist das nicht. Vielleicht ist es ja ein „Guter Diktator“, der uns an seinem Fortschritt auch noch selbstlos teilhaben läßt. Schließlich wollen unsere „Energiewender“ ja auch die Menschheit retten.

Soll Bürokratie und Planwirtschaft tatsächlich die Antwort auf eines der dringendsten Probleme der gesamten Menschheit sein: Ausreichend preiswerte Energie! Oder ist der „Geist von Cupertino“ nicht viel eher die Antwort? Wieso konnte ein Computerhersteller etliche Milliarden Dollar eigenes (!!!) Geld in die Hand nehmen und gegen den Rat aller „Telefonexperten“ ein völlig neues Telefonkonzept entwickeln? Die Antwort ist einfach: Weil man ihm die Freiheit dazu ließ! Selbstverständlich war er verpflichtet, alle geltenden Vorschriften und Sicherheitsnormen einzuhalten – aber bitte nicht mehr.

ATMEA1 versus AP1000

In der Kerntechnik hat sich die Einteilung von Reaktoren nach Generationen (GenI bis GenIV) eingebürgert. Stellvertretend für die in den 1960er Jahren und früher entstandene „1. Generation“ von Kernkraftwerken steht z. B. der Unglücksreaktor in Fukushima. Ein Beispiel für die folgende „2. Generation“ sind die sogenannten Konvoi-Kraftwerke Isar 2, Emsland und Neckarwestheim 2 in Deutschland. Heute im Bau befindet sich die „3. Generation“ wie z. B. der European Pressurized Water Reactor (EPR) von AREVA in Olkiluoto, Finnland und der Advanced Passive (AP1000) Reaktor von Westinghouse in Sanmen, China.

In jede Generation flossen die bisherigen praktischen Betriebserfahrungen, aufgetretene Unfälle und nicht zuletzt politische Forderungen ein. Typisches Beispiel, wie Teile der kerntechnischen Industrie stets bemüht waren, über jedes Stöcken zu springen, das ihnen die „Anti-Atomkraft-Bewegung“ hingehalten hat, ist der „Core Catcher“. 1979 schuf Hollywood den Katastrophenfilm „The China Syndrome“ (mit Jane Fonda, Jack Lemmon und Michael Douglas). In diesem Film bauen böse Kapitalisten ein unsicheres Kernkraftwerk. In typischer Hollywood-Übersteigerung kommt es (beinahe) zu einer Kernschmelze: Das „atomare Feuer“ frißt sich durch meterdicken Stahl und Beton Richtung China. Physikalisch ist das zwar kompletter Unsinn, politisch aber ein absoluter Volltreffer: Noch mehr als 30 Jahre später, zählt die „Kernschmelze“ zu den Gruselgeschichten, die jedem selbsternannten „Qualitätsjournalisten“ einen wohligen Schauer über den Rücken laufen lassen. Wenn man über Fukushima redet, muß das Zauberwort „Kernschmelze“ mindestens einmal erwähnt werden. Die kerntechnische Industrie, die heute gerne Krokodilstränen über ständig steigende Kosten und ausgedehnte Genehmigungsverfahren weint, glaubte sich stets durch „draufsatteln“ von Kritik frei kaufen zu können. Leider haben sie nie die Erfolgsstrategie der „Atomkraftgegner“ kapiert: Scheint ein Stöckchen übersprungen, schiebt man sofort das nächste nach. Solange, bis sich die Prophezeiung von der „teuren Atomenergie“ endlich erfüllt hat.

Der französische Weg

Fairer weise, muß man eigentlich vom deutsch-französischen Weg sprechen. In den späten 1980er-Jahren – in Hessen gab es schon eine Rot/Grüne-Koalition, in Frankreich war der Markt für Kernkraftwerke gesättigt – faste man den (politischen) Entschluß, einen gemeinsamen Reaktortyp zu entwickeln. Ganz nach dem aus Luft- und Raumfahrt bekannten Muster: Wenn es dem Deutschen Michel zu futuristisch wird, versteckt er sich gern hinter der forschen Marianne. Der Gedanke, einen einheitlichen Reaktortyp für Deutschland und Frankreich bauen zu wollen, erschien vernünftig und war gleichzeitig das vorprogrammierte Scheitern. Zu unterschiedlich sind die Mentalitäten: Angetrieben durch die Phantasie von „Atomexperten“ war der deutschen Neigung zum Tragen eines Gürtels zum Hosenträger freier Lauf gelassen. Jede Frage, die (wissenschaftlich) beantwortet wurde, diente zur Schaffung von zehn neuen Fragestellungen – die Forschungsgelder flossen in Strömen. Die Vorgabe einer „evolutionären“ Entwicklung wurde zum Programm: Aus „European Pressurized Water Reactor“ wurde „Evolutionary Power Reactor“ (EPR). Durch die Beschränkung auf eine „Weiterentwicklung“ blieb zur Kostenreduktion nur die Flucht in die „Größe“. Inzwischen liegt die Leistung bei über 1700 MWe. Ein fataler Irrweg: Für die meisten Kunden schlicht weg zu groß. Die Schaffung des ATMEA1 (rund 1000 MWe) war die notwendige Konsequenz. Ein weiterer Reaktortyp mit einem weiteren Partner (Mitsubishi Heavy Industries) aus einem noch entfernteren Kulturkreis.

Der Ansatz von mehr Sicherheit durch mehr Beton und Technik führt zu immer höheren Kosten. Nicht nur beim Bau, sondern auch beim späteren Betrieb. Je mehr man hat und braucht, um so mehr muß auch ständig überprüft und gewartet werden. Je komplexer eine Anlage ist, um so schwieriger ist sie zu durchschauen. So ist beispielsweise der Übergang von 4 x 50% (Konvoi) bzw. 2 x 100% (NP4) auf 4 x 100% (EPR) bei den Notkühlsystemen nur eine vermeintliche Steigerung der Sicherheit. Tatsächlicher Grund ist die Fähigkeit im laufenden Betrieb Wartungs- und Kontrollarbeiten ausführen zu können. Dies ist aber zwingend notwendig, wenn man auf eine Arbeitsausnutzung von über 90% über die angestrebte Betriebsdauer von 60 Jahren kommen will. Treibt man die Investitionskosten in die Höhe, bleibt nur eine höhere Arbeits- und Brennstoffausnutzung um die Stromkosten klein zu halten. Es ist kein Zufall, daß in den letzten Jahren alle Ausschreibungen für den EPR verloren gingen. Erst mit dem ATMEA1 hatte AREVA in der Türkei wieder (indirekt) Erfolg.

Der amerikanische Weg

In den USA wurde man schon 1979 mit einer „Kernschmelze“ im Kernkraftwerk Three Mile Island in Harrisburg konfrontiert. Ausgang war – wie auch später 1986 in Tschernobyl – eine Fehleinschätzung des Bedienpersonals. Während der ersten Stunden verschärfte sich die Situation – wie auch 2011 in Fukushima – durch mangelnde Information. Hinzu kam die wirtschaftliche Krise der Nuklearindustrie durch zahlreiche Auftragsstornierungen.

Man gelangte zu den richtigen Erkenntnissen: Je simpler eine Anlage ist, je billiger ist die Herstellung und je weniger kann kaputt gehen. Je höher die Automatisierung ist, je weniger kann (insbesondere unter Stress) falsch gemacht werden. Je mehr Zeit man gewinnt, um so gründlicher kann man die Situation analysieren und Hilfe von außen hinzuziehen. Westinghouse zog die Konsequenzen: Übergang von aktiven zu passiven Sicherheitsmaßnahmen und mindestens 72 Stunden Zeit nach einem schweren Unfall, bis Eingriffe durch das Bedienpersonal nötig sind. Wie Fukushima gezeigt hat, ist das auch die richtige Strategie, um sich vor Naturkatastrophen zu wappnen.

Wichtigste Maßnahme zur Verhinderung einer Kernschmelze ist, die Nachzerfallswärme unter allen Umständen an die Umgebung abführen zu können. Zu diesem Zweck funktionierte Westinghouse das Containment in einen gewaltigen Kühler um: Frische Luft steigt außen am Sicherheitsbehälter entlang und entweicht oben aus dem Dach des Reaktorgebäudes. Dieser Naturzug kann durch ein Besprühen mit Wasser noch verstärkt werden. Das Wasser läuft infolge Schwerkraft bei Bedarf aus einem Behälter mit 3000000 Litern unter dem Dach auf natürliche Weise aus. Es ist keine Mechanik und keine Fremdenergie nötig. Auch ein Tsunami kann diesem System nichts anhaben. Wo keine elektrische Energie gebraucht wird, kann auch nichts ausfallen.

Der AP1000 besitzt (wie alle Reaktoren der 3. Generation) einen großen Frischwassertank im Sicherheitsbehälter. Er dient bei kleinen Unfällen als Wärmesenke und als Reservoire um Leckagen aus dem Reaktordruckbehälter zu ersetzen. Dieser Tank ist deutlich über dem Reaktor installiert, damit das Wasser infolge Schwerkraft in den Reaktor und seine Grube laufen kann. Um eine „Kernschmelze“ zu verhindern, müssen alle Brennstäbe stets mit Wasser bedeckt sein. In den ersten Stunden ist die Nachzerfallswärme noch so heftig, daß das Wasser siedet. Der entstehende Dampf kann sich an der kalten Innenseite des Sicherheitsbehälters niederschlagen und wird anschließend zurück in den Wassertank geleitet. Auch dieser Kühlkreislauf funktioniert nur durch Schwerkraft und Temperaturdifferenz. Da keine Rohrleitungen nach außen benötigt werden, kann man den Sicherheitsbehälter leicht und sicher verschließen. Es ist kein abblasen zur Druckentlastung aus dem Sicherheitsbehälter, wie in Fukushima geschehen, nötig. Selbst wenn Wasserstoff entsteht, wäre deshalb eine Explosion des Kraftwerks ausgeschlossen. Gleichzeitig wird durch Füllen der Grube des Reaktordruckbehälters dieser auch von außen gekühlt. Ein „durchschmelzen“ von Kernbrennstoff ist dadurch ausgeschlossen. Nebenbei gesagt, ist dies bisher auch noch nirgendwo passiert. Es ist wie gesagt, eine Hollywooderfindung. In Fukushima ist bestenfalls ein wenig Brennstoff durch die Steuerstabdurchführungen (Siedewasserreaktor) in den Raum unterhalb des Reaktordruckgefäßes gelangt. Warten wir getrost ab, bis die ersten Kamerafahrten im Reaktor Bilder liefern werden. Der Autor ist sich sicher, daß diese – wie in Harrisburg – einen großen Schutthaufen zeigen werden. Die Vorstellung von flüssigem Metall, was wie bei einem Hochofenabstich aus dem Druckbehälter läuft, ist science fiction. Insofern ist ein Core Catcher ein netter Gimmick aus der guten, alten Zeit, in der Kosten noch keine Rolle zu spielen schienen.

Fazit

Sichere Kernkraftwerke lassen sich auf verschiedene Art und Weise bauen. Selbst bei einem Grundkonzept – hier einem Druckwasserreaktor – lassen sich verschiedene Philosophien anwenden. Sowohl Harrisburg als auch Fukushima haben bewiesen, daß man die möglichen Schadensabläufe schon in der ersten Generation richtig verstanden hatte und recht robuste Maschinen gebaut hat. In beiden Fällen gab es zwar einen Totalschaden mit beträchtlichen Kosten, aber keine Menschenleben sind zu beklagen! Welche andere Technik konnte bereits in ihrer ersten Generation ein solches Sicherheitsniveau vorweisen? Das Geschwafel einiger Politiker von einem „unkalkulierbaren Restrisiko“ ist einfach nur peinlich oder boshaft. Man glaubte, eine Naturkatastrophe für die Durchsetzung der eigenen Interessen missbrauchen zu können.

Allerdings wird heute mehr denn je, die Frage nach der Wirtschaftlichkeit gestellt. Gerade die Schwellenländer brauchen elektrische Energie zu akzeptablen Preisen. Die Kernenergie braucht keine Ideologie zu fürchten. Sie wird zum Selbstläufer, wenn sie die Kosten senkt. Insofern gehört passiven Systemen die Zukunft. Sie sparen beträchtliche Bau- und Betriebskosten. In China scheint man das erkannt zu haben: Nach dem Unglück in Fukushima hat man – anders als in Deutschland – den Fachleuten (nicht „Atomexperten“ !!!) erst einmal Zeit gegeben, den Schadensablauf zu analysieren und nicht durch die Politik vollendete Tatsachen geschaffen. Bemerkenswertes Ergebnis war, den ursprünglich geplanten weiteren Ausbau von 60 bis 80 Reaktoren der zweiten Generation (CP1000) zu stoppen und sich voll auf Reaktoren der dritten Generation zu konzentrieren. Als weit vorausschauend, erwiesen sich dabei die Lizenzabkommen und die enge Zusammenarbeit mit Westinghouse (insbesondere) zur gemeinsamen Weiterentwicklung des AP1000 bis zu Leistungen von 1400 MWe. Die Prognose scheint nicht sehr gewagt, daß China mit diesem Modell den Weltmarkt für Kraftwerkstechnik erobern wird.

 

Bestellung 5 bis 8

Türkei, wer denkt da nicht an Sonne bis zum Abwinken oder Segelurlaub im Mittelmeer? Wahrscheinlich haben unsere Politiker ein wenig geträumt, als sie in ihrer unendlichen Weisheit den Ausstieg aus der Kernenergie beschlossen haben. Sollte Deutschland nicht vorangehen, damit uns die anderen folgen können? Nun, die Türkei als Schwellenland ist offensichtlich nicht bereit, in die Abgründe der „Energiewende“ abzutauchen. Am 3. Mai wurde auf höchster Ebene ein Abkommen zwischen Japan, Frankreich und der Türkei zum Bau und Betrieb von vier Kernreaktoren (Typ ATMEA1 mit je 1200 MWe) in Sinop an der Schwarzmeerküste geschlossen. Der erste Reaktor soll 2023 und der vierte 2028 den Betrieb aufnehmen. Errichtet wird das Kraftwerk von Mitsubishi Heavy Industries und betrieben von einem Konsortium aus GDF Suez (geplant 75% Anteil) und dem staatlichen Energieversorger Turkish Electricity Generation Corporation (geplant 20 bis 45% Anteil). Ganz neben bei, ist das der erste Auftrag über einen Neubau eines Kernkraftwerks für ein japanisches Unternehmen nach dem Fukushima Desaster. Auftragswert 22 Milliarden US$. Dafür müssten die Sonnenmännchen eine ganze Menge Windmühlen oder Sonnenkollektoren verkaufen. Macht aber nix, der Deutsche Michel wird weiterhin fest an die Schaffung von Arbeitsplätzen durch Wind und Sonne glauben.

Bestellung 1 bis 4

Begonnen hat das türkische Kernenergieprogramm im Mai 2010 mit dem Auftrag für vier Gidropress AES-2006 Reaktoren (mit je 1200 MWe) in Akkuyu am Mittelmeer. Mit der Baustellenvorbereitung wurde bereits begonnen und der offizielle Baubeginn ist für Ende 2013 vorgesehen. Das Kraftwerk soll 2019–2022 in Betrieb gehen. Ganz interessant ist das Finanzierungsmodell: Das Kraftwerk wird schlüsselfertig und zum Festpreis (über 15 Milliarden EUR) von Rosatom für eine Zweckgesellschaft errichtet. In dieser Zweckgesellschaft besitzt Rosatom mit 51% die Mehrheit. Bis zu 49% sollen von türkischen Gesellschaften gehalten werden. Diese Gesellschaft übernimmt für 60 Jahre den Betrieb des Kraftwerks. Zur Refinanzierung der langfristigen russischen Investitionen garantiert die Turkish Electricity Trade and Contract Corporation (TETAS) die Abnahme von 70% der Stromproduktion der Blöcke 1 und 2 und 30% der Produktion der Blöcke 3 und 4 zu einem garantierten Festpreis von 12,35 US-Cent pro kWh über 15 Jahre. Der Rest soll frei am Markt verkauft werden. Bei diesem Modell wird die Kreditlinie der Türkei kaum belastet, da Russland maßgeblich die Finanzierung übernimmt. Für Russland stellt sich die Investition wie eine langfristige Anleihe mit stetigem Zahlungsstrom aus der Türkei dar. Gleichzeitig ergibt sich jedoch eine enge unternehmerische Verknüpfung beider Länder. Anders – als beim deutschen EEG-Modell – wird nicht die volle Energiemenge über die gesamte Lebenszeit, zu einem Festpreis garantiert abgenommen, sondern lediglich eine (auch noch abnehmende) Teilmenge. Der Betreiber muß sich von Anfang an, an dem üblichen Risiko von Absatzmenge und erzielbaren Preisen beteiligen. Andererseits hat er aber auch die Chance auf zusätzlichen Erfolg.

Darüber hinaus, kann die Türkei „sanft“ in eine neue Zukunftstechnologie hineinwachsen. Zu diesem Konzept passt auch die Vergabe des ersten Kraftwerks an den (ehemaligen) „Ostblock“ und die Vergabe des zweiten Kraftwerks an den „Westen“. So kann von beiden Denkschulen der Kerntechnik gelernt werden. Ausdrücklich gewünscht, ist die Entwicklung des bereits geplanten dritten Kraftwerks (ab etwa 2020) durch türkische Ingenieurbüros. Das Modell erscheint ein wenig als Kopie des koreanischen Wegs. Bedenkt man das Selbstverständnis der Türkei als Beispiel für einen modernen islamischen Staat mit Vorbildfunktion, erscheint das durchaus nicht abwegig. Jedenfalls kann man die Türkei nicht als technikfeindlich bezeichnen. Sie hat klar die Bedeutung der Kerntechnik als Triebfeder einer modernen Industriegesellschaft erkannt. Die Beschäftigung mit „angepasster Technologie“ (so hieß Sonne, Wind und Bio noch vor 20 Jahren) überlässt man getrost saturierten Gesellschaften wie Deutschland.

Randbedingungen

Was treibt die Türkei zum Bau von zwölf Reaktoren? Die Frage ist recht leicht zu beantworten: Der Energiehunger eines aufstrebenden Landes. Im ersten Jahrzehnt des 21. Jahrhunderts betrug das jährliche Wirtschaftswachstum etwa sechs Prozent. Durch die zunehmende Industrialisierung und den wachsenden Wohlstand hat sich der pro Kopf Verbrauch an elektrischer Energie fast verdoppelt. Es ist das Dilemma aller Schwellenländer: Ohne ausreichend elektrische Energie, kein angestrebtes Wirtschaftswachstum; durch den dringend benötigten steigenden Wohlstand eine zusätzlich angeheizte Nachfrage nach Energie. Dagegen ist ein Rückgang im Primärenergieverbrauch ein typisches Anzeichen stagnierender Volkswirtschaften. Man kann es zwar politisch korrekt als „Energieeffizienz“ verbrämen, aber am Ende ist es nichts anderes als Wohlstandsverlust.

Für die Türkei stellt sich daher die gleiche Frage, wie für China, Brasilien etc.: Wie kann der zusätzliche Energiebedarf kostengünstig gedeckt werden? Öl und Gas sind bereits heute sehr teuer und für eine Stromerzeugung schlicht weg zu schade. Ihr Verbrauch wird durch zunehmenden Verkehr und Industrialisierung ohnehin weiter ansteigen. Eher muß der Mehrverbrauch in diesen Sektoren durch elektrische Energie ersetzt werden. Letztendlich bleibt nur Kohle und Kernenergie. Will man Kohle umweltfreundlich verstromen, wird dies sehr viel teurer, wie man auch dies hervorragend in Deutschland studieren kann.

In allen Mittelmeerländern kommt mit steigendem Wohlstand und steigenden Bevölkerungszahlen noch ein weiteres Problem hinzu: Ausreichend Süßwasser für Mensch, Landwirtschaft und Industrie. Als Ausweg bleibt nur die Meerwasserentsalzung, die aber viel (billige) Energie benötigt. Man kann es deshalb drehen und wenden wie man will: Der Bau von zwölf Reaktoren allein in der Türkei, erscheint sehr sinnvoll – um nicht zu sagen alternativlos.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.

Korea und die Wiederaufbereitung

Im Fahrwasser der aktuellen Krise mit Nord-Korea, bahnt sich für die USA ein hausgemachtes Problem mit Süd-Korea an. Es ist ein schönes Beispiel dafür, wenn Regierungen meinen, sie könnten dauerhaft über andere Nationen bestimmen und ihre ideologische Sicht zur einzig selig machenden zu erklären. Im nächsten Jahr läuft das Abkommen zur Nicht-Weiterverbreitung von Kernwaffen nach 40 Jahren aus. Im Rahmen dieses Abkommens hat Süd-Korea auf Anreicherung und Wiederaufbereitung abgebrannter Brennelemente verzichtet. Es muß neu verhandelt werden.

Ironie der Geschichte ist, daß dies zu einem Zeitpunkt geschehen muß, an dem die USA offen von Nord-Korea mit einem „Atomschlag“ bedroht werden. Nord-Korea hat gezeigt, wie es in der realen Welt zu geht: Wenn ein Diktator bereit ist, sein eigenes Volk wirtschaftlich zu ruinieren, dann baut er sich ganz einfach seine eigenen Kernwaffen. Wenn er über genug Öleinnahmen verfügt – wie Iran – braucht er dafür nicht einmal sein Land an den Rand von Hungersnöten zu führen. Ist das Land vermögend – wie Saudi Arabien – kann es sogar den mühseligen Weg der Eigenentwicklung überspringen und unverhohlen damit drohen, sich gegebenenfalls fertige Kernwaffen (z. B. aus Pakistan) zu kaufen.

Selbst die Supermacht USA kann das offensichtlich nicht verhindern. Mit Verträgen, UNO und leeren Drohungen ist es schon gar nicht möglich, im Internetzeitalter (!) das Wissen der 1940er Jahre geheim halten zu wollen. Der pakistanische Basar der „Atomtechnologie“ ist noch in frischer Erinnerung. Der Versuch, gegen Unterstützung bei der friedlichen Nutzung der Kernenergie – sprich dem Bau von Kernkraftwerken – einen Verzicht auf Anreicherung und Wiederaufbereitung erkaufen zu können, war und ist aberwitzig. Er hat offensichtlich nur zu einer Brüskierung eines der engsten Verbündeten der USA geführt. Was anderes sollte es heißen, als Süd-Korea, wir trauen euch nicht. Wir erinnern uns: Deutschland wurde auch der Verzicht auf Kernwaffen geglaubt, obwohl es eine Wiederaufbereitungsanlage in Karlsruhe betrieben hat und noch heute Zentrifugen zur Anreicherung betreibt. Japan baut eifrig an einer kommerziellen Wiederaufbereitung und diskutiert gleichzeitig, offen wie nie, eine atomare Bewaffnung – wegen der potentiellen Bedrohung durch Nord-Korea und China.

Wie konnte es dazu kommen, daß sich die USA in eine solche diplomatische Sackgasse manövriert haben? 1974 wurde Indien (nahezu aus eigener Kraft) zur Atommacht. Übrigens aus Reaktion auf die atomare Bewaffnung von China, mit dem man noch wenige Jahre zuvor, Krieg führen mußte. Die Welt war verblüfft über den Weg: Man hatte in aller Stille, einen von Kanada gelieferten CANDU-Reaktor zur Produktion von waffengrädigem Plutonium missbraucht. Bis heute, wirkt diese Tat in den internationalen, kerntechnischen Beziehungen nach. Es stehen sich Pragmatiker (Indien ist nun mal Atommacht, das läßt sich nicht zurückdrehen, deshalb freier Handel und Wissensaustausch) und Moralisten (Belohnung des „Fehlverhalten“, Präzedenzfall der die Proliferation zu nichte macht) teilweise unversöhnlich gegenüber. Jeder muß sich da ein eigenes Urteil bilden. Tatsache ist jedoch, daß die Zeit der „drei Welten“ mit dem Zusammenbruch des Kommunismus vorbei ist. Heute bestehen die Probleme eher in der Golfregion oder der koreanischen Halbinsel mit ihrer regionalen und globalen Gemengelage.

Es gab aber auch hausgemachte Gründe. Man muß die erste Hälfte der 1970er Jahre als unmittelbare Nachfolge der sog. „68er Bewegung“ verstehen. Greenpeace z.B. entstammt der Friedensbewegung mit dem Spezialgebiet: Kernwaffen und Umweltbelastung durch Kernwaffentests in der Atmosphäre. Besonders der zweite Punkt machte die Bewegung in kürzester Zeit weltberühmt. Durch die diversen Teststoppabkommen kam dieses Geschäftsmodell immer mehr aus der Mode. Der Übergang zur zivilen Nutzung der Kernenergie und die Konstruktion eines Zusammenhangs mit dem Bau von Atombomben schien folgerichtig. Es entwickelte sich die Gleichung: Links plus friedensbewegt gleich „Atomkraftgegner“. In Deutschland gipfelte dies sogar in der Gründung einer Partei.

In USA beschwor eine Kampagne die Gefahr von möglichen hunderten „Atomanschlägen“ auf Großstädte hervor. Alle versorgt durch Diebstähle aus Wiederaufbereitungsanlagen. Ein neues Buhwort war erschaffen: Plutonium. Künstlich hergestellt, irrsinnig giftig und ganz, ganz gefährlich. Jimmy Carter, ein Erdnussfarmer, der in seiner aktiven Zeit bei der Marine zumindest für Kurse in Kerntechnik angemeldet worden war, stoppte das Clinch River Projekt (Vorstufe eines Schnellen Brüters, der Strom aus recyceltem Brennstoff produzierte) und zwang ein privates Konsortium mehr als 250 Millionen Dollar für eine Wiederaufbereitungsanlage in Barnwell über Nacht abzuschreiben. Er wollte ein Zeichen des „guten Amerikaners“ setzen, der keine Kosten scheuend voranschreitet, um die Welt zu retten. Ähnlichkeiten mit deutschen „Energiewendern“ sind rein zufällig. Jedenfalls gelang es ihm die „Proliferation“ und das Problem, was wir heute als „ungelöste Atommüllfrage“ bezeichnen, zu erschaffen. Ironischerweise ist Jimmy Carter der gleiche Präsident, der durch sein „Geiseldrama“ im Iran nicht unwesentlich zu der heutigen Situation im und mit dem Iran beigetragen hat.

Aber wie hat sich die Welt seit dem verändert? Inzwischen baut eine französische Firma in USA eine Fabrik für MOX-Brennelemente. Solche Mischoxid-Brennelemente dienen zur Verbrennung von Plutonium in konventionellen Leichtwasserreaktoren. In diesem Fall handelt es sich sogar um waffengrädiges Plutonium aus der ehemaligen Sowjetunion. Dies war – wieder zur Verhinderung von Terrorismus – von den USA aufgekauft und ins eigene Land verbracht worden.

Wie kann sich die USA aus den eigenen Fallstricken befreien? Süd-Korea hat sich mit amerikanischer Anschubhilfe zu einer der führenden Nationen im Bau und Betrieb von Kernkraftwerken entwickelt. Spätestens seit dem Auftrag über 20 Milliarden Dollar für vier Reaktoren aus den Vereinigten Arabischen Emiraten ist dies vielen schmerzlich bewußt geworden. Würde es kein neues Abkommen geben, wäre die Versorgung mit angereichertem Uran aus den USA nicht mehr gesichert. Wäre das aber wirklich ein Problem für Süd-Korea? Auf Kanada, Australien und Kasachstan entfallen etwa ⅔ der Weltproduktion an Uran, auf die USA lediglich 4%. Anreicherungsanlagen besitzen mehr als ein Dutzend Staaten. In diesem Sinne würde ein Ausweichen auf andere Lieferanten das „Problem der Weiterverbreitung“ eher anheizen.

Bleibt die Frage der Wiederaufbereitung. Ob Süd-Korea eine Plutonium-Bombe baut oder nicht, ist eine rein politische Frage, die nicht zwingend etwas mit Wiederaufbereitung zu tun hat. Es sind andere Verfahren denkbar, die völlig ungeeignet zum Bau von Kernwaffen sind. Auch hier, hat Süd-Korea bereits viel Forschung und Entwicklung investiert. Süd-Korea hat die Chance, erstes Land auf der Welt mit einer garantiert reinen zivilen Nutzung der Kernenergie zu werden. Bisher sind alle Länder (auch Deutschland und Japan) den bequemeren Weg des bereits etablierten PUREX-Verfahrens gegangen. Nur ist dieses Verfahren genau zur Produktion von waffengrädigem Plutonium entwickelt worden. Natürlich kann man mit einem Panzer auch ein Feld pflügen, nur sollte man sich nicht wundern, wenn andere den Verdacht äußern, man wolle mit solch einem Trecker vielleicht eines Tages auch mal schießen. Ganz gewiß werden sich die Süd-Koreaner nicht der angeblich „ungelösten Atommüllfrage“ hingeben. Sie haben ganz einfach nicht die selbe Vorgeschichte und brauchen auch keine Rücksichtnahme auf die Befindlichkeiten politische Parteien mit dem Gründungsmythos der „Anti-Atombewegung“ nehmen. Übrigens, hat in ganz Asien keine Regierung dieses Problem. Es erfordert deshalb keine prophetische Gabe, wenn man die Renaissance der Kernenergie aus Asien kommen sieht. Wer sehen will, kann schon heute die Anzeichen erkennen.