Müssen alle KKW sofort abgeschaltete werden?

Am 1. März 2016 titelte REUTERS NRC-Ingenieure fordern Reparatur von Kernkraftwerken und am 4. März setzte HUFFPOST noch eins drauf: Gefährlicher Konstruktionsfehler droht die Flotte der KKW abzuschalten. Was verbirgt sich hinter diesen Tatarenmeldungen?

Public petition under section 2.206

Für einen solchen Vorgang läßt sich nur schwer eine deutsche Übersetzung finden, weil er uns kulturell eher fremd ist. In den USA geht man selbstverständlich davon aus, daß in allen Behörden Dienstwege außerordentlich verschlungen sind. Der normale Weg von unten bis oben ist nicht nur lang, sondern kann auch schnell in eine Sackgasse führen. Dies muß nicht einmal aus „Boshaftigkeit“ geschehen, sondern immer neue „Gesichtspunkte“ erzeugen auch immer neue Fragen. Deshalb gibt es in der amerikanischen Atomaufsicht – Nuclear Regulatory Commission (NRC) – eine Überholspur in der Form einer Petition.

Jeder Mitarbeiter – in diesem Fall war es eine Gruppe aus sieben Ingenieuren – kann eine (formalisierte) Stellungnahme abgeben. Diese muß dann innerhalb von 30 Tagen beantwortet werden. Das Besondere daran ist, daß diese Eingabe und die Antwort öffentlich sind. Es ist damit ein sehr scharfes Schwert in den Händen der „einfachen Mitarbeiter“. Gerade ausgewiesene Spezialisten mit anerkannten Fachkenntnissen, haben oft keine einflußreichen Positionen in der Hierarchie einer Behörde. Solch eine Petition wirbelt natürlich innen wie außen eine Menge Staub auf. Insofern wird sie nur bei schwerwiegenden Sicherheitsbedenken sinnvoll angewandt.

Um es gleich vorweg zu nehmen: Diese Gruppe hat nach eigenem Bekunden nie die Abschaltung aller Reaktoren in den USA im Sinn gehabt. Gleichwohl hat sie (begründete) Bedenken. Sie meint einer bedeutenden Sicherheitslücke auf die Spur gekommen zu sein und meint, daß nicht genug getan worden ist, um die Mängel zu beseitigen. Ungeduld und vorschnelles Handeln kann man ihnen sicherlich nicht unterstellen, da es sich um vier Jahre alte Vorkommnisse handelt.

Was war passiert?

Am 30.1.2012 war es im Kernkraftwerk Byron zu einer Schnellabschaltung gekommen. Ein solches Ereignis ist meldepflichtig und es setzt eine umfangreiche Untersuchung aller Ereignisse ein. Ziel ist es dabei immer, Schwachstellen herauszufinden, diese gegebenenfalls zu beseitigen und anderen Betreibern die Möglichkeit zu bieten daraus zu lernen.

Wie man bald herausfand, war die Ursache ein Bruch eines Isolators an der 345 kV Leitung des Kraftwerks. Der Isolator gehörte zu einer Serie, die falsch gebrannt worden war und somit in ihrem Kern starke Fehler aufwies. Inzwischen gab es einen Rückruf und die fehlerhafte Serie wurde ausgetauscht. Soweit nichts besonderes. Brüche von Isolatoren an Hochspannungsleitungen kommen immer mal wieder vor. Was macht die Angelegenheit aber trotzdem zu einem Sicherheitsproblem?

Dieser Isolator hat eine der drei Phasen gehalten, mit denen einer der Transformatoren zur Eigenversorgung des Kraftwerks verbunden war. Nun sind solche Anschlüsse wegen der erforderlichen Leistungen eher „Stangen“ als „Drähte“. Die Phase riß zwar ab, fiel aber nicht auf den Boden und löste somit keinen Kurzschluss aus. Die Sicherung löste nicht aus. Es gab auch kaum einen Spannungsunterschied zwischen den Phasen. Der Fehler wurde dadurch gar nicht bemerkt und es erfolgte keine automatische Umschaltung auf einen anderen Weg zur Energieversorgung.

Normalerweise ist ein solcher Vorfall nichts ernstes: Man schaltet die Komponente frei, setzt einen anderen Trafo zur Versorgung ein und repariert den Schaden schnellstmöglich. Allerdings muß man dafür den Leitungsbruch bemerken. Hier setzt die berechtigte Kritik ein. Die Unterzeichner der Petition haben systematisch alte Störfälle noch einmal untersucht und dabei festgestellt, daß so etwas bereits häufiger passiert ist. Teilweise wurden solche Fehler erst nach Tagen bei Kontrollgängen bemerkt oder erst infolge von Anfragen des Netzbetreibers „gesucht“. Diesem Problem wurde keine besondere Dringlichkeit beigemessen, da es durchweg nicht zu Schnellabschaltungen kam. Es war einfach nur ein typischer Schaden im nicht-nuklearen Teil des Kraftwerks.

Sicherheitsrelevant oder nicht?

Die Stromversorgung von außen, sollte bei einem Kernkraftwerk immer funktionieren. Deshalb wird sie auch ständig überwacht. Das Tückische an diesem Schadensbild ist jedoch, daß sie eben nicht unterbrochen, sondern nur gestört war. Wenn bei einer Drehstromversorgung nur eine Phase unterbrochen ist, fließt trotzdem noch weiterhin Strom, aber mit geringerer Spannung. Dies wurde von der Meßtechnik auch richtig erfaßt, aber von der Auswerte-Logik falsch interpretiert. Es wurde die Spannungsdifferenz zwischen den Phasen A und B gebildet (die in Ordnung war) und zwischen den Phasen B und C (die geringe Abweichungen hatte, weil Phase C abgerissen war, aber frei in der Luft hing). Wenn die Stromversorgung nicht richtig funktioniert, soll automatisch auf eine andere Strecke umgeschaltet werden oder die Notstromdiesel gestartet werden.

Die Schnellabschaltung ist sicherheitstechnisch der letzte Rat. Um den Reaktor zu schonen, sollte sie so selten wie möglich erfolgen. In der Sicherheitskette ist deshalb eine solche Spannungsüberwachung ein 2-von-2-Kriterium – nur wenn beide Differenzen eine bedeutende Abweichung ergeben, wird von einem schwerwiegenden Fehler ausgegangen. Wenn – wie in diesem Störfall – nur eine Differenzmessung abweicht (weil nur ein Kabel von dreien gebrochen war), wird eher ein Messfehler unterstellt. Die Umschaltung erfolgte später erst durch einen Mitarbeiter, der sich ca. 8 Minuten nach der Schnellabschaltung von der Funktionstüchtigkeit der Schaltanlage vor Ort überzeugte. Er löste die „Sicherung“ von Hand aus, nachdem er die abgerissene Leitung sah und damit seinen Verdacht für den Spannungsabfall bestätigt sah. Ein deutlicher Hinweis, warum man Kernkraftwerke nicht vollautomatisch betreibt!

Kleine Ursache, große Wirkung

Man hat in jedem Kraftwerk intern verschiedene Spannungsebenen um die großen Antriebsleistungen von Pumpen etc. überhaupt bereitstellen zu können. In Byron hingen zwei Hauptkühlmittelpumpen an der „Aussenversorgung“ und zwei an dem eigenen „Generatorsystem“. Zum Anlagenschutz hat jede Pumpe ihr eigenes Überwachungssystem, welches bei einer Überschreitung von Grenzwerten die Pumpe abschaltet. Die zwei Pumpen, die an der „Aussenversorgung“ hingen, haben die Spannungsunterschreitung und die Stromüberschreitung infolge der verlorenen Phase richtig erkannt und sich automatisch abgeschaltet. Die anderen zwei, die am „Generatorsystem“ hingen, waren davon nicht betroffen. Jetzt griff aber die Sicherheitskette ein: Ein Ausfall von zwei Hauptkühlmittelpumpen ist ein nicht zu überbrückendes Abschaltkriterium. Der SCRAM – die Schnellabschaltung – wird unweigerlich und unbeeinflußbar ausgelöst.

Durch die Schnellabschaltung ging die Dampfproduktion und damit die Eigenversorgung in die Knie. Man war damit noch abhängiger von der Außenversorgung. Der Spannungsabfall fraß sich weiter durchs Kraftwerk und setzte nacheinander weitere Großverbraucher außer Gefecht. Plötzlich befand man sich in einer Situation, ähnlich wie in Fukushima: Man hing nur noch von einer „Notkühlung“ über die Notstromdiesel ab. Hier hat zwar alles einwandfrei funktioniert und es sind keinerlei Schäden aufgetreten, aber eigentlich will man nicht so viele „Verteidigungslinien“ durchbrechen.

Die unterschiedlichen Interpretationen

Wie gesagt, der Vorfall liegt vier Jahre zurück. Passiert ist nichts. Das Kraftwerk konnte – nach den üblichen umfangreichen Überprüfungen – wieder angefahren werden. Inzwischen gibt es einige Kilogramm Fachaufsätze, die sich mit dem Problem beschäftigen. Zahlreiche Veranstaltungen sind durchgeführt worden.

Schnell und einfach geht in der (heutigen) Kerntechnik gar nichts mehr. Jede Maßnahme muß genauestens untersucht und kommentiert werden – letztendlich sogar von Juristen. Es gibt inzwischen sogar verschiedene technische Lösungsansätze für das Problem. Alle haben ihre Vor- und Nachteile. Man muß höllisch aufpassen, daß man durch Veränderungen an einer Stelle, nicht neue Probleme an anderer Stelle schafft.

Es geht bei der ganzen Angelegenheit weniger um Technik als um Juristerei. Inzwischen sind alle Kraftwerke und alle Hersteller informiert und arbeiten eng zusammen. Jedes Kernkraftwerk ist ein individuelles Produkt und erfordert damit auch eine spezielle Lösung des Problems. Jeder Einzelfall muß auf seine Auswirkungen bezüglich des Gesamtsystems hin überprüft werden. Eine sehr arbeitsintensive Angelegenheit. Letztendlich streitet man sich um die ewige Frage: Was soll automatisch geschehen und was macht der Mensch? Sollen solche Randbereiche wie ein einzelnes Kabel eines Hilfstransformators in automatische Sicherheitsketten eingearbeitet werden? Wird dadurch die Sicherheit erhöht oder gar verringert? Kann man oder soll man sogar – wegen der Beschäftigung mit solchen Problemen –. ganze Kraftwerksflotten stilllegen? Wie lange ist der angemessene Zeitraum, um eine etwaige Verbesserung umzusetzen?

Langsam bildet sich in der kerntechnischen Industrie ein absurd anmutender Drang nach Perfektionismus heraus. Die Abwägung von Risiko und Nutzen geht immer mehr zu Lasten des Nutzens. Was wäre, wenn man jedesmal gleich die Hauptmaschine abstellen würde, weil irgendwo im Maschinenraum ein Teil versagt? Unsere Küsten wären wahrscheinlich längst mit Schiffswracks (auch nuklearen!) gepflastert. Noch absurder wäre die ständige Forderung nach sofortiger Stilllegung der gesamten Flotte. Ganz offensichtlich geht es hier um ganz andere Dinge. Nur konsequente Aufklärung und Transparenz kann die Kerntechnik wieder auf ein Normalmaß zurückholen. Wie wäre es mit der Flugzeugindustrie als Vorbild? Dort wird auch nicht nach jedem Absturz – jedes mal – das gesamte System in Frage gestellt.

Gleichwohl ist das Vorgehen gewisser Presseorgane immer gleich: Man greift Jahre zurückliegende Ereignisse (erinnert sei nur an die Druckbehälter in Tihange und Doel) auf, die längst in der Fachwelt abgehakt, weil vollständig ausdiskutiert sind. Gierig werden einzelne, meist singuläre Ansichten aufgegriffen und daraus vermeintliche Skandale und Vertuschungen konstruiert. Dies alles, obwohl es im Internetzeitalter weniger Klicks bedarf, um sich zu informieren. Ist das Selbststudium zu anstrengend, könnte man ja mal ein paar Fachleute befragen. In wie weit man das noch als „schlampigen Journalismus“ oder schon als „Lügenpresse“ einordnet, muß jeder für sich selbst entscheiden.

Was haben Diesel und Atomkraftwerke gemeinsam?

Physikalisch gesehen nicht sehr viel, politisch betrachtet, sind sie fast identisch. Wenn Deutschland bleibt wie es ist, wird die Autoindustrie genauso schnell – oder gar noch schneller – aus Deutschland verschwinden, wie weiland die Kerntechnik.

Die unendliche Geschichte von den Stickoxiden

Stickoxide sind – wie der Plural schon andeutet – eine ganze chemische Gruppe mit unterschiedlichen Wirkstoffen. Aber nicht nur das, sondern bezüglich des Umwelt- und Menschenschutzes ist der Ort ihres Auftretens von ganz entscheidender Bedeutung. Für eine direkte Wirkung auf den Menschen sind sehr hohe Konzentrationen notwendig. Viel höher jedenfalls, als sie je an einem Verkehrsknotenpunkt gemessen wurden. Besonders niedlich sind immer die angeblichen Schleimhautreizungen. Stickoxide sind viel schwerer wasserlöslich und deshalb lungengängiger als die Schwefeloxide. Eine absichtliche Verwechslung oder schlicht Unkenntnis?

Stickoxide sind für den Menschen allenfalls indirekt schädlich: Der Cocktail aus Stickoxiden, Ozon (das reizt Augen und Schleimhäute) und Kohlenwasserstoffen in Verbindung mit starker Sonneneinstrahlung ergeben erst den Schadstoff – und hier liegt das Geheimnis der strengen Abgaswerte in Kalifornien. Es verhält sich wie mit dem Tsunami in Fukushima oder Bayern. Für den „Sommersmog“ fehlt uns in Deutschland schlicht der „ständig blaue Himmel“. Er ist übrigens ganz leicht an dem silbrigen Hof um die Sonne erkennbar. Dies passiert selbst in Berlin nur an sehr wenigen Tagen. Ganz im Gegenteil zu gewissen Regionen in der Welt, wo die Sonne nie richtig golden ist. Damit es auch noch richtig kompliziert wird, spielen Zeitdauer der Sonneneinstrahlung und Zeitpunkt der Freisetzung eine höchst komplizierte und widersprüchliche Rolle: Stickoxide können z. B. Ozon fressen und auch bilden – je nach Umständen.

Im Deutschland der 1970er und 1980er Jahre – die Hochzeit vom „Waldsterben“ – ging es immer nur um die Düngerbildung in der Atmosphäre. Eine „Überdüngung“ wurde als Ursache für das Waldsterben herangezogen, nachdem der Schadstoff „Schwefelsäure“ der Betroffenheitsindustrie durch die Entschwefelungsanlagen verloren ging. Auch dies, ein jedem Kerntechniker vertrautes Spiel: Ist man erstmal über ein Stöckchen gesprungen, wird sofort ein größeres Hindernis aufgebaut. Ziel ist und bleibt, die Kosten hoch zu treiben. Wer also in der Autoindustrie glaubt, man müsse nur die Stickoxide absenken, ist ein Narr. Wer nicht massiv Aufklärung betreibt, wird untergehen. Die „Gesellschaftsveränderer“ haben mit Sicherheit den längeren Atem, befinden sie sich doch längst in Staatsstellung mit Beschäftigungsgarantie und Pensionsanspruch. Wer sich dazu nicht in der Lage sieht oder Auseinandersetzungen scheut, sollte seinen Betrieb schnellstens ins Ausland verlegen, bevor er enteignet wird. Ebenfalls eine Erfahrung mit Kernkraftwerken, die alle eine gültige Betriebsgenehmigung besaßen und trotzdem von einem politischen Tsunami hinweggefegt wurden. Gleiches gilt übrigens für die in solchen Betrieben tätigen Ingenieure! Die Kollegen aus den fossilen Kraftwerken wollten auch nicht das Schicksal der Kollegen in der Kerntechnik sehen. Jetzt haben sie selbst berechtigte Existenzängste.

Wie und warum Stickoxide entstehen

Je höher die Verbrennungstemperatur in der Flamme ist und je höher der dort frei vorhandene Sauerstoff (Luftzahl), desto mehr Stickoxide entstehen. Das ist reine Thermodynamik und läßt sich durch keine Ideologie wegdiskutieren. Aus diesem Grunde ist z. B. bei einer Kohlenstaubfeuerung (Stufenbrenner) die spezifische Produktion geringer als bei einem Dieselmotor oder einer Gasturbine. Hinzu kommt noch die Verbrennungsgeschwindigkeit (dazu später). Hier wären wir auch mal wieder bei den „umweltfreundlichen Gaskraftwerken“. Die rötliche Färbung einer Abgasfahne ist ein direktes Maß für den Gehalt an Stickoxiden. Man stelle sich mal in die Nähe eines Gasturbinen-Kraftwerks und beobachte den Schornstein beim Anfahren oder schnellem Lastwechsel. Aber wahrscheinlich verhält es sich mit Stickoxiden, wie mit Radioaktivität: Es gibt gute und böse. Welche, welche sind, kann man nur mit dem richtigen Klassenstandpunkt erkennen.

Warum man nun immer kleinere Motoren mit immer kleineren Verbräuchen in Deutschland gebaut hat, ist ebenfalls eine rein politische Festlegung. Die Weltmarktpreise für Benzin und Diesel sind nicht so verschieden, aber der deutsche Ausbeuterstaat hat die höchsten Steuersätze. Dies wurde auch noch mit Umweltschutz und „peak oil“ verbrämt. Technik ist aber keine „Wünsch-dir-was-Veranstaltung“, sondern es geht immer nur um Optimierung. Wer also kleine, sparsame Dieselmotoren baut, erzeugt damit mehr Stickoxide als mit großvolumigen Ottomotoren. Ab einem gewissen Grenzwert hilft aber nur eine chemische Nachbehandlung der Abgase. Die kostet aber zusätzliche Energie und Geld. Auch wieder nicht unbedingt der Hit bei kleinen Anlagen, die auch noch möglichst billig (Kleinwagen) sein müssen. Der Kerntechniker kennt dies grundsätzliche Problem.

Die untoten Elektroautos

Alle paar Jahrzehnte findet sich wieder eine Lobby für Elektrofahrzeuge. Wahrscheinlich muß jede Generation die gleichen Fehler machen. Diesmal sind es die Schlangenölverkäufer von Wind und Sonne. Sie erhoffen sich dadurch die Rettung für ihren Zufallsstrom. Leider sterben die Elektroautos immer wieder aus dem gleichen Grund: Jedes Fahrzeug (einzige Ausnahme sind Schienenfahrzeuge) muß nicht nur seinen Antrieb, sondern auch seinen gesamten Treibstoff an Bord mitführen. Nun sind aber ausgerechnet Benzin und Diesel die Stoffe mit der höchsten Energiedichte überhaupt. Dagegen läßt sich elektrische Energie nur in (schweren bzw. großvolumigen) Batterien speichern. Bei Fahrzeugen schlichtweg Unsinn, da dieses „tote Gewicht“ mit großem Energieaufwand befördert werden muß. Elektrofahrzeuge haben nur zwei Vorteile: Keine lokalen Abgase (z. B. Kurort) und kaum Geräusche (Innenstadt). Bleibt noch die Frage der Stromerzeugung (vielleicht irgendwann Brennstoffzellen?) im Fahrzeug zu lösen….

Aber auch hier läuft die erprobte Taktik der „Atomkraftgegner“: Ein funktionierendes System unter Vorwänden zerstören, um die eigene Weltsicht durch zu setzen und die eigene Klientel wirtschaftlich zu fördern. Wer das Spiel nicht durchschaut, wird einen hohen Preis zahlen müssen. Die zerstörerische Kraft der „Energiewende“ ist noch lange nicht erschöpft. Gestern die Arbeitsplätze in der Kerntechnik, heute die Arbeitsplätze der Braunkohle und morgen die der Autoindustrie. Am Ende steht ein deindustrialisiertes und verarmtes Deutschland und dann kann man endlich wieder einmal mit der Erschaffung des „neuen Menschen“ beginnen. Die „Grüne Revolution“ so zu sagen als Rolle rückwärts des „großen Sprungs“. Bauchlandung auch hier garantiert.

Der Sinn von definierten Abnahmebedingungen

Wenn ein Auto von zwei Leuten, an zwei verschiedenen Tagen gefahren wird, wird man nie den gleichen Verbrauch und die gleichen Abgase erzielen können. Zu verschieden sind die Randbedingungen. Die Forderung nach „Abgastests während der Fahrt“ ist deshalb schlichtweg Unsinn. Sie würde erst recht Tür und Tor für Manipulationen öffnen. Es wird immer genau definierte Meßverfahren und Abläufe geben müssen. Sonst ist nichts reproduzierbar. Insbesondere wird man nie verschiedene Fahrzeuge vergleichen können. Dies aber, ist genau der Sinn solcher Tests. Ebenso, wird man sich wieder auf die (ausschließlichen) Urteile von Fachleuten verlassen müssen. Die deutsche Krankheit, ausschließlich Laien als (meist selbsternannte) Experten zu bezeichnen und sich durch die Medienlandschaft schwätzen zu lassen, muß endlich aufhören. Wird man zukünftig seine Krebstherapie auch mit dem Pförtner im Krankenhaus besprechen? Warum eigentlich nicht, schließlich hat es ein grüner Musiklehrer als der „Verkehrsexperte“ seiner Partei bis zum Vorsitzenden des Ausschuss für Verkehr im Europaparlament gebracht. Wie gesagt, sie haben sich längst durch die Institutionen geschlichen. Die Kerntechnik hat auch die Theaterwissenschaftlerin als „Atomexpertin“ und den Sozialwirt als Umweltminister und zukünftigen Leiter der „Atommüll-Kommission“ nicht ernst genug genommen. Man war sich einfach zu fein, der Öffentlichkeit mal des Kaisers nackte Kleider vorzuführen. Statt dessen glaubte man, mit Kungelei besser zu fahren.

Die VW-Krankheit

Eigentlich hat VW nahezu die besten Dieselmotoren in seiner Klasse gebaut. Eigentlich etwas, auf das man hätte stolz sein können. Eigentlich ein Produkt, mit dem man hätte Geld verdienen können. Statt dessen, hat man sich in der für das Gewerkschafts- und SPD-Milieu typischen Selbstgerechtigkeit über geschriebene und ungeschriebene Gesetze hinweggesetzt. Symptomatisch für diese Form der Deutschland-AG war die Verkündung des Rücktritts des Vorstandsvorsitzenden durch die heiligen drei Könige: Ein Gewerkschaftsfunktionär, ein Betriebsrat und einer, der Ministerpräsident geworden ist, weil man wirklich keinen besseren mehr hatte. Wer in einem solchen Unternehmen in verantwortlicher Position arbeitet (also im Ernstfall seinen Kopf hinhalten muß) oder diesem sein Geld als Kapital zur Verfügung stellt, dem ist wirklich nicht mehr zu helfen.

In diesem Klima des – wir sind die Guten, denn wir sind von der Gewerkschaft und der Partei für mehr Gerechtigkeit – ist es überhaupt nicht verwunderlich, daß auf Meldungen nicht reagiert wurde. Betrügen – das weiß doch jeder Genosse – tun nur die bösen Kapitalisten. Bei den Zweiflern hat es sich doch nur um einige Querulanten gehandelt, die das Große und Ganze sowieso nicht verstehen. Die Welt verstehen nur Gewerkschaftler und Sozialdemokraten. Und plötzlich der Schock in der niedersächsischen Provinz: Kapitalismus geht ganz anders, als all die Jahre gedacht. Was war denn bloß geschehen?

Man hat in Kalifornien (warum, siehe oben) noch mal einen besonders strengen Grenzwert für Stickoxide bei Dieselmotoren eingeführt. Jedem gelernten Motorenbauer ist klar, daß man diesen Wert nur mit Nachbehandlung der Abgase (z. B. Harnstoff) im Betrieb einhalten kann. Wer damit wirbt, muß ihn einhalten, sonst macht er sich strafbar. Eigentlich ganz einfach zu verstehen. Deshalb hat auch kein Hersteller sonst behauptet, daß er das nur mit Primärmaßnahmen könnte. Nur die Genossen Überflieger aus Wolfsburg. Vielleicht haben die Funktionäre auch einfach nicht den Unterschied zwischen Meßwerten auf einem Prüfstand und im realen Straßenverkehr verstanden. Sie hätten ja mal jemanden fragen können, der etwas davon versteht. Aber halt, das tun sie ja auch nicht, wenn es um Energiewende, Euro etc. geht. Im Hintergrund stricken sie lieber schon an neuen Legenden, von bösen US-Imperialisten, die sie aus dem Geschäft drängen wollen.

Irgendwie vielleicht auch ganz heilsam. Die ganze öde Propaganda von schlechteren Umweltschutz- und Lebensmittelstandards in USA ist für Michel auf einmal geplatzt. In den USA gibt es nicht nur Geldstrafen in Millionenhöhe, sondern auch glasharte Haftstrafen für die jeweils Verantwortlichen. Ausreden, wie mein Chef hat das aber verlangt, gehen grundsätzlich nicht durch. Vielleicht rührte daher immer die Angst der Genossen vor TTIP. Verantwortung geht mit sozialistischer Gesinnung eben gar nicht zusammen.

Reaktortypen in Europa – Teil3, AP1000

AP1000 ist die Warenmarke eines Druckwasserreaktors der Generation III+ des Herstellers Westinghouse. Westinghouse ist die Mutter aller Druckwasserreaktoren. Sie erschuf 1954 unter Hyman G. Rickover und Alvin M. Weinberg diesen Reaktortyp für den Antrieb des ersten Atom-U-Boots USS Nautilus (SSN-571).

Geschichte

Der AP1000 entwickelt sich zum „Golf“ der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.

Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:

  • Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,
  • Übergang von aktiven auf passive Sicherheitssysteme,
  • modularer Aufbau und
  • parallele Errichtung von Bau und Anlagentechnik.

Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.

Durch die „geringe“ Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes „weglassen“ ergibt sich der Druckwasserreaktor mit dem geringsten Beton- und Stahleinsatz pro MWel.

Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.

Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter „Passiver Sicherheit“ versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.

Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann „Sicherheit“ oder „Verteidigung“ in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel „nuclear grade“ tragen. Oft sind solche Teile völlig identisch mit dem „Industriestandard“ – unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.

Man kann die Sicherheit – bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt – noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen – ohne Freisetzung nennenswerter Radioaktivität in die Umwelt – muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.

Seit Fukushima ist der „station blackout“ ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:

Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmeübertrager (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters „regnen“ und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Beregnung.

Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU – irgendein Leck im Primärkreis – eingetreten wäre. Damit ein zeitweiliges „trocken fallen“ der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.

Ist der Druck – egal ob durch ein Leck oder Abkühlung – bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung – aus welchen Gründen auch immer – versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2 x 100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen wie in Fukushima.

Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage. Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den „Atomkraftgegnern“ ihr stärkstes Argument von dem „unkalkulierbaren Restrisiko“ bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen „Millionen-Tote-für-10000-Jahre-unbewohnbar“. Es ist also kein Zufall, daß sich die „Bewegung“ nun auf angeblich „zu teuer“, konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:

  • Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.
  • Bürokratismus: „Nuclear grade“ erfordert einen – teilweise absurden – bürokratischen Aufwand. Oft kostet das gleiche Bauteil als „nuclear grade“ geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen – als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.
  • Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.
  • Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.
  • Serien: Jeder „first of a kind“ ist teurer als die Nachfolgemodelle. Hat man erst einmal die „Konstruktionsfehler“ behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.

Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das „Sektionsbauweise“. Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.

Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.

Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.

Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte „nukleare Insel“ steht. Schon die sich anschließende „Reaktorgrube“ ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.

Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das „notwendige Eisen“, was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun – wie auf einer Werft – vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt werden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.

Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.

Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer – irgendwo auf der Welt – kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana – der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war – war mit diesen „Gepflogenheiten der Kerntechnik“ nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.

Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute – wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.

Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.

 

Reaktortypen in Europa – Teil2, EPR

EPR ist eine Warenmarke des französischen Herstellers Areva für einen Druckwasserreaktor der dritten Generation. Interessant ist schon die unterschiedliche Herleitung der drei Buchstaben EPR: European oder Evolutionary Pressurized Water Reactor. Beides ist angebracht.

Die Geschichte

Inzwischen sind von diesem Typ vier Reaktoren in Bau: Olkiluoto 3 in Finnland (seit Oktober 2005), Flamanville 3 in Frankreich (seit Dezember 2007) und Taishan 1 und 2 in China (seit Oktober 2009). Wahrscheinlich wird in den nächsten Jahren mit dem Bau zweier weiterer Reaktoren in Hinkley Point in Großbritannien begonnen werden.

Auf den ersten Blick eine Erfolgsbilanz. Wie kam es dazu? Ende der 1990er Jahre kam in Deutschland die Rot/Grüne-Koalition an die Macht. Die Kombinatsleitung von Siemens läutete in gewohnter Staatstreue den sofortigen und umfassenden Ausstieg aus der Kernenergie ein. Eine unternehmerische Fehlentscheidung. Heute sind die ganzen Staatsaufträge an Telefonen, Eisenbahnzügen etc. zu „besonders auskömmlichen Preisen“ längst Geschichte. Noch kann man ein paar Windmühlen nach altem Muster „an den Mann bringen“. Aber die einzige Zukunftstechnologie, in der Siemens wirklich einmal zur Weltspitze gehörte, ist unwiederbringlich und ohne Not „abgewickelt“ worden. Siemens fand in Framatome (Vorläufer von Areva) einen dankbaren Abnehmer. Die Franzosen konnten nach ihrem beispielhaften Ausbauprogramm von 57 Reaktoren ihre Kapazitäten nur durch den Ausbau des Auslandsgeschäftes aufrecht erhalten. Ein „Made in Germany“ kam ihnen dabei sicherlich nicht ungelegen. Siemens reichte der Einfuß von 34% der Aktien an dem neuen Gemeinschaftsunternehmen. Kernenergie war ja nicht mehr politisch korrekt und man wollte seinen (damals) lukrativen Kunden – die Öffentliche Hand – nicht verärgern. Man glaubte damals wohl auch noch, seinen überlegenen Turbinenbau allein weiter führen zu können. So als ob Daimler sein Autogeschäft verkaufen würde um zukünftig nur noch mit dem Reifengeschäft zu überleben. Jedenfalls ist Olkiluoto wohl das letzte Kernkraftwerk mit einer deutschen Turbine. Alle weiteren EPR haben natürlich französische Turbosätze der Marke Arabella. Dies gilt selbstverständlich auch für alle weiteren Geschäfte mit China. Ob die Kombinatsleitung den Chinesen ersatzweise politisch korrekte Windmühlen angeboten hat, weiß man nicht. Es gab ja mal eine Zeit lang in bildungsfernen Kreisen den festen Glauben, Deutschland würde „vorweg gehen“ mit seiner Energiepolitik.

Die Mitarbeiter in Frankreich und Deutschland waren jedenfalls redlich bemüht, das beste aus beiden Welten zu erschaffen. Grundlage des EPR sind die französische Baureihe N4 (Kraftwerke Chooz 1+2, Civaux 1+2) und die deutsche Konvoi Baureihe (Neckar 2, Emsland, Isar 2). Es war von Anfang an eine evolutionäre und ausdrücklich keine revolutionäre Entwicklung geplant. Außerdem nahm man nicht nur die Genehmigungsbehörden in beiden Ländern mit ins Boot, sondern auch 12 europäische Energieversorgungsunternehmen. Es sollte ein Reaktor entstehen, der europaweit genehmigungsfähig war. Heute ist er auch in China und USA geprüft und grundsätzlich zugelassen worden.

Das Problem der Größe

Jedes elektrische Netz kann nur eine gewisse Blockgröße vertragen. Über den Daumen gilt immer noch die Regel von maximal zehn Prozent der Leistung, die im Netz anliegt. Ist der Reaktor zu groß, scheiden weltweit eine Menge Netze aus. Das ist ein Problem bei der Vermarktung des EPR. Areva hat bereits schon länger die Problematik erkannt und bietet nun in Kooperation mit Mitsubishi auch einen kleineren Druckwasserreaktor (ATMEA mit ca. 1100 MWel) an. Wahrscheinlich werden die ersten Anlagen in der Türkei errichtet. Demgegenüber sollen die vier EPR von Olkiluoto bis Taishan eine Leistung zwischen 1600 und 1660 MWel erreichen. Die Vorläufer – z. B. das größte deutsche Kernkraftwerk Isar 2 – hatten eine Leistung von etwa 1400 MWel..

Bei Kraftwerken gibt es eine bedeutende Kostendegression. Je mehr man einen gegebenen Entwurf vergrößert, um so kleiner werden die spezifischen Investitions- und Betriebskosten. Man wollte ja ausdrücklich eine evolutionäre Entwicklung. Jetzt steckt man dafür in einer Größenfalle – und was fast noch schlimmer ist – die Kosten sind trotzdem viel zu hoch. Der EPR ist in diesem Sinne kein glücklicher Entwurf.

Die grünen Phantasien

Besonders von den deutschen Genehmigungsbehörden wurden die beiden Sicherheitsanforderungen „Absturz eines Jumbo“ und das „China Syndrom“ aus Hollywood eingebracht. Man glaubte in Deutschland lange genug, man müsste nur über jedes Stöckchen springen, das einem „Atomkraftgegner“ hin halten und dann würden sie auch irgendwann Kernkraftwerke ganz toll finden. Die simple Strategie, die Kosten durch immer neue Ideen immer weiter in die Höhe zu treiben, wurde nicht erkannt. Jetzt steht man mit einer millionenteuren doppelten Sicherheitshülle aus Beton und dem Gimmick eines „core catcher“ da und die „Atomkraftgegner“ lieben den EPR immer noch nicht.

Der Flugzeugabsturz

Solange es Kernkraftwerke gibt, hat man sich über „Einwirkungen von außen (EVA)“ Gedanken gemacht. Schon immer gehörte ein Flugzeugabsturz dazu. Frühzeitig bekamen deshalb die Reaktoren eine entsprechende Betonhülle als Schutz. Die vier Unglücksreaktoren in Fukushima hatten noch keine – mit den bekannten Konsequenzen. Bei ihnen war nur der unmittelbare Bereich um das Reaktordruckgefäß durch dicke Betonabschirmungen geschützt. Von Anfang an stellte sich die Frage, wie dick eine Betonhülle als Bunker sein müßte. In Deutschland ging man vom Absturz eines Militärjets vom Typ Phantom F4 aus. Eine heute noch sinnvolle Annahme – selbst nach den Ereignissen des 11. September. Die Phantom ist bis heute das Flugzeug mit der „größten Dichte“. Ein Militärjet noch aus dem „Stahlzeitalter“. Die Triebwerke einer im Tiefflug dahin rasenden Phantom, würden wie Rammböcke auf die Schutzhülle eines Reaktors wirken. Dahingegen entspricht die Wirkung einer abstürzenden A380 oder eines Jumbojets eher einer Bierdose. Die Terrorflieger des 11. September konnten selbst ein filigranes Hochhaus bzw. das Pentagon nur zum Wackeln bringen. Etwas anderes ist die ungeheure Brandlast eines voll betankten Großraumflugzeuges, aber gegen die hilft Beton nur bedingt.

Jedenfalls steht der EPR heute mit einer doppelten Betonhülle dar. Der innere Teil – das Containment – besteht aus ca. 1,3 m dickem Spannbeton und die äußere Schutzhülle aus einer weiteren ca. 1,8 m dicken Betonhülle. Zusätzlich verschwinden alle nuklearen Komponenten (Dampferzeuger, Reaktordruckgefäß usw.) hinter weiteren Betonmauern, die als Abschirmung gegen Strahlung dienen. Dieses „Bunkersystem“ ist mit Sicherheit stark genug, um jedem Flugzeugabsturz oder einem Terroranschlag zu widerstehen. Wir erinnern uns: Tschernobyl hatte nicht einmal ein Containment und in Fukushima waren nur die Reaktoren geschützt. Das Brennelementebecken stand in einer normalen Industriehalle. Anders als beim ERP, bei dem sogar das Lagergebäude für die Brennelemente und diverse Sicherheitsanlagen mit einer Betonhülle verbunkert sind.

Beton kann nicht schaden, er ist nur sehr teuer. Erschwerend kommt beim EPR die lohnintensive und zeitraubende Ausführung als Ortbeton hinzu. Dies wurde zumindest in Olkiluoto völlig unterschätzt.

Grundsätzlich ist die Konstruktion aus zwei Hüllen mit Zwischenraum sicherheitstechnisch zu begrüßen. Wird das Containment durch eine Explosion (Fukushima) oder was auch immer beschädigt, kann die äußere Hülle ihre Funktion wenigstens zum Teil übernehmen. Der Zwischenraum wird ständig abgesaugt und in leichtem Unterdruck gehalten. Die „radioaktiv belastete Luft“ wird vor der Abgabe über den Kamin gefiltert. Durch eine solche Maßnahme kann selbst, wenn die gasförmigen Spaltprodukte im Reaktor freigesetzt werden sollten, der größte Teil zurück gehalten bzw. auf ein erträgliches Maß verdünnt werden.

Der core catcher

Dank Hollywood ist jeder „Atomkraftgegner“ mit dem „China Syndrom“ vertraut: Eine einmal eingetretene Kernschmelze soll endlos andauern. Selbst die unfreiwilligen Großversuche von Harrisburg, Tschernobyl und Fukushima können einen rechtgläubigen „Atomkraftgegner“ nicht von diesem Irrglauben abbringen.

Fangen wir mal mit dem Schlimmsten an:

  • Der Reaktor in Tschernobyl stand in einer einfachen Industriehalle. Nachdem eine Kernschmelze stattgefunden hatte, verabschiedete sich der Reaktor durch eine physikalische Explosion. Er spie wie ein Vulkan den größten Teil seines radioaktiven Inhalts in die Umwelt aus. Dies ist der schlimmste – überhaupt vorstellbare – Unfall.
  • In Fukushima trat in mehreren Reaktoren (zumindest teilweise) eine Kernschmelze ein. Ursache war hierfür der zeitweise Ausfall der Stromversorgung und dadurch ein Mangel an Kühlwasser. Die Nachzerfallswärme konnte die Brennelemente (teilweise) schmelzen lassen. Die Nachzerfallswärme nimmt aber sehr schnell ab und die Kühlung konnte – wenn auch verspätet – wieder aufgenommen werden. Wieviel Corium sich tatsächlich durch die Reaktorgefäße gefressen hat, wird erst eine genaue Untersuchung zeigen können. Jedenfalls hat die Menge nicht einmal gereicht, um den Betonboden der Reaktorgrube zu durchschmelzen. Ursache für die Freisetzung von Radioaktivität sind schlicht weg Konstruktionsfehler: Die Wasserstoffexplosion und die „Untertunnelung“ des Kraftwerks.
  • Bei dem TMI-Reaktor in Harrisburg hatte man wenigstens alles grundsätzlich richtig konstruiert, obwohl dann später alles schief lief. Maßgeblich durch Bedienungsfehler fiel ein Teil des Kerns unbemerkt trocken. Es entstand Wasserstoff, welcher aber nicht zu einer heftigen Explosion führte. Das Reaktordruckgefäß blieb ganz und in ihm sammelten sich Bruchstücke und Schmelze. Es gelangte praktisch keine unzulässig hohe Radioaktivität in die Umwelt.

Anstatt durch Aufklärung entgegen zu wirken, versuchte man den Segen der „Atomkraftgegner“ durch die Erfindung des core catcher zu erlangen. Ein von Anfang an sinnloses Unterfangen. Die Strategie der „Atomkraftgegner“ ging vielmehr auf: Die Kosten wurden weiter in die Höhe getrieben um mit einer vorgeblich „unwirtschaftlichen Atomkraft“ argumentieren zu können.

Wie sieht dieses Ding nun beim EPR aus? Man pflastert den Boden unterhalb des Reaktordruckgefäßes mit Steinen aus einer feuerfesten Keramik. Gemäß den Vorstellungen aus Hollywood frisst sich das Corium als glühende Schmelze durch das Reaktordruckgefäß und sammelt sich in der feuerfesten Wanne. In der Realität nimmt die Nachzerfallswärme zwar exponentiell ab, nach Drehbuch natürlich nicht, sondern der Boden der Wanne aus einem Spezialbeton schmilzt langsam auf und die Schmelze rinnt anschließend über eine Schräge in eine großflächige Vertiefung. Diese soll dauerhaft und automatisch durch Wasser gekühlt werden. Dort soll die Schmelze dann dauerhaft erstarren. Man könnte dieses Konzept auch mit: „Richtige Antworten auf falsche Fragestellungen umschreiben.“ Jedenfalls kostet allein der umbaute Raum für diese technische Glanzleistung zig Millionen.

Die magische Zahl vier

Der EPR hat vier Primärkreise: Um das Druckgefäß im Zentrum stehen kreisförmig angeordnet vier Dampferzeuger. Zwischen ihnen stehen die vier Hauptkühlmittelpumpen für die Umwälzung des Wassers durch den Reaktorkern und die Wärmeübertrager. All diese Komponenten stehen in Betonkammern, die der Abschirmung der Strahlung dienen. Damit ist der Sicherheitsbehälter auch während des Betriebes begehbar.

Dieser Grundanordnung folgend, gibt es auch vier vollständige Sicherheitseinrichtungen, deren Komponenten in vier voneinander völlig getrennten Gebäuden um den Sicherheitsbehälter angeordnet sind. Diese vier Sicherheitsabschnitte, sowie die Bedienungszentrale und das Gebäude für die Brennelemente, sind ebenfalls (wie das zylindrische Reaktorgebäude) gegen Flugzeugabstürze verbunkert.

Etwas abseits liegen zwei Gebäude, die die Notstromversorgung enthalten. Sie befinden sich jeweils in Deckung durch den eigentlichen Reaktorbau. Da sie ebenfalls vollständig redundant sind, geht man nur von höchstens einem Schaden bei einem Flugzeugabsturz aus. Die Gebäude sind mit wasserdichten Türen verschlossen. Ein Auslöschen durch eine Flutwelle (Fukushima) wäre ausgeschlossen.

Jedes, der vier Notkühlsysteme, kann allein die gesamte Wärme abführen (4 x 100%). In erster Linie dient das zur Verbesserung der Verfügbarkeit. Da alle vier Züge völlig voneinander unabhängig sind, kann man Wartungsarbeiten im laufenden Betrieb ausführen. Wenn ein System gewartet wird, stehen immer noch drei zur Verfügung.

Die Nachzerfallswärme

Bei einem Störfall wird das Kernkraftwerk durch eine Unterbrechung der Kettenreaktion abgeschaltet. Das Einfahren der Steuerstäbe entspricht z. B. dem Ausschalten der Feuerung bei einem konventionellen Kraftwerk. Bei beiden muß nun noch die im System gespeicherte Wärme abgeführt werden. Es gibt bei einem Kernkraftwerk aber zusätzlich den physikalischen Effekt der Nachzerfallswärme: Der radioaktive Zerfall der Spaltprodukte läßt sich durch nichts aufhalten. Es wird also auch nach der Abschaltung noch Wärme produziert! Die freiwerdende Wärme hängt von verschiedenen Umständen ab. In den ersten Sekunden können es über 5% der thermischen Leistung sein. Die Nachzerfallswärme nimmt sehr schnell ab und es sind nach einer Stunde nur noch rund 1%. Gleichwohl handelt es sich um gewaltige Leistungen. Ist ein EPR längere Zeit mit Höchstlast im Netz gewesen, sind das entsprechend 225 MW bzw. noch 45 MW nach einer Stunde. Diese Wärme muß auf jeden Fall – auch bei widrigsten äußeren Umständen (Fukushima) – abgeführt werden, da sonst der Kern schmilzt.

Praktisch ist die einzige Möglichkeit solche Leistungen sicher abzuführen, die Verdampfung. Ist die äußere Wärmesenke (Fluß, Meer oder Kühlturm) nicht mehr nutzbar, muß dies ausschließlich über die Notkühlung möglich sein. Zuerst baut man über Ventile am Druckhalter den Druck im Primärkreis ab. Schon durch dieses „auskochen“ tritt eine merklich Kühlung ein. Allerdings muß die abgelassene Wassermenge möglichst schnell ersetzt werden, da sonst das Reaktordruckgefäß ausdampft und der Kern (teilweise, wie in Harrisburg) trocken fällt. Ist der Druck auf ein gewisses Niveau abgefallen (ungefähr 100 bar) setzt eine Nachspeisung von Kühlwasser ein. Für den Antrieb der Pumpen ist aber elektrische Energie nötig. Würde die Notstromversorgung – wie in Fukushima – versagen, würde die Überhitzung des Kerns eher noch schneller eintreten. Das Reaktormodell aus den 1960er Jahren hatte bereits eine pfiffigere Idee: Der abgelassene Dampf wurde vor der Kondensation in der wassergefüllten Ringkammer über eine kleine Turbine geleitet. Diese Turbine treibt eine kleine Speisepumpe, die Wasser aus dem Ringraum zurück in das Druckgefäß speist. Dies funktioniert bis zu einem gewissen Temperaturausgleich recht gut. Eine Notmaßnahme, die zumindest in den ersten Minuten ohne jede Hilfsenergie sehr gut funktioniert hat.

Gegenüber seinen Vorläufern hat der EPR durch das Wasserbecken am Boden einen Sicherheitsgewinn: Das Wasser dient nicht nur zur Noteinspeisung, sondern stellt auch eine Wärmesenke innerhalb des Sicherheitsbehälters dar. Das Wasser kann durch Wärmeübertrager gepumpt werden, um es „kühl“ zu erhalten. Die Lagerung am Boden kommt der statischen Belastung bei Erdbeben entgegen, vergibt aber die Chance einer passiven Nachspeisung durch Schwerkraft.

Bei dem EPR ergibt sich kein grundsätzlicher Sicherheitsgewinn gegenüber seinen Vorgängern des Konvoi. Er arbeitet nach den gleichen Prinzipien: Lediglich die Stückzahl und Aufstellung der Sicherheitseinrichtungen wurde erhöht: Je zwei Notstromdiesel in zwei verschiedenen Gebäuden (2 x 2 x 8 MW Redundanz) und je ein Notstromaggregat zusätzlich im Gebäude (2 x 1 MW Diversität). Es bleibt aber das alte Problem aktiver Sicherheitssysteme: Strom weg, Wasser weg! Die vorgeblich um den Faktor zehn erhöhte Sicherheit, ergibt sich rechnerisch hauptsächlich aus dem Core Catcher.

Der Zugewinn an Lebensdauer

Beim EPR ist die konstruktive Nutzungsdauer von 40 auf 60 Jahre erhöht. Dies ist durch eine konsequente Überarbeitung aller Bauteile geschehen. So ist man z. B. beim Druckgefäß und den Hauptkühlmittelleitungen auf den Werkstoff Alloy 690 (59,5% Nickel, 30% Chrom, 9,2% Eisen etc.) übergegangen. Er besitzt bessere Korrosionsbeständigkeit und bildet nicht soviel „Atommüll“ durch Neutroneneinfang. Zusätzlich hat man das Druckgefäß mit einem Reflektor aus Stahl ausgestattet. Durch das Zurückstreuen von Neutronen in den Kern kann man den Brennstoff besser ausnutzen und gleichzeitig den Druckbehälter weniger belasten (Versprödung durch Neutronen).

Sicherheit und Wartung stehen in enger Beziehung. Schweißnähte weisen immer Fehler auf, die in regelmäßigen Abständen überprüft werden müssen. Solche Wiederholungsprüfungen sind zeitaufwendig (Verfügbarkeit) und kostspielig. Je weniger Schweißnähte, desto besser. Wenn schon Schweißnähte, dann an gut zugänglichen Stellen. Man hat deshalb beim EPR wesentlich komplizierter geschmiedete Formstücke (hohe Investitionskosten) für die Hauptkühlmittelleitungen verwendet bzw. durch Aushalsungen beim Druckbehälter die Anschlüsse vorverlegt.

Schlusswort

Ohne jede Frage hat man in hunderten von Betriebsjahren eine Menge Erfahrungen gesammelt. Hinzu kamen die realen „Großversuche“ aus Harrisburg und Fukushima. Insofern ist der EPR nicht mehr mit den ersten Druckwasserreaktoren vergleichbar. Als Ersatz für gasgekühlte Reaktoren (Hinkley Point) oder als Zubau (Olkiluoto, Taishan) ist er sicherlich eine gute Lösung. Aber ist der Sicherheitsgewinn beispielsweise gegenüber einer Konvoi-Anlage so viel höher, daß ein Ersatz durch einen EPR zu rechtfertigen wäre? Zumal man mit wenigen Nachrüstungen bzw. Ersatzteilen (z. B. Dampferzeuger) sehr kostengünstig eine Betriebsdauer von 80 und mehr Jahren erreichen könnte. Genug Zeit jedenfalls, um auf fortschrittlichere Konzepte umzusteigen.

Im nächsten Teil geht es um den APR-1000 von Westinghouse, der in Moore Side (und anderswo) geplant ist.

Fukushima Block IV

Die Geschichte

Das Kernkraftwerk Fukushima gehörte einst zu den größten Kernkraftwerken weltweit. Es besteht aus zehn Blöcken in zwei Gruppen (Fukushima Dai-ichi mit den Blöcken I1 bis I4 und I5 bis I6 und Fukushima Daini mit den Blöcken II1 bis II4). Beide Einheiten wurden von den selben Erdbeben und dem selben Tsunami im März 2011 getroffen. Warum aber, mit völlig unterschiedlichem Ausgang? Dai-ichi ist Totalschaden, Daini könnte man morgen wieder in Betrieb nehmen – sofern man wollte. Der Hauptgrund ist simpel: Fukushima II ist einige Meter höher gelegen, als Fukushima I. Die gleiche Flutwelle konnte damit nicht so verheerend wirken, wie auf dem Gelände I. Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch „Wand an Wand“ mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede­wasser­reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als „Übungsgelände“ für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt „einzufliegen“. Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise „Wand an Wand“ erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischer Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem „verunglückten Nachbarn“ verbunden gewesen wäre!

Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese „Stahlbau-Halle“ ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche „Betonpanzer“ natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen („EVA“, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. „gesicherten Einschluß“. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend „mauert“ man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen „Gemütslage“ in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand „in einem Rutsch“ durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als „Freibäder“. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb von dieser Methode abgekommen. Insofern ist die „Leichtbauhalle“ oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale „Schutzschicht“ für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich „sanft“ auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die „Baustelle“ darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte? Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische „Lüftungs- und Filteranlage“ errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige male ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich „Deutsche Qualitätsmedien“, angefeuert von „Atomexperten“, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die „gefährlichste Situation in der Geschichte der Menschheit“ konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten.

Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht „leer kochen“, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht. Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente „wie neu“ aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die „abgekühltesten“ Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von „Atomexperten“ behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen „Blechkasten“ umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit „unbenutzten“ Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die „Bierkastenmethode“: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt. Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die „Henkel“ sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen. Vor jedem Zug werden deshalb die „Henkel“ mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere „Greiftechniken“ angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen „Atomruinen“ kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller „Atomkraftgegner“.