Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

Fukushima – ein Zwischenbericht

In letzter Zeit ist es in den „Qualitätsmedien“ still geworden um die „Reaktorkatastrophe“. Um so mehr ein Grund, hier mal wieder einen Zwischenbericht zu liefern. Man könnte es sich einfach machen: Noch immer kein Toter durch Strahlung, noch immer keine Krebs-Epidemie, noch immer ist der Fisch an Japans Küste essbar…

…da warn es nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der „Reaktorhalle“ zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche „Betonhülle“ um das Kernkraftwerk gebaut hätte. Um es auch unserer – von der japanischen Industriegesellschaft so enttäuschten – Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein „Bankpalast“ aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von „Windmühlen“ und „Sonnenkollektoren“ hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen im Kölner Dom hunderte male stärker als die Strahlenbelastung aus Fukushima.). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die „Flugbahnen“ der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine – auch gegenüber allen Baustoffen, wie Stahl, Beton usw. – außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch „nachrechnen“ des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine „Aufnahmen“ der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden.

Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden.

An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt.

Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die „Eiswände“ fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch „gut verschlossen“ ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit „Wischern“ und „Staubsaugern“ ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man „taucht“ heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik – nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren – ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit – und ganz besonders in Deutschland – zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten „Experten“, die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch „Festigkeit im Rechten-Glauben“ ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher – aber anscheinend nicht so offensichtlich – ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten – und längst überprüften und für sicher befundenen – Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. „Wind und Sonne“ sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der „Krebstoten“ nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung „Krebs“ früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell „Strahlenangst“ erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Halbzeit bei GenIV

Nach zehn Jahren der internationalen Zusammenarbeit bei der Entwicklung von Reaktoren der sogenannten „vierten Generation“ erschien eine Überarbeitung der Ursprünglichen Fahrplanes aus dem Jahre 2002 erforderlich.  In der letzten Dekade ist viel geschehen: Dies betrifft die Zusammensetzung und Forschungsintensität der Mitglieder, die bereits gewonnenen Erkenntnisse und nicht zuletzt die Veränderung der äußeren Randbedingungen (Shale Gas Boom, Fukushima, etc.).

Es ist bei den ursprünglich ausgewählten sechs Konzepten geblieben. Neue sind nicht hinzugekommen. Mehrere teilnehmende Länder haben bedeutende Mittel in die Entwicklung natriumgekühlter Reaktoren mit einem schnellen Neutronenspektrum (sodium-cooled fast reactor, SFR) und gasgekühlten Reaktoren mit möglichst hoher Betriebstemperatur (very-high-temperature reactor, VHTR) investiert.

Die restlichen vier Konzepte: Mit Wasser im überkritischen Zustand gekühlte Reaktoren (SCWR), bleigekühlte Reaktoren mit schnellem Neutronenspektrum (LFR), gasgekühlte Reaktoren mit schnellem Neutronenspektrum (GFR) und mit Salzschmelzen gekühlte Reaktoren wurden – mehr oder weniger – auf Sparflamme entwickelt.

Ziele

Weiterhin gelten als zentrale Anforderungen an die sogenannte vierte Generation folgende vier Bereiche:

  • Nachhaltigkeit
  • Sicherheit und Verfügbarkeit
  • Wirtschaftliche Wettbewerbsfähigkeit
  • nicht zur Produktion von Waffen geeignete Technologien und ein physikalischer Schutz gegen jedwede Einwirkungen von Außen (Naturkatastrophen, Terrorismus etc.).

Interessant ist in diesem Zusammenhang die Definition der vier Generationen: Die ersten Reaktoren der Baujahre 1950–1960 (z. B. Shippingport, Dresden, MAGNOX usw.) werden als Demonstrationskraftwerke verstanden und sind bereits stillgelegt. Die zweite Generation umfaßt die Baujahre 1970–1990 und stellt die überwiegend heute im Betrieb befindlichen Leichtwasser- und Schwerwasserreaktoren dar. Die dritte Generation wird als die Leichtwasserreaktoren der Baujahre 1990–2000 definiert, wobei die Reaktoren nach dem Jahr 2000 als Generation III+ bezeichnet werden. Sie stellen eine evolutionäre Weiterentwicklung der Druck- und Siedewassertechnologie dar. Die Vielzahl unterschiedlichster Reaktortypen der Anfangsjahre hat sich also auf lediglich zwei Bauarten verengt. Die Weiterentwicklungen der schwerwassermoderierten, der gasgekühlten und der metallgekühlten Reaktoren ist – zumindest, was die Stückzahlen anbetrifft – auf das Niveau von Demonstrationsanlagen zurückgefallen. Erst ab dem Jahr 2030 wird von der Einführung einer vierten Generation ausgegangen.

Als die zentralen Ziele für die vierte Generation wird dabei die Verringerung der Gesamtkosten über den Lebenszyklus eines Kraftwerks, eine nochmals verbesserte Sicherheit, ein möglichst großer Schutz vor missbräuchlicher Nutzung (Waffen, Terrorismus) und eine erhebliche Verringerung des (Atom)mülls gesehen.

Abgebrannte Brennelemente

Nach einer gewissen Zeit ist jedes Brennelement in einem Reaktor nicht mehr nutzbar und muß ausgetauscht werden. Im Sprachgebrauch der „Atomkraftgegner“ ist es dann „Atommüll“ der zudem auch noch für Jahrtausende tödlich sein soll. In Wirklichkeit sind in einem „abgebrannten“ Brennelement eines Leichtwasserreaktors noch über 95% Brennstoff enthalten. Dieser Brennstoff muß und kann recycled werden. Aber selbst die übrig bleibenden Spaltprodukte sind keinesfalls wertlos. Aus wirtschaftlichen Gründen lohnt meist keine sofortige Aufbereitung. Es empfiehlt sich daher, diesen Atommüll (Müll in Bezug auf eine energetische Verwertung) für längere Zeit sicher zu lagern um ein Abklingen der Radioaktivität abzuwarten. Durch eine Nachbehandlung des Abfalls in geeigneten Reaktoren (mit schnellem Neutronenspektrum oder sog. Transmutation) kann diese notwendige Lagerzeit auf wenige hundert Jahre beschränkt werden. Eine „Endlagerung“ ist weder nötig noch sinnvoll. Das übrig bleibende „Erz“ – mit hohem Gehalt wertvollster Materialien – kann anschließend dem normalen Wirtschaftskreislauf zugeführt werden.

Die Aufgabe der nahen und mittleren Zukunft liegt in der Entwicklung und Realisierung solcher Kreisläufe mit möglichst geringen Kosten. Das bisher vorliegende „Henne-Ei-Problem“ beginnt sich gerade von selbst zu lösen: Es gibt inzwischen weltweit große Mengen abgebrannter Brennelemente, die eine Aufbereitung mit unterschiedlichsten Verfahren im industriellen Maßstab möglich machen. Viele dieser Brennelemente sind bereits soweit abgelagert (die Strahlung nimmt in den ersten Jahren besonders stark ab), daß sich ihre Handhabung stark vereinfacht hat.

Ein „Endlager“ – besser ein Lager mit sicherem Einschluß über geologische Zeiträume – ist nur für die Abfälle nötig, deren Aufbereitung zu kostspielig wäre. Dieser Weg wird bereits für Abfälle aus der Kernwaffenproduktion beschritten. Dafür reicht aber maximal ein „Endlager“ pro Kernwaffenstaat aus.

In naher Zukunft wird sich ein weltweiter Austausch ergeben: Es wird unterschiedliche Wiederaufbereitungsanlagen in verschiedenen Ländern geben. Die Kraftwerksbetreiber können diese als Dienstleistung nutzen. Die dabei wiedergewonnen Wertstoffe werden auf speziellen Märkten gehandelt werden. Wer zukünftig beispielsweise einen „Brutreaktor“ bauen möchte, kann sich das für die Erstbeladung notwendige Plutonium auf diesem Markt zusammenkaufen. Wem die Mengen langlebiger Aktinoiden zu groß werden (Lagerkosten) kann diese an Betreiber von schnellen Reaktoren oder Transmutationsanlagen zur „Verbrennung“ abgeben. Es wird sich genau so ein Markt für „nukleare Müllverbrennungsanlagen“ etablieren, wie er heute für Industrie- und Hausmüll selbstverständlich ist.

Ebenso wird es kommerzielle „Endlager“ geben, die gegen (teure) Gebühren Restmengen aufnehmen, die sich anderweitig nicht mehr wirtschaftlich verwenden lassen. Gerade Deutschland ist weltweit führend in Erwerb und Endlagerung von hoch toxischen Abfällen in ehemaligen Salzbergwerken. Hier ist es auch sprachlich gerechtfertigt, von Endlagern zu sprechen, da die dort eingelagerten Stoffe – anders als radioaktive Stoffe – nie verschwinden werden. „Gefährlich“ ist (zumindest in Deutschland) halt nur eine Frage des ideologischen Standpunktes.

Die sechs Systeme

Im Jahre 2002 wurden aus über 100 Vorschlägen sechs Konzepte ausgewählt. Leitgedanke dabei war, aus verschiedenen Reaktortypen symbiotische Systeme zu bilden. Beispielsweise durch die Verknüpfung von Leichtwasserreaktoren mit Reaktoren mit schnellem Neutronenspektrum, sodaß der „Abfall“ des einen Reaktortyps als Brennstoff für den anderen dienen kann. In diesem Sinne, konzentrierte man sich nicht auf die Entwicklung eines einzelnen neuen Reaktors, sondern wählte sechs Konzepte aus, aus denen ein weltweites Netz aufgebaut werden könnte. Jeder einzelne dieser sechs ausgewählten Konzepte hat ganz spezielle Vor- und Nachteile, die es jedem Land ermöglichen sollte, für seinen speziellen Bedarf, das geeignete Modell auswählen zu können. Es geht also eher darum, Möglichkeiten zu eröffnen, als Konzepte fest zu schreiben. Dies ist ein sehr flexibler und (theoretisch) Kosten sparender Ansatz, da jedes Land seine besonderen Stärken (Werkstofftechnik, Fertigungstechnik, Datenverarbeitung etc.) in die gemeinsame Forschung und Entwicklung einbringen kann, ohne sich ein komplettes Entwicklungsprogramm für einen einzelnen Reaktor aufbürden zu müssen. Insbesondere auch kleinen Ländern, mit beschränkten Ressourcen steht es offen, sich zu beteiligen.

Die ursprünglich ausgewählten Konzepte sind alle in den letzten zehn Jahren verfolgt worden und sollen auch weiter entwickelt werden. Allerdings haben sich durch neue Erkenntnisse und einem unterschiedlichen finanziellen Einsatz in den beteiligten Ländern, der ursprünglich geplante Zeitplan etwas verschoben. Die Entwicklung wurde in jeweils drei Phasen unterteilt.

Zeitplan

Für alle sechs Reaktortypen sollten die Machbarkeitsstudien als erste Phase bereits abgeschlossen sein. Bei der Machbarkeitsstudie sollten alle relevanten Probleme geklärt worden sein und insbesondere für kritische Eigenschaften, die später sogar eine Aufgabe erforderlich machen könnten, zumindest Lösungswege aufgezeigt werden. Für Salzbadreaktoren glaubt man diese Phase nicht vor 2025 und für gasgekühlte Reaktoren mit schnellem Neutronenspektrum, nicht vor 2022 abschließen zu können.

In der Durchführungsphase sollten alle Materialeigenschaften, Berechnungsverfahren etc. entwickelt und als Prototypen getestet und optimiert sein. Diese Phase wurde bisher bei keinem Konzept abgeschlossen. Am weitesten vorn im Zeitplan, liegen der mit Natrium gekühlte schnelle Reaktor (erwartet 2022) und der mit Blei gekühlte schnelle Reaktor (erwartet 2021).

Aus heutiger Sicht wird deshalb kein Reaktor die Demonstrationsphase bis zum Jahr 2030 abschließen können. Bevor eine kommerzielle Anlage in Angriff genommen werden kann, muß wenigstens ein Demonstrationskraftwerk (einschließlich dem erforderlichen Genehmigungsverfahren!) errichtet worden sein und einige Jahre Betriebserfahrung gesammelt haben. Selbst in Ländern mit durchweg positiver Einstellung zur Nutzung der Kernenergie und einem gewissen Pioniergeist (ähnlich der 1950er Jahre) dürfte dies ein ehrgeiziges Ziel sein. Zumal kein wirklicher Zeitdruck vorliegt: Es gibt genug Natururan zu günstigen Preisen, die Mengen abgebrannter Brennelemente sind immer noch so gering, daß kein Kostendruck zur Beseitigung von „Atommüll“ existiert und der Bedarf an Prozeßwärme mit hoher Temperatur kann problemlos durch kostengünstiges Erdgas gedeckt werden. Es bleibt die Erzeugung elektrischer Energie: Die kann aber problemlos und kostengünstig (im Vergleich zu Kohlekraftwerken mit Abgaswäsche) durch konventionelle Leichtwasserreaktoren erzeugt werden. China stellt dies eindrucksvoll unter Beweis.

Fukushimas Auswirkungen

Fukushima hat die Bedeutung für eine nach den Regeln der Technik entsprechende Auslegung und Bauweise gezeigt. Die Lehren aus dem Unglück beeinflussen nicht nur die in Betrieb befindlichen Kraftwerke, sondern auch zukünftige der vierten Generation. Schädigende Einflüsse von außen müssen bauartbedingt von den Reaktoren fern gehalten werden (z. B. Baugrund oberhalb von möglichen Flutwellen) und die Nachzerfallswärme muß auch über längere Zeit und in jedem Falle sicher abgeführt werden (z. B. passive Wasserkühlung aus oberen Tanks ausreichender Dimension).

Für die Reaktoren der vierten Generation sind umfangreiche Forschungsarbeiten zur Beantwortung dieser Fragen notwendig. Dies betrifft insbesondere das Verhalten der andersartigen Kühlmittel (Helium, Natrium, Blei etc.) und die teilweise wesentlich höheren Temperaturen (Werkstoffe, Temperaturschocks etc.). Hinzu kommt die höhere Energiedichte in den Kernen und etwaige Brennstoffkreisläufe in unmittelbarer Nähe.

Gasgekühlter schneller Reaktor (GFR)

Bei dem GFR (Gas-cooled Fast Reactor) handelt es sich um einen mit Helium gekühlten Reaktor mit schnellem Neutronenspektrum. Durch schnelle Neutronen lassen sich alle Aktinoiden – also alle radioaktiven Elemente mit langen Halbwertszeiten – spalten. Dies ist heute der Hauptgrund, warum man diese Entwicklung verfolgt. Man könnte mit solchen Reaktoren die „Endlagerfrage“ eindeutig beantworten: Man braucht faktisch kein Endlager mehr, weil sich das Problem der potentiellen „Gefahr durch strahlenden Atommüll“ auf technische Zeiträume von weniger als 300 Jahren reduziert. Damit ist auch klar, warum sich die „Anti-Atomkraftbewegung“ mit besonderer Vehemenz – und auch Gewalttätigkeit – gegen den Bau solcher Reaktoren gewandt hat. Würden solche Reaktoren mit Wiederaufbereitung abgebrannter Brennelemente eingesetzt, wäre ihnen ihr Totschlagargument von angeblich über Millionen Jahre zu sichernden Endlagern entzogen. Die (deutsche) Scharade einer „Standortsuche“ wäre schlagartig zu Ende.

Ein mit Helium gekühlter Reaktor mit schnellem Neutronenspektrum hat jedoch einen systembedingten Nachteil: Wegen des angestrebten Neutronenspektrums darf ein solcher Reaktor nur geringe Mengen an Materialien enthalten, die Neutronen abbremsen. Idealerweise würde er nur aus Brennstoff und Kühlmittel bestehen. Seine Fähigkeit „Wärme“ zu speichern, ist sehr gering. Jede Leistungsänderung führt somit zu starken und schnellen Temperaturänderungen. Ein ernster Nachteil bei einem Verlust des Kühlmittels. Allein die Nachzerfallswärme könnte zu schwersten Schäden führen. Ebenso ist eine passive Nachkühlung kaum realisierbar. Helium ändert – anders als Wasser – nur geringfügig seine Dichte bei Temperaturänderungen. Man wird daher immer auf aktive Nachkühlung angewiesen sein. Die Ereignisse von Fukushima haben die Genehmigungsfähigkeit dieses Reaktorprinzips nicht unbedingt erhöht.

In nächster Zukunft müssen Gebläse bzw. Turbinen entwickelt werden, die Helium mit hoher Temperatur (Betriebstemperatur 850 °C) und unterschiedlichen Drücken (zwischen 1 und 70 bar) zuverlässig befördern können. Für die Kreisläufe zur Abführung der Nachzerfallswärme sind sicherheitsrelevante Ventile zu entwickeln und zu testen. Es sind zuverlässige Antriebskonzepte für die Notkühl-Gebläse zu entwickeln. Nach den Erfahrungen in Fukushima keine ganz einfache Aufgabe.

Die infrage kommenden Legierungen und Keramiken für die Brennelemente sind ausgiebig zu testen. Gleiches gilt für die Hüllrohre. Es müssen im Störfall Temperaturen von etwa 2000 °C sicher beherrscht werden.

Mit der bisherigen Entwicklung sind die Probleme eher größer geworden. Es wird deshalb nicht mit einem Abschluss der Machbarkeitsstudien in den nächsten zehn Jahren gerechnet. Wegen der Langfristigkeit ist der Einsatz der Mittel eher verringert worden.

Bleigekühlter schneller Reaktor (LFR)

Bei dem Lead-cooled Fast Reactor (LFR) handelt es sich um einen Reaktor, der flüssiges Blei als Kühlmittel verwendet. Blei besitzt einen sehr hohen Siedepunkt (1743 °C), sodaß man mit diesem Reaktortyp sehr hohe Temperaturen ohne nennenswerten Druckanstieg erzeugen kann. Allerdings ist Blei bei Umgebungsbedingungen fest, weshalb man den gesamten Kreislauf stets auf über 328 °C halten muß. Es gibt also zusätzlich den neuen Störfall „Ausfall der Heizung“. Blei ist chemisch recht beständig und reagiert – wenn überhaupt – ohne große Wärmefreisetzung mit Luft oder Wasser. Es schirmt Gammastrahlung sehr gut ab und besitzt ein gutes Lösungsvermögen (bis 600 °C) für Jod und Cäsium. Ferner trägt die hohe Dichte von Blei eher zu einer Rückhaltung als einer Verteilung von radioaktiven Stoffen bei einem schweren Störfall bei. Allerdings stellt die Undurchsichtigkeit und der hohe Schmelzpunkt bei allen Wartungsarbeiten und Sicherheitsinspektionen eine echte Herausforderung dar. Die hohe Dichte von Blei erschwert den Erdbebenschutz und erfordert neue (zugelassene) Berechnungsverfahren. Nach wie vor, ist die Korrosion von Stahl in heißem Blei mit Sauerstoff ein großes Problem. Hier ist noch sehr viel Forschung und Entwicklung nötig, bis ein dem heutigen Niveau von Leichtwasserreaktoren entsprechender Zustand erreicht wird.

In sowjetischen U-Booten wurden Reaktoren mit einem Blei-Wismut-Eutektikum (niedrigerer Schmelzpunkt) verwendet. Die dort (meist schlechten) gesammelten Erfahrungen sind nicht direkt auf das LFR-Konzept übertragbar. Die Reaktoren sind wesentlich kleiner, haben eine geringere Energiedichte und Betriebstemperatur und eine geringere Verfügbarkeit. Außerdem arbeiteten sie mit einem epithermischen und nicht mit einem schnellen Neutronenspektrum. Der Vorteil des geringeren Schmelzpunktes einer Blei-Wismut-Legierung ist nicht ohne weiteres auf eine zivile Nutzung übertragbar, da durch den Neutronenbeschuß Polonium-210 gebildet wird. Es handelt sich dabei um einen starken Alphastrahler (Halbwertszeit 138 Tage), der den gesamten Kühlkreislauf kontaminiert.

Im Moment werden im Projekt drei verschiedene Konzepte verfolgt: Ein Kleinreaktor mit 10 bis 100 MWel in den USA (Small Secure Transportable Autonomous Reactor or SSTAR), ein Reaktor mit 300 MWel in Russland (BREST) und ein Reaktor mit mehr als 600 MWel in Europa (European Lead Fast Reactor or ELFR – Euratom).

Wenn man einen solchen Reaktor als Brüter betreiben will, benötigt man eine Mindestleistung. Je größer, je effektiver. Ein kleiner Reaktor, wie z. B. der SSTAR, ist nur als reiner „Aktinoidenbrenner“ geeignet. Allerdings kann er sehr lange ohne einen Brennstoffwechsel betrieben werden. Will man Spaltmaterial erbrüten, ist ein häufiger Brennstoffwechsel unvermeidlich. Es empfiehlt sich deshalb, einen entsprechenden Brennstoffzyklus zu entwickeln. Es wird auf den Bau mehrere Reaktoren mit einer gemeinsamen Wiederaufbereitungsanlage hinauslaufen. Das Verfahren zur Wiederaufbereitung hängt wiederum von dem Brennstoffkonzept des Reaktors ab.

Ein besonderes Konzept, im Zusammenhang mit Blei, ist die Entwicklung einer Spallationsquelle (Japan, MYRRHA in Belgien usw.). In einem Beschleuniger wird ein Strahl von Protonen auf über 1 GeV beschleunigt und auf flüssiges Blei geschossen. Beim Auftreffen auf ein Bleiatom „verdampft“ dieses seine Kernelemente. Es wird eine große Anzahl von Neutronen frei. Diese Neutronen werden von einem Mantel aus Aktinoiden absorbiert. Diese eingefangenen Neutronen führen teilweise zu einer Spaltung oder einer Umwandlung. Durch die Spaltungen wird – wie in jedem Kernreaktor – Wärme frei, die anschließend konventionell genutzt werden kann. Es entsteht aber keine selbsterhaltende Kettenreaktion. Wird der Beschleuniger abgeschaltet, brechen auch sofort die Kernreaktionen in sich zusammen. Es handelt sich hierbei also um eine Maschine, die primär der Stoffumwandlung und nicht der Energieerzeugung dient. Durch die Verwendung von Blei als „Neutronenquelle“ und Kühlmittel sind aber alle Erfahrungen und Probleme unmittelbar übertragbar.

Am weitesten scheint die Entwicklung in Russland vorangeschritten zu sein. Man entwickelt einen bleigekühlten Reaktor mit 300 MWel (BREST-300) und betreibt die Weiterentwicklung der U-Boot-Reaktoren mit Blei-Wismut-Eutektikum als Kühlmittel (SVBR-100). Beide Reaktoren sollen bis zum Ende des Jahrzehnts erstmalig kritisch werden. In Europa plant man eine Demonstrationsanlage mit 300 MWth (Advanced Lead Fast Reactor European Demonstrator, ALFRED).

Salzbadreaktoren (MSR)

Salzbadreaktoren (Molten Salt Reaktor, MSR) werden in zwei Gruppen eingeteilt: Reaktoren, bei denen der Spaltstoff im Salz selbst gelöst ist und Reaktoren, bei denen das flüssige Salz nur als Kühlmittel dient (Fluoride salt-cooled High-temperature Reactor, FHR).

Zwischen 1950 und 1976 gab es in den USA ein umfangreiches Entwicklungsprogramm, aus dem zwei Prototypen erfolgreich hervorgingen (Aircraft Reactor Experiment, ARE und Molten Salt Reactor Experiment, MSRE). Anfangs konzentrierte man sich in der Entwicklung auf Salzbadreaktoren mit thermischem Neutronenspektrum.

Ab 2005 entwickelte sich eine Linie, die von in Salz gelöstem Brennstoff und Spaltprodukten ausging. Als Kühlmittel soll ebenfalls Salz dienen. Das Neutronenspektrum soll schnell sein. Von dieser Kombination verspricht man sich einerseits das Erbrüten von Spaltstoff (z. B. Uran-233 aus Thorium-232) und andererseits das kontinuierliche „Verbrennen“ von Minoren-Aktinoiden mit dem Ziel eines relativ kurzlebigen „Atommülls“, der nur noch aus Spaltstoffen besteht. Durch das Salzbad möchte man hohe Betriebstemperaturen bei nahezu Umgebungsdruck erreichen. Bis zum Bau eines Reaktors, ist jedoch noch ein langer Weg zurück zu legen: Es müssen die chemischen (Korrosion) und thermodynamischen Zustandsdaten für solche n-Stoff-Salze bestimmt werden. Es müssen Verfahren zur kontinuierlichen Entgasung der Salzschmelze entwickelt werden, da ein großer Teil der Spaltprodukte (zumindest bei der Betriebstemperatur) gasförmig ist. Für das flüssige Salzgemisch müssen gekoppelte neutronenphysikalische und thermohydraulische Berechnungsverfahren geschaffen werden. Für die radioaktiven Salzgemische sind zahlreiche Sicherheitsversuche zur Datensammlung und Absicherung der Simulationsmodelle nötig. Die Chemie und Verfahrenstechnik der Aufbereitung während des Reaktorbetriebs muß praktisch noch vollständig getestet werden.

Natriumgekühlter schneller Reaktor (SFR)

Der Sodium-cooled Fast Reactor (SFR) verwendet flüssiges Natrium als Kühlmittel. Natrium hat nahezu ideale Eigenschaften: Relativ geringer Schmelzpunkt (98 °C), aber hoher Siedepunkt (890 °C), sehr gute Wärmeleitfähigkeit (140 W/mK) bei annehmbarer Wärmekapazität (1,2 KJ/kgK). Es hat keine korrosiven Eigenschaften, reagiert aber heftig unter Wärmefreisetzung mit Luft und Wasser. Bisher wurden bereits 17 Reaktoren gebaut und drei weitere befinden sich in Russland, Indien und China im Bau.

Ursprüngliches Ziel war die Erschaffung eines „schnellen Brüters“. Mit ihm sollte mehr (thermisch) spaltbares Plutonium erzeugt werden, als dieser Reaktortyp zu seinem Betrieb benötigte. Dieses zusätzlich gewonnene Plutonium sollte dann zum Start weiterer Reaktoren verwendet werden. Inzwischen gibt es aus dem Betrieb von Leichtwasserreaktoren und der Rüstungsindustrie mehr als genug Plutonium auf der Erde. Darüber hinaus sind die Natururanvorräte nahezu unerschöpflich. Deshalb hat sich die Zielrichtung in den letzten Jahren verschoben. Die benutzten Brennelemente aus Leichtwasserreaktoren werden von „Atomkraftgegnern“ abfällig als „Atommüll“ bezeichnet. In Wirklichkeit sind aber das gesamte enthaltene Uran und Plutonium (weit über 95 %) vollständig zur Energiegewinnung nutzbar. Gerade aus dem wertvollsten Material – dem Plutonium – wird wegen dessen langer Halbwertszeit der Bedarf eines Endlagers und dessen „sicherer Einschluß über Millionen von Jahre“ konstruiert. Selbst die Spaltprodukte – als tatsächlicher Abfall der Energieerzeugung durch Kernspaltung – sind (wirtschaftlich) nutzbar.

Man geht heute von einer Erstbeladung eines schnellen natriumgekühlten Reaktors mit einem Gemisch aus Uran und knapp 20% Plutonium aus. Das Plutonium gewinnt man aus den abgebrannten Brennelementen der Leichtwasserreaktoren. Die abgebrannten Brennelemente eines solchen schnellen Reaktors werden nach angemessener Zwischenlagerung in einem elektrochemischen Prozeß (wie z. B. bei der Kupfer- und Aluminiumproduktion) wieder aufbereitet. Bei diesem Wiederaufbereitungsverfahren liegt der Schwerpunkt in der Gewinnung möglichst reiner (kurzlebiger) Spaltprodukte. Alle langlebigen Aktinoiden werden wieder in den neuen Brennelementen weiter verwendet. Das „verbrauchte“ Uran und Plutonium wird dabei durch „Atommüll“ aus Leichtwasserreaktoren ergänzt. Ein solcher Reaktor gleicht also einer „Müllverbrennungsanlage“, in der ja auch „gefährliche Stoffe“ unter gleichzeitiger Stromerzeugung beseitigt werden.

Natriumgekühlte Reaktoren können in beliebiger Größe gebaut werden. Lediglich wenn man Brennstoff erbrüten will (d. h. mehr Plutonium produzieren als man verbraucht) muß der Reaktor geometrisch groß sein, um Neutronenverluste zu vermeiden. Gerade „Aktinoidenbrenner“ können sehr klein und kurzfristig gebaut werden. Die Entwicklung bezieht sich auf die Kombination aus Brennstoff (oxidisch, metallisch, karbidisch und Nitride möglich) und die Wiederaufbereitung (naßchemisch, pyrotechnisch). Es gilt die optimale Kombination aus Werkstoffen und Verfahren zu finden. Ferner sind homogene Brennstoffe und spezielle heterogene Anordnungen zur Verbrennung von Minoren-Aktinoiden denkbar. Diese Anordnungen koppeln wieder auf die Neutronenphysik, die Regelung und damit letztendlich auf die Sicherheit zurück.

Reaktor mit überkritischem Wasser (SCWR)

Wird Wasser oberhalb des kritischen Punktes (374,12 °C bei 221,2 bar) verwendet, ändert es radikal seine chemischen und physikalischen Eigenschaften. Entscheidend ist die kontinuierliche Änderung der Dichte. Es gibt nicht mehr das gleichzeitige Auftreten von Dampf und Flüssigkeit (z. B. Blasen) in einem Behälter.

Ziel von „überkritischen Kesseln“ ist die Steigerung des Wirkungsgrades. So sind heute in modernen Kohlekraftwerken Wirkungsgrade von 46 % möglich. Für den Supercritical-water-cooled reactor (SCWR) ist ein Wirkungsgrad von 44 % angestrebt. Die leidvolle Entwicklungsgeschichte bei konventionellen Kraftwerken hat jedoch gezeigt, daß die Steigerung von Druck und Temperatur mit erheblichen Werkstoffproblemen und damit Kosten verbunden ist. Solange Kernbrennstoffe so billig wie heute sind, scheint dieser Weg bei Reaktoren zumindest wirtschaftlich nicht sinnvoll.

Die gesamte Sicherheitstechnik muß neu durchdacht und experimentell bestätigt werden. Es gibt keine lokale Selbstregelung durch Dampfblasenbildung mehr. Die Gefahr von überhitzten Stellen im Kern muß schon im Normalbetrieb sicher beherrscht werden. Die Notkühlsysteme müssen bei einem Druckabfall sowohl im überkritischen Zustand, als auch im Zwei-Phasenbereich voll wirksam sein. Man kann sich nicht mehr auf den Wasserstand als Stellgröße verlassen, sondern muß auf den Durchfluß übergehen, was wesentlich schwerer zu realisieren ist. Die Wasserchemie ist im überkritischen Zustand wesentlich anders und schwerer zu beherrschen.

Bisher wurden nur Tests mit Komponenten ausgeführt. Man hofft auf dieser Basis in den nächsten fünf Jahren eine Entscheidung für den Bau eines Prototyps fällen zu können. Bis zu einem kommerziell nutzbaren Reaktor dürften noch weit über 20 Jahre vergehen.

Hösttemperaturreaktor (VHTR)

Der Very-High-Temperature Reactor (VHTR) ist eine Weiterentwicklung eines mit Helium gekühlten Reaktors mit thermischem Neutronenspektrum. Es gibt die – ursprünglich in Deutschland entwickelte – Anordnung der Brennelemente als Kugelhaufen oder eine prismatischer Anordnung. Ziel war immer das Erreichen von Betriebstemperaturen von nahezu 1000 °C. Dieser Reaktortyp sollte primär als Wärmequelle in der Verfahrenstechnik (Kohleveredlung etc.) dienen. In diesem Sinne war ein Meilenstein immer das Erreichen einer Temperatur von 950 °C, bei der eine rein thermische Zerlegung von Wasser über einen Schwefel-Jod-Prozeß möglich ist. Dies war als Fundament einer „Wasserstoffwirtschaft“ gedacht. In Deutschland wurde das Konzept einer „kalten Fernwärme“ entwickelt, in dem Methan im Kreislauf läuft und beim Verbraucher lediglich chemisch zerlegt wird und die Bestandteile anschließend wieder mit der Hilfe der Wärme des Kernreaktors wieder zusammengesetzt werden. Der Charme dieses Konzepts liegt in der Fähigkeit, Energie über große Entfernungen mit geringen Verlusten (wie ein Erdgasnetz) transportieren und auch speichern zu können. Stellt man das „Erdgas“ synthetisch aus Kohle her, kann man dieses Gas in das vorhandene Erdgasnetz einspeisen. Interessanterweise wird dieser Gedanke in China aus den gleichen Gründen, wie damals in Deutschland, wieder aufgegriffen: Luftverschmutzung durch Kohle, bei (noch) geringen eigenen Erdgasvorkommen.

Die Entwicklung von Höchsttemperaturreaktoren ist im wesentlichen ein Werkstoffproblem. Wobei nicht übersehen werden darf, daß mit steigender Temperatur der Aufwand und die Kosten exponentiell ansteigen. Allerdings kann diese Entwicklung evolutionär durchgeführt werden. China scheint offensichtlich diesen Weg eingeschlagen zu haben. Ausgehend vom (Nachbau) des deutschen Kugelhaufenreaktors begibt man sich schrittweise vorwärts.

Energie als Druckmittel

In den letzten Tagen spitzt sich in den Medien immer mehr die Diskussion um ein „Wirtschaftsembargo“ gegen Russland zu. Neben der grundsätzlichen Frage zum Sinn von Wirtschaftsblockaden ist dabei der Zentrale Punkt die „Energieabhängigkeit“. Es lohnt sich daher, sich etwas näher mit dieser Frage zu beschäftigen. Mag es für manchen nützlich sein, um die wahrscheinlichen Maßnahmen und deren Konsequenzen besser abschätzen zu können.

Energie als Handelsware

Prinzipiell sind alle Energieträger ganz normale Handelsgüter. Sie liegen in unterschiedlichen Formen vor: Als Rohstoffe (Erdöl, Kohle, Uran usw.), als Halbfertigprodukte (Diesel, Benzin, „Erdgas“ etc.) und als spezielle Endprodukte (Wechselstrom 50 Hz, Super Benzin, usw.). Analog z. B. zu Kupferbarren, Kupferdraht und einer Spule. Die simple Tatsache, daß Energieträger nicht gleich Energieträger ist, ist bereits eine sehr wichtige Erkenntnis. Je spezieller der Stoff ist, je schwieriger ist er zu ersetzen und je enger werden die möglichen Bezugsquellen. Ein Motor, der für Dieselkraftstoff gebaut ist, braucht auch Dieselkraftstoff. Selbst wenn Benzin im Überfluß vorhanden ist, nützt dies dem Betreiber gar nichts. Anders sieht es z. B. in der Elektrizitätswirtschaft aus. Besitzt man – wie in Deutschland – noch einen Kraftwerkspark aus Steinkohle-, Braunkohle- Gas- und Kernkraftwerken etc., sieht die Lage völlig anders aus. Selbst wenn ein Brennstoff nahezu vollständig ausfällt, muß dies noch lange nicht zu Einschränkung führen. Geht man noch eine Ebene höher, ergibt sich noch mehr Flexibilität. Verringert sich z. B. das Angebot an Erdgas, kann man bewußt den Verbrauch in Kraftwerken einstellen um genug Heizgas zur Verfügung zu haben. Ein ganz normaler Vorgang, wie er jeden Winter üblich ist. Es gibt sogar Kraftwerke, die für mehrere Brennstoffe geeignet sind. Da der Anteil vom Erdgas am Primärenergieverbrauch in Deutschland nur rund 21 % beträgt und allein der Lagervorrat etwa 1/6 des Jahresverbrauches beträgt, braucht keine Panik vor einem „Erdgasboykott“ zu bestehen. Da Russland ohnehin nur etwa ⅓ des Verbrauches liefert, könnten sie gern ihre Lieferungen vollständig einstellen. Deswegen würde hier keine Wohnung kalt bleiben oder eine Fabrik stillstehen. Selbst die Auswirkungen auf die Erdgaspreise dürften gering bleiben, weil viele Verbraucher (vor allem Kraftwerke) auf andere Energieträger ausweichen könnten bzw. andere Lieferanten gern die russischen Marktanteile übernehmen würden.

Der Faktor Zeit

Die Frage, ob man einen Energieträger durch einen anderen ersetzen kann, ist nicht so entscheidend, wie die Zeitdauer die hierfür erforderlich ist. Wobei die Zeitdauer weniger technisch bedingt, als eine Frage der Kosten ist. Besonders unflexibel sind Gaspipelines. Bis man neue Leitungen verlegt hat oder einen angeschlossenen Verbraucher umgestellt hat, können Jahre vergehen. Geht man auf die volkswirtschaftliche Ebene, wird man eher in Jahrzehnten denken müssen. Ein Beispiel hierfür, ist der massive Ausbau der Kernkraftwerke als Ersatz für Ölkraftwerke infolge der sog. Ölkriesen (1973 und 1976).

Für kurzfristige Versorgungslücken ist die Lagerung von Brennstoff ein probates Mittel. Auch hier ist Erdgas die technisch schwierigste und damit kostspieligste Lösung. Brennstäbe für Kernkraftwerke nehmen nur wenig Platz ein und ein Kernkraftwerk läuft ohnehin viele Monate, bis eine Nachladung nötig wird. Steinkohle hat auch eine recht hohe Energiedichte und ist relativ einfach zu lagern. Es war nicht zufällig im alten West-Berlin der Brennstoff der Wahl zur Absicherung gegen „Berlin-Blockaden“.

Ein weiterer wichtiger Aspekt sind Transportwege und Transportmittel. Öltanker und Massengutfrachter kann man noch auf hoher See umleiten. Bei der heute weltweiten Verteilung von Öl und Kohle ist der Lieferboykott eines Landes oder einer Gruppe von Ländern (OPEC) ein völlig stumpfes Schwert. Im Gegenteil, man weitet diesen Zustand auch immer weiter auf Erdgas aus. Überall auf der Welt entstehen Anlagen zur Verflüssigung und Rückvergasung von Erdgas. Der neuste Trend dabei ist, solche Anlagen komplett auf Spezialschiffen zu installieren, die gegebenenfalls auch noch flexibel verlagert werden können. Nicht zuletzt Russland, hat diesen Trend schon vor der aktuellen Krise durch seine Preispolitik und seine Lieferunterbrechungen an die Ukraine enorm beschleunigt. Nur Deutschland hat konsequent auf Pipelines nach Russland gesetzt. All unsere Nachbarn haben bereits Flüssiggasterminals in Betrieb oder im Bau. Es geht halt nichts über wahre Männerfreundschaften, nicht wahr, Gerhard und Vladimir?

Der Faktor Geographie

Energieträger sind – mit Ausnahme von Uran und Thorium – Massengüter. Transportmittel der Wahl, ist deshalb das Schiff. Pipelinenetze lohnen sich wegen der enormen Kapitalkosten nur in Verbrauchsschwerpunkten oder bei sehr großen Feldern. Zumindest übergangsweise, dient auch die Eisenbahn als Transportmittel. Rußland ist zur Zeit (noch) der größte Ölproduzent vor den USA und Saudi Arabien. Anders als diese beiden, verfügt es aber über keine bedeutenden Häfen. Die längste Zeit des Jahres liegen seine Küsten und Flüsse unter einem Eispanzer. Für Rußland sind seine Pipelines in den Westen lebenswichtige Adern. Selbst mit seinem Eisenbahnnetz (Breitspur) hat es sich bewußt vom Rest der Welt abgegrenzt. Verglichen z. B. mit dem Iran, eine fatale Situation bei einem Abnahmeboykott.

Der Faktor Wirtschaft

Russland ist kein Industrieland, sondern spielt eher in der Liga von Nigeria, Venezuela etc. Geschätzt zwischen 70 bis 90 % aller Staatseinnahmen stammen aus dem Export von Öl und Gas. Es gibt praktisch keine russischen Produkte, die auf dem Weltmarkt verkäuflich sind. Die Situation ist noch desolater, als in der ehemaligen „DDR“. Die konnte wenigstens einen Teil ihrer Erzeugnisse über Dumpingpreise auf dem Weltmarkt verschleudern um an Devisen zu gelangen. Selbst der einstige Exportschlager Waffen, ist wegen seiner erwiesenen schlechten Qualität, immer unverkäuflicher. Klassische Importeure sind entweder bereits untergegangen (Irak, Lybien, etc.) oder wenden sich mit grausen ab (Indien, Vietnam usw.).

Rußland hat seine „fetten Jahre“ vergeudet. Während im kommunistischen Bruderland China eine Auto-, Computer- und Mobilfunkfabrik nach der nächsten gebaut wurde, hat man sich in der „Putinkratie“ lieber Fußballvereine im Ausland gekauft. Die Angst vor und die Verachtung für das eigene Volk, scheint unvergleichlich höher. Selbst in den Staaten der Arabischen Halbinsel hat man schon vor Jahrzehnten realisiert, daß die Öleinnahmen mal nicht mehr so sprudeln werden und man deshalb einen Sprung in die industriealisierte Welt schaffen muß. Gerade, wenn man die dort – praktisch in wenigen Jahrzehnten aus dem Wüstensand heraus – geschaffene Infrastruktur und Industrie betrachtet, kann man die ganze Erbärmlichkeit der russischen Oberschicht ermessen.

Was dies für die internationalen Energiemärkte bedeuten könnte

Die Selbstisolation durch militärische Bedrohung der Nachbarn, erinnert an das Verhalten von Potentaten in Entwicklungsländern kurz vor deren Untergang. Wenn Putin nicht einlenkt, wird man ihn stoppen müssen. Er täuscht sich gewaltig, wenn er glaubt, er könne Teile Europas in den gleichen Abgrund, wie Syrien stürzen. Gerade sein Syrienabenteuer wird ihm in der nächsten Zeit auf die Füße fallen. Er hat sich bei allen Staaten – die zufällig zu den größten Gas- und Ölproduzenten zählen – äußerst unbeliebt gemacht. Für die dürfte es alles andere als ein Zufall sein, daß gerade die muslimischen Tataren auf der Krim am meisten unter seiner „Ukrainepolitik“ leiden. Es könnte sein, daß dies der berühmte Tropfen ist, der das Fass zum überlaufen bringt. Zumindest in Saudi Arabien ist die Erinnerung an die „brüderliche Waffenhilfe der Sowjets“ in Afghanistan und Putins Vorgehen in Tschetschenien noch sehr lebendig.

Wenn Putin nicht einlenkt, wird man ihn wirtschaftlich unter Druck setzen (müssen). Das kann sehr schnell und sehr schmerzhaft geschehen, ohne daß man überhaupt wirtschaftliche Sanktionen beschließen muß. Man muß nur die russischen Preise für Energieträger unterbieten. Jeder Kontrakt, der Rußland vollkommen verloren geht, reißt ein tiefes Loch, jeder gesenkte Preis, ein etwas kleineres Loch, in die Kassen des Kreml. Jeder Verfall des Rubel verteuert darüber hinaus die lebenswichtigen Importe. Ein faktisches Entwicklungsland wie Rußland, hat dem nichts entgegen zu setzen. Eigentlich sollte gerade Rußland aus dem Kollaps des Sowjetreichs seine Lehren gezogen haben: Als es glaubte, die Welt mit Waffengewalt beherrschen zu können (Einmarsch in das sozialistische Bruderland Afghanistan) nahm Ronald Reagen die Herausforderung an und erschuf den „Krieg der Sterne“. Putin mag als guter Schachspieler gelten, aber die USA sind immer noch die Nation der Poker-Spieler. Putin wird noch lernen müssen, wenn man kein gutes Blatt in den Händen hält und nichts in der Tasche hat, sollte man besser nicht, die wirklich großen Jungs reizen.

Kohle

Die russische Kohleindustrie ist durch und durch marode. Das gilt auch und gerade für das Revier im Osten der Ukraine. Die Produktionskosten sind teilweise so hoch, daß jetzt schon mit Verlusten produziert wird. Demgegenüber hat allein die USA schier unerschöpfliche Kohlenmengen verfügbar. Dies betrifft sogar die Transport- und Hafenkapazitäten. Es ist ein leichtes, den Vertrieb zu intensivieren und sich um jeden russischen Kunden zu bemühen. Man muß nur jeweils etwas unter den russischen Preisen anbieten. Dies wird nicht einmal an den Weltmärkten zu Verwerfungen führen. Der Exportanteil Russlands ist einfach zu gering. Für Russland andererseits, ist jede nicht verkaufte Schiffsladung ein Problem.

Öl

Russland, USA und Saudi Arabien sind die drei größten Ölförderländer. Die USA werden in den nächsten Jahren zur absoluten Nummer eins aufsteigen. Schon jetzt liegen die Preise in den USA (WTI) rund zehn Dollar unter den Preisen in Europa (Brent). Es schwelt schon lange ein Konflikt um die Aufhebung des Exportverbotes. Ein denkbarer Kompromiß, wäre eine Aufhebung für „befreundete Nationen“ in Europa. Geschieht das, rächt sich die Vernachlässigung der russischen Transportkapazitäten. Die USA können zusammen mit Saudi Arabien die Ölpreise in den klassischen Abnehmerländern Russlands in beliebige Tiefen treiben. Dies gilt vor allem für die hochwertigen Rohöl-Qualitäten. Zusätzlich noch ein bischen Konjunkturabschwächung in China und der russische Staatshaushalt gerät aus den Fugen.

Erdgas

Russland besitzt nach wie vor die größten konventionellen Erdgasreserven. Danach folgen Qatar und Iran. Alle drei sind tief im Syrienkonflikt verstrickt. Alle drei aus dem gleichen Grund, wenn auch auf verschiedenen Seiten. Syrien ist das potentielle Transitland für Erdgas aus dem Golf-Gebiet. Rußland schürt mit allen Mitteln den Krieg, um einen geplanten Ausbau des Pipelinenetzes aus Süd-Irak zu verhindern. Ist das Gas erstmal im Irak angekommen, ist der Anschluß an die südeuropäischen Netze nicht mehr weit. Qatar kann die gemeinsamen Gasfelder mit Iran weiterhin günstig ausbeuten, solange dem Iran mangels Transportkapazität der Absatzmarkt fehlt. Iran verfügt genauso wenig wie Russland über die Technologie für eine LNG-Kette. Iran bekommt keine Unterstützung solange es an einer Atombombe bastelt. Russland kann sich (noch) mit Importen der Anlagentechnik aus dem Westen im bescheidenen Maße behelfen.

Allein in den USA befinden sich zwanzig Anlagen zur Verflüssigung und anschließendem Export in der Genehmigung. Der Weltmarkt für Erdgas wird sich in den nächsten Jahren völlig verändern. Deutliches Zeichen sind die Verwerfungen in den Preisen. In Europa sind die Preise derzeit etwa doppelt so hoch, wie in den USA. In Asien sogar drei bis vier mal so hoch. Hauptursache in Asien sind die enormen Importe durch Japan als Ersatz für die abgeschalteten Kernkraftwerke. Sobald Japan wieder seine Kernkraftwerke in Betrieb nimmt – was technisch innerhalb weniger Wochen möglich wäre – werden die Erdgaspreise in Asien mangels Nachfrage deutlich sinken. Es bietet sich dann an, diese Ströme nach Europa umzuleiten. Ausgerechnet die Golfstaaten verfügen über die größten Verflüssigungsanlagen und Transportflotten. Ganz schlecht für Putin, wenn er weiterhin den Krieg in Syrien schüren will und die muslimischen Krim-Tataren erneut vertreiben will. Putin wird sich mit den Gaspreisen zufrieden geben müssen, die ihm die USA und die arabische Welt zugestehen werden. Ein Ausweichen auf andere Kunden ist praktisch nicht möglich. Pipelines lassen sich im Gegensatz zu Tankerflotten zwar abschalten, nicht aber umleiten.

Fazit

Energie ist immer auch Politik. Eine Tatsache, die nach den Erfahrungen der 1970er Jahre mit den sog. „Ölkrisen“ gern wieder verdrängt wurde. In den vergangenen Jahrzehnten gehörte es für jeden Linken (Schröder, Fischer etc.) zu den festen Glaubensgrundsätzen, daß die USA nur „Kriege wegen Öl“ führen. Stets von Schule bis Medien in diesem Glauben geschult, hat man in Deutschland einfach nicht wahrnehmen wollen, welche Veränderungen (gerade) durch Präsident Bush in den USA stattgefunden haben. In einer gigantischen Kraftanstrengung wurde das gesamte Öl- und Gasgeschäft praktisch neu erfunden.

Heute, gilt mehr denn je, der „Fluch der Rohstoffe“. Länder, die über billige Energievorkommen verfügen, aber nicht verstehen, etwas vernünftiges mit den daraus resultierenden Devisenströmen an zu fangen, drohen durch zu viel Geld weiter zu verarmen. Nigeria, Venezuela und Russland sind hierfür typische Beispiele.

Länder, die durchaus energieautark sein könnten (Deutschland z. B. gehört zu den zehn Ländern mit den größten Kohlevorkommen weltweit), können es sich erlauben, „hochwertige Waren“ gegen „billigere Energie“ (volkswirtschaftlich) gewinnbringend zu tauschen. Man – meint zumindest – sogar auf neuere Fördermethoden verzichten zu können (sog. Fracking-Verbot in Deutschland und Frankreich).

Stellvertretend für die Energieversorgung (im Sinne von Energiepolitik) des 21. Jahrhunderts ist die Kernenergie: Der Brennstoff Uran ist überall, preiswert und in beliebigen Mengen erhältlich. Er ist einfach zu lagern. Kernkraftwerke können über Jahre mit einer Brennstoffladung betrieben werden. Die „Kunst“ besteht in der Beherrschung der Technik. Die Ersatzteile, das Fachpersonal und der allgemeine industrielle Hintergrund bestimmen die Versorgungssicherheit. Insofern dürfte sich Rußland durch seine Abenteuer in der Ukraine auch aus diesem Geschäftsbereich selbst herauskatapultiert haben.

Fukushima – Zweite Begutachtung durch IAEA

Anfang Februar 2014 veröffentlichte die IAEA (International Atomic Energy Agency) ihren zweiten Bericht zur Vorgehensweise bei der Beseitigung der Schäden im Kernkraftwerk von Fukushima. Dieser Bericht enthält neben zahlreichen Details zum gegenwärtigen Zustand vor Ort, auch eine kritische Würdigung der bisher durchgeführten Maßnahmen und Vorschläge für Verbesserungen und mögliche internationale Unterstützung. Da es sicherlich für viele etwas zu zeitaufwendig ist, einen 72-Seiten-Bericht in englischer Sprache zu lesen, wird hier eine Zusammenfassung versucht.

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese „Roadmap“ enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser „Roadmap“ gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen „Atomexperten“ kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich „Castoren“) verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie „normalen“ Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des „radioaktiven Bruches“. Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt – verursacht durch die Wasserstoffexplosionen – wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

  1. Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des „radioaktiven Schutts“.
  2. Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.
  3. Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich für die Strahlenbelastung im Tanklager verantwortlich; β- und α-Strahler sind in diesem Sinne unerheblich – niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3. sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks bestehen inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es „strahlt“ daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr90 und Y90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide – bis auf Tritium – unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet „titriertes Wasser“, welches chemisch praktisch nicht von normalem H2 O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in „Trinkwasserqualität“ in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen „Ja“ zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume „leicht verstrahlt“ sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser „Altholzfässer“ wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m„Atommüll“ aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3.. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses „leicht radioaktive“ Material gleich zum Bau der „Atommülldeponien“ wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3. täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser – absurd niedrige Wert – hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der „cloudshine“ (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^-8 mSv/a, die direkte Strahlung ungefähr 2,8 x 10^-2 mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^-4 mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung „dramatisch“ auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der „ersten Kühlwässer“ eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die „Strahlenbelastung der Öffentlichkeit“ eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen – diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs137. wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von „natürlichem“ Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.

SMR Teil 3 – Innovative Reaktoren

Es gibt inzwischen unzählige Reaktorentwürfe. Es gehört praktisch zum guten Ton einer jeden Forschungsstätte sich mit einer neuen Studie zu schmücken. Je nach Mitteln und Background, reichen (meist) auch Variationen bekannter Prinzipien aus.

Es ist daher sinnvoll, auch bei der Betrachtung „kleiner“ Reaktoren (SMR) den potentiellen Markt nicht außer acht zu lassen. Die Domäne der Kernenergie ist und bleibt die Erzeugung elektrischer Energie. Dies liegt einerseits an der universellen Verwendbarkeit von „Strom“ und andererseits an Gewicht und Volumen eines Kernreaktors. Die Untergrenze für den technisch/wirtschaftlichen Einsatz ist ein Schiff.

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die „Endlichkeit“ von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

  • Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.
  • Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der „kleinen“ Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach „hohen Temperaturen“ hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit „billiger“ Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. „Schnelle Brüter“.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden.

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel.eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet.

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth. komplett und fertig mit Brennstoff beladen auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in „netzfähigen Strom“ erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines „Schulbusses“ hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften wäre selbst ohne Wiederaufbereitung, der „Atommüll“ um 80% geringer als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein „Energieversorger“ mietet sich quasi für 30 Jahre eine „Stromerzeugungseinheit“ und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine „Atommüllprobleme“…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als „Starter“ rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem „unendlichen“ Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer „schneller“ Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor mit einer thermischen Leistung von 840 MWth und 311 MWel. Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel. zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf „schnelle“ Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten „abgebrannten“ Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel. produziert über ein ganzes Jahr – kann man „irgendwo“ lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B~4 C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

  1. Über einen Bypass der Turbine durch den normalen Dampfkreislauf des Kraftwerks.
  2. Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.
  3. Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das „obere Stockwerk“ des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos „an die Luft können“, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was „Atomkraftgegner“ als „Atommüll“ bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit „Bomben-Plutonium“ aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem „Atommüll“ aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt „zwischenlagert“. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth. haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines „schnellen“ Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

  • Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.
  • Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.
  • Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

  • Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall „(lokale) Unterkühlung“ mit entsprechenden Konsequenzen für das Genehmigungsverfahren.
  • Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.
  • Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.
  • Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).
  • Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.
  • Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis – auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren –. dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den „Atomkraftgegnern“ werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC-100 und wer weiß noch, welche sonst alle….

 

 

Fukushima Block IV

Die Geschichte

Das Kernkraftwerk Fukushima gehörte einst zu den größten Kernkraftwerken weltweit. Es besteht aus zehn Blöcken in zwei Gruppen (Fukushima Dai-ichi mit den Blöcken I1 bis I4 und I5 bis I6 und Fukushima Daini mit den Blöcken II1 bis II4). Beide Einheiten wurden von den selben Erdbeben und dem selben Tsunami im März 2011 getroffen. Warum aber, mit völlig unterschiedlichem Ausgang? Dai-ichi ist Totalschaden, Daini könnte man morgen wieder in Betrieb nehmen – sofern man wollte. Der Hauptgrund ist simpel: Fukushima II ist einige Meter höher gelegen, als Fukushima I. Die gleiche Flutwelle konnte damit nicht so verheerend wirken, wie auf dem Gelände I. Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch „Wand an Wand“ mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede­wasser­reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als „Übungsgelände“ für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt „einzufliegen“. Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise „Wand an Wand“ erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischer Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem „verunglückten Nachbarn“ verbunden gewesen wäre!

Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese „Stahlbau-Halle“ ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche „Betonpanzer“ natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen („EVA“, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. „gesicherten Einschluß“. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend „mauert“ man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen „Gemütslage“ in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand „in einem Rutsch“ durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als „Freibäder“. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb von dieser Methode abgekommen. Insofern ist die „Leichtbauhalle“ oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale „Schutzschicht“ für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich „sanft“ auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die „Baustelle“ darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte? Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische „Lüftungs- und Filteranlage“ errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige male ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich „Deutsche Qualitätsmedien“, angefeuert von „Atomexperten“, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die „gefährlichste Situation in der Geschichte der Menschheit“ konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten.

Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht „leer kochen“, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht. Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente „wie neu“ aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die „abgekühltesten“ Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von „Atomexperten“ behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen „Blechkasten“ umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit „unbenutzten“ Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die „Bierkastenmethode“: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt. Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die „Henkel“ sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen. Vor jedem Zug werden deshalb die „Henkel“ mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere „Greiftechniken“ angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen „Atomruinen“ kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller „Atomkraftgegner“.

Und ewig grüßt das Tanklager

Die „Qualitätsmedien“ können gar nicht genug bekommen, von „der in wenigen Stunden tödlichen Dosis“ im Tanklager H4 in Fukushima. Es ist eine echte „Mann-beißt-Hund-Meldung“. Viel spannender jedenfalls, als ein Giftgaseinsatz oder gar die Bundestagswahl. Ob es sich dabei einfach nur um schlampigen Journalismus handelt (man hätte ja mal jemand fragen können, der sich damit auskennt) oder tumbe Propaganda, mag der Leser selbst entscheiden. Jedenfalls hält man seine Leser für arg kritiklos – um nicht zu sagen für dämlich. Da werden in den eigenen Berichten über die in „wenigen Stunden tödliche Dosis“ Bilder von Arbeitern in Schutzanzügen (dazu noch weiter unten) gezeigt, die zwischen den Tanks umherlaufen und sich diskutierend über die Betonwanne beugen. Das mag ja noch für manchen Rechtgläubigen, der seit Jahren gegen die „fiese Atommafia“ kämpft, logisch erscheinen. So sind sie halt, die profitgierigen Kapitalisten von Tepco. Was ist aber mit den schönen Photos von dem Besuch des japanischen Handelsministers Toshimitsu Motegi inmitten einer solchen Gruppe? Hat man je von einem „Herrschenden“ gehört, der sich freiwillig und unnötig „verstrahlt“? Man muß also gar nichts von Strahlenschutz verstehen, um diese Berichte kritisch zu hinterfragen. Etwas gesunder Menschenverstand würde ausreichen – oder man hat halt etwas ganz anderes im Sinn.

Man unterscheidet α – (Heliumkerne), β – (Elektronen) und γ -Strahlung (elektromagnetische). Jede, dieser ionisierenden Strahlungen hat eine charakteristische biologische Wirkung und „Durchdringungsfähigkeit“. Für α – Strahlung reicht ein Stück Papier oder ein Zentimeter Luft als Abschirmung aus. Völlig anders ist die Situation, wenn α -Strahlung erst im Körper freigesetzt wird. Für den gleichen Energiegehalt wird deshalb eine 20fache Schadenswirkung angenommen. Ganz ähnlich verhält es sich mit der anderen Teilchenstrahlung, der β – Strahlung. Sie dringt nur oberflächlich in Stoffe ein. Eine Abschirmung von ein bis zwei Metern Luft reicht aus. Genau hier, liegt das Mißverständnis begründet. Im Sinne des Strahlenschutzes spielt nur die γ – Strahlung für einen „Tanklagerbesucher“ eine Rolle: Man muß durch einen Schutzanzug mit Atemmaske verhindern, daß radioaktive Partikel in den Körper oder auf die Haut gelangen. Ist dies gewährleistet, kann man im Sinne des Arbeitsschutzes α- und β -Strahlung vergessen. Für die Bestimmung der zulässigen Aufenthaltszeit z. B. ist nur die laufende Messung (Dosimeter) der γ -Strahlung von Interesse. Die γ -Strahlung hat in all den berichteten Fällen etwa 1,5 mSv/h (an den „heißen Stellen“, nicht etwa im gesamten Tanklager) betragen. Eigentlich, nicht der Rede wert – jedenfalls kein Grund für ein meßbar zusätzliches Krebsrisiko.

Warum also die plötzliche Aufregung über ständig steigende und gar „tödliche Strahlung“? Wahrscheinlich eine Kombination aus Unwissenheit und Sensationsgier. Das zweite dürfte überwiegen, denn man hätte ja mal jemanden fragen oder googeln können. Tepco veröffentlicht täglich die Meßwerte an verschiedenen Kontrollstellen. Da das Internet nicht vergisst, kann man die Entwicklung gut nachvollziehen. Fukushima ist eben nicht Tschernobyl! Die Meßwerte haben sich nicht verändert. In letzter Zeit ist lediglich eine Interpretation durch Laien hinzugekommen.

Tepco hat neben der Nuklidzusammensetzung der Wässer und der γ-Strahlenbelastung auch einen Wert für die β-Strahlung angegeben. Wie schon weiter oben gesagt, wird β-Strahlung durch Luft sehr stark abgeschirmt. Die Meßwerte werden von Tepco in einem Abstand von 70 μm gemessen. Das Abwasser in den Tanks hat β-Werte von 1,8 bis 2,2 Sv/h. Solch hohe Werte bedeuten für einen Fachmann nur eins: Paß auf, daß du diese Brühe nicht ins Auge kriegst, sonst könntest du dein Augenlicht (Linsentrübung) verlieren! Mehr aber auch nicht. Selbst bei längerer Einwirkung auf der Haut, würde sich lediglich eine Hautrötung ergeben. Solange man die Pfütze nicht austrinkt, besteht keine Gefahr. Noch einmal in aller Deutlichkeit: Es gibt keine tödliche Dosis für eine äußerlich wirkende β.-Strahlung. Schon der Schmerz durch den „Sonnenbrand“ würde jeden Menschen genug Zeit lassen, sich zu entfernen.

Das Tanklager

Bei dem betreffenden Tanklager handelt es sich um „mobile“ Tanks, die eiligst aufgestellt und teilweise sogar umgesetzt wurden. Sie sind aus einzelnen, gebogenen Segmenten zusammengeschraubt. Um sie überhaupt wasserdicht zu bekommen, sind in die Fugen Gummidichtungen eingelegt. Eine solche Konstruktion, in so hoher Stückzahl, bei den lokalen Wetterverhältnissen (große Temperaturschwankungen, Taifune, Erdbeben etc.) kann nicht über längere Zeit dicht bleiben. Ständige Leckagen waren vorhersehbar.

Die in den Medien angegebene Menge von 300 m3, die ausgelaufen sein sollen, ist mit Vorsicht zu genießen. Geht man in die Originalangaben von Tepco, handelt es sich eher um eine Abschätzung. Es wurde in einem Tank eine Absenkung des Flüssigkeitsspiegels um etwa 3 m gegenüber seinen Nachbartanks festgestellt. Keiner weiß genau, ob er jemals ganz voll war, wieviel verdunstet ist usw. Es wurde Wasser aus der Auffangwanne um den Tank abgepumpt, aber nicht so viel. Nach Tepco etwa 4 m3 (!) bis zum 20. August. Der Rest „könnte“ im Boden versickert sein. Die in den Medien gemachte Aussage, es seien 300 m3 verseuchtes Wasser in den Ozean gelangt, ist so nicht haltbar und eher durch Meßwerte entkräftet. Erst recht nicht, daß die in dem Wasser enthaltene Radioaktivität dorthin gelangt ist. Der Boden wirkt in jedem Fall als Filter und Ionentauscher.

Als Gegenmaßnahmen wurden jetzt (!!) alle Ablaufventile in den Auffangwannen geschlossen. Es wurden unter alle Leckstellen Absorptionsmatten ausgelegt, um zukünftig besser kontrollieren zu können, wieviel Wasser ausgelaufen ist und ob etwas versickert ist. Nach dem Umpumpen des schadhaften Tanks soll die Wanne mit einem Hochdruckreiniger gereinigt werden und eine 50 cm Bodenschicht am Auslaufventil abgetragen werden. Der verseuchte Bodenbereich wurde mit Gummimatten und Sandsackbarrieren gesichert, damit kein verseuchtes Wasser (Regen) in die Entwässerungssysteme gelangen kann.

Als die wirksamste Gegenmaßnahme erscheint der gute alte Nachtwächter: Zukünftig geht alle drei Stunden eine Fußstreife kontrollieren.

Woher kommt das Wasser in den Tanks?

Nach wie vor müssen alle drei Reaktoren gekühlt werden. Dazu wird ständig Wasser in die Reaktorgefässe gepumpt. Durch die Leckagen in den Steuerstabführungen etc. fließt das Wasser in einem offenen Kreislauf in die Kellerbereiche des Kraftwerks. Dort vermischt es sich mit eindringendem Grundwasser und wird abgepumpt und einer Aufbereitung zugeführt. Das Grundwasser ist Brackwasser, wodurch der Salzgehalt im Rücklauf größer wird. Die Aufbereitung erfolgt zur Zeit in zwei Schritten: Dem SARRY-Verfahren und einer Umkehrosmose. In der SARRY-Stufe wird durch Adsorption (vor allem) Cäsium und weitere 60 Spaltprodukte (teilweise) abgeschieden. Die Umkehrosmose entspricht einer Meerwasserentsalzungsanlage: Es entsteht ein Wasserstrom „reines“ Wasser, welches wieder zur Kühlung in die Reaktoren eingespeist wird und ein „Konzentrat“, welches ins Tanklager geht. Ein typisches Meßprotokoll vom 9. 8. 2013 zeigt folgenden Verlauf: Das Wasser kommt beispielsweise mit 56000 Bq/cm3 Cs137 aus dem Keller in die Anlage rein. Dort wird soviel Cäsium abgeschieden, daß es die SARRY-Stufe im Mittel mit 1,3 Bq/cm3 verläßt. Nach der Umkehrosmose ergibt sich ein Reinwasserstrom mit einem Gehalt unter der Nachweisgrenze, aber ein Konzentrat mit 2,7 Bq/cm3 Cs137 für die Tankanlage. Am Rande bemerkt sei, daß der Wert für Cs137 für Trinkwasser nach internationalem Standard 10 Bq/Liter maximal betragen soll. Man könnte jetzt also mit fug und recht sagen, daß das Wasser im Tanklager 270 mal den Grenzwert für Trinkwasser übersteigt. Hört sich doch gleich viel gefährlicher an, nicht wahr?

Die Brennelemente sind durch das Unglück zerstört worden und teilweise wahrscheinlich aufgeschmolzen und wieder erstarrt. Sie haben jedenfalls keine Schutzhülle mehr und befinden sich auch nicht mehr in ihrem ursprünglichen (sehr widerstandsfähigen) chemischen Zustand. Das „Reinwasser“ zur Kühlung wird sie deshalb beständig weiter auslaugen. Es kann auch kein Gleichgewichtszustand angestrebt werden, solange das Wasser immer noch über die zerstörten Keller abfließen muß. Solange es nicht gelingt einen geschlossenen Kühlkreislauf zu bauen, hat man eine „ständige Quelle“ für verseuchtes Wasser. Ziel muß es daher sein, so schnell wie möglich, den alten Brennstoff aus den Reaktoren zu entfernen. Das ist aber leichter gesagt, als getan. Insofern ist es folgerichtig, mit Hochdruck eine stationäre Wasseraufbereitung zu bauen. Es wird noch eine erhebliche Menge mittelaktiven Abfalls anfallen, denn mit der Entfernung aus dem Wasser ist es nicht getan.

Einfach ins Meer kippen?

Manche Kritiker von Tepco schlagen nun eine radikale Lösung vor: Anstatt immer mehr Tankanlagen zu bauen, einen Tanker chartern und das radioaktive Wasser auf hoher See verklappen.

Radioaktive Materialien sind keine Bakterien oder Viren. Eine Vermehrung ist ausgeschlossen. Sie werden einfach nur weniger. Ferner bestimmt immer die Dosis das Gift. Je stärker man die radioaktive Lösung verdünnt, um so ungefährlicher wird sie. Setzt man sie weit genug draußen frei, ist eine Anreicherung über die Nahrungskette, auf für den Menschen schädliche Konzentrationen, ausgeschlossen. Übrigens genau die Lösung, die die Sowjetunion für die Entsorgung ihrer Atom-U-Boote gewählt hatte.

Ob man nun das Meer als Müllkippe nutzen sollte, ist eher eine ethisch-moralische oder juristische Frage. Die Naturwissenschaft kann allenfalls bei der Beantwortung helfen. Das Meer ist ist mit einem Volumen von über 1,5 Milliarden Kubikkilometern gigantisch groß. Zwar gibt es bedeutende regionale Unterschiede (z. B. Mittelmeer und offener Atlantik) und insbesondere sehr unterschiedliche Lebenswelten (Korallenriff bis Tiefseewüste), trotzdem ist es in seiner chemischen Zusammensetzung erstaunlich homogen. So enthält jeder Kubikmeter Meerwasser rund 433 Milligramm Uran, was eine Gesamtmenge von 5 Milliarden Tonnen gelösten Urans ergibt. Einschließlich der natürlich entstehenden Spaltprodukte, eine Menge Radioaktivität. Allein die Menge des gelösten radioaktiven K40 (Kalium hat auch jeder Mensch in seinen Knochen; „eigene Strahlung“ etwa 0,17 mSv/a) beträgt 530 Milliarden Curie (1 Cu ist die Aktivität von einem Gramm Radium oder 37 GBq). Das ist für sich eine gewaltige Menge Radioaktivität – aber eben fein verteilt. Es gibt aber durchaus auch Unterschiede: Die Konzentration im Golf von Mexiko ist höher – eine Folge der Zahlreichen Öl- und Gasbohrungen dort.

Nach Schätzungen verschiedener unabhängiger Institutionen (Tokyo University of Marine Science, Woods Hole Oceanographic Institution, National Oceanography Centre in Southampton etc.) werden etwa 0,3 TBq monatlich durch Fukushima ins Meer abgegeben. Die auf Messungen und Ausbreitungsrechnungen beruhenden Werte, bewegen sich in einer Bandbreite von 0,1 bis 0,6 TBq. Ist das nun sehr viel? Allein durch die Wasserstoffbombentests in den 1960er Jahren wurden im nördlichen Pazifik mehr als 100.000 TBq Cs137 eingetragen. Die Wiederaufbereitungsanlage in Sellafield hat in 40 Jahren 39.000 TBq in die Nordsee abgegeben.

Die bisher höchsten Werte im Seegebiet zwischen 30 und 600 Kilometer vor Fukushima wurden 3 Monate nach dem Unglück gemessen. Es ergaben sich 3 Bq/Liter Cs137 . Im gleichen Zeitraum wurde ein natürlicher Eintrag von 10 Bq/Liter K40 gemessen. Schön, daß uns die Meßtechnik erlaubt, notfalls auch noch einzelne Kerne festzustellen.

Anreicherung über die Nahrungskette

Ist seit Beginn der „Anti-Atomkraft-Bewegung“ immer das schärfste Schwert in jeder Diskussion. Leider ist es nur sehr eingeschränkt und mit Vorsicht zu gebrauchen. In der Wissenschaft wird sie über das Verhältnis der Konzentration in der Umgebung zu der im Lebewesen bestimmt. Plankton reichert z. B. die Radioaktivität rund 40-fach an. Aber schon in den nächsten Schritten der Nahrungskette wird die Konzentration wesentlich geringer. Sie ist keinesfalls additiv. Biologie ist halt komplizierter. Zudem ist jedes Lebewesen für unterschiedliche Nuklide auch unterschiedlich selektiv. Wir erinnern uns noch an die Empfehlung nach Tschernobyl, nicht zu viel Pilze zu essen. Nebenbei gesagt, haben wir durch den „Praxistest“ Tschernobyl eine Menge über solche Ketten lernen können.

Wie schön, daß nun auch schon eine Auswirkung von Fukushima über den Pazifik bis nach Kalifornien festzustellen ist. Es ist nichts so schlecht, daß es nicht zu irgendetwas nützlich ist. Der „Nuklidcocktail“ von Fukushima dient nun dazu, die Wanderwege des von der Ausrottung bedrohten blauen Thunfisch zu erforschen. Nach Veröffentlichung erster Ergebnisse, waren sofort die Panikmacher zur Stelle und sahen sich in ihren schlimmsten Befürchtungen bestätigt. Die Ergänzung der Wissenschaftler ging natürlich bei den Medien verloren: Ein Erwachsener müßte 2,5 bis 4 Tonnen pro Jahr von diesem Thunfisch essen, um überhaupt auf den zulässigen Grenzwert zu kommen. Dieser ist aber noch weit von jeglicher Schädigung entfernt, sonst wäre es ja kein Grenzwert. Feststellbar, ist eben noch lange nicht schädlich.

Wer Angst vor „von Fukushima verseuchtem Tunfisch “ hat, sollte besser gar keinen Fisch essen. In jedem Fisch kann man unter anderem Po210 mit einer zigfach höheren „Strahlenbelastung“ nachweisen. Es stammt aus der natürlichen Zerfallskette des im Meerwasser gelösten Urans. Es ist nur etwas schwieriger nachweisbar, da es sich um einen α-Strahler handelt. Deshalb wurde 2006 auch der Putingegner Alexander Litwinenko damit in London ermordet.

Abgebrannte Brennelemente für die Sterilisation

Abgebrannte Brennelemente haben so viel mit Müll zu tun, wie die Tageszeitung von Vorgestern. Selbstverständlich sind beide für den Nutzer (Kraftwerk oder Leser) Abfall. Sie sind für diese nicht mehr zu gebrauchen, aber sie sind bei leibe alles andere als Müll. Sie lassen sich wieder aufarbeiten. Bei einem Brennelement sogar mit einer höheren Quote als bei Papier.

Es gibt sogar noch Zwischennutzungen bis zur Wiederaufbereitung. Beim Papier z. B. als Verpackungsmaterial. Auch für genutzte Brennstäbe zeichnet sich jetzt eine solche Zwischennutzung ab. An der Oregon State University hat man einen Weg ersonnen, die Strahlung zur Sterilisation von medizinischen Produkten nutzbar zu machen. Dies ist ein beständig wachsender Bereich. Bisher wird Cobalt (Co-60) verwendet, um insbesondere Einwegspritzen und Verbandmaterial zu behandeln. Dabei ist zu beachten, daß Cobalt-60 ein stark radioaktives Material ist, welches extra in Reaktoren hergestellt wird. Bewußt und kostspielig hergestellter „Atommüll“ (Halbwertszeit 5,3 Jahre) so zu sagen.

Inzwischen gibt es ein junges Unternehmen, welches das Verfahren weiterentwickelt hat und gerade durch Patente absichern läßt. Im Prinzip sollen die gebrauchten Brennstäbe in Spezialbehälter umgesetzt werden. Diese Behälter sorgen für einen zusätzlichen Schutz vor Beschädigung und sorgen für die Abfuhr der Nachzerfallswärme. Diese Behälter werden dann in einen Bestrahlungsraum gestellt, durch den vollautomatisch die zu bestrahlenden Güter hindurchgefahren werden. Man verwendet angeblich weitestgehend die in der Brennelementehandhabung und etablierten Bestrahlungstechnik angewendeten Verfahren. Das Unternehmen geht davon aus, daß es mit den Brennelementen nur eines einzigen Kernkraftwerks einen jährlichen Umsatz von über 10 Millionen US-Dollar erzielen könnte. Da das Verfahren wesentlich kostengünstiger als die Co-60-Methode sein soll, glaubt man an eine schnelle Ausweitung auch auf andere Anwendungen.

Mögen die Aussichten der Firma G-Demption LLC auch etwas optimistisch sein, wenn man weiß, wie kompliziert und langwierig Genehmigungsverfahren in der Kerntechnik sind. Andererseits ist es fast eine Gesetzmäßigkeit, daß aus Abfällen irgendwann begehrte Rohstoffe werden, denn der einzig wirklich unerschöpfliche Rohstoff ist der menschliche Erfindergeist.