U-Battery aus Europa

Auch in Europa geht (noch) die Reaktorentwicklung weiter. Es begann 2008 an den Universitäten: University of Manchester (UK) und Technology University of Delft (NL). Es ging um die Entwicklung eines Reaktors zur Stromerzeugung und zur gleichzeitigen Auskopplung von Wärme (mit Temperaturen bis 750 °C) für Heiz- und industrielle Zwecke. Vorgabe war eine optimale Lösung für das Dreieck aus: Sicherheit, Wirtschaftlichkeit und Umweltfreundlichkeit zu finden.

Interessant ist schon mal die Erschließung völlig neuer Marktsegmente durch die Reaktorleistung (hier 10 MWth und 4 MWel) und die nutzbare Temperatur (hier 750 °C). Diese neue Klasse wird als MMR (.micro modular reactor) bezeichnet. Wie schon die Bezeichnung „Uran-Batterie“ andeutet, wird ferner eine ununterbrochene Betriebszeit von mindestens 5 – 10 Jahren vorgesehen. Hiermit wird das Marktsegment der Kraft-Wärme-Kopplung auf der Basis von „Schiffsdieseln“ und kleinen Gasturbinen angestrebt. Ein sich in der Industrie immer weiter (steigende Strompreise und sinkende Versorgungssicherheit durch Wind und Sonne) verbreitendes Konzept. Hinzu kommen die Inselnetze in abgelegenen Regionen (Kleinstädte), Bergwerke und Produktionsplattformen auf dem Meer, Verdichterstationen in Pipelines usw. Hierfür kann ebenfalls auch die hohe Betriebstemperatur — selbst bei reiner Stromproduktion — von Vorteil sein, da sie problemlos Trockenkühlung (Wüstengebiete) erlaubt.

Die treibende Kraft hinter diesem Projekt ist — in diesem Sinne sicherlich nicht ganz zufällig — das Konsortium URENCO. Ein weltweiter Betreiber von Urananreicherungsanlagen. Solche Kaskaden aus Zentrifugen brauchen kontinuierlich gewaltige Mengen elektrische Energie. Man sucht also selbst nach einer Lösung für die immer teurere Versorgung.

Der Reaktor

Wieder ein neuer „Papierreaktor“ mehr, könnte man denken. Ganz so ist es aber nicht. Man hat von Anfang an auf erprobte Technik gesetzt. Es ist reine Entwicklungsarbeit — insbesondere für die Nachweise in einem erfolgreichen Genehmigungsverfahren — aber keine Forschung mehr zu leisten. Insofern ist der angestrebte Baubeginn 2024 durchaus realisierbar.

Fangen wir mit dem Brennstoff an. Es sind [TRISO] (TRISO) Brennelemente vorgesehen. Dieser Brennstofftyp ist bereits in mehreren Ländern erfolgreich angewendet worden. Diese Brennelemente überstehen problemlos Temperaturen von 1800 °C. Dadurch sind solche Reaktoren inhärent sicher. Gemeint ist damit, daß die Kettenreaktion auf jeden Fall infolge des Temperaturanstiegs zusammenbricht und eine Kernschmelze durch die Nachzerfallswärme (Fukushima) ausgeschlossen ist. Man braucht somit keine Notkühlsysteme, dies spart Kosten und vor allem: Was man nicht hat, kann auch nicht kaputt gehen oder falsch bedient werden. Der Sicherheitsgewinn ist dadurch so groß, daß sich alle denkbaren Unfälle nur auf den Reaktor und sein schützendes Gebäude beschränken. Nennenswerte Radioaktivität kann nicht austreten und damit beschränken sich alle Sicherheitsanforderungen nur noch auf das Kraftwerksgelände selbst. Eine „revolutionäre Feststellung“, der sich die Genehmigungsbehörden langsam anschließen. Dies hat erhebliche Auswirkungen auf die möglichen Standorte, Versicherungsprämien etc. Ein nicht mehr umkehrbarer Schritt auf dem Weg zu einem „normalen Kraftwerk“ oder einer „üblichen Chemieanlage“. Die Errichtung solcher Reaktoren in unmittelbarer Nähe zu Städten (Fernwärme) oder Industrieanlagen (Chemiepark, Automobilwerk etc.) ist nur noch eine Frage der Zeit.

Als Kühlmittel ist Helium vorgesehen. Der Reaktorkern wird aus sechseckigen Brennelementen als massiver Block aufgebaut. Mit dieser Technik besitzt GB eine jahrzehntelange Erfahrung. Kein Land besitzt mehr Betriebsjahre mit Reaktorgraphit. Der Vorteil gegenüber einem Kugelhaufen sind definierte Kanäle für das Kühlmittel und die Regelstäbe. Vor allen Dingen ergibt sich aber kein Staubproblem aus dem Abrieb der Kugeln während des Betriebs. Die notwendigen Rohrleitungen und das Gebläse zur Umwälzung des Heliums bleiben sauber. Dies erleichtert etwaige Wartungs- und Reparaturarbeiten. Der komplette Reaktor kann in einer Fabrik gebaut und getestet werden und mit einem LKW einsatzbereit auf die Baustelle gebracht werden.

Als Brennstoff dient angereichertes Uran. Die Anreicherung (< 20% U235) erlaubt einen mehrjährigen Betrieb ohne einen Brennstoffwechsel („Batterie“). Ob der Brennstoff vor Ort im Kraftwerk gewechselt werden muß oder der gesamte Reaktor zurück zum Hersteller gebracht werden kann, ist noch nicht abschließend geklärt (Strahlenschutz). Der Ansatz einer „Batterie“ verringert jedenfalls die Größe eines etwaigen Brennelementenlagers am Kraftwerk und schließt eine mißbräuchliche Nutzung praktisch aus (Proliferation). Damit ist ein solches Kraftwerk auch problemlos in „zwielichtigen Staaten“ einsetzbar. Ferner verringert sich der Personalaufwand im Kraftwerk. Ein solches Kraftwerk wäre halbautomatisch und fernüberwacht betreibbar. Was den Umfang des erforderlichen Werkschutzes anbelangt, sind die Genehmigungsbehörden noch gefragt. Eine Chemieanlage — egal wie gefährlich — kommt heutzutage mit einem üblichen Werkschutz aus, während von Kernkraftwerken erwartet wird, eine komplette Privatarmee zu unterhalten. Alles Ausgeburten von „Atomkraftgegnern“ um die Kosten in die Höhe zu treiben. Verkauft wird so etwas als Schutz gegen den Terrorismus.

Der konventionelle Teil

Man plant keinen Dampfkreislauf, sondern eine Gasturbine als Antrieb des Generators. Kein ganz neuer Gedanke, aber bisher ist z. B. Südafrika an der Entwicklung einer Heliumturbine gescheitert. Helium ist thermodynamisch zu eigenwillig und außerdem ist bei einem Kugelhaufenreaktor mit einer radioaktiven Staubbelastung zu rechnen. Bei der U-Battery hat man sich deshalb für einen sekundären Kreislauf mit Stickstoff entschieden. Vordergründig kompliziert und verteuert ein zusätzlicher Wärmeübertrager zwischen Reaktorkreislauf (Helium) und Turbinenkreislauf (Stickstoff) das Kraftwerk, aber man hat es sekundärseitig nur noch mit einem sauberen und nicht strahlenden Gas zur beliebigen Verwendung zu tun. Stickstoff ist nahezu Luft (rund 78% N2) und man kann deshalb handelsübliche Gasturbinen verwenden. Auch an dieser Stelle erscheint das wirtschaftliche Risiko sehr gering. Der Wärmeübertrager Helium/Stickstoff übernimmt lediglich die Funktion der Brennkammer eines Flugzeugtriebwerkes (Leistungsklasse). Bei der vorgesehenen hohen Temperatur von 750°C des Stickstoffs bleibt nach der Turbine noch jegliche Freiheit für die Verwendung der Abwärme (Fernwärme, Prozessdampf etc.). Die immer noch hohe Temperatur am Austritt einer Gasturbine erlaubt problemlos eine Kühlung mit Umgebungsluft ohne große Verschlechterung des Wirkungsgrades. Ein immenser Vorteil für alle ariden Gebiete.

Die Projektierer

Eine zügige Verwirklichung scheint durch die Zusammensetzung der beteiligten Unternehmen nicht unwahrscheinlich: Amec Foster Wheeler (über 40000 Mitarbeiter in 50 Ländern) mit umfangreicher Erfahrung in Öl- und Gasprojekten. Cammel Laird als Werft. Laing O’Rourke als Ingenieurunternehmen. Atkins für Spezialtransporte. Rolls Royce als international führender Produzent von Gasturbinen (Flugzeuge und Schiffe), darüberhinaus mit umfangreicher Erfahrung in der Kerntechnik.

Bemerkenswert ist die Ausweitung des Projektes auf den Commonwealth. Kanada und Indien sind bereits dabei. Läßt der „Brexit“ hier grüßen? Nach bisherigem Stand der Dinge, könnte der erste Reaktor in Chalk River in Kanada gebaut werden. Dies ist auch kein Zufall, da in Kanada bereits über 200 potentielle Standorte für einen solchen MMR ermittelt wurden. Für diese potentiellen Kunden ist bereits ein neuartiges Geschäftsmodell in Arbeit: Sie bezahlen nur die gelieferte Wärme und und die elektrische Energie. Das Kraftwerk wird dann von einer Zweckgesellschaft finanziert, gebaut und betrieben. So kann dem Kunden das wirtschaftliche Risiko abgenommen werden. Es ist nicht anzunehmen, daß irgendein Bergwerk oder eine Ölraffinerie bereit ist in das „Abenteuer Kerntechnik“ einzusteigen. Andererseits sind solche sog. „Betreibermodelle“ in der einschlägigen Industrie lange bekannt und erprobt.

Noch ein paar Daten

Der Reaktor hat einen Durchmesser von etwa 1,8 m und eine Länge von etwa 6 m. Er ist damit problemlos auf einem LKW transportierbar. Das Helium soll einen Betriebsdruck von ca. 40 bar haben und eine Austrittstemperatur von 750 °C. Damit ergibt sich eine notwendige Wandstärke von unter 100 mm. Dies ist wichtig, weil hierfür keine speziellen Schmieden bzw. Rohlinge erforderlich sind. Nur wenige Unternehmen weltweit können demgegenüber Druckbehälter für Leichtwasserreaktoren schmieden.

Als Brennstoff soll auf knapp 20% angereichertes Uran (high assay, low enriched uranium (HALEU)) verwendet werden. Damit werden die TRISO-Kügelchen hergestellt, die zu Tabletten mit einer Höhe von ca. 40 mm und einem Außendurchmesser von ca. 26 mm gepreßt werden. Aus diesen werden die sechseckigen Brennelemente mit einer Kantenlänge von 36 cm und einer Höhe von 80 cm aufgebaut. Sie enthalten alle Kanäle für Regelstäbe, Instrumentierung usw. Der Kern des Reaktors besteht aus je 6 Brennelementen in 4 Lagen übereinander. Er beinhaltet etwa 200 kg Uran. Dies reicht für einen ununterbrochenen Vollastbetrieb von 5 Jahren.

Eine Doppelblockanlage (2 x 4 MWel) erfordert einen Bauplatz von ca. 10 x 12 m (Reaktoren, Wärmeübertrager und Turbinen im „Keller“, Halle für Wartungsarbeiten darüber). Hinzu käme noch Platz für Schaltanlagen, Kühler, Büros etc.

Es wird von Baukosten zwischen 45 bis 78 Millionen € für eine Doppelblockanlage ausgegangen (5600 bis 9750 €/KW). Das mag auf den ersten Blick hoch anmuten, aber man bewegt sich mit dieser Leistung von 8 MWel im Marktsegment der sog. Dieselmotoren-Kraftwerke. Hinzu kommen in entlegenen Standorten noch die meist höheren Kosten für den Dieselkraftstoff. Der für die „U-Battery“ ermittelte Strompreis von 9 Cent/KWh dürfte somit für den angepeilten Kundenkreis sehr attraktiv sein.

Inzwischen gibt es eine sehr enge Kooperation zwischen Kanada und GB. Ein paralleles, aber kooperatives Genehmigungsverfahren zeichnet sich ab. Weiterhin sind Indien, Japan, Polen, USA und Neuseeland bereits mit im Boot. Vielleicht schon die erste Morgendämmerung, wohin die Reise von GB nach dem Brexit geht? Jedenfalls nicht in das Rest-Europa, in dem unsere Kanzlerin so gut und gerne lebt.

Nukleare Fernwärme

Neuerdings rückt die Kerntechnik wieder in den Zusammenhang mit „Luftverbesserung“. Besonders in China wird über den Ersatz von Kohle nachgedacht.

Der Raumwärmebedarf

Die Heizung bzw. Kühlung von Gebäuden wird oft unterschätzt. Alle reden von Verkehr und Stromerzeugung. In Wirklichkeit werden aber ein Viertel bis ein Drittel des gesamten Energieverbrauches für unsere Gebäude benötigt. Unter dem Gesichtspunkt von Luftschadstoffen (z. B. Stickoxide, Feinstaub etc.) ist besonders problematisch, daß die Energiewandlung unmittelbar in unseren Städten stattfindet und das auch noch in unzähligen Einzelfeuerstätten (hiermit sind auch die „Zentralheizungen“ gemeint). Die einzelnen Heizkessel – oder gar Holzöfen – können keine kontrollierte Verbrennung gewährleisten oder gar eine Rauchgaswäsche benutzen. Zudem werden ihre Abgase in geringer Höhe flächig abgegeben. Eine hohe Luftbelastung gerade in Ballungsgebieten ist die Folge. Eine Erkenntnis, die schon unsere Urgroßväter hatten. Man begann deshalb schon Ende des 19. Jahrhunderts mit dem Bau zentraler Heizwerke.

Das Wärmenetz

Die angestrebte Raumtemperatur liegt bei etwa 20 °C. Es ist also ausgesprochene „Niedertemperaturwärme“. Hinzu kommt noch ein ganzjähriger Brauchwasserbedarf mit etwa 60 °C (Legionellen). Will man auch Kaltwasser für Klimaanlagen damit erzeugen, ist eine Temperatur von 130°C (Absorptions-Kälteanlagen) zu empfehlen. Damit ergeben sich schon die Randbedingungen für ein Rohrleitungsnetz.

Die Strömungsgeschwindigkeit ist begrenzt. Somit hängt die transportierbare Wärmeleistung von dem verwendeten Rohrdurchmesser und der Temperaturspreizung zwischen Vor- und Rücklauf ab. Alles eine Kostenfrage. Hat man sehr hohe Leistungen pro Grundstück (z. B. Hochhäuser in Manhattan) und dazu noch beengte Straßenverhältnisse, bleibt sogar nur Dampf als Transportmedium übrig. Zumindest in Deutschland hat sich eine maximale Vorlauftemperatur im Netz von 130 °C bis 150 °C als optimal erwiesen. Die Vorlauftemperatur im Netz wird proportional zur Außentemperatur geregelt. In manchen Regionen hat man noch ein drittes Rohr als „Konstantleiter“, an dem die Brauchwasserbereiter und die Klimaanlagen angeschlossen sind. Dadurch kann man im Sommer den Heizungsvorlauf komplett abstellen. Alles eine Frage der vorhandenen Bausubstanz.

Heizwerk oder Kraftwärmekopplung

Das Problem ist, daß das gesamte System für die maximale Leistung (kältester Tag in einer Region) ausgelegt sein muß. Diese tritt aber nur an wenigen Tagen auf. Die ohnehin hohen Kapitalkosten führen zu hohen Fixkosten, die wegen der geringen Anzahl von Vollbenutzungsstunden zu vergleichsweise hohen spezifischen Heizkosten führen. Als einzige Stellschraube bleiben die Brennstoffkosten.

Man ist deshalb schon frühzeitig auf die Idee gekommen, Kraftwerke mitten in den Städten zu bauen, um die Leitungskosten (Strom und Wärme) gering zu halten. Die Kraftwerke liefen auch als Kraftwerke und haben das ganze Jahr über elektrische Energie erzeugt. Sie haben ihre Kosten über die Stromproduktion eingespielt. Zusätzlich zu den normalen Kondensatoren hat man noch „Heizkondensatoren“ als Quelle für das Fernwärmenetz eingebaut. In diesen Heizkondensatoren wurde ein Teil des Dampfes (in Abhängigkeit von der Außentemperatur) zur Beheizung niedergeschlagen. Da dieser Dampf nicht mehr vollständig seine Arbeit in der Turbine verrichten konnte, ging die Stromproduktion etwas zurück. Dieser Rückgang wurde dem Kraftwerk vom Fernwärmenetzbetreiber vergütet. Es war quasi dessen „Brennstoffpreis“.

Zusätzlich hatte man auch immer schon reine Heizwerke, die nur Wärme für die Fernwärme erzeugt haben. Die geringen Kapitalkosten eines solchen „Warmwasserkessels“ lohnten sich schon immer als Reserve oder zur Spitzenlasterzeugung an wenigen Tagen eines Jahres.

Die nukleare Heizung

Soweit zur Fernwärme im Allgemeinen. Jetzt zu der Frage, was eine Umstellung auf Kernspaltung bringen kann. Der Brennstoffpreis des Urans ist konkurrenzlos gering. Geringer noch als Kohle. Es gibt fast keine Belastung durch Transporte (Kohle, Asche, Heizöl etc.). Es gibt keine Luftbelastung durch Abgase. Es besteht eine enorm hohe Versorgungssicherheit und Preisstabilität (Heizkosten als „zweite Miete“). Dagegen spricht eigentlich nur „die Angst vor dem Atom“. Diese ist aber zum Glück unterschiedlich ausgeprägt. Man kann sie sogar noch beträchtlich verringern. Um die notwendigen technischen Aspekte wird es im Weiteren gehen.

Kernkraftwerke als Wärmequelle

Technisch gesehen, besteht kein Unterschied zwischen einem Kernkraftwerk und einem fossilen Kraftwerk. Man könnte problemlos z. B. ein Kohlekraftwerke durch ein Kernkraftwerk ersetzen. Es gibt aber ein juristisches Hindernis: Das Genehmigungsverfahren. Bisher muß man immer noch davon ausgehen, daß es schwere Störfälle gibt (z. B. Fukushima), die einen Teil der Radioaktivität austreten läßt und somit die unmittelbare Umgebung belasten könnte. Dafür ist der Nachweis von Evakuierungszonen und Plänen notwendig. Spätestens seit Fukushima weiß man zwar, daß die Annahmen über Freisetzungsraten viel zu konservativ waren, aber das tut der Argumentation der Angstindustrie keinen Abbruch. Die jahrzehntelange Gehirnwäsche „Millionen-Tote, zehntausend-Jahre-unbewohnbar“ hat sich zumindest in den Industrieländern festgesetzt.

Will man Kernkraftwerke in Ballungsgebieten bauen, müssen neue Reaktortypen her, die als „inhärent sicher“ betrachtet werden. Außerdem empfiehlt es sich, kleinere Reaktoren (SMR) zu bauen, um zu lange Rohrleitungen (Kosten und Wärmeverluste) zu vermeiden. Gerade in den letzten Wochen wurde in diesem Sinne ein Durchbruch erzielt: Die US-Genehmigungsbehörde hat dem Reaktor der Firma NuScale bescheinigt, daß er ohne elektrische Hilfsenergie auch bei schwersten Störfällen auskommt. Es handelt sich um einen kleinen (50 MWel) Reaktor, der selbst in einem wassergefüllten Becken steht. Er ist also stets von ausreichend Kühlwasser umgeben. Alle Einbauten (Druckhaltung, Dampferzeuger etc.) befinden sich im Druckgefäß (keine Rohrleitungen), das von einem Containment nach dem Prinzip einer Thermosflasche umgeben ist. Er benötigt keine Pumpen zur „Notkühlung“, da er schon im Normalbetrieb ausschließlich im Naturumlauf (warmes Wasser steigt auf und sinkt nach der Abkühlung wieder in den Reaktorkern zurück) funktioniert. Ein solches Kernkraftwerk bietet ein geringeres Risiko für seine Nachbarn, als jedes Gas- oder Ölkraftwerk. Genau solche Kraftwerke befinden sich aber zahlreich mitten in deutschen Großstädten. Seit Jahrzehnten lebt ihre Nachbarschaft relativ angstfrei damit – Geräusche und Abgase inbegriffen.

Den deutschen „Grün-Wähler“ wird das alles nicht überzeugen. Er ist unerschütterlich in seinem Öko-Glauben. Warum auch nicht? Man diskutiert ja auch nicht mit einem Katholiken über die unbefleckte Empfängnis der Jungfrau Maria oder mit einem Hindu über die Heiligkeit von Kühen. In den Weiten Sibiriens wird die Kernenergie schon heute positiv bewertet. In ähnlichen Regionen Kanadas und den USA wird sie aus gleichen Gründen (Versorgungssicherheit auch bei -40 °C) ernsthaft in Erwägung gezogen. In den bevölkerungsreichen Metropolen Chinas steht die Luftverschmutzung im Vordergrund. Die reale Gefahr von Lungenkrebs und Herz- Kreislauferkrankungen durch Smog wird dort gegen die eingebildete „Strahlengefahr“ abgewogen. Selbst im Großraum Helsinki prüft man den Ersatz der fossilen Fernheizwerke durch Kernenergie. Sonne geht gar nicht und Wind nur sehr eingeschränkt in diesen nördlichen Breiten.

Nukleare Heizwerke

Seit Anbeginn der Kernkraftnutzung gab es die Idee von reinen Heizwerken. Die reine Wärmeproduktion kann einige Vorteile haben: Schließlich verbrennt man ja auch Gas in einem einfachen Heizkessel und setzt nicht alles Gas in „rotierenden Öfen“ (Blockheizkraftwerk) zur gleichzeitigen Stromerzeugung ein. Schon nach den „Ölkrisen“ der 1970er Jahre, setzte sich z. B. der Schweizer Professor Seifritz für ein solches Konzept ein. Er ging damals von der Verwendung erprobter Komponenten aus Kernkraftwerken (Druckbehälter, Brennelemente etc.) zum Bau eines abgespeckten Heizreaktors aus. Durch die „Überdimensionierung“ erhoffte er sich einen zusätzlichen Sicherheitsgewinn, der zu einer Akzeptanz bei der Politik führen würde. Die Grundüberlegung ist noch heute so gültig, wie vor nunmehr 50 Jahren: Ersatz fossiler Brennstoffe durch Uran. Damals wie heute, standen der Ölpreis und die Luftverschmutzung in den Städten im Vordergrund.

Um den Ansatz von Professor Seifritz zu verstehen, ist etwas Physik notwendig. Ein typischer Druckwasserreaktor eines Kernkraftwerks hat eine Wärmeleistung von etwa 4000 MWth. Viel zu viel für ein Fernheizwerk. Geht man aber mit der Leistung um mehr als eine Größenordnung runter – läßt den Reaktor quasi nur im Leerlauf laufen – hat man einen entsprechenden Sicherheitsgewinn in allen Parametern. Bis überhaupt die Betriebszustände eines – zigfach erprobten – Druckwasserreaktors erreicht werden, müßte eine Menge schief gehen. Man hätte genug Zeit den Reaktor abzustellen.

Bei einer so geringen Leistung, könnte man handelsübliche Brennelemente viel länger im Reaktor belassen bis sie „abgebrannt“ wären (Versorgungssicherheit, Preisstabilität etc.).

Ein Druckwasserreaktor in einem Kernkraftwerk arbeitet mit einem Betriebsdruck von etwa 155 bar und einer Wassertemperatur von etwa 325 °C. Beides recht ordentliche Werte. Wie sehe es bei einem Heizreaktor aus? Gehen wir von einer Vorlauftemperatur im Netz von 150 °C aus (Einsatz von Absorptionsanlagen zur Klimatisierung um das Netz auch im Sommer besser auszulasten). Damit das Wasser noch flüssig bleibt und nicht verdampft ist ein Betriebsdruck von mindestens 5 bar nötig. Geben wir noch mal 30 °C als treibende Temperaturdifferenz für die Wärmeübertrager im Heizreaktor drauf, kommen wir auf eine Betriebstemperatur von 180 °C. Dafür ist ein Betriebsdruck von mindestens 10 bar nötig. Ein beträchtlicher Sicherheitsgewinn.. Vor allen Dingen entfallen alle Hochdruck-Sicherheitseinrichtungen: Was man nicht hat, kann auch nicht kaputt gehen.

Noch eleganter erscheint ein Heizreaktor auf der Basis eines Siedewasserreaktors. Man bräuchte – da keine Turbine vorhanden ist – auch keinerlei Einbauten zur Dampftrocknung und keine Umwälzpumpen. Einfacher und sicherer geht nicht.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

Nachbemerkung

Fernheizungsnetze erfordern sehr hohe Investitionen, haben dafür kaum Betriebskosten und halten Jahrzehnte. Sie sind somit anderen Infrastrukturen, wie Trinkwasser- und Abwassernetzen sehr ähnlich. Gleichwohl gibt es schon heute weltweit unzählige Fernwärmenetze, die kontinuierlich erweitert werden. Der Markt für Wärmeerzeuger ist somit gewaltig. Auch die in Deutschland so beliebte „Plastikverpackung“ von Neubauten tut dem keinen Abbruch. Was braucht man also, um eine solche Entwicklung zu fördern?

  • Man benötigt möglichst kleine Heizreaktoren. Die Netzkosten fressen sonst sehr schnell etwaige Kosteneinsparungen bei den Reaktoren auf.
  • Die Reaktoren müssen sehr einfach und robust sein. Sie müssen standardisiert sein und in großen Stückzahlen in Fabriken hergestellt werden.
  • Es sollte weitgehend auf genehmigte Verfahren und Bauteile aus der Kernkraftwerkstechnik zurückgegriffen werden. Nur so kann man die kostspieligen und langwierigen Genehmigungsverfahren in den Griff bekommen.
  • Die Reaktoren müssen inhärent sicher sein und vollautomatisch betrieben werden können.
  • Sie müssen komplett und ständig fernüberwacht werden.
  • Die Anforderungen an Umgebung und Personal müssen vor Beginn des ersten Projekts neu definiert, öffentlich diskutiert und rechtssicher verabschiedet sein.
  • Bei jedem Standort müssen die Anwohner frühzeitig einbezogen werden. Nur durch Aufklärung kann man die einschlägige Angstindustrie und ihre Kumpane aus der Politik abwehren. Skandinavien und Frankreich bieten hierfür zahlreiche Beispiele und erprobte Vorgehensweisen.

Manchem mag das alles phantastisch vorkommen. Nur, ist die Diskussion nicht nur in China losgetreten worden. Sie läuft bereits auch in Osteuropa und Skandinavien. Es mag in Deutschland noch ein paar Jahre dauern, aber dann wird die Mehrheit der Bevölkerung erkennen, wie sie systematisch von Politikern und Schlangenölverkäufern mit der „Energiewende“ betrogen worden ist. Ist dieser Punkt erst erreicht, wird das Pendel ruckartig in seine alte Lage zurückkehren.

Die Chinesen sind gelandet

Bisher etwas unbeachtet, beginnen die Chinesen den europäischen Markt für Kernkraftwerke zu erobern. Der erste Schritt ist mit dem Genehmigungsverfahren in Großbritannien eingeleitet.

Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/mgegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

Atomkonzerne wollen Ausstiegskosten drücken

Man glaubt es nicht, aber es geht immer noch ein bischen schlimmer. Jetzt sollen wir Stromkunden auch noch über 23 Milliarden für die Mästung eins Staatsfonds aufbringen.

Welchen Müll?

Um gleich mal mit einer provokativen Frage anzufangen. Abgebrannte Brennelemente z. B. sind Abfälle – weil nicht mehr vom Kraftwerk verwendbar – aber deshalb noch lange kein Müll. Kein Mensch kommt heute auf die Idee, eine alte Autobatterie oder eine alte Zeitung als Müll zu verunglimpfen. Bei der „gelben Tonne“ spricht man deshalb heute selbstverständlich von einer „Wertstofftonne“. Von Anfang an, war es vorgesehen die „abgebrannten“ Brennelemente zu recyceln. Aus dem Abfall – aus der Sicht eines Kraftwerks – wurde erst durch grüne Politiker „Atommüll“ gemacht, nachdem man die Wiederaufbereitung in Deutschland verboten hat. Genau der heutige (große) Vorsitzende der „Kommission Lagerung hoch radioaktiver Abfallstoffe“ war maßgeblich an dieser Schandtat beteiligt.

Die Unterscheidung von „Abfall“ und „Müll“ ist alles andere als Haarspalterei. Abfall ist immer ein höchst subjektiver Zustand, der erst zum Müll wird, wenn keine Nachfrage mehr vorhanden ist. Wesentlicher Unterschied ist die Menge vorher und nach der Aufbereitung. Ein typisches Beispiel wohin die Entwicklung geht: Als mit dem „Endlager Konrad“ begonnen wurde, war ein wesentliches Sicherheitskriterium der Absturz eines mehrere hundert Tonnen schweren Dampferzeugers in die Grube. Seit Jahren ist aber die komplette Versendung der Dampferzeuger z. B. nach Schweden Realität. Dort werden sie industriell (maßgeblich durch Roboter) zerlegt und „dekontaminiert“. Zurück kommt ein Würfel, etwa so groß wie ein Kühlschrank, in dem alle Radioaktivität eingeschmolzen ist. Alle anderen Materialien werden an lokale Schrotthändler verkauft und damit dem normalen Materialkreislauf wieder zugeführt. Dies ist bereits heute billiger, als die komplette Einlagerung.

Radioaktiver Zerfall geht immer nur in eine Richtung

Das ist die andere (schöne) Seite der Medaille. Je länger man wartet, um so geringer wird die ausgesendete Strahlung. Dies ist z. B. bei Umweltgiften wie Asbest oder Quecksilber nicht der Fall. Insofern müßte eigentlich von dem „Endlager Herfa-Neurode“ eine unendliche Sicherheit gefordert werden – aber „Chemiemüll“ ist wohl politisch korrekt.

Der radioaktive Zerfall verläuft meist in Ketten (d. h. mehrere Zwischenglieder), endet aber immer mit einem stabilen Endglied (welches nicht mehr radioaktiv ist). Diese Zerfallsketten laufen unbeeinflußbar ab. Am Anfang nimmt die Strahlung sehr stark ab (Elemente mit kleiner Halbwertszeit), später sehr langsam (immer mehr Kerne sind bereits zerfallen, es sind nur noch Elemente mit großer Halbwertszeit vorhanden). Wichtig für das Verständnis eines „Endlagers“ ist die Tatsache, daß der „Atommüll“ in menschlichen Zeiträumen eine Intensität erreicht, die der natürlich vorkommender Erzlagerstätten entspricht. Anders ausgedrückt: Solange man den „Atommüll“ nicht isst, kann man ihn problemlos in die Hand nehmen. Sollte er tatsächlich wieder in den biologischen Kreislauf gelangen (z. B. durch Grundwasser) ist die entscheidende Frage, wieviel Zeit vergangen ist (d. h. wieviele und welche radioaktiven Elemente überhaupt noch vorhanden sind) und welche Konzentration vorliegt.

Die Crux mit der Radioaktivität ist, daß man einerseits noch geringste Mengen nachweisen kann, andererseits diese längst nicht mehr schädlich sind. Typisches Beispiel ist die Banane oder verschiedene Mineralwässer. Für die „Beherrschbarkeit“ und dem Umgang mit abgebrannten Brennelementen könnte man sagen: Je länger abgelagert, je harmloser und technisch einfacher handhabbar. Jeder Laie kann das nachvollziehen. Nach der Entnahme aus dem Reaktor kann man die „frischen Brennelemente“ nur fernbedient handhaben und muß diese zur Kühlung und Abschirmung in metertiefen Wasserbecken lagern. Nach einigen Jahren werden sie in Spezialbehälter umgepackt. Neben solchen „Castoren“ kann man gefahrlos herlaufen oder eine Lagerhalle betreten.

Warum nicht einfach verkaufen?

Abgelagerte Brennelemente sind der ideale Input für Wiederaufbereitungsanlagen. Je geringer die Strahlung ist, desto weniger belasten sie die Anlage und das notwendige Personal. In diesem Sinne, sind z.B. Indien und China ideale Kunden. Beide Länder haben sich zum Bau von Wiederaufbereitungsanlagen entschlossen, da sie arm an eigenen Uranvorkommen sind. Je zügiger sie mit dem Bau beginnen, desto geringer ist die Menge, die sich aus den eigenen Kernkraftwerken ansammelt. Bis solche Anlagen richtig laufen, sind Jahrzehnte Vorlauf (Planung, Bau, Probebetrieb) notwendig. Gerade in den ersten Betriebsjahren sind abgelagerte Brennelemente die ideale Beschickung. In diesem Sinne wären Brennelemente aus Deutschland ein interessantes Handelsgut.

Wäre nicht die zur Zeit vorherrschende ideologische Verblendung bestimmend, könnten wir international – gerade bei einem Totalausstieg – zu vernünftigen und wirtschaftlich optimalen Lösungen gelangen. Schließlich haben wir ja auch bisher schon die „Dienstleistung Wiederaufbereitung“ in England und Frankreich eingekauft. Warum zukünftig nicht auch in Rußland, China oder sonst wo? Entsprechendes gilt für die Konditionierung von Abfällen. Es wurden ganze LKW-Ladungen von brennbaren Abfällen in die USA verschifft und anschließend die „radioaktive Asche“ nach Deutschland zurückgeführt. Bei den geringen Mengen, die bis zum „Totalausstieg“ angefallen sein werden, kann man gleich über die Mit-Einlagerung in deren „Endlager“ verhandeln. Ganz so, wie wir ja auch das „Endlager Herfa-Neurode“ international vermarkten. Falls das nicht politisch gewollt ist, bliebe auf diesem Weg nicht viel mehr als ein zentraler Bunker über, indem der gesamte Restmüll sicher eingelagert werden kann.

Die Finanzierung

Die Kerntechnik ist die erste Sparte überhaupt, die von Anfang an die gesamten Kosten berücksichtigt hat. Dies ist – nach wie vor – ein Alleinstellungsmerkmal. Kein Windmüller muß für seine als Plastikmüll endenden Flügel, kein Sonnensammler für seine giftmüllhaltigen Sonnenzellen Rücklagen bilden. Auch die sog. Ewigkeitskosten der Bergwerke wurden nicht in den Kohlepreis eingerechnet. Heute findet man beispielsweise „Giftmülldeponien“, die Bohrschlämme aus der Gas- und Ölförderung enthalten.

Man kann die Folgekosten grundsätzlich erst tragen, wenn sie tatsächlich anfallen oder bereits zu Anfang versuchen sie einzurechnen. Für beide Vorgehensweisen lassen sich stichhaltige Argumente anführen. Das einzige, was zu völlig falschen Ergebnissen führt, ist die gleichzeitige Anwendung beider gegensätzlichen Prinzipien. Genau das, wurde aber von der „Anti-Atomkraft-Bewegung“ als Kampfmittel entdeckt.

Wenn man schon bei der Nutzung adäquate Rücklagen bildet, bleibt immer noch die Frage wie: Als Umlagesystem (analog zu unserem Rentensystem) mit dem Staat als Garanten, der Vermögensbildung beim Unternehmen oder der Anlage in einem Fonds. In Deutschland hat man sich zur Bildung von Rücklagen im jeweiligen Unternehmen entschlossen. Dies wurde ursprünglich sehr gründlich und kontrovers diskutiert und abgewogen. Allen Möglichkeiten ist die Schwierigkeit der Abschätzung der zukünftigen Kosten und die Sicherheit der Anlage gemeinsam: Staaten können verschwinden, Unternehmen pleite gehen und Anlagen durch Finanzkrisen etc. dahinschmelzen.

Die vermeintliche Anlagesicherheit

In Deutschland mußten die Energieversorgungsunternehmen mit Kernkraftwerken Rücklagen für den Abriß und die Abfallentsorgung bereitstellen. Ein revolutionärer Gedanke, ein Alleinstellungsmerkmal und die „praktizierte Nachhaltigkeit“.

Ein (vorgeschriebener) Anteil an den Unternehmenserlösen wurde für die Entsorgung zurückgestellt. In der Praxis bedeutete das, man hat mit diesen Mitteln neue Kraftwerke, Stromleitungen etc. finanziert. Dies führte zu zusätzlichen Erträgen, da man keine Zinsen für Kredite an die Banken zahlen mußte. Es mußte nur der Barwert, der in der Zukunft anfallenden Kosten, zurückgestellt werden. Die Vorteile kamen indirekt allen zu gute, da jeder elektrische Energie verbraucht. Insofern bestand volkswirtschaftlich kein Unterschied zu einem Umlagesystem. Bei einem Fonds hätte man zusätzliche Kosten für die externe Vermögensverwaltung in Rechnung stellen müssen.

Jetzt zur (vermeintlichen) Sicherheit der Anlage. Das Geld wurde in Vermögenswerte umgewandelt. Nichts anderes kann auch ein Fonds bieten. Er kann jedoch nicht auf dingliche Werte (Kraftwerke, Umspannwerke etc.) zurückgreifen, sondern nur auf Finanzprodukte (Aktien, Anleihen etc.). Ironischerweise sind gerade Anleger mit ähnlich langfristigem Anlagehorizont und ähnlichem Sicherheitsbedürfnis brennend an Sachanlagen aus der Energiewirtschaft mit regelmäßigen Einnahmen interessiert. Versicherungswirtschaft und Pensionsfonds investieren in Pipelines, Stromtrassen usw. Sie erscheinen heute durchaus sicherer und ertragreicher als Staatsanleihen und Aktien. Strom wird halt immer gebraucht. Insofern werden auch die Anlagen zur Erzeugung und Verteilung gebraucht – es sind echte Vermögenswerte.

Von dem Gedanken des Verursacherprinzips ausgehend, ist die Anlage in den Unternehmen ebenfalls logischer: Das Unternehmen haftet mit seiner Substanz. Wenn man einen Fonds zwischen schaltet, kann man die Haftung kaum noch durchleiten. Ist das Geld an der Börse verspekuliert, kann das Unternehmen nicht dafür verantwortlich gemacht werden. Die Anlagen der Energieversorger waren im Zeitalter des Energiemixes auch breit gestreut. Wo bitte, soll der „Entsorgungsfonds“ denn seine Milliarden anlegen? In Windparks, E-Autos oder doch lieber in griechischen Staatsanleihen? Wer verwaltet den Fonds und wer bekommt die Verwaltungskosten? Der Fonds soll doch bestimmt ethisch und politisch korrekt sein und „klimaneutral“, nicht wahr?

Woher soll das Geld kommen?

Die Rücklagen der Energieversorgungsunternehmen sind Vermögen als Sachanlagen im eigenen Unternehmen. Dieses Vermögen ist eine Immobilie. Darin unterscheidet sie sich nicht grundsätzlich von einem Gebäude: Der Bau hat mal eine bestimmte Summe gekostet mit der es in die Bücher eingegangen ist. Vermindert um die gesetzlichen Abschreibungen, erhöht um Modernisierungen etc. Soweit ist es Vermögen. Wenn aber nun diese Werte plötzlich ausgeschüttet werden sollen, ergibt sich schlagartig das Problem der Umwandlung in einen Preis: Es muß ein Käufer – nach den Gesetzen von Angebot und Nachfrage – gefunden werden. Wer bitte, soll aber so blöd sein, in Deutschland ein Kraftwerk zu kaufen? In einem Land, indem gerade die Kernkraftwerke entschädigungslos enteignet worden sind und nun auch die Kohlekraftwerke abgeschafft werden sollen? Jeder seriöse Investor wird eher nach Afrika oder Asien gehen. Übrig bleiben, werden nur Spekulanten, die bereit sind Wetten darauf abzuschließen, wie lange der Wahnsinn in Deutschland noch anhält. Da politische Veränderungen erfahrungsgemäß sehr langsam ablaufen, kann der finanzielle Einsatz nur gering ausfallen. Selbst die DDR konnte sich rund vier Jahrzehnte über Wasser halten. Für technische Entwicklungen ein unendlich langer Zeitraum. Lange Rede, kurzer Sinn: Es werden gewaltige Preisabschläge auf die Buchwerte nötig sein, um 23 Milliarden kurzfristig flüssig zu machen.

Mal angenommen, es gelingt tatsächlich. Mit welchen Produktionsmitteln sollen dann die übrig gebliebenen Skelette noch Ergebnisse erzielen? Das Ganze gleicht doch einem Bauern, der Trecker und Saatgut verkauft. Die von dem Sozialisten Trittin dem Volk vorgegaukelte Sicherheit, ist in Wirklichkeit nichts weiter als die Schlachtung der Kuh, die er melken will. Oder frei nach Maggie Thatcher: Den Sozialisten geht irgendwann immer das Geld der anderen aus. Dieser Fonds wird – nach dem er das Geld für alle möglichen linken Projekte verbrannt hat – möglichst unauffällig dahinsiechen, ohne eine einzige Tonne „Atommüll“ beseitigt zu haben.

Spätestens wenn die Blase „Windparks“ geplatzt ist, wird nur noch ein Heer von Arbeitslosen von den ehemals stolzen Energieversorgern übrig bleiben. Wer nicht jetzt beginnt, sich zu wehren, sollte sich schon mal mit den „Schlecker-Frauen und Karstadt-Verkäufern“ über das Leben danach unterhalten. Die Ex-Minister Trittin, Müller und der grüne Gewerkschaftsfunktionär Bsirske werden sicherlich ihre Pensionen genießen und auch weiter unter Palmen über den „Raubtierkapitalismus“ schwadronieren. Noch nie war Enteignung so schön wie heute.

Reaktortypen in Europa – Teil6, CANDU

Der CANDU (Canada Deuterium Uranium) Reaktor ist der einzige Schwerwasserreaktor, der sich weltweit durchgesetzt hat. Er ist in seiner neuesten Ausführung ein echter Gen III+ Reaktor mit passiver Sicherheit. Für manche mutet er vielleicht etwas exotisch an, besitzt aber sehr viel Potential für die Nutzung von Thorium und die Weiterverwendung ausgedienter Brennelemente von Leichtwasserreaktoren – gerne auch als „Atommüll“ verunglimpft.

Geschichte

SNC-Lavalin und China Nuclear Power Engineering Company wollen zusammen zwei weitere Reaktoren dieses Typs in Rumänien errichten. Bereits seit 1997 und 2007 laufen dort sehr erfolgreich zwei solche Reaktoren. Wie in zahlreichen anderen Ländern auch: Indien, Südkorea, Rumänien, Pakistan, Argentinien und China. Insgesamt wurden 47 CANDU-Reaktoren gebaut, davon bilden 22 Reaktoren das Rückgrat der kanadischen Stromversorgung. Keine schlechte Bilanz, wenn man bedenkt, wie viele Totgeburten es seit den 1940er Jahren gegeben hat.

In Kanada begann die Entwicklung von Schwerwasserreaktoren bereits während des zweiten Weltkrieges. Es war ein etwas ungeliebter Seitenarm des Manhattan-Projekts unter maßgeblichem Einfluß des französischen Wissenschaftlers Joliot, der wegen seiner politischen Ansichten in den USA als potentielles Sicherheitsrisiko eingestuft war. In den 1960er Jahren wurde die kommerzielle Entwicklung von der kanadischen Regierung forciert: Kanada verfügte über keine Anreicherung und keine Schwerindustrie, die in der Lage war, Reaktordruckgefäße zu schmieden. Beide Argumente besitzen heute noch für viele Entwicklungs- und Schwellenländer Gültigkeit. Man kann sich nahezu aus allen Ecken der Welt mit Natururan versorgen, während man bei der Anreicherung nach wie vor, maßgeblich auf die „Atommächte“ angewiesen ist. Wegen des einfachen Aufbaues ist ein Übergang auf nationale Fertigung in relativ kurzer Zeit und kleinen Stückzahlen möglich.

Allerdings besitzt der CANDU einen entscheidenden (politischen) Nachteil: Mit ihm läßt sich hervorragend waffengrädiges Plutonium und Tritium herstellen. Diesen Weg hat Indien mit seiner ersten Bombe „Smiling Buddha“ vorgemacht, dessen Plutonium aus dem Schwerwasser-Forschungsreaktor „CIRUS“ stammte.

Aufbau

Bei den CANDU-Reaktoren handelt es sich um Druckwasserreaktoren mit schwerem Wasser (D2 O.) als Moderator und Kühlmittel. Das schwere Wasser wird durch Pumpen zwischen dem Kern und den Dampferzeugern umgewälzt. In den Dampferzeugern wird der Dampf für die Turbine erzeugt. Man könnte also sagen, ab dem Reaktorgefäß handelt es sich um einen „ganz normalen Druckwasserreaktor“.

Er besitzt jedoch kein Druckgefäß, sondern zahlreiche Druckröhren. Bei einem EC6 sind es 380 horizontale Röhren, in denen sich jeweils 12 Brennelemente befinden. Die Brennelemente sind rund und nicht rechteckig (wie bei Leichtwasserreaktoren), sodaß sie die Druckröhren optimal ausfüllen. Sie sind auch wesentlich kleiner (etwa 50 cm lang und 10 cm im Durchmesser) und bestehen aus nur 37 Brennstäben. Durch die Abmessungen und ihr geringes Gewicht (rund 25 kg) sind sie optimal für eine vollautomatische Handhabung geeignet. Durch die hohe Anzahl (37 Stück x 12 Brennelemente x 380 Brennstoffkanäle) ergibt sich eine sehr flexible Anordnung und Materialausstattung, auf die später noch eingegangen wird. Durch die vollautomatischen Lademaschinen, die unter voller Last eingesetzt werden können, ergibt sich stets eine optimale Durchmischung und Anordnung. Es ist kaum Überschußreaktivität nötig, die bei Leichtwasserreaktoren am Anfang des Ladezyklus durchVergiftung (z. B. Borsäure, Gadolinium etc.) abgebaut werden muß.

Die Brennstoffkanäle sind schachbrettartig, horizontal in einem Wassertank – der sog. Calandria – angeordnet. Dieser Tank ist vollständig mit schwerem Wasser gefüllt und bildet den eigentlichen Moderator und Reflektor. Die Calandria befindet sich in einem weiteren Wassertank zur Abschirmung, der mit normalem Wasser gefüllt ist. Dieses System ist von einem Tresor aus Stahlbeton umgeben. Oberhalb befinden sich die vier Umwälzpumpen und die vier Dampferzeuger. Zusätzlich ist der gesamte Reaktor von einer Stahlbetonhülle (Containment) umgeben. Äußerlich ist deshalb ein EC6-CANDU kaum von einem üblichen Druckwasserreaktor zu unterscheiden.

Sicherheitskonzept

Jeder Brennstoffkanal ist von einem zweiten Rohr umgeben. Der sich ergebende Spalt dient zur Wärmeisolierung. Das schwere Wasser der Calandria ist kalt und wird auch ständig über eigene Wärmeübertrager kalt gehalten. Zusammen mit dem Wasser der Abschirmung ergibt sich ein großer Wärmespeicher für die Abfuhr der Nachzerfallswärme. Geht Kühlwasser durch Leckagen verloren, kann dieses aus einem großen Wassertank auf dem Dach des Sicherheitsbehälters ersetzt werden. Dafür sind keine Pumpen, sondern nur die Schwerkraft nötig.

Als einziger Reaktortyp verfügt der CANDU über zwei vollständig voneinander unabhängige Schnellabschaltungssysteme: Oberhalb der Calandria befinden sich von Elektromagneten gehaltene Regelstäbe. Bei einer Schnellabschaltung fallen sie durch die Schwerkraft getrieben in die Calandria ein. Seitlich befinden sich Druckbehälter mit Gadoliniumnitrat, die durch das Gaspolster aus Helium angetrieben, ihre Flüssigkeit zur Vergiftung in die Calandria einspritzen.

Warum überhaupt schweres Wasser?

Deuterium ist Wasserstoff, dessen Kern nicht nur aus einem Proton besteht, sondern zusätzlich noch ein Neutron enthält. Es verbindet sich mit Sauerstoff zu schwerem Wasser. Es kommt daher überall auf der Erde in unerschöpflicher Menge vor. Allerdings in nur sehr geringer Konzentration von 0,000018%. Die Anreicherung ist wegen des relativ großen Massenunterschieds zwar relativ einfach, erfordert gleichwohl viel Energie und Apparatur. Mit anderen Worten, es ist recht teuer. Die hohen Investitionskosten sind deshalb der Hauptnachteil beim CANDU. Enthält doch ein EC6 über 472 to davon, bei nur etwa 700 MWel. Leistung. Der laufende Verbrauch ist nur sehr gering. Ein weiterer Nachteil ist die erhöhte Produktion von Tritium. Da Deuterium bereits ein Neutron enthält, ist die Aufnahme eines weiteren sehr viel wahrscheinlicher, als bei normalem Wasser.

Ausschlaggebend sind die überragenden neutronenphysikalischen Eigenschaften. Die Wahrscheinlichkeit für eine Spaltung steigt umgekehrt proportional mit der Geschwindigkeit der Neutronen. Abgebremst werden die Neutronen durch Zusammenstöße mit dem Moderator. Je kleiner die Kerne sind, je mehr Energie geht bei einem einzelnen Stoß verloren – dies spricht für Wasserstoff als Moderator. Leider gibt ein Kern nicht jedes Neutron wieder her. Jedes absorbierte Neutron ist aber für eine weitere Spaltung verloren. Je größer die Wahrscheinlichkeit für eine Streuung ist und um so kleiner die Wahrscheinlichkeit für eine Absorption, desto besser ist das Material als Moderator geeignet. Man mißt dies mit der „Moderating Ratio“ MR. Sie beträgt bei H2 O nur 62. Im Gegensatz dazu, ist sie bei D2O. mit 4830 fast 78 mal so gut. Zusätzlich kann man den Bremseffekt noch verbessern, wenn man den Moderator möglichst kühl hält. Dies ist der Grund für die kalte Calandria.

Alles zusammen, führt dazu, daß man bei einem CANDU mit Natururan auskommt und trotzdem mittlere Abbrände von 7500 MWd/toU erzielt. Dies ergibt nicht nur die beste Ausnutzung von Natururan, sondern eröffnet noch ganz andere Brennstoffkreisläufe.

CANDU und Leichtwasserreaktoren im Verbund

In jedem Reaktor werden nicht nur Kerne gespalten, sondern auch immer neue Kerne durch das Einfangen von Neutronen gebildet. Allerdings ist die Nutzungsdauer der Beladung immer zeitlich begrenzt – egal in welcher Form der Brennstoff vorliegt. Es verhält sich mit dem Brennelement wie mit einer Weinflasche: Nach dem Gebrauch ist sie für den Nutzer Abfall, aber deshalb noch kein Müll. Man kann auch die leere Flasche vielfältig weiter nutzen oder sie recyceln.

Auch wenn die Brennstäbe in den Leichtwasserreaktoren nicht mehr nutzbar sind, enthalten sie doch noch unzählige Wertstoffe. In diesem Zusammenhang sind Uran und Plutonium von Interesse. Man kann diese beiden auf verschiedene Art und Weise nutzen:

  • Zuerst sollte man sie so lange – wie wirtschaftlich vertretbar – lagern. Genau das, geschieht im Moment weltweit. Radioaktive Stoffe besitzen die angenehme Eigenschaft, daß sie nur zerfallen können, also stetig weniger werden. Je mehr Spaltprodukte aber zerfallen sind, desto geringer ist die Strahlungsleistung geworden. Ein enormer Vorteil bei der weiteren Verarbeitung.
  • Man kann diese Brennelemente z. B. nach dem Purex-Verfahren wieder aufbereiten. Man erhält als Produkt hochreines Uran und Plutonium. Das Uran ist aber ohne eine weitere Anreicherung nicht wieder in einem Leichtwasserreaktor verwendbar. Hier kommen die CANDU’s ins Spiel:
  • Das Uran aus der Wiederaufbereitung hat einen etwas höheren Gehalt an U235 (ungefähr 0,9% plus 0,6% Pu) als Natururan. Man kann nun dieses Uran mit abgereichertem Uran aus Anreicherungsanlagen zu synthetischem Natururan verschneiden. Man spart also den Aufwand für eine weitere Anreicherung.
  • Viel sinnvoller ist es, das Uran aus der Wiederaufbereitung im ursprünglichen Zustand zu verwenden. Man muß es nicht verschneiden, sondern kann es durch die unzählige Kombination von Brennstäben aus unterschiedlichen Materialien als sehr viel effektivere Neutronenquelle einsetzen.
  • Es ist sogar möglich, die abgebrannten Brennelemente aus Leichtwasserreaktoren in CANDU-Reaktoren ein weiteres mal zu nutzen: Man müßte sie lediglich auf Länge schneiden und erneut in eine Hülle einschweißen. Allerdings bräuchte man hierfür wegen der hohen Strahlenbelastung eine fernbediente Herstellung und Handhabung. China führt bereits in seinen laufenden Reaktoren Versuche aus. Es wurde in Zusammenarbeit mit den Kanadiern ein umfangreiches Entwicklungsprogramm gestartet.
  • Man kann aber auch die abgebrannten Brennstäbe vorher pulverisieren und erhitzen. Da der größte Teil der Spaltprodukte (z. B. die Edelgase und Jod) schon bei relativ geringen Temperaturen ausgasen, können sie einfach abgeschieden werden. Man erhält nach dem Sintern „neue“ Brennelemente, mit wesentlich geringerer Strahlenbelastung (als die unbehandelten Brennelemente) und weniger parasitärem (bezüglich der Neutronen) Inhalt. Diese Schiene – mit teilweiser Wiederaufbereitung – wird in Korea verfolgt und als DUPIC-Verfahren (Direct Use of spent PWR fuel In Candu) bezeichnet.

Es gibt also zahlreiche Wege, aus Leichtwasser- und Schwerwasserreaktoren einen Energieverbund herzustellen. Man kann in etwa sagen, daß vier Leichtwasserreaktoren mit ihren abgebrannten Brennelementen einen Schwerwasserreaktor versorgen können. Dies könnte das evolutionäre Glied zur Nutzung – und damit Beseitigung – von „Atommüll“ sein: Man ersetzt das kostspielige PUREX-Verfahren durch „Neuverpackung“ oder „Teilreinigung“. Diese Verfahrensschritte sind sicherlich wesentlich eher mit der Gewinnung von Natururan wirtschaftlich konkurrenzfähig.

Thorium

Neben Uran, kann man auch mit Thorium Reaktoren betreiben. Thorium ist in manchen Ländern (z. B. Indien) leicht zu fördern oder fällt sogar als Abfall an (z. B. Produktion seltener Erden in China). Allerdings kann man mit Thorium keine selbsterhaltende Kettenreaktion erzeugen. Vorher muß man daraus U233 erbrüten. Anders als bei Uran, funktioniert das Brüten bei Thorium auch sehr gut mit thermischen Neutronen. Es war daher schon frühzeitig ein Gedanke, Thorium als Brennstoff in Schwerwasserreaktoren einzusetzen.

Aus der Konstruktion von Brennstoffkanälen, die mit Brennelementen gefüllt sind, die sich wiederum aus Brennstäben zusammensetzen, ergeben sich beim CANDU zwei grundsätzliche Varianten: Der gemischte Kern (mixed-core) und das gemischte Brennelement (mixed-fuel-bundle).

Bei einem gemischten Kern, verwendet man Brennelemente aus reinem Thorium, die zum Erbrüten von U233 dienen. Die hier verschluckten Neutronen müssen an anderer Stelle im Reaktor erzeugt werden. Dafür verwendet man Brennelemente mit leicht angereichertem Uran oder aus Mischoxid. Hierfür bietet sich – wie weiter oben schon beschrieben – idealerweise der „Abfall“ aus Leichtwasserreaktoren an. Diese Strategie erfordert – wegen der wechselnden Orte und der unterschiedlichen Verweilzeiten in den Kanälen – eine komplexe Steuerung der Lademaschinen. Wenn man nur reines Thorium in einem Brennelement einsetzt, kommt man zu einer besonders eleganten „Einfach-Nutzung“. Aus Thorium bilden sich durch das Einfangen von Neutronen weit weniger langlebige Aktinoiden, als aus Uran. Da man es im wesentlichen nur mit (kurzlebigen) Spaltprodukten zu tun hat, ergibt sich ein „Atommüll“, der besonders gut für eine „Endlagerung“ geeignet ist. Diese Beschränkung auf eine technische Zwischenlagerung – ohne Wiederaufbereitung und/oder geologisches „Endlager“ – ist ein weiterer Anreiz für Länder mit großen Thoriumvorkommen (z. B. Norwegen).

Der andere Weg sind die gemischten Brennelemente. Dort wird bevorzugt der mittlere Brennstab aus reinem Thorium hergestellt und die ihn konzentrisch umgebenden Stäbe aus leicht angereichertem Uran. Dies vereinfacht das Umsetzen, hat aber eine schlechtere Ausnutzung der Neutronen zur Folge. Wenn man bereits gebrütete Brennelemente verwendet, um deren Stäbe in gemischten Brennelementen weiterzuverwenden, benötigt man keinerlei Wiederaufbereitung. Dieser Brennstoffkreislauf bietet sich besonders für Länder an, die unbedingt und nachweisbar auf Kernwaffen verzichten wollen.

Man kann mit Schwerwasserreaktoren Konversionsraten von nahezu eins erreichen. Wenn man über mehrere CANDU-Reaktoren verfügt, kann man einige davon vollkommen mit Thorium betreiben. Lediglich einige müssen zusätzlich leicht angereichertes Uran bzw. Mischoxid verwenden um den Fehlbedarf an U233abzudecken. Ein Land wie z. B. Indien, mit großen Mengen eigenem Thorium, aber kaum eigenem (wirtschaftlichem) Uran, kann so einen beträchtlichen Anteil aus heimischen Energieträgern abdecken.

Neben der Streckung von Uranvorräten bietet die Verwendung von Thoriumoxid noch eine Reihe anderer Vorteile: Bessere Wärmeleitung, höherer Schmelzpunkt, sehr gute chemische Stabilität und weniger Bildung von Aktinoiden.

Schlußwort

Mit diesem Beitrag, soll die Serie über die Reaktortypen in Europa vorläufig abgeschlossen werden. Eigentlich fehlen hier noch die russischen Druckwasserreaktoren wie sie in Finnland und der Türkei gebaut werden sollen. Bisher mangelt es aber nach wie vor an frei zugänglichen Informationen.

Sinn dieser Serie sollte es sein, interessierten Menschen einen Überblick darüber zu verschaffen, was geht, was man morgen bestellen und bauen könnte, was genehmigt und erprobt ist. Forschung und Entwicklung stehen auf einem anderen Blatt. Man kann – wenn man politisch will – sofort mit dem Ausbau der Kernenergie beginnen bzw. fortschreiten. China macht es eindrucksvoll vor: Den Einstieg in das Zeitalter der Kerntechnik auf breiter Front durch Nutzung von allem, was der Weltmarkt hergibt. Ein gigantischer Vergleich unter gleichen Rahmenbedingungen. Bisher gab es das nur in den USA – und man erinnert sich kaum, in Deutschland. Vielleicht muß man wirklich schon daran erinnern. Es gab einmal deutsche Siedewasser-, Druckwasser-, Schwerwasser-, Thorium-Hochtemperaturreaktoren und natriumgekühlte schnelle Reaktoren. Alle gebaut und mit besten Betriebserfahrungen und ganz ohne schwere Unfälle. Wenn es dem Esel zu gut geht, geht er aufs Eis tanzen, sagt ein altes Sprichwort. Jedenfalls reist heute eine ehemalige Pionierleiterin nach Japan, um der dortigen Regierung deutsche Wind- und Sonnentechnik schmackhaft zu machen. Selbstverständlich bei ausdrücklicher Verweigerung eines Besuchs in Fukushima. Zu viel Realität, konnte man im Politbüro noch nie ertragen. Das Ergebnis ist bekannt.

Reaktortypen in Europa – Teil5, ESBWR

Der ESBWR (Economic Simplified Boiling Water Reactor) ist die bisherige Krönung in der Evolution der Leichtwasserreaktoren. Es ist ein Reaktor der Generation III+ und erfüllt sicherheitstechnisch bereits die Ziele der vierten Generation: Passive und inhärente Sicherheit, die die Anlage stets selbstständig in einen sicheren Zustand überführt.

Geschichte

Bereits nach dem Reaktorunglück von TMI in Harrisburg begann man in den USA das Genehmigungsverfahren für einen stark vereinfachten Reaktor, den SBWR (Simplified Boiling Water Reactor). Nachdem man über eine halbe Milliarde Dollar Entwicklungs- und Genehmigungskosten investiert hatte, mußte man erkennen, daß dieser Reaktor mit 670 MWel schlicht zu klein und damit unverkäuflich war. Im nächsten Schritt legte man mehr Wert auf die „Wirtschaftlichkeit (Economic)“ und erhöhte die Leistung auf 1600 MWel. Ein weiteres Jahrzehnt mit unzähligen Prüfungen verging. Seit letztem Jahr liegen endlich alle Genehmigungen für den Typ vor. Es fehlt nur noch ein Kunde mit einem konkreten Bauauftrag. Inzwischen gibt es auch dazu Verhandlungen in USA, Polen und Indien. Wie immer, wird der „mutige Investor“ gesucht, der bereit ist in eine neue Technik (first of a kind) zu investieren. Dabei ist die Technik alles andere als revolutionär, sondern im Gegenteil strikt evolutionär. Man hat Schritt für Schritt auf in der Praxis bewährte Bauteile zurückgegriffen. Dies sei nur am Rande bemerkt, für all die Erfinder, die immer nach revolutionären Konzepten schreien. Erfinden und in allen Details den Nachweis der Funktionstüchtigkeit erbringen, sind zwei völlig verschiedene Dinge. Zumindest der Nachweis der Funktionstüchtigkeit – nach den Maßstäben der Kerntechnik – erfordert Jahrzehnte und verschlingt somit immense Summen. Vergleichbares gibt es nur in der zivilen Luftfahrt. Auch dort sind revolutionäre Flugzeugentwürfe nur etwas für Universitäten und Medien.

Anforderungen

Alle bisherigen Erfahrungen mit Kernkraftwerken – insbesondere die Unglücke in Harrisburg, Tschernobyl und Fukushima – haben zu folgenden Anforderungen für einen sicheren und wirtschaftlichen Betrieb geführt:

  • Je weniger Bauteile man hat, je weniger kann kaputt gehen (Schaden) und je weniger muß gewartet und überwacht werden (Wirtschaftlichkeit).
  • Je einfacher („kiss = keep it simple stupid“) das Kraftwerk ist, je einfacher ist es auch zu bedienen – dies gilt für die Automatik, wie auch für das Personal.
  • Je mehr man auf Naturkräfte (Schwerkraft, Speicherung etc.) bei der Sicherheitstechnik setzt, um so sicherer ist ihre Verfügbarkeit im Ernstfall.
  • Je unabhängiger man von äußeren Einflüssen ist (Netzanschluss, Kühlwasser etc.), je weniger können solche „Einwirkungen von außen“ (Tsunami, Wirbelsturm, aber auch Flugzeugabsturz, Terror etc.) zu Schäden beim Kraftwerk führen.
  • Je passiver die Sicherheitsketten sind, je weniger muß man sich auf eine hohe Bereitschaft des Schichtpersonals verlassen. Gerade in Ausnahmesituationen (Erdbeben mit Tsunami) brauchen Menschen Zeit sich darauf umzustellen.
  • Wenn man bewußt von dem Versagen aller Sicherheitssysteme ausgeht und offensiv solche Ereignisse durchspielt, kann man trotzdem die Schäden für die Umwelt noch weiter mindern.

Nur die konsequente Umsetzung der vorausgehenden Punkte hat zu der gewaltigen Steigerung der Sicherheit beim ESBWR geführt. Hatte die „Fukushima-Generation“ noch eine Wahrscheinlichkeit von einer Kernschmelze in 100.000 Betriebsjahren, so liegt diese Wahrscheinlichkeit beim ESBWR bei etwa einer Kernschmelze in 170.000.000 Betriebsjahren. Spätestens nach den Ereignissen von Tschernobyl und Fukushima legt man großen Wert auf die Freisetzung von Radioaktivität nach dem Versagen aller Sicherheitseinrichtungen (z. B. Beschädigung des Containment etc.). Man kann durch geeignete Maßnahmen auch in einem solchen schweren – und unwahrscheinlichen – Unfall, die Freisetzung von radioaktiven Stoffen erheblich verringern. Simulationen für Standorte in USA haben ergeben, daß selbst in Betrachtungszeiträumen von einer Milliarde Jahren (berücksichtigt die geringe Wahrscheinlichkeit der Ereignisse) in einer Entfernung von 800 m (!) keine Dosen über 1 Sv auftreten würden. Natürlich können solche Berechnungen „Atomkraftgegner“ nicht überzeugen. Sie halten auch nach Tschernobyl und Fukushima tapfer an ihrem Glauben von Millionen-Tote-für-zehntausende-Jahre-unbewohnbar fest. Was soll’s, es gibt auch heute noch Menschen, die an Hexen glauben.

Der Naturumlauf

Die Idee einen Siedewasserreaktor ohne Umwälzpumpen zu bauen, ist keinesfalls neu. Allerdings waren die ursprünglichen Modelle, wie z. B. Dodewaard (183 MWth) und Humboldt Bay (165 MWth) geradezu winzig gegenüber einem ESBWR (4500 MWth). Gleichwohl haben sie in den Jahrzehnten ihres Betriebs wertvolle Erkenntnisse und Messreihen geliefert, die als Referenz für die Auslegungsprogramme des ESBWR dienen. Dodewaard war von 1969 bis 1997 am Netz und hat trotz seiner bescheidenen Leistung von 55 MWel fast 11000 GWhelStrom produziert.

Wenn man einen Reaktor mit Naturumlauf bauen will, muß man die treibende Kraft der Umwälzpumpen durch einen Kamineffekt ersetzen: Es steht nur die Dichtedifferenz zwischen kaltem Abwärtsstrom und dampfhaltigem Aufwärtsstrom zur Verfügung. Um überhaupt genug Druck erzeugen zu können, damit man die Reibung in den Bauteilen überwinden kann, ist eine erhebliche Bauhöhe erforderlich. Genau das war aber in den Anfangsjahren das Problem. Man konnte solch große Druckgefäße – zumindest wirtschaftlich – nicht herstellen. Es bot sich deshalb an, besser Umwälzpumpen zu verwenden. Heute haben sich die Verhältnisse umgekehrt. Es gelang praktisch das im ABWR verwendete Druckgefäß auch im ESBWR zu verwenden. Es mußte allerdings für den Kamin oberhalb des Reaktorkerns, von 21,7 auf 27,6 m verlängert werden. Solch schlanke Behälter haben Vor- und Nachteile. Für die Gebäudehöhe und den Erdbebenschutz ist eine solche Länge eher nachteilig. Allerdings ergibt sich auch ein sehr großes Wasservolumen, was sich positiv bei Störfällen auswirkt.

Der Kern des ESBWR ist gegenüber dem ABWR größer (1590 gegenüber 1350 Brennelemente) und flacher (3,0 m gegenüber 3,7 m aktive Brennstablänge). Dies ist auf die höhere Leistung (4500 gegenüber 3926 MWth.) und die anderen thermohydraulischen Bedingungen zurückzuführen. Wegen der höheren Anzahl der Brennelemente erhöht sich auch die Anzahl der Regelstäbe (269 gegenüber 205). Diesem Mehraufwand ist die Einsparung von zehn internen Umwälzpumpen gegen zu rechnen.

Der Rechenaufwand

Einfach anmutende natürliche Systeme, sind meist wesentlich schwieriger zu beschreiben, als technische Systeme. Technische Anlagen, wie z.B. Pumpen, können definierte Randbedingungen schaffen, die eine Berechnung oft stark vereinfachen. Nur auf Naturkräfte beruhende Systeme sind die hohe Schule der Simulation. Schnell stößt man bei der notwendigen räumlichen und zeitlichen Auflösung an die Grenzen heutiger Rechner. Hinzu kommt hier eine sehr große Anzahl von Gleichungen, da die Thermohydraulik und die Neutronenphysik sich sehr stark gegenseitig beeinflussen.

Man muß es eigentlich nicht besonders erwähnen, hier hat man es mit einer Genehmigungsbehörde zu tun und bewegt sich nicht als freischaffender Künstler in der Welt von Klimamodellen oder Wirtschaftsprognosen. Hier muß man nicht nur sein Programm offen legen, sondern auch noch nachweisen, daß es richtig rechnet. Dazu müssen zahlreiche Messreihen an 1:1 Modellen nachgerechnet werden, um Unterprogramme (z. B. Druckverlust in einem Brennelement) zu testen. Ist diese Hürde – zur Zufriedenheit der Genehmigungsbehörde – erfolgreich genommen, geht es daran, Versuche an bereits gebauten Reaktoren nachzurechnen. Erst wenn der Genehmigungsbehörde kein Testfall mehr einfällt, ist das Programm zugelassen. So etwas kann dauern, schließlich arbeitet die Behörde im Stundenlohn für einen Stundensatz von 280 US-Dollar. So viel zum Thema: Junge Unternehmen entwickeln einen innovativen Reaktor. Die alten Zeiten eines Admiral Hyman G. Rickover, für den der Reaktor der USS Nautilus noch mit Rechenschieber, Bleistift und ganz viel Hirn ausgelegt wurde, sind lange vergangen.

Allein die Anpassung des vorhandenen Programms an die Besonderheiten des ESBWR soll bei GE mehr als 100 Mann-Jahre gedauert haben. Erst dann konnten für alle möglichen geforderten Zustände, die Leistungen, Durchflüsse, Dampfzustände und Dampfanteile, Blasenkoeffizienten, die Leistungsdichte und -verteilung, sowie die Stabilität (z.B. Xenon-Schwingungen) nachgewiesen werden.

Führt man sich diesen Aufwand vor Augen, wird einsichtig, warum die Entwicklung evolutionär verläuft. Man hat versucht, soviel wie möglich vom ABWR beim ESBWR weiter zu verwenden. Nicht einmal ein Verbund von internationalen Konzernen aus GE, Hitachi und Toshiba kann es sich heute noch erlauben, die Entwicklung eines kommerziellen Reaktors mit einem weißen Blatt Papier zu beginnen. Ob das nun gut oder eher schlecht ist, mag jeder für sich selbst entscheiden.

Die Notkühlung

Nach dem Unglück in Fukushima sind zwei Ereignisse in den Mittelpunkt der Sicherheitsüberlegungen gerückt:

  1. Der Verlust der Hauptwärmesenke. In Fukushima wurden durch die Flutwelle die Kühlwasserpumpen und Einlaufbauwerke zerstört. Damit ging die Fähigkeit zur Abfuhr der Nachzerfallswärme verloren. Für sich genommen, schon ein wesentlicher Schritt zur Kernschmelze.
  2. Verlust (nahezu) jeglicher Stromversorgung. Durch die Schnellabschaltung infolge der Erdstöße war die Eigenversorgung weg, durch die großräumigen Verwüstungen durch die Naturkatastrophe, die Stromversorgung über das Netz und durch die Flutwelle wurden die Schaltanlagen und Notstromdiesel zerstört.

Wie hätte sich nun ein ESBWR in einer solchen Ausnahmesituation verhalten? Er verfügt über eine zusätzliche Wärmesenke für den Notfall, die vollständig unabhängig vom normalen Kühlwassersystem funktioniert: Die Außenluft. Der Auslegungsphilosophie folgend, sich nur auf Naturkräfte zu verlassen, handelt es sich dabei um offene „Schwimmbecken“ oberhalb des Sicherheitsbehälters. Das Volumen ist so bemessen, daß es für mindestens 72 Stunden reicht. Die Temperatur ist – unabhängig von den Umweltbedingungen – durch die Verdampfung auf maximal 100 °C begrenzt. Es kann jederzeit – auch von außen durch die Feuerwehr – aus verschiedenen Tanks nachgefüllt werden.

Das nur mit der Schwerkraft betriebene Notkühlsystem ECCS (Emergency Core Cooling System) besteht aus vier voneinander unabhängigen Zügen. In jeweils einem „Schwimmbecken“ oberhalb des Sicherheitsbehälters befinden sich zwei Kondensatoren. Diese bestehen aus je zwei übereinander angeordneten Sammlern, die durch zahlreiche dünne Rohre verbunden sind. Von dem Reaktordruckgefäß steigt eine Leitung zu den Sammlern auf. Im Kondensator kühlt sich das entweichende Dampf/Wassergemisch ab und strömt über den (kalten) Rücklauf wieder dem Reaktordruckgefäß zu. Es entsteht ein natürlicher Kreislauf, der sich selbst antreibt. Im Normalbetrieb ist die „warme“ Dampfleitung stets offen. Jede „kalte“ Rückleitung ist durch je zwei parallele Ventile verschlossen. Aus Gründen der Diversität ist ein Ventil elektrohydraulisch und das jeweils andere pneumatisch über einen Druckgasspeicher betrieben. Die Ventile befinden sich in einer „fail-safe“ Stellung: Während des Betriebs werden sie durch die Kraft der Hydraulik oder des Gases geschlossen gehalten. Geht der Druck weg – aus welchen Gründen auch immer, gewollt oder nicht – geben die Ventile den Weg frei. Wegen der Redundanz, reicht ein Ventil aus, um den gesamten Strom durchzulassen. Da die Kondensatoren und die Rückleitung vollständig mit „kaltem“ Wasser gefüllt sind, rauscht dieses Wasser infolge der Schwerkraft in den Reaktordruckbehälter und der Kondensator saugt dadurch ein „warmes“ Gas- und Dampfgemisch aus dem Reaktorgefäß nach. Ein Naturumlauf ist entfacht. Dieser läuft solange, wie der Kern Nachzerfallswärme produziert und die Außenluft diese Wärme abnimmt.

Wenn das nukleare System irgendwo ein Leck hat, würde irgendwann der Kern trocken fallen. Das entweichende Wasser muß sofort ersetzt werden. Zu diesem Zweck gibt es innerhalb des Sicherheitsbehälters große Wassertanks. Damit aber das Wasser in freiem Fall nachströmen kann, muß zuerst der Druck im System abgebaut werden. Hierfür gibt es 8 Sicherheitsventile, 10 Abblaseventile (die zeitweilig durch pneumatische Antriebe geöffnet werden können) und 8 Druckentlastungsventile unmittelbar am Reaktordruckgefäß. Letztere enthalten verschweißte Membranen, durch die sie dauerhaft dicht und wartungsfrei sind. Wenn sie öffnen müssen, „durchschneidet“ ein Kolben die Dichtung. Dieser Kolben wird durch Gas, welches pyrotechnisch in einem Gasgenerator erzeugt wird, bewegt. Es ist das gleiche Prinzip, wie bei einem „Airbag“ im Auto – ein sehr kleiner „Signalstrom“ reicht zur Zündung aus und erzeugt über die „Sprengkraft“ eine sehr große Gasmenge. Diese Ventile sind so gebaut, daß sie den Weg vollständig frei geben, nicht verstopfen können und sich nicht wieder schließen lassen.

Der Energieabbau und die Kühlung geschieht in mehreren miteinander verknüpften Schritten:

  1. Aus den diversen Abblaseventilen strömt (zumindest am Anfang) ein Dampfstrahl mit hoher Energie und Geschwindigkeit. Dieser wird feinverteilt in Wasserbecken eingeblasen. Diese sog. Kondensationskammern befinden sich unten im Sicherheitsbehälter.
  2. Durch die Kondensation fällt der Dampf in sich zusammen und bildet wieder Wasser. Die Verdampfungswärme geht dabei an das Wasser der Kondensationskammer über. Würde man das Wasser nicht kühlen, wäre irgendwann Schluß damit. Der Zeitraum hängt von der Nachzerfallswärme und dem Wasservolumen ab.
  3. Das Wasser in den Kondensationskammern kann auf verschiedenen Wegen gekühlt werden. Der wichtigste Weg ist über die weiter oben beschriebenen Kondensatoren.
  4. Damit der Reaktorkern stets sicher gekühlt ist, sind die Wasservolumina in den Kondensationskammern und Speichern so bemessen, daß der Kern auch dann unter Wasser bleibt, wenn sich das Wasser im Sicherheitsbehälter ausbreitet. Dieser Zustand kann auch absichtlich herbeigeführt werden.
  5. Um eine Kettenreaktion sicher und dauerhaft zu verhindern, wird zusätzlich aus Speichern borhaltiges (Neutronengift) Wasser eingesprüht.

Der „Supergau“

Im Gegensatz zu den Anfängen der Kernkraftwerkstechnik diskutiert man schon heute im Zulassungsverfahren ganz offensiv das Versagen aller Sicherheitseinrichtungen: Einerseits setzt man sich dabei mit den Auswirkungen der dadurch freigesetzten Radioaktivität auf die Umgebung auseinander und andererseits beschäftigt man sich mit Möglichkeiten diese Auswirkungen trotzdem abzumildern.

Ein typischer Fall ist das Versagen des Sicherheitsbehälters. Man versucht alles erdenkliche zu tun um dies zu verhindern, beschäftigt sich aber trotzdem mit diesem Ereignis. Ein Schritt diesen Unfall abzumildern, ist die gesteuerte Ableitung über Filter und den Abgaskamin. Durch die Kaminhöhe verdünnt sich die Abgaswolke beträchtlich. Durch das Vorschalten von geeigneten Filtern kann die Schadstoffmenge zusätzlich gemindert werden.

Ähnlich verhält es sich mit dem Kern: Durch redundante, passive Kühlsysteme versucht man den Brennstoff und die Spaltprodukte im Reaktordruckgefäß zu halten. Trotzdem untersucht man auch ein Versagen des Druckbehälters. Wie Fukushima gezeigt hat, ist auch beim Versagen der Notkühlung nicht mit einem „China Syndrom“ (Hollywood Phantasie, nach der sich der schmelzende Kern immer weiter in den Untergrund frisst) zu rechnen. Trotzdem geht man von einem Schmelzen des Stahlbehälters wie bei einem Hochofenabstich aus. Die Grube des Reaktorgefässes ist deshalb als „feuerfester Fußboden“ (BiMAC, Basemat Internal Melt Arrest and Coolability device) ausgeführt. Unterhalb einer feuerfesten Schicht befindet sich ein Rohrleitungssystem, welches – quasi wie bei einer Fußbodenheizung – diese Schicht kühlt. Dieser „Fußboden“ ist bezüglich seiner Konstruktion und Leistung für den 4-fachen Kerninhalt ausgelegt. Zusätzlich könnte die Grube mit dem im Sicherheitsbehälter vorhandenem Wasser vollständig geflutet werden, um die Spaltprodukte größtenteils darin zurückzuhalten.

Leistungsregelung

Normalerweise geschieht die Leistungsregelung bei Siedewasserreaktoren über die Steuerstäbe und die Umwälzpumpen. Die Steuerstäbe dienen nur zum Anfahren und bis etwa 50% der Auslegungsleistung. Im Bereich oberhalb 60% wird die Leistung nur noch über die Umwälzpumpen durchgeführt. Die Steuerstäbe dienen dann nur noch zur Kompensation des Abbrands.

Beim ESBWR kann der Reaktor durch langsames ziehen der Steuerstäbe auf Temperatur gebracht werden. Da im Siedebereich Temperatur und Druck miteinander gekoppelt sind, steigt auch der Druck im nuklearen System entsprechend an. Würde man keinen Dampf entnehmen, würde der Druck im „Kessel“ immer weiter ansteigen bis die Sicherheitsventile ansprechen. Natürlich wird so bald wie möglich Dampf entnommen, um die Turbine und das gesamte nukleare System damit aufzuwärmen. Wenn man aber Dampf entnimmt, muß die gleiche Menge durch Speisewasser ersetzt werden. Das Speisewasser wird im Betriebszustand auf 216°C vorgewärmt. Dies geschieht in sechs Stufen. Man entnimmt dazu an bestimmten Stellen der Turbine eine gewisse Menge Dampf. Dies ist sinnvoll, da der jeweils entnommene Dampf bereits Arbeit geleistet hat und sich somit der Wirkungsgrad verbessert. Man nennt diese Strategie „Carnotisierung“.

Der ESBWR hat gegenüber einem normalen Siedewasserreaktor (z. B. ABWR) eine siebte Vorwärmstufe, die mit frischem Dampf aus dem Reaktor beheizt wird. Normalerweise wird sie deshalb umgangen. Wenn man beispielsweise mit dieser Stufe die Speisewassertemperatur auf 252°C erhöht, geht die Leistung des Reaktors – bei gleicher Position der Steuerstäbe – auf 85% zurück. Umgekehrt könnte man die Steuerstäbe etwa so weit einfahren, daß nur noch rund 50% der Auslegungsleistung erzeugt wird. Würde man nun die Speisewassertemperatur auf 180°C absenken, würde sich wieder die ursprüngliche Leistung einstellen. Es ergibt sich somit im Bereich zwischen 50% bis 100% Leistung ein umfangreiches Feld, in dem sich die Leistung durch Kombination von Steuerstabstellungen und Speisewassertemperatur regeln läßt.

Die physikalische Ursache ist bei allen Siedewasserreaktoren die Abhängigkeit der Abbremsung der Neutronen von der Dichte des Moderators. Bei Reaktoren mit Umwälzpumpen wird die Dichte durch „ausspülen“ von Dampfblasen aus den Brennelementen erhöht, bei Naturumlauf durch das Absenken der mittleren Temperatur.

Wegen seiner Leistung von 1600 MWel. dürfte dieser Reaktor eher in der Grundlast eingesetzt werden. Gleichwohl ist ein täglicher Lastfolgebetrieb vorgesehen und genehmigt. So sind z. B. die Steuerstäbe für eine Betriebsdauer von 10 Jahren bei täglichem Lastwechsel zugelassen. Idealerweise fährt man mit diesem Reaktor aber mit konstant volle Leistung. Wegen seiner Stabilität und seiner passiven Notkühlung ist er sogar für den Betrieb durch nur einen Bediener konstruiert und zugelassen!

Ausblick

Im nächsten Teil werden die Schwerwasserreaktoren vorgestellt. Es ist bereits beschlossen, einen weiteren solchen Reaktor in Kooperation mit China, in Rumänien zu errichten.

Kohle, Gas, Öl, Kernenergie? – Teil 2

Neben den fossilen Energieträgern wird auch in der Zukunft weltweit die Kernenergie einen steigenden Anteil übernehmen. Wem das als eine gewagte Aussage erscheint, sollte dringend weiterlesen, damit er nicht eines Tages überrascht wird.

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von „Energieeffizienz“ ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein „Gutmensch“ in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen „VW-Käfer“ auf den Motor mit Katalysator, vom „hohen Schornstein“ auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.

Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an „Strahlengefahr“ denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der „Atomstromverbraucher“ wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.

Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. „Red book“, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

  • Wieviel Kernkraftwerke sind in Betrieb,
  • welche Reaktortypen werden eingesetzt,
  • welche Anreicherungsverfahren zu welchen Betriebskosten und
  • wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im „Red book“ geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?

Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über U235 einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel. pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen U235 und U238 wird die Konzentration von U235 im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von U235erhöht hat, hat er sich natürlich im „Abfallstrom“ entsprechend verringert. Das „tails assay“, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% U235.. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).

Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine „Wiederanreicherung“ könnte man fast 500.000 to „Natururan“ erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% U235 etwa 420.000 to künstlich hergestelltes „Natururan“ und einen neuen „Abfallstrom“ von 1.080.000 to tails assay mit 0,14% U235.. Man sieht also, der Begriff „Abfall“ ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement „abgebrannt“ ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.

Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen „Endlager“ (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium „erbrütet“. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das „abgebrannte Uran“ immer noch einen etwas höheren Gehalt (rund 0,9%) an U235.als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.

Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.

Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat „Atommüll“ – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig „weniger gefährlich“ zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von über 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.

Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael. aus (siehe oben), die ein Leichtwasserreaktor „statistisch“ verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, „Schnelle Brüter“ etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.

Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die „besseren Modelle“ auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Fukushima – Zweite Begutachtung durch IAEA

Anfang Februar 2014 veröffentlichte die IAEA (International Atomic Energy Agency) ihren zweiten Bericht zur Vorgehensweise bei der Beseitigung der Schäden im Kernkraftwerk von Fukushima. Dieser Bericht enthält neben zahlreichen Details zum gegenwärtigen Zustand vor Ort, auch eine kritische Würdigung der bisher durchgeführten Maßnahmen und Vorschläge für Verbesserungen und mögliche internationale Unterstützung. Da es sicherlich für viele etwas zu zeitaufwendig ist, einen 72-Seiten-Bericht in englischer Sprache zu lesen, wird hier eine Zusammenfassung versucht.

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese „Roadmap“ enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser „Roadmap“ gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen „Atomexperten“ kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich „Castoren“) verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie „normalen“ Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des „radioaktiven Bruches“. Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt – verursacht durch die Wasserstoffexplosionen – wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

  1. Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des „radioaktiven Schutts“.
  2. Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.
  3. Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich für die Strahlenbelastung im Tanklager verantwortlich; β- und α-Strahler sind in diesem Sinne unerheblich – niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3. sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks bestehen inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es „strahlt“ daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr90 und Y90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide – bis auf Tritium – unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet „titriertes Wasser“, welches chemisch praktisch nicht von normalem H2 O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in „Trinkwasserqualität“ in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen „Ja“ zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume „leicht verstrahlt“ sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser „Altholzfässer“ wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m„Atommüll“ aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3.. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses „leicht radioaktive“ Material gleich zum Bau der „Atommülldeponien“ wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3. täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser – absurd niedrige Wert – hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der „cloudshine“ (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^-8 mSv/a, die direkte Strahlung ungefähr 2,8 x 10^-2 mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^-4 mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung „dramatisch“ auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der „ersten Kühlwässer“ eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die „Strahlenbelastung der Öffentlichkeit“ eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen – diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs137. wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von „natürlichem“ Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.