Baubeginn für zweiten Reaktor

Ende März erfolgte der offizielle Baubeginn des zweiten Reaktorblocks für das Kernkraftwerk Barakah in Abu Dhabi in der Vereinigten Arabischen Emiraten (UAE). Baubeginn für den ersten Block war im July 2012. Die Blöcke 3 und 4 sollen folgen. Alle vier Reaktoren sollen in den Jahren 2017 bis 2020 ans Netz gehen. Im Jahre 2009 wurde der Auftrag für knapp 16 Milliarden Euro an ein koreanisches Konsortium vergeben. Samsung, Hyundai und Doosan Heavy Industries werden dieses Kraftwerk mit 5600 MWe errichten. Bemerkenswert ist der spezifische Preis von deutlich unter 3000 EUR/kW. Der erwartete Strompreis wird mit rund 2 Cent/kWh angegeben. Für diesen Preis kann man heute in Deutschland nicht mal mehr Strom aus Braunkohle produzieren. So viel nur zum „energiegewendeten“ Industriestandort Deutschland im Jahre 2020.

Warum Kernenergie im Ölland?

In allen Golfstaaten hat in den letzten Jahren eine bemerkenswerte Industrialisierung statt gefunden: Riesige petrochemische Anlagen, Stahlwerke, Kupfer und Aluminiumhütten etc. Basis ist und bleibt der Reichtum an Öl und Erdgas. Man setzt allerdings konsequent auf den verstärkten Export von veredelten Produkten an der Stelle von Rohstoffen. Verknüpft ist das alles mit einer rasant wachsenden Bevölkerung und zunehmendem Wohlstand. So verdoppelt sich der Strombedarf in den Emiraten etwa alle zehn Jahre. Hinzu kommt noch ein riesiger Bedarf an Trinkwasser, der ausschließlich über energieintensive Meerwasser-Entsalzungsanlagen gewonnen werden muß.

In allen Golfstaaten begann die Elektrifizierung mit Ölkraftwerken. Schon in den 1970er Jahren ergab sich ein neuer Zielkonflikt: Das Rohöl (in Weltmartktpreisen) wurde immer teurer und gleichzeitig nahmen die Umweltprobleme durch das Abfackeln der Begleitgase immer mehr zu. Folgerichtig wurde eine Umstellung auf Gaskraftwerke betrieben. Man konnte in den Emiraten mit dieser Politik zwei Ziele erreichen: Gewinnung zusätzlicher Ölmengen für den Export und Umweltschutz. Es wurden Kombikraftwerke in Serie gebaut: Mit dem Erdgas werden Gasturbinen betrieben und deren Abgas anschließend in Dampfkesseln zur weiteren Stromerzeugung genutzt. Zusätzlich sind die Dampfturbinen mit Anzapfungen zur Auskoppelung von Niedertemperaturdampf versehen, der in Enstspannungsverdampfern Trinkwasser aus Meerwasser erzeugt. Dieser Verbund auf der Basis (einst) billig vorhandenen Brennstoffs war so günstig, daß in den Emiraten beispielsweise Aluminiumwerke betrieben werden können. Sonst eher eine Domäne billiger Wasserkraft. Inzwischen ist jedoch der Gasverbrauch so stark angestiegen, daß z. B. Erdgas aus dem benachbarten Katar importiert werden muß. Und schon drückt auch hier der Weltmarktpreis für Erdgas auf die Eigenerzeugung. Umfangreiche Studien kamen zu dem Ergebnis, daß der weiter steigende Strom- und Trinkwasserbedarf sinnvoll nur durch (importierte) Kohle oder Kernkraft gedeckt werden kann.

Man wählte als ersten Schritt den Einstieg in eine erprobte Technik: Die Kernenergie. Im zweiten Schritt ist für Dubai ein Kohlekraftwerk mit CO2-Abscheidung geplant. Auch hier wird ein mehrfacher Nutzen angestrebt: Das abgeschiedene Kohlendioxid soll in „alte“ Ölfelder zur zusätzlichen Ölgewinnung verpreßt werden. Überkritisches Kohlendioxid ist einer der besten Lösungsmittel überhaupt. In Texas wird diese Methode bereits in großem Maßstab angewendet, um vermeintlich „trockene“ Ölfelder weiter zu entölen. Dort ist diese Methode wirtschaftlich, weil man große natürliche Kohlendioxidvorkommen in unmittelbarer Nähe der Ölfelder hat. In Norwegen fördert man stark kohlendioxidhaltiges Erdgas. Das Kohlendioxid wird nach Abscheidung ebenfalls wieder in die Lagerstätte verpreßt um den Lagerstättendruck aufrecht zu erhalten. Was die „unterirdische Lagerung von CO2“ betrifft, handelt es sich also um eine seit langem erprobte Technologie. Bleibt noch die Abscheidung im Kraftwerk: Einst auch eine verfahrenstechnische Domäne Deutschlands – bis „Grüne“ meinten, daß CO2 ganz, ganz böse und gefährlich sei. Mal sehen, welches Land den Auftrag für das Kraftwerk erhält. Aber der Deutsche Michel wird sich trotzdem glücklich schätzen, wenn er für sein Erdgas und Benzin noch ein weiteres „CO2-Zertifikat“ oben drauf kaufen darf, zur Wohlstandsförderung in den Ölstaaten. Er hat es halt nicht besser verdient.

Warum nicht Sonne?

Nun, alle Golfstaaten bauen durchaus „Sonnenkraftwerke“. Nur leider scheint auch in der Wüste nachts keine Sonne. Zwar gibt es ein paar mehr Sonnenstunden dort, aber leider ist es auch bedeutend wärmer und alle Verfahren zur Stromgewinnung knicken mit steigender Temperatur ein. Man kann dort also gar nicht so viel mehr elektrische Energie mit einem Sonnenkollektor gewinnen. Um die gleiche Energie, wie ein Kernkraftwerk mit seiner Arbeitsverfügbarkeit von 90 % zu gewinnen, benötigte man gigantische Flächen, Speicher und riesige Mengen Wasser zur Kühlung und/oder Reinigung. Tatsachen, die gerne von „Sonnenmännchen“ in ihren Werbebroschüren verschwiegen werden. Insofern kann auch in der Golfregion Sonnenenergie nur ergänzend eingesetzt werden. Eine Vollversorgung ist – nicht nur aus wirtschaftlichen Gründen – illusorisch.

Es gibt auch reichlich Wind in der Golfregion. Nur bläst der Wind noch zufälliger und wenn er bläst, ähnelt er mehr einem Sandstrahlgebläse. Außerdem macht es wenig Sinn, seine Küsten zu „verspargeln“, wenn man auch den Tourismus fördern will. Alles in allem, eher schlechte Bedingungen für „Alternativtechnik“.

Die Emirate sind der Musterfall für alle wüstenähnlichen Regionen. Wer glaubte, man könne diese Regionen zur Stromversorgung von Europa nutzen, ist einem Märchen aufgesessen. Die Mittel reichen nicht einmal für eine Selbstversorgung dieser Länder. Es ist daher kein Zufall, daß gerade die aufstrebenden Nationen in Kernkraftwerken ihre einzige Möglichkeit sehen. Hinzu kommt in diesen Ländern die notorische Trinkwasserknappheit. Meerwasserentsalzung ist die einzige Alternative. Wenn all diese Länder hierfür Kohle einsetzen wollten, würde der Weltmarkt aus den Fugen geraten. Die heimischen Gas- und Ölvorkommen (so weit vorhanden) werden als Devisenbringer ohnehin dringend benötigt.

Proliferation

Die UAE sind auch in politischer Hinsicht ein Musterfall: Um gar nicht erst den Verdacht zu erwecken, nach Kernwaffen zu streben, haben sie sich verpflichtet auf Urananreicherung und Wiederaufbereitung zu verzichten. Im Gegenzug garantiert man ihnen die Versorgung mit Brennstoff. Dies ist ein Modell, auf das sich auch andere Länder einlassen können und wahrscheinlich auch müssen, wenn sie die volle Unterstützung der Weltgemeinschaft genießen wollen. Iran ist das krasse Gegenbeispiel.

Zumindest der letzte Punkt ist auch für Deutschland von Vorteil. Die Gespensterdebatte um ein „Atommüll-Endlager“ ist überflüssig geworden, da sich kurz über lang ein internationaler Markt für Wiederaufbereitung herausbilden wird. Wie schnell das geschieht, hängt allein von der Wachstumsgeschwindigkeit der Kernenergie und von den Preisen für Natururan ab. Der Tag wird nicht mehr so fern sein, wo Deutschland seine „Uran- und Plutoniumvorräte“ auf dem Weltmarkt verkaufen kann. Deshalb bauen ähnlich kleine Länder, wie Schweden und Finnland auch „rückholbare Endlager“. Man vergräbt zwar durchaus Schätze, aber stets um sie sicher zu lagern und nicht um sie zu vergessen. Abgenutzte Brennelemente sind Wertstoffe und kein Müll.

Dampferzeuger aus China

Anfang Mai wurde der erste in China gefertigte Dampferzeuger für einen EPR (European Pressurized Water Reactor) auf der Baustelle in Taishan (140 km westlich von Hong Kong) angeliefert. Was ist daran so bemerkenswert? Nun, der EPR ist der modernste Reaktor (sog. Generation III+) von Areva. Ursprünglich eine gemeinsame Entwicklung von Deutschland und Frankreich. Er sollte die Weiterentwicklung der bis dahin modernsten Reaktoren (Konvoi und N4) in beiden Ländern sein. Dieser Typ verkörpert über mehrere Jahrzehnte gewachsene Erfahrung in Bau und Betrieb. Außerhalb von China sind nur zwei weitere Reaktoren (Olkiluoto in Finnland und Flamanville in Frankreich) z. Zt. im Bau. Man kann mit Fug und Recht sagen, dieses Modell ist das mit Abstand anspruchsvollste Projekt, was der europäische Anlagenbau (noch) zu bieten hatte. In seiner Komplexität und seinen technischen Anforderungen höchstens noch mit dem Airbus vergleichbar. Eine Nation, die solche Kernkraftwerke bauen kann, ist auch jederzeit auf allen anderen Gebieten der Anlagentechnik (Chemieanlagen, Raffinerien, Spezialschiffbau etc.) ein ernsthafter Konkurrent. Wer andererseits freiwillig aus der „Hochtechnologie“ aussteigt, leitet unweigerlich die Deindustrialisierung ein. Der Fortschritt kennt nur eine Richtung: Wer die Entwicklung (freiwillig oder unfreiwillig) einstellt, muß gnadenlos auf dem Weltmarkt aussteigen. Der Niedergang der DDR ist ein schönes Beispiel dafür. Letztendlich führt das „Rumwursteln im Mangel“ immer auch zu einem gesellschaftlichen Zusammenbruch.

Der Dampferzeuger als technisches Objekt

Was macht den Dampferzeuger eines Kernkraftwerks so besonders, daß weniger als eine Hand voll Länder dazu in der Lage sind? Die schiere Größe und die Komplexität. Trauriges Beispiel hierfür, sind die von Mitsubishi aus Japan neu gelieferten Dampferzeuger für das Kraftwerk San Onofre in USA. Sie waren in kürzester Zeit schwer beschädigt, was zu einem mehrmonatigen Ausfall des Kraftwerks geführt hat. Wahrscheinlicher Grund: Falsche Berechnung der Strömungsverhältnisse. Wieder einmal, ist die Kerntechnik der Antrieb für die Entwicklung verbesserter Simulationsprogramme. Die heute in vielen Industriezweigen verwendeten Thermo-Hydraulischen-Simulationen (Verknüpfte Berechnung von Strömungen und Wärmeübertragung) würde es ohne die Kerntechnik schlicht nicht geben. Die hierfür nötigen „Super-Computer“ ebenfalls nicht. Wer meint, aus dieser Entwicklung aussteigen zu können, endet zwangsläufig bei den bemitleidenswerten „Klimamodellen“ aus der Berliner Vorstadt, mit denen man uns weiß machen möchte, man könne die „Welttemperatur“ auf einige zehntel Grad genau berechnen.

Viel unmittelbarer ist der Zusammenhang auf der „mechanischen“ Seite. Ein solcher Dampferzeuger hat ein Gewicht von etwa 550 to bei einer Länge von 25 Metern. Wer solche Massen wie ein rohes Ei heben, transportieren und auf den Millimeter genau absetzen kann, braucht sich auch vor anderen Baumaßnahmen nicht zu fürchten. Dies erfordert eine entsprechende Infrastruktur und vor allem „Fachkräfte“ mit jahrelanger praktischer Erfahrung. Viel entscheidender ist jedoch, die Fertigung solch großer Teile, in der erforderlichen Präzision, aus speziellen Materialien. Bisher ist der Bau von Bearbeitungszentren eine Domäne der deutschen Werkzeugmaschinenindustrie. Was geschieht aber, wenn Europa den Schwermaschinenbau immer mehr aufgibt? Die Werkzeugmaschinenhersteller werden ihren Kunden nach Asien folgen müssen.

Die Kerntechnik war stets ein Hort für die Verarbeitung exotischer Werkstoffe. Die Dampferzeuger sind ein typisches Beispiel. Sie müssen die gesamte im Reaktor erzeugte Wärme übertragen und daraus Dampf erzeugen. Dazu ist eine entsprechende Druckdifferenz und Wärmeübertragungsfläche nötig. Ein Druckwasserreaktor muß wegen der Neutronenphysik mit flüssigem Wasser betrieben werden. Eine Turbine mit Dampf. Damit das Wasser bei einer Temperatur von rund 330 °C noch flüssig bleibt, muß es unter einem Druck von etwa 155 bar stehen. Der damit hergestellte Dampf von knapp 300 °C hat aber nur einen Druck von etwa 78 bar. Diese enorme Druckdifferenz von etwa 80 bar muß sicher beherrscht werden. Für solch hohe Drücke kommen praktisch nur dünne Rohre in Frage, denn die Wärme soll ja durch die Rohrwand hindurch übertragen werden. Solche Dampferzeugerrohre haben eine Wandstärke von lediglich einem Millimeter, bei einem Außendurchmesser von weniger als 2 Zentimetern. Wie kann man aber fast 24.000 Liter pro Sekunde durch solch enge Rohre pumpen? Nur indem man tausende Rohre parallel schaltet und genau das ist die nächste Herausforderung: Zehntausende Röhren müssen pro Reaktor hergestellt, gebogen, befestigt und abgedichtet werden. Das Material muß eine gute Wärmeleitung besitzen, bei möglichst hoher Festigkeit und Korrosionsbeständigkeit. Hinzu kommen noch jede Menge Einbauten und Instrumentierung. So etwas kann man nur in einer Fabrik bauen, die eher einem Labor oder Krankenhaus gleicht, aber nicht in einer Schlosserei. Mit hoch qualifizierten (und deshalb auch gut bezahlten) Fachkräften.

Die gesellschaftlichen Konsequenzen

Die ersten vier Dampferzeuger für den Block Taishan 1 wurden noch komplett bei bei Areva in Chalon-StMarcel gefertigt. Die weiteren vier für Taishan 2 kommen bereits aus chinesischer Fertigung. Das Lerntempo ist bemerkenswert. Entscheidend ist aber folgendes: Niemand baut eine eigene Fabrik für nur vier Dampferzeuger. Ein solcher Schritt macht nur Sinn, wenn man vor hat, noch ganz viele zu bauen. Zuerst lockt der eigene Inlandsmarkt. Für Areva dürfte sich schon dieses Geschäft mit dem Wissenstransfer erledigt haben. Der chinesische Markt für Kernkraftwerke ist gegenüber dem europäischen gigantisch. China kann also in kürzester Zeit Kostenvorteile durch Serienproduktion erzielen. Mit diesen Kostenvorteilen wird es in spätestens einem Jahrzehnt massiv auf den Weltmarkt drücken. China wird aber auch die eingekaufte Technik weiterentwickeln. Die „kleine“ Areva hat langfristig keine Chance mitzuhalten. Wenn nicht jetzt massiv umgedacht wird, hat Europa in weniger als einer Generation eine weitere Schlüsseltechnik verspielt: Nach dem Bau von Computern wird auch der Kraftwerksbau aus Europa verschwinden und mit ihm im Fahrwasser, ganze Industriezweige. Aber wahrscheinlich ist das der wahre Grund für die „Energiewende“: Es geht nicht um ein bischen „Ökologismus“ sondern schlicht weg (mal wieder) um „Gesellschaftsveränderung“.

Fukushima, zwei Jahre danach

Jahrestage dienen immer der Erinnerung und der Bilanzen. So auch im Falle des Reaktorunglücks in Fukushima. Zahlreiche Veröffentlichungen sind bisher erschienen. Nach zwei Jahren erscheint es an der Zeit, die ersten grundsätzlichen Konsequenzen zu ziehen.

Was geschah

Vor zwei Jahren erschütterte ein selten starkes Erdbeben den Norden der japanischen Inseln. Erdbeben sind in Japan Routine. Was allerdings überraschte, war die Schwere und der Ort des Geschehens: Ein solch schweres Beben hatte man in absehbarer Zeit eher im Süden erwartet. Die Folge dieses küstennahen Bebens war ein außergewöhnlich heftiger Tsunami. Auch das nicht selbstverständlich für ein Meeresbeben. Alles in allem, eher ein Jahrtausendereignis. Gleichwohl bekannt, wenn auch selten. Geologen kannten mehrere Ereignisse mit hohen Flutwellen in dieser Gegend in den letzten Jahrtausenden. Die Flutwelle überspülte das gesamte Kraftwerk und zerstörte dabei alle Außenanlagen. Die Bedienungsmannschaft gehörte zu den wenigen, die mangels geeigneter Kommunikationsmittel die Warnungen vor dem Tsunami gar nicht mitbekommen haben. Wertvolle Zeit zwischen den Erdstößen und der Flutwelle ist verstrichen und es wurden sogar unangemessene Entscheidungen gefällt. Die Wasserwand traf das Kraftwerk und seine Mannschaft unerwartet und mit unvorstellbarer Gewalt. Wie war es möglich, daß ein Kernkraftwerk buchstäblich überrollt werden konnte? Es war ganz einfach auf zu niedrigem Grund gebaut worden. Man hatte sogar während der Bauzeit noch Gelände abgetragen, um die Baustelle einfacher zu gestalten. Es wurden zwar anschließend Flutmolen gebaut, aber leider viel zu niedrig. Man wußte das seit langem, hatte aber auf „kleine Wellen“ gewettet, da das Kraftwerk ohnehin in einigen Monaten still gelegt werden sollte. Hinzu kam eine von sich aus schon nicht besonders robuste und veraltete Konstruktion und eine im Laufe der Jahrzehnte nicht mehr besonders geschulte Mannschaft. Solche Ketten sind leider nicht außergewöhnlich: Viele – für sich genommen unbedeutende Fehlentscheidungen – können sich in einem Unglücksfall zur Katastrophe auswachsen. Es entstand ein immenser materieller Schaden. Die Kosten übersteigen (damals) notwendige Investitionen um Größenordnungen.

Entweder man macht es richtig oder man läßt es bleiben

Die Standortbedingungen waren sehr genau bekannt. Ein „wird schon gut gehen“, darf es in der Kerntechnik nicht geben. Ein Kernkraftwerk hätte an diesem Standort besser nicht gebaut werden sollen. Da man es trotzdem gemacht hat, hätte man es gegen solche Flutwellen sichern müssen. Spätestens nach Tschernobyl war bekannt, daß es nicht besonders schlau ist, einen Reaktor in eine einfache Industriehalle zu stellen. Hätte das Kraftwerk eine übliche Betonhülle gegen Einwirkungen von außen gehabt, wäre es durch eine „kleine“ Wasserstoffexplosion nicht in sich zusammengefallen. Die Lagerbecken für Brennelemente wären heute nicht mit Bauschutt verschüttet und hätten längst geleert werden können. Ebenso fragwürdig ist der Bau „Wand an Wand“ von Reaktoren, die über zahlreiche Keller, Gänge und Rohrleitungen so miteinander verbunden sind. Wie sich gezeigt hat, können sich im Schadensfall schädliche Gase und radioaktive Flüssigkeiten ungehindert ausbreiten.

Schon Anfang der 1970er Jahre wurde das sehr geringe Volumen des Sicherheitsbehälters bei diesem Reaktormodell kritisiert. Man forderte deshalb Druckentlastungsventile, über die ein etwaiger Überdruck kontrolliert abgebaut werden könnte. Politisch tat man sich damit sehr schwer: Der Sicherheitsbehälter sollte doch eine Freisetzung von Radioaktivität verhindern. Jetzt sollte er geöffnet werden? Dies glaubte man der Öffentlichkeit nur schwer verständlich machen zu können. Ähnliches galt für das Betriebspersonal: Seine wichtigste Aufgabe ist es, die Freisetzung von Radioaktivität zu vermeiden. Was würde mit ihm geschehen, wenn es das Ventil zu „leichtfertig“ öffnen würde?

Spätestens nach dem Unfall in Harrisburg war es eine Tatsache, daß Brennstäbe trocken fallen können und es dann zur Bildung von Wasserstoff kommen kann. Um eine Explosion im Sicherheitsbehälter zu verhindern, wurde dieser während des Betriebs mit Stickstoff gefüllt. Tritt aber nach der Bildung von Wasserstoff, Gas aus dem Sicherheitsbehälter aus, kann es an der frischen Luft zu einer Explosion kommen. Alles seit Jahrzehnten bekannt und durch Experimente bestätigt.

Die Hauptursache war jedoch der Ausfall der Stromversorgung über eine zu lange Zeitdauer. Durch die Flutwelle war großflächig das Stromnetz zerstört. Das Kraftwerk hätte sich also mehrere Tage selbst versorgen müssen. Da das Einlaufbauwerk mit den Kühlwasserpumpen zerstört war, war mangels Kühlung eine Eigenversorgung des Kraftwerks unmöglich. Die Flutwelle hatte nicht nur die Notstromdiesel außer Gefecht gesetzt, sondern auch einen „großen Kurzschluß“ in den Schaltanlagen verursacht. Unmittelbare Hilfe von außen (z. B. Feuerwehr, Fachleute usw.) war erst später möglich, da die gesamte Infrastruktur im Bezirk großflächig und gründlich zerstört war. Die Betriebsmannschaft mußte sich im entscheidenden Zeitraum mit Batterien und Taschenlampen „durchwursteln“. Eine Situation, die (bislang) in keinem Handbuch beschrieben war. Das alles unter einer enormen psychischen Belastung: Es war sehr schnell klar, wie zerstörerisch dieser Tsunami gewesen sein mußte und fast alle hatten ihre Familien in den nahe gelegenen Orten. Diese Kombination von totalem Stromausfall und schweren Schäden im eigenen Kraftwerk, bei gleichzeitiger Isolation von der Außenwelt, hatte es bis dahin noch nicht gegeben.

Das Positive am Unfall

Der Tsunami in Japan war eine der verheerendsten Naturkatastrophen, die ein Industrieland je getroffen hat. Schon die hohe Zahl an Toten und Vermissten spricht für die enorme Gewalt und Ausdehnung. Trotzdem sind nur vier von über fünfzig Reaktoren Totalschaden. Der überwiegende Teil ist nur leicht oder gar nicht beschädigt worden. Selbst bei dem schweren Unfall in Fukushima, ist kein Mensch durch Strahlung schwer geschädigt oder gar getötet worden. Insgesamt ein sehr positives Ergebnis. Bei Kernkraftwerken handelt es sich offensichtlich um recht robuste Anlagen.

Besonders positiv ist, daß eine deutliche Lernkurve zu verzeichnen ist: Je jünger die Anlagen, um so geringer die Schäden. Selbst die Kraftwerke der 1960er Jahre, die aus heutiger Sicht eine Menge Nachteile aufweisen, hatten so viele eingebaute „Sicherheiten“, daß sie zwar einen solchen Tsunami nicht überstanden haben, aber trotzdem nur eine geringe Gefährdung ihrer Umwelt darstellen.

Die Japaner sind tatkräftig dabei, ihr „Missgeschick“ in eine Chance umzuwandeln: Haben sie bereits mehrfach den Beweis geliefert, daß sie erfolgreich Kernkraftwerke in Erdbebenregionen bauen und betreiben können, sind sie jetzt dabei, der Welt zu zeigen, wie man mit einer „Nuklearkatastrophe“ verantwortungsvoll umgeht. Die Ruine wird zielstrebig und umweltschonend beseitigt. Und dies geschieht alles öffentlich und unter „kritischer Begleitung“ unserer „Atomkraftgegner“, die ihr Geschäftsmodell der Verbreitung von Angst langsam schwinden sehen. Die Story von „Millionen Toten, für zehntausende Jahre unbewohnbar“ hat sich als schlechte Propaganda erwiesen. Schlecht deshalb, weil inzwischen von jedem als maßlose Übertreibung erkennbar.

Lehren, die gezogen werden müssen

Fukushima hätte nicht passieren müssen. Dies ist die einhellige Schlussfolgerung in allen bisherigen Untersuchungsberichten. Wie aber, konnte es geschehen, daß man das Risiko einer bekannt hohen Flutwelle förmlich ausblendete? Seit der Planung, wurde immer wieder von namhaften Geologen (keine selbsternannten „Atomexperten“) auf die mögliche Höhe einer Flutwelle an diesem Standort hingewiesen. Bei dem Kraftwerk in Fukushima handelte es sich um eine veraltete Konstruktion. Allein in den USA sind von diesen „alten Typen“ noch über 30 Stück in Betrieb. Allerdings mit einem entscheidenden Unterschied: Die konstruktiven Schwachstellen wurden herausgearbeitet und durch Nachrüstmassnahmen zumindest entschärft. Gleiches geschah z. B. in Schweden.

In Japan hat die „Atomaufsicht“ völlig versagt. Schlimmer: Wie man sich heute eingesteht, mußte sie versagen, weil sie von ihrer Konzeption her so angelegt war. Der japanische Staat ist vom Selbstverständnis her, ein fürsorglicher Staat. Er ist für das Wohl der Nation maßgeblich verantwortlich und sorgt deshalb für die ausreichende und sichere Versorgung mit Energie. Insofern war es in sich logisch, auch die Kernenergie von der Planung bis zum Betrieb möglichst eng zu verknüpfen. Anfangs ein Erfolgsrezept, denn Kerntechniker sind nicht per Knopfdruck zu erschaffen. Schon die Ausbildung dauert überdurchschnittlich lang und erfordert spezielle Qualifikationen. Heute spricht man treffend vom „Nuclear Village“ in Japan, in dem jeder mit jedem irgendeine Beziehung unterhält. Dieses System gipfelt im „Amakudari“ (etwa: vom Himmel herabsteigen) japanischer Behörden. Damit ist gemeint, daß Staatsbedienstete vor dem endgültigen Ruhestand noch einmal in die Privatwirtschaft wechseln um „richtig Geld zu machen“. Sie nutzen dann für ihre neuen Dienstherren ihre „Behördenerfahrung“ und ihre Kontakte. Man kann sicherlich nicht erwarten, daß solche „Kontrolleure“ ihre zukünftigen Brötchengeber durch „Übereifer“ verprellen wollen. Außerdem versucht man eine Lösung für die häufige Rotation zu finden. Für japanische Beamte ist alle zwei bis drei Jahre eine Versetzung üblich. Damit ist eine „Waffengleichheit“ bei der fachlichen Qualifikation zwischen Prüfer und Antragsteller kaum möglich. Dem Beamten bleibt aus Unsicherheit meist nichts anderes übrig, als dem Antragsteller in seiner Argumentation zu folgen. Nur so ist es erklärlich, warum z. B. die Anwendung der Wahrscheinlichkeitsanalyse so lange in Japan immer wieder verhindert werden konnte. Ein Beamter liebt keine Unsicherheiten, sondern wird immer einen konkreten Zahlenwert aus irgendeiner Vorschrift bevorzugen.

Bevor an dieser Stelle das Gefühl aufkommt, in Deutschland sei alles besser, nur mal einige Denkanstöße: Glaubt wirklich jemand, daß in Deutschland ein „Karrierebeamter“ noch wagt, ausschließlich nach wissenschaftlichen Erkenntnissen den Salzstock in Gorleben zu beurteilen, wo doch politisch alles auf „Anti-Gorleben“ gebürstet ist? Wo war der Aufschrei, als unter Rot-Grün systematisch Aufsichtsbehörden mit „kritischen Wissenschaftlern“ (ein Synonym für nachweislich fachlich unqualifiziert, aber mit richtiger politischer Gesinnung) in Führungspositionen besetzt wurden? Wer sollte heute noch Forschungsgelder für kerntechnische Fragestellungen beantragen, wo der „Atomausstieg“ doch beschlossene Sache ist und Forschungsgelder eher für „Gender-Problematik“ abzugreifen sind? Hier geht es nicht um einzelne Personen, sondern um Strukturen, die absehbar (wieder) in die Katastrophe führen. Ideologische Vorgaben und Wissenschaft schließen sich grundsätzlich aus.

Selbst im angeblichen Mutterland des Kapitalismus scheint einiges aus dem Ruder gelaufen zu sein. Zwar haben die USA eine ziemlich unabhängige und selbstbewusste „Atomaufsicht“, aber diese werkelt in Stundenlohnarbeit, zum Stundensatz von knapp 300 $, bei Genehmigungen jahrelang vor sich hin. Dort sitzen auch die Spezialisten, die sich beispielsweise ihr halbes Leben mit Rohren bei Dampferzeugern von Druckwasserreaktoren beschäftigt haben und deshalb auch die verwickelsten Fälle (San Onofre) in kurzer Zeit lösen. Aber mal ehrlich, wer möchte diesen Damen und Herren in Stundenlohnarbeit die Genehmigung eines gasgekühlten Wärmeübertragers vorlegen? Zwar gilt auch hier, die Kosten des einen, sind das Einkommen des anderen, aber mit einem entscheidenden Unterschied: Unübliche Kosten (alle bauen ja schließlich Leichtwasserreaktoren) lassen sich nicht auf dritte, die Stromkunden, abwälzen. Ein solches System ist extrem innovationsfeindlich. Das hat auch die amerikanische Regierung erkannt und versucht nun durch Milliardenprogramme (z. B. SMR-Reaktoren) diesen Fehler mehr schlecht als recht zu heilen – und was kommt raus? Überraschung: Kleine Druckwasserreaktoren, wie man sie eigentlich schon seit Jahrzehnten für die Marine baut.

Nun haben die USA wenigstens noch die „Nationale Sicherheit“, für die man eigentlich immer Gelder auftreiben kann und weitestgehend ungehindert forschen und entwickeln kann. Oder müssen wir uns doch eher auf „Gelenkte Demokratien“ verlassen, wo ein Diktator, in seiner unendlichen Weisheit, vielleicht doch neue Reaktortypen entwickeln läßt? Auszuschließen ist das nicht. Vielleicht ist es ja ein „Guter Diktator“, der uns an seinem Fortschritt auch noch selbstlos teilhaben läßt. Schließlich wollen unsere „Energiewender“ ja auch die Menschheit retten.

Soll Bürokratie und Planwirtschaft tatsächlich die Antwort auf eines der dringendsten Probleme der gesamten Menschheit sein: Ausreichend preiswerte Energie! Oder ist der „Geist von Cupertino“ nicht viel eher die Antwort? Wieso konnte ein Computerhersteller etliche Milliarden Dollar eigenes (!!!) Geld in die Hand nehmen und gegen den Rat aller „Telefonexperten“ ein völlig neues Telefonkonzept entwickeln? Die Antwort ist einfach: Weil man ihm die Freiheit dazu ließ! Selbstverständlich war er verpflichtet, alle geltenden Vorschriften und Sicherheitsnormen einzuhalten – aber bitte nicht mehr.

ATMEA1 versus AP1000

In der Kerntechnik hat sich die Einteilung von Reaktoren nach Generationen (GenI bis GenIV) eingebürgert. Stellvertretend für die in den 1960er Jahren und früher entstandene „1. Generation“ von Kernkraftwerken steht z. B. der Unglücksreaktor in Fukushima. Ein Beispiel für die folgende „2. Generation“ sind die sogenannten Konvoi-Kraftwerke Isar 2, Emsland und Neckarwestheim 2 in Deutschland. Heute im Bau befindet sich die „3. Generation“ wie z. B. der European Pressurized Water Reactor (EPR) von AREVA in Olkiluoto, Finnland und der Advanced Passive (AP1000) Reaktor von Westinghouse in Sanmen, China.

In jede Generation flossen die bisherigen praktischen Betriebserfahrungen, aufgetretene Unfälle und nicht zuletzt politische Forderungen ein. Typisches Beispiel, wie Teile der kerntechnischen Industrie stets bemüht waren, über jedes Stöcken zu springen, das ihnen die „Anti-Atomkraft-Bewegung“ hingehalten hat, ist der „Core Catcher“. 1979 schuf Hollywood den Katastrophenfilm „The China Syndrome“ (mit Jane Fonda, Jack Lemmon und Michael Douglas). In diesem Film bauen böse Kapitalisten ein unsicheres Kernkraftwerk. In typischer Hollywood-Übersteigerung kommt es (beinahe) zu einer Kernschmelze: Das „atomare Feuer“ frißt sich durch meterdicken Stahl und Beton Richtung China. Physikalisch ist das zwar kompletter Unsinn, politisch aber ein absoluter Volltreffer: Noch mehr als 30 Jahre später, zählt die „Kernschmelze“ zu den Gruselgeschichten, die jedem selbsternannten „Qualitätsjournalisten“ einen wohligen Schauer über den Rücken laufen lassen. Wenn man über Fukushima redet, muß das Zauberwort „Kernschmelze“ mindestens einmal erwähnt werden. Die kerntechnische Industrie, die heute gerne Krokodilstränen über ständig steigende Kosten und ausgedehnte Genehmigungsverfahren weint, glaubte sich stets durch „draufsatteln“ von Kritik frei kaufen zu können. Leider haben sie nie die Erfolgsstrategie der „Atomkraftgegner“ kapiert: Scheint ein Stöckchen übersprungen, schiebt man sofort das nächste nach. Solange, bis sich die Prophezeiung von der „teuren Atomenergie“ endlich erfüllt hat.

Der französische Weg

Fairer weise, muß man eigentlich vom deutsch-französischen Weg sprechen. In den späten 1980er-Jahren – in Hessen gab es schon eine Rot/Grüne-Koalition, in Frankreich war der Markt für Kernkraftwerke gesättigt – faste man den (politischen) Entschluß, einen gemeinsamen Reaktortyp zu entwickeln. Ganz nach dem aus Luft- und Raumfahrt bekannten Muster: Wenn es dem Deutschen Michel zu futuristisch wird, versteckt er sich gern hinter der forschen Marianne. Der Gedanke, einen einheitlichen Reaktortyp für Deutschland und Frankreich bauen zu wollen, erschien vernünftig und war gleichzeitig das vorprogrammierte Scheitern. Zu unterschiedlich sind die Mentalitäten: Angetrieben durch die Phantasie von „Atomexperten“ war der deutschen Neigung zum Tragen eines Gürtels zum Hosenträger freier Lauf gelassen. Jede Frage, die (wissenschaftlich) beantwortet wurde, diente zur Schaffung von zehn neuen Fragestellungen – die Forschungsgelder flossen in Strömen. Die Vorgabe einer „evolutionären“ Entwicklung wurde zum Programm: Aus „European Pressurized Water Reactor“ wurde „Evolutionary Power Reactor“ (EPR). Durch die Beschränkung auf eine „Weiterentwicklung“ blieb zur Kostenreduktion nur die Flucht in die „Größe“. Inzwischen liegt die Leistung bei über 1700 MWe. Ein fataler Irrweg: Für die meisten Kunden schlicht weg zu groß. Die Schaffung des ATMEA1 (rund 1000 MWe) war die notwendige Konsequenz. Ein weiterer Reaktortyp mit einem weiteren Partner (Mitsubishi Heavy Industries) aus einem noch entfernteren Kulturkreis.

Der Ansatz von mehr Sicherheit durch mehr Beton und Technik führt zu immer höheren Kosten. Nicht nur beim Bau, sondern auch beim späteren Betrieb. Je mehr man hat und braucht, um so mehr muß auch ständig überprüft und gewartet werden. Je komplexer eine Anlage ist, um so schwieriger ist sie zu durchschauen. So ist beispielsweise der Übergang von 4 x 50% (Konvoi) bzw. 2 x 100% (NP4) auf 4 x 100% (EPR) bei den Notkühlsystemen nur eine vermeintliche Steigerung der Sicherheit. Tatsächlicher Grund ist die Fähigkeit im laufenden Betrieb Wartungs- und Kontrollarbeiten ausführen zu können. Dies ist aber zwingend notwendig, wenn man auf eine Arbeitsausnutzung von über 90% über die angestrebte Betriebsdauer von 60 Jahren kommen will. Treibt man die Investitionskosten in die Höhe, bleibt nur eine höhere Arbeits- und Brennstoffausnutzung um die Stromkosten klein zu halten. Es ist kein Zufall, daß in den letzten Jahren alle Ausschreibungen für den EPR verloren gingen. Erst mit dem ATMEA1 hatte AREVA in der Türkei wieder (indirekt) Erfolg.

Der amerikanische Weg

In den USA wurde man schon 1979 mit einer „Kernschmelze“ im Kernkraftwerk Three Mile Island in Harrisburg konfrontiert. Ausgang war – wie auch später 1986 in Tschernobyl – eine Fehleinschätzung des Bedienpersonals. Während der ersten Stunden verschärfte sich die Situation – wie auch 2011 in Fukushima – durch mangelnde Information. Hinzu kam die wirtschaftliche Krise der Nuklearindustrie durch zahlreiche Auftragsstornierungen.

Man gelangte zu den richtigen Erkenntnissen: Je simpler eine Anlage ist, je billiger ist die Herstellung und je weniger kann kaputt gehen. Je höher die Automatisierung ist, je weniger kann (insbesondere unter Stress) falsch gemacht werden. Je mehr Zeit man gewinnt, um so gründlicher kann man die Situation analysieren und Hilfe von außen hinzuziehen. Westinghouse zog die Konsequenzen: Übergang von aktiven zu passiven Sicherheitsmaßnahmen und mindestens 72 Stunden Zeit nach einem schweren Unfall, bis Eingriffe durch das Bedienpersonal nötig sind. Wie Fukushima gezeigt hat, ist das auch die richtige Strategie, um sich vor Naturkatastrophen zu wappnen.

Wichtigste Maßnahme zur Verhinderung einer Kernschmelze ist, die Nachzerfallswärme unter allen Umständen an die Umgebung abführen zu können. Zu diesem Zweck funktionierte Westinghouse das Containment in einen gewaltigen Kühler um: Frische Luft steigt außen am Sicherheitsbehälter entlang und entweicht oben aus dem Dach des Reaktorgebäudes. Dieser Naturzug kann durch ein Besprühen mit Wasser noch verstärkt werden. Das Wasser läuft infolge Schwerkraft bei Bedarf aus einem Behälter mit 3000000 Litern unter dem Dach auf natürliche Weise aus. Es ist keine Mechanik und keine Fremdenergie nötig. Auch ein Tsunami kann diesem System nichts anhaben. Wo keine elektrische Energie gebraucht wird, kann auch nichts ausfallen.

Der AP1000 besitzt (wie alle Reaktoren der 3. Generation) einen großen Frischwassertank im Sicherheitsbehälter. Er dient bei kleinen Unfällen als Wärmesenke und als Reservoire um Leckagen aus dem Reaktordruckbehälter zu ersetzen. Dieser Tank ist deutlich über dem Reaktor installiert, damit das Wasser infolge Schwerkraft in den Reaktor und seine Grube laufen kann. Um eine „Kernschmelze“ zu verhindern, müssen alle Brennstäbe stets mit Wasser bedeckt sein. In den ersten Stunden ist die Nachzerfallswärme noch so heftig, daß das Wasser siedet. Der entstehende Dampf kann sich an der kalten Innenseite des Sicherheitsbehälters niederschlagen und wird anschließend zurück in den Wassertank geleitet. Auch dieser Kühlkreislauf funktioniert nur durch Schwerkraft und Temperaturdifferenz. Da keine Rohrleitungen nach außen benötigt werden, kann man den Sicherheitsbehälter leicht und sicher verschließen. Es ist kein abblasen zur Druckentlastung aus dem Sicherheitsbehälter, wie in Fukushima geschehen, nötig. Selbst wenn Wasserstoff entsteht, wäre deshalb eine Explosion des Kraftwerks ausgeschlossen. Gleichzeitig wird durch Füllen der Grube des Reaktordruckbehälters dieser auch von außen gekühlt. Ein „durchschmelzen“ von Kernbrennstoff ist dadurch ausgeschlossen. Nebenbei gesagt, ist dies bisher auch noch nirgendwo passiert. Es ist wie gesagt, eine Hollywooderfindung. In Fukushima ist bestenfalls ein wenig Brennstoff durch die Steuerstabdurchführungen (Siedewasserreaktor) in den Raum unterhalb des Reaktordruckgefäßes gelangt. Warten wir getrost ab, bis die ersten Kamerafahrten im Reaktor Bilder liefern werden. Der Autor ist sich sicher, daß diese – wie in Harrisburg – einen großen Schutthaufen zeigen werden. Die Vorstellung von flüssigem Metall, was wie bei einem Hochofenabstich aus dem Druckbehälter läuft, ist science fiction. Insofern ist ein Core Catcher ein netter Gimmick aus der guten, alten Zeit, in der Kosten noch keine Rolle zu spielen schienen.

Fazit

Sichere Kernkraftwerke lassen sich auf verschiedene Art und Weise bauen. Selbst bei einem Grundkonzept – hier einem Druckwasserreaktor – lassen sich verschiedene Philosophien anwenden. Sowohl Harrisburg als auch Fukushima haben bewiesen, daß man die möglichen Schadensabläufe schon in der ersten Generation richtig verstanden hatte und recht robuste Maschinen gebaut hat. In beiden Fällen gab es zwar einen Totalschaden mit beträchtlichen Kosten, aber keine Menschenleben sind zu beklagen! Welche andere Technik konnte bereits in ihrer ersten Generation ein solches Sicherheitsniveau vorweisen? Das Geschwafel einiger Politiker von einem „unkalkulierbaren Restrisiko“ ist einfach nur peinlich oder boshaft. Man glaubte, eine Naturkatastrophe für die Durchsetzung der eigenen Interessen missbrauchen zu können.

Allerdings wird heute mehr denn je, die Frage nach der Wirtschaftlichkeit gestellt. Gerade die Schwellenländer brauchen elektrische Energie zu akzeptablen Preisen. Die Kernenergie braucht keine Ideologie zu fürchten. Sie wird zum Selbstläufer, wenn sie die Kosten senkt. Insofern gehört passiven Systemen die Zukunft. Sie sparen beträchtliche Bau- und Betriebskosten. In China scheint man das erkannt zu haben: Nach dem Unglück in Fukushima hat man – anders als in Deutschland – den Fachleuten (nicht „Atomexperten“ !!!) erst einmal Zeit gegeben, den Schadensablauf zu analysieren und nicht durch die Politik vollendete Tatsachen geschaffen. Bemerkenswertes Ergebnis war, den ursprünglich geplanten weiteren Ausbau von 60 bis 80 Reaktoren der zweiten Generation (CP1000) zu stoppen und sich voll auf Reaktoren der dritten Generation zu konzentrieren. Als weit vorausschauend, erwiesen sich dabei die Lizenzabkommen und die enge Zusammenarbeit mit Westinghouse (insbesondere) zur gemeinsamen Weiterentwicklung des AP1000 bis zu Leistungen von 1400 MWe. Die Prognose scheint nicht sehr gewagt, daß China mit diesem Modell den Weltmarkt für Kraftwerkstechnik erobern wird.

 

Bestellung 5 bis 8

Türkei, wer denkt da nicht an Sonne bis zum Abwinken oder Segelurlaub im Mittelmeer? Wahrscheinlich haben unsere Politiker ein wenig geträumt, als sie in ihrer unendlichen Weisheit den Ausstieg aus der Kernenergie beschlossen haben. Sollte Deutschland nicht vorangehen, damit uns die anderen folgen können? Nun, die Türkei als Schwellenland ist offensichtlich nicht bereit, in die Abgründe der „Energiewende“ abzutauchen. Am 3. Mai wurde auf höchster Ebene ein Abkommen zwischen Japan, Frankreich und der Türkei zum Bau und Betrieb von vier Kernreaktoren (Typ ATMEA1 mit je 1200 MWe) in Sinop an der Schwarzmeerküste geschlossen. Der erste Reaktor soll 2023 und der vierte 2028 den Betrieb aufnehmen. Errichtet wird das Kraftwerk von Mitsubishi Heavy Industries und betrieben von einem Konsortium aus GDF Suez (geplant 75% Anteil) und dem staatlichen Energieversorger Turkish Electricity Generation Corporation (geplant 20 bis 45% Anteil). Ganz neben bei, ist das der erste Auftrag über einen Neubau eines Kernkraftwerks für ein japanisches Unternehmen nach dem Fukushima Desaster. Auftragswert 22 Milliarden US$. Dafür müssten die Sonnenmännchen eine ganze Menge Windmühlen oder Sonnenkollektoren verkaufen. Macht aber nix, der Deutsche Michel wird weiterhin fest an die Schaffung von Arbeitsplätzen durch Wind und Sonne glauben.

Bestellung 1 bis 4

Begonnen hat das türkische Kernenergieprogramm im Mai 2010 mit dem Auftrag für vier Gidropress AES-2006 Reaktoren (mit je 1200 MWe) in Akkuyu am Mittelmeer. Mit der Baustellenvorbereitung wurde bereits begonnen und der offizielle Baubeginn ist für Ende 2013 vorgesehen. Das Kraftwerk soll 2019–2022 in Betrieb gehen. Ganz interessant ist das Finanzierungsmodell: Das Kraftwerk wird schlüsselfertig und zum Festpreis (über 15 Milliarden EUR) von Rosatom für eine Zweckgesellschaft errichtet. In dieser Zweckgesellschaft besitzt Rosatom mit 51% die Mehrheit. Bis zu 49% sollen von türkischen Gesellschaften gehalten werden. Diese Gesellschaft übernimmt für 60 Jahre den Betrieb des Kraftwerks. Zur Refinanzierung der langfristigen russischen Investitionen garantiert die Turkish Electricity Trade and Contract Corporation (TETAS) die Abnahme von 70% der Stromproduktion der Blöcke 1 und 2 und 30% der Produktion der Blöcke 3 und 4 zu einem garantierten Festpreis von 12,35 US-Cent pro kWh über 15 Jahre. Der Rest soll frei am Markt verkauft werden. Bei diesem Modell wird die Kreditlinie der Türkei kaum belastet, da Russland maßgeblich die Finanzierung übernimmt. Für Russland stellt sich die Investition wie eine langfristige Anleihe mit stetigem Zahlungsstrom aus der Türkei dar. Gleichzeitig ergibt sich jedoch eine enge unternehmerische Verknüpfung beider Länder. Anders – als beim deutschen EEG-Modell – wird nicht die volle Energiemenge über die gesamte Lebenszeit, zu einem Festpreis garantiert abgenommen, sondern lediglich eine (auch noch abnehmende) Teilmenge. Der Betreiber muß sich von Anfang an, an dem üblichen Risiko von Absatzmenge und erzielbaren Preisen beteiligen. Andererseits hat er aber auch die Chance auf zusätzlichen Erfolg.

Darüber hinaus, kann die Türkei „sanft“ in eine neue Zukunftstechnologie hineinwachsen. Zu diesem Konzept passt auch die Vergabe des ersten Kraftwerks an den (ehemaligen) „Ostblock“ und die Vergabe des zweiten Kraftwerks an den „Westen“. So kann von beiden Denkschulen der Kerntechnik gelernt werden. Ausdrücklich gewünscht, ist die Entwicklung des bereits geplanten dritten Kraftwerks (ab etwa 2020) durch türkische Ingenieurbüros. Das Modell erscheint ein wenig als Kopie des koreanischen Wegs. Bedenkt man das Selbstverständnis der Türkei als Beispiel für einen modernen islamischen Staat mit Vorbildfunktion, erscheint das durchaus nicht abwegig. Jedenfalls kann man die Türkei nicht als technikfeindlich bezeichnen. Sie hat klar die Bedeutung der Kerntechnik als Triebfeder einer modernen Industriegesellschaft erkannt. Die Beschäftigung mit „angepasster Technologie“ (so hieß Sonne, Wind und Bio noch vor 20 Jahren) überlässt man getrost saturierten Gesellschaften wie Deutschland.

Randbedingungen

Was treibt die Türkei zum Bau von zwölf Reaktoren? Die Frage ist recht leicht zu beantworten: Der Energiehunger eines aufstrebenden Landes. Im ersten Jahrzehnt des 21. Jahrhunderts betrug das jährliche Wirtschaftswachstum etwa sechs Prozent. Durch die zunehmende Industrialisierung und den wachsenden Wohlstand hat sich der pro Kopf Verbrauch an elektrischer Energie fast verdoppelt. Es ist das Dilemma aller Schwellenländer: Ohne ausreichend elektrische Energie, kein angestrebtes Wirtschaftswachstum; durch den dringend benötigten steigenden Wohlstand eine zusätzlich angeheizte Nachfrage nach Energie. Dagegen ist ein Rückgang im Primärenergieverbrauch ein typisches Anzeichen stagnierender Volkswirtschaften. Man kann es zwar politisch korrekt als „Energieeffizienz“ verbrämen, aber am Ende ist es nichts anderes als Wohlstandsverlust.

Für die Türkei stellt sich daher die gleiche Frage, wie für China, Brasilien etc.: Wie kann der zusätzliche Energiebedarf kostengünstig gedeckt werden? Öl und Gas sind bereits heute sehr teuer und für eine Stromerzeugung schlicht weg zu schade. Ihr Verbrauch wird durch zunehmenden Verkehr und Industrialisierung ohnehin weiter ansteigen. Eher muß der Mehrverbrauch in diesen Sektoren durch elektrische Energie ersetzt werden. Letztendlich bleibt nur Kohle und Kernenergie. Will man Kohle umweltfreundlich verstromen, wird dies sehr viel teurer, wie man auch dies hervorragend in Deutschland studieren kann.

In allen Mittelmeerländern kommt mit steigendem Wohlstand und steigenden Bevölkerungszahlen noch ein weiteres Problem hinzu: Ausreichend Süßwasser für Mensch, Landwirtschaft und Industrie. Als Ausweg bleibt nur die Meerwasserentsalzung, die aber viel (billige) Energie benötigt. Man kann es deshalb drehen und wenden wie man will: Der Bau von zwölf Reaktoren allein in der Türkei, erscheint sehr sinnvoll – um nicht zu sagen alternativlos.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.

Korea und die Wiederaufbereitung

Im Fahrwasser der aktuellen Krise mit Nord-Korea, bahnt sich für die USA ein hausgemachtes Problem mit Süd-Korea an. Es ist ein schönes Beispiel dafür, wenn Regierungen meinen, sie könnten dauerhaft über andere Nationen bestimmen und ihre ideologische Sicht zur einzig selig machenden zu erklären. Im nächsten Jahr läuft das Abkommen zur Nicht-Weiterverbreitung von Kernwaffen nach 40 Jahren aus. Im Rahmen dieses Abkommens hat Süd-Korea auf Anreicherung und Wiederaufbereitung abgebrannter Brennelemente verzichtet. Es muß neu verhandelt werden.

Ironie der Geschichte ist, daß dies zu einem Zeitpunkt geschehen muß, an dem die USA offen von Nord-Korea mit einem „Atomschlag“ bedroht werden. Nord-Korea hat gezeigt, wie es in der realen Welt zu geht: Wenn ein Diktator bereit ist, sein eigenes Volk wirtschaftlich zu ruinieren, dann baut er sich ganz einfach seine eigenen Kernwaffen. Wenn er über genug Öleinnahmen verfügt – wie Iran – braucht er dafür nicht einmal sein Land an den Rand von Hungersnöten zu führen. Ist das Land vermögend – wie Saudi Arabien – kann es sogar den mühseligen Weg der Eigenentwicklung überspringen und unverhohlen damit drohen, sich gegebenenfalls fertige Kernwaffen (z. B. aus Pakistan) zu kaufen.

Selbst die Supermacht USA kann das offensichtlich nicht verhindern. Mit Verträgen, UNO und leeren Drohungen ist es schon gar nicht möglich, im Internetzeitalter (!) das Wissen der 1940er Jahre geheim halten zu wollen. Der pakistanische Basar der „Atomtechnologie“ ist noch in frischer Erinnerung. Der Versuch, gegen Unterstützung bei der friedlichen Nutzung der Kernenergie – sprich dem Bau von Kernkraftwerken – einen Verzicht auf Anreicherung und Wiederaufbereitung erkaufen zu können, war und ist aberwitzig. Er hat offensichtlich nur zu einer Brüskierung eines der engsten Verbündeten der USA geführt. Was anderes sollte es heißen, als Süd-Korea, wir trauen euch nicht. Wir erinnern uns: Deutschland wurde auch der Verzicht auf Kernwaffen geglaubt, obwohl es eine Wiederaufbereitungsanlage in Karlsruhe betrieben hat und noch heute Zentrifugen zur Anreicherung betreibt. Japan baut eifrig an einer kommerziellen Wiederaufbereitung und diskutiert gleichzeitig, offen wie nie, eine atomare Bewaffnung – wegen der potentiellen Bedrohung durch Nord-Korea und China.

Wie konnte es dazu kommen, daß sich die USA in eine solche diplomatische Sackgasse manövriert haben? 1974 wurde Indien (nahezu aus eigener Kraft) zur Atommacht. Übrigens aus Reaktion auf die atomare Bewaffnung von China, mit dem man noch wenige Jahre zuvor, Krieg führen mußte. Die Welt war verblüfft über den Weg: Man hatte in aller Stille, einen von Kanada gelieferten CANDU-Reaktor zur Produktion von waffengrädigem Plutonium missbraucht. Bis heute, wirkt diese Tat in den internationalen, kerntechnischen Beziehungen nach. Es stehen sich Pragmatiker (Indien ist nun mal Atommacht, das läßt sich nicht zurückdrehen, deshalb freier Handel und Wissensaustausch) und Moralisten (Belohnung des „Fehlverhalten“, Präzedenzfall der die Proliferation zu nichte macht) teilweise unversöhnlich gegenüber. Jeder muß sich da ein eigenes Urteil bilden. Tatsache ist jedoch, daß die Zeit der „drei Welten“ mit dem Zusammenbruch des Kommunismus vorbei ist. Heute bestehen die Probleme eher in der Golfregion oder der koreanischen Halbinsel mit ihrer regionalen und globalen Gemengelage.

Es gab aber auch hausgemachte Gründe. Man muß die erste Hälfte der 1970er Jahre als unmittelbare Nachfolge der sog. „68er Bewegung“ verstehen. Greenpeace z.B. entstammt der Friedensbewegung mit dem Spezialgebiet: Kernwaffen und Umweltbelastung durch Kernwaffentests in der Atmosphäre. Besonders der zweite Punkt machte die Bewegung in kürzester Zeit weltberühmt. Durch die diversen Teststoppabkommen kam dieses Geschäftsmodell immer mehr aus der Mode. Der Übergang zur zivilen Nutzung der Kernenergie und die Konstruktion eines Zusammenhangs mit dem Bau von Atombomben schien folgerichtig. Es entwickelte sich die Gleichung: Links plus friedensbewegt gleich „Atomkraftgegner“. In Deutschland gipfelte dies sogar in der Gründung einer Partei.

In USA beschwor eine Kampagne die Gefahr von möglichen hunderten „Atomanschlägen“ auf Großstädte hervor. Alle versorgt durch Diebstähle aus Wiederaufbereitungsanlagen. Ein neues Buhwort war erschaffen: Plutonium. Künstlich hergestellt, irrsinnig giftig und ganz, ganz gefährlich. Jimmy Carter, ein Erdnussfarmer, der in seiner aktiven Zeit bei der Marine zumindest für Kurse in Kerntechnik angemeldet worden war, stoppte das Clinch River Projekt (Vorstufe eines Schnellen Brüters, der Strom aus recyceltem Brennstoff produzierte) und zwang ein privates Konsortium mehr als 250 Millionen Dollar für eine Wiederaufbereitungsanlage in Barnwell über Nacht abzuschreiben. Er wollte ein Zeichen des „guten Amerikaners“ setzen, der keine Kosten scheuend voranschreitet, um die Welt zu retten. Ähnlichkeiten mit deutschen „Energiewendern“ sind rein zufällig. Jedenfalls gelang es ihm die „Proliferation“ und das Problem, was wir heute als „ungelöste Atommüllfrage“ bezeichnen, zu erschaffen. Ironischerweise ist Jimmy Carter der gleiche Präsident, der durch sein „Geiseldrama“ im Iran nicht unwesentlich zu der heutigen Situation im und mit dem Iran beigetragen hat.

Aber wie hat sich die Welt seit dem verändert? Inzwischen baut eine französische Firma in USA eine Fabrik für MOX-Brennelemente. Solche Mischoxid-Brennelemente dienen zur Verbrennung von Plutonium in konventionellen Leichtwasserreaktoren. In diesem Fall handelt es sich sogar um waffengrädiges Plutonium aus der ehemaligen Sowjetunion. Dies war – wieder zur Verhinderung von Terrorismus – von den USA aufgekauft und ins eigene Land verbracht worden.

Wie kann sich die USA aus den eigenen Fallstricken befreien? Süd-Korea hat sich mit amerikanischer Anschubhilfe zu einer der führenden Nationen im Bau und Betrieb von Kernkraftwerken entwickelt. Spätestens seit dem Auftrag über 20 Milliarden Dollar für vier Reaktoren aus den Vereinigten Arabischen Emiraten ist dies vielen schmerzlich bewußt geworden. Würde es kein neues Abkommen geben, wäre die Versorgung mit angereichertem Uran aus den USA nicht mehr gesichert. Wäre das aber wirklich ein Problem für Süd-Korea? Auf Kanada, Australien und Kasachstan entfallen etwa ⅔ der Weltproduktion an Uran, auf die USA lediglich 4%. Anreicherungsanlagen besitzen mehr als ein Dutzend Staaten. In diesem Sinne würde ein Ausweichen auf andere Lieferanten das „Problem der Weiterverbreitung“ eher anheizen.

Bleibt die Frage der Wiederaufbereitung. Ob Süd-Korea eine Plutonium-Bombe baut oder nicht, ist eine rein politische Frage, die nicht zwingend etwas mit Wiederaufbereitung zu tun hat. Es sind andere Verfahren denkbar, die völlig ungeeignet zum Bau von Kernwaffen sind. Auch hier, hat Süd-Korea bereits viel Forschung und Entwicklung investiert. Süd-Korea hat die Chance, erstes Land auf der Welt mit einer garantiert reinen zivilen Nutzung der Kernenergie zu werden. Bisher sind alle Länder (auch Deutschland und Japan) den bequemeren Weg des bereits etablierten PUREX-Verfahrens gegangen. Nur ist dieses Verfahren genau zur Produktion von waffengrädigem Plutonium entwickelt worden. Natürlich kann man mit einem Panzer auch ein Feld pflügen, nur sollte man sich nicht wundern, wenn andere den Verdacht äußern, man wolle mit solch einem Trecker vielleicht eines Tages auch mal schießen. Ganz gewiß werden sich die Süd-Koreaner nicht der angeblich „ungelösten Atommüllfrage“ hingeben. Sie haben ganz einfach nicht die selbe Vorgeschichte und brauchen auch keine Rücksichtnahme auf die Befindlichkeiten politische Parteien mit dem Gründungsmythos der „Anti-Atombewegung“ nehmen. Übrigens, hat in ganz Asien keine Regierung dieses Problem. Es erfordert deshalb keine prophetische Gabe, wenn man die Renaissance der Kernenergie aus Asien kommen sieht. Wer sehen will, kann schon heute die Anzeichen erkennen.

Wie tödlich ist ihre kWh?

Diese makaber anmutende Frage stellte das Forbes-Magazin seinen Lesern schon vor geraumer Zeit (http://www.forbes.com/sites/jamesconca/2012/06/10/energys-deathprint-a-price-always-paid/) und fügte folgende Tabelle hin zu:

Energiequelle Tote pro Billion kWh Anteil an der Stromerzeugung
Kohle (weltweit) 170.000 50% weltweit
Kohle (China) 280.000 75% in China
Kohle (USA) 15.000 44% in USA
Öl 36.000 36% Energie, 8% Elektro
Erdgas 4.000 20% weltweit
Biomasse 24.000 21% Energie weltweit
Solar (PV) 440 1% weltweit
Wind 150 1% weltweit
Wasserkraft 1.400 15% weltweit
Kernenergie 90 17% weltweit

Die Redaktion hat diese Tabelle aus verschiedenen Quellen, wie z. B. der WHO zusammengetragen. Es lohnt nicht, die Zahlen im einzelnen diskutieren zu wollen. Man versinkt zu schnell in dem Sumpf der Statistik: Unterschiedliche Zugänglichkeit von Daten (z. B. China oder USA) und unterschiedliche Ansichten über Langzeitwirkungen. Besonders deutlich wird dies z. B. an den Opfern der Kernenergie. Hier wurden die Schätzungen von potentiellen Krebsopfern infolge der Reaktorunglücke in Tschernobyl und Fukushima eingearbeitet. Tatsache ist jedoch, in Fukushima ist bisher kein Opfer und in Tschernobyl sind zwischen 20 und 200 – je nach Zählweise – Strahlentote zu verzeichnen. Die Zukunft wird zeigen, welche Zahlen realistisch sind.

Trotzdem ist eine solche Tabelle als Denkanstoß (aber bitte nicht mehr!) sinnvoll. Sie macht auf den ersten Blick klar: Es gibt keine Energieerzeugung ohne Opfer. Energiegewinnung fordert wie alle anderen menschlichen Tätigkeiten immer auch Todesopfer. Wir gehen individuell völlig selbstverständlich mit einer Risiko/Nutzen – Abwägung um. Jeder, der in den Urlaubsflieger steigt, tut dies in vollem Bewußtsein, daß es sein absolut letzter Flug sein könnte. Nur bei der Energieversorgung kommt es plötzlich zu völlig irrationalen Reaktionen. Es wird nur noch das (vermeintliche) Risiko gesehen. Der Nutzen wird völlig verdrängt. Kann es sein, daß dies maßgeblich auf eine politisch gewollte und geförderte Sichtweise zurückzuführen ist? Der gesunde Menschenverstand reagiert anders. Würde man eine Umfrage unter Hausfrauen und Hausmännern machen, ob sie sich einen Haushalt ohne jeden elektrischen Strom vorstellen könnten, wäre das Ergebnis wohl eindeutig: Die Waschmaschine und der Staubsauger erscheinen nicht nur als unentbehrlich.

Selbstverständlich wünschen wir uns alle eine Energieversorgung, die möglichst wenige Opfer fordert. Wir sollten jedoch nie vergessen, daß auch immer Dachdecker bei der Installation eines Sonnenkollektors vom Dach fallen werden, genauso wie es Unfälle in Kernkraftwerken geben wird. Wer jetzt gleich wieder in seinen Reflex verfällt, „aber Atomkraftwerke haben ein Restrisiko von Millionen Toten und zehntausende Jahre unbewohnbaren Landstrichen“ sollte einfach zur Kenntnis nehmen, daß das nichts weiter als schlechte Propaganda ist. Die Betonung liegt dabei auf „schlecht“, wie die Reaktorunfälle von Tschernobyl und Fukushima gezeigt haben. Parallel zum Reaktorunglück in Fukushima brannte zwei Wochen lang in der Bucht von Tokio eine Raffinerie. Bei den Löscharbeiten sind mehr als ein Dutzend Feuerwehrleute getötet worden und eine riesige Umweltverschmutzung ergoss sich über das Meer. Das hält aber bis heute, keinen der „Berufenen“ davon ab, der Bevölkerung immer wieder etwas von den „tollen Gaskraftwerken“ als Alternative zur bösen Kernenergie ins Ohr zu säuseln. Erst recht wird nicht hinterfragt, wie viele Menschenleben man pro Jahr mit den Milliarden Mehrkosten für fossile Brennstoffe in Japan (infolge der vorübergehenden Reaktorstilllegungen) retten könnte. Plötzlich sind all die Kreise, die stets mit ein paar Milliarden mehr für Bildung, Gesundheit und „soziales“, alles Elend der Welt glauben beseitigen zu können, ganz still.

Die Tabelle gibt uns aber noch einen weiteren wertvollen Hinweis: Den Zusammenhang zwischen Wohlstandsniveau und Arbeitssicherheit und Umweltschutz. Es ist kein Zufall, daß die Anzahl der Opfer pro Einheit Energie in China höher, als in den USA ist. Es gibt in China (noch nicht) einen vergleichbaren Arbeitsschutz, wie in den Bergwerken der USA. Auch die Rauchgasreinigung ist in China (noch nicht) auf dem gleichen Niveau, wie z. B. in Deutschland. Folgerichtig sind die Atemwegserkrankungen durch Abgase entsprechend höher. Und nicht zuletzt hat in diesem Zusammenhang auch der massive und konsequente Ausbau der Kernenergie in China seine Begründung. Es ist nicht abwegig, wenn andere Entwicklungsländer diesen Weg als vorbildlich ansehen. Vor allem, wenn die Konsequenzen der Deindustriealisierung im „energiegewendeten“ Deutschland erst voll sichtbar werden.

Abgebrannte Brennelemente für die Sterilisation

Abgebrannte Brennelemente haben so viel mit Müll zu tun, wie die Tageszeitung von Vorgestern. Selbstverständlich sind beide für den Nutzer (Kraftwerk oder Leser) Abfall. Sie sind für diese nicht mehr zu gebrauchen, aber sie sind bei leibe alles andere als Müll. Sie lassen sich wieder aufarbeiten. Bei einem Brennelement sogar mit einer höheren Quote als bei Papier.

Es gibt sogar noch Zwischennutzungen bis zur Wiederaufbereitung. Beim Papier z. B. als Verpackungsmaterial. Auch für genutzte Brennstäbe zeichnet sich jetzt eine solche Zwischennutzung ab. An der Oregon State University hat man einen Weg ersonnen, die Strahlung zur Sterilisation von medizinischen Produkten nutzbar zu machen. Dies ist ein beständig wachsender Bereich. Bisher wird Cobalt (Co-60) verwendet, um insbesondere Einwegspritzen und Verbandmaterial zu behandeln. Dabei ist zu beachten, daß Cobalt-60 ein stark radioaktives Material ist, welches extra in Reaktoren hergestellt wird. Bewußt und kostspielig hergestellter „Atommüll“ (Halbwertszeit 5,3 Jahre) so zu sagen.

Inzwischen gibt es ein junges Unternehmen, welches das Verfahren weiterentwickelt hat und gerade durch Patente absichern läßt. Im Prinzip sollen die gebrauchten Brennstäbe in Spezialbehälter umgesetzt werden. Diese Behälter sorgen für einen zusätzlichen Schutz vor Beschädigung und sorgen für die Abfuhr der Nachzerfallswärme. Diese Behälter werden dann in einen Bestrahlungsraum gestellt, durch den vollautomatisch die zu bestrahlenden Güter hindurchgefahren werden. Man verwendet angeblich weitestgehend die in der Brennelementehandhabung und etablierten Bestrahlungstechnik angewendeten Verfahren. Das Unternehmen geht davon aus, daß es mit den Brennelementen nur eines einzigen Kernkraftwerks einen jährlichen Umsatz von über 10 Millionen US-Dollar erzielen könnte. Da das Verfahren wesentlich kostengünstiger als die Co-60-Methode sein soll, glaubt man an eine schnelle Ausweitung auch auf andere Anwendungen.

Mögen die Aussichten der Firma G-Demption LLC auch etwas optimistisch sein, wenn man weiß, wie kompliziert und langwierig Genehmigungsverfahren in der Kerntechnik sind. Andererseits ist es fast eine Gesetzmäßigkeit, daß aus Abfällen irgendwann begehrte Rohstoffe werden, denn der einzig wirklich unerschöpfliche Rohstoff ist der menschliche Erfindergeist.

Fusion: 100 MW in Serie?

Wer die Entwicklung der Kernfusion beobachtet, hat den Eindruck einer unendlichen Geschichte. Mit Milliardenaufwand werden riesige Maschinen gebaut, die in jeweils etwa 50 Jahren Strom liefern sollen.

Hin und wieder tauchen von irgendwelchen Erfindern ganz neue, revolutionäre Konzepte auf, die sich bei näherem hinsehen, stets eher als Perpetuum Mobile, denn als Idee für ein Kraftwerk entpuppen. Genau das, habe ich gedacht, als ich die Meldung las: Kleine Fusionsanlage, Energie für jedermann. 100 MW Fusions-Reaktor, so groß wie eine konventionelle Gasturbine. Anlage in etwa fünf Jahren produktionsreif.

Normalerweise lese ich an diesem Punkt nicht mehr weiter. Science Fiction ödet mich an. Aber halt, der Vortrag (siehe Link zum Mitschnitt unten) ist von Lockheed Martin’s „Skunk Works“, einem Verein, der alles andere, als aus Aufschneidern besteht. Ich kann mich noch sehr gut an die immer wieder auftauchenden Berichte über die Entwicklung von „Tarnkappenbombern“ in den 1980er Jahren erinnern. Und auf einmal waren sie am Himmel: Die F-117 Nighthawk oder die B2 Spirit. Flugzeuge, schon in ihrer äußeren Form so revolutionär anders, daß man kaum glauben mochte, daß diese Maschinen überhaupt fliegen können.

Deswegen ist mir dieses Video eine Meldung auf der Wiese wert. Die „Stinktiere“ treten jedenfalls nie ohne Grund an die Öffentlichkeit. Irgendetwas brüten sie offensichtlich auf dem Energiesektor aus.