Immobilisierung von Pu & Co

Alle radioaktiven Stoffe sind erst richtig gefährlich, wenn sie in den Körper aufgenommen werden. Solange sie sich außerhalb befinden, ist eine Abschirmung recht einfach möglich. Für eine „Inkorporation“ sind drei Wege ausschlaggebend: Über die Atemluft, Trinkwasser und Nahrung. Solange sie also gar nicht in die „Biosphäre“ gelangen, können sie auch keinen Menschen schädigen oder sich dort anreichern. Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.

Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.

Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.

Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.

Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.

Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

Die Verdünnung

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.

Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.

Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.

Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

Das Dose in Kanister Verfahren

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.

Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

Bohrlöcher

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.

Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.

Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.

Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

Beseitigung in Reaktoren .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?

Könnte Deutschland die große Schweiz werden?

Die Bürger der Schweiz haben sich gegen eine vorzeitige Abschaltung ihrer Kernkraftwerke entschieden. Ein Anlass, einmal über die Verhältnisse in Deutschland (neu) nachzudenken.

Der Istzustand

Vielen Menschen in Deutschland ist gar nicht bewußt, daß immer noch acht Blöcke am Netz sind (Isar 2, Brokdorf, Philippsburg 2, Grohnde, Emsland, Neckarwestheim 2, Gundremmingen B und C) und in aller Stille reichlich zur Energieversorgung in Deutschland beitragen. Sie haben immerhin zusammen die stolze Leistung von 10.799 MWel. und produzieren damit durchschnittlich 86.595.052.800 kWh elektrische Energie jährlich. Wohl gemerkt, jedes Jahr, unabhängig davon, wie stark der Wind bläst oder die Sonne scheint. Halt Energie nach den Bedürfnissen der Menschen und nicht „auf Bezugsschein“ irgendwelcher Schlangenölverkäufer mit (meist) öko-sozialistischer Gesinnung. Ganz neben bei, tragen sie durch ihre gewaltigen Generatoren auch noch zur Netzstabilität bei. Wie wichtig und kostenträchtig allein dieser Aspekt ist, werden unsere Laiendarsteller erst merken, wenn diese Kraftwerke endgültig abgeschaltet sind.

Wieviel Volksvermögen vernichtet werden soll

Fangen wir mal mit dem letzten Aspekt an: Die Standorte zukünftiger Windparks und Photovoltaikanlagen können – wegen der geringen Energiedichte von Wind und Sonne – gar nicht den Kernkraftwerken entsprechen. Das vorhandene Stromnetz muß daher komplett umgebaut bzw. erweitert werden. In der Öffentlichkeit wird wohlweislich nur von den neuen „Stromautobahnen“ gesprochen, die den „Windstrom“ von Norddeutschland nach Süddeutschland transportieren sollen. Freilich sind bereits dafür Milliarden erforderlich. Kaum ein Wort über die Frequenzregelung und die Niedervolt Netze zum Einsammeln des flächigen Angebots (z. B. Sonnenkollektoren auf den Dächern).

Wir reden hier nicht von irgendwelchen „Schrottreaktoren“, sondern ausnahmslos von Kernkraftwerken, die erst zwischen 1984 und 1989 ans Netz gegangen sind. Für solche Kraftwerke geht man heute international von einer Betriebszeit von 60 bis 80 Jahren aus. Sie hätten also eine „Restlaufzeit“ bis in die zweite Hälfte dieses Jahrhunderts vor sich – wenn sie nicht in Deutschland, sondern bei unseren Nachbarn stehen würden! Warum nur, fällt mir an dieser Stelle, der alte Witz-über-die-Geisterfahrer ein?

Um es klar und deutlich zu sagen, sie verfügen über Sicherheitseinrichtungen, die heute noch international Spitze sind. Teilweise werden japanische und osteuropäische Kernkraftwerke gerade erst auf dieses Niveau nachgerüstet. Selbst noch im Bau befindliche Reaktoren in China und den Emiraten, sind keinesfalls sicherer. Das alles, obwohl es in Deutschland weder schwere Erdbeben noch Tsunamis gibt.

Wenn man als Wiederbeschaffungswert die Baukosten der koreanischen Reaktoren in den Vereinigten Emiraten ansetzt (4 x 1400 MW für 20 Milliarden US-Dollar), werden hier mal eben rund 35 Milliarden Euro verbrannt. Zugegeben eine grobe Abschätzung, aber wie war das noch mal mit dem Rentenniveau für die kommende Generation? Es ist ja offensichtlich nicht so, als wäre in diesem Land überhaupt kein Kapital mehr vorhanden oder anders: Der Kleinrentner soll auch noch durch überteuerten „Ökostrom“ zusätzlich bluten.

Der energetische Ersatz

Ein beliebter Vergleich der Schlangenölverkäufer ist immer die produzierte Energie. Lassen wir die Zahlen für sich sprechen: Im Jahr 2015 wurden insgesamt 86 TWh Windenergie erzeugt. Dazu waren 27.147 Windmühlen mit einer Gesamtleistung von 44,95 GW notwendig gewesen. Wollte man die acht verbliebenen Kernkraftwerke durch Windmühlen ersetzen, müßte man also noch einmal die gleiche Anzahl zusätzlich bauen. Besser kann man den Irrsinn nicht verdeutlichen. Schon allein unsere Vogelwelt könnte 20.000 zusätzliche Schredderanlagen nicht verkraften. Welche Wälder sollen noch gerodet werden?

Wollte man die gleiche Energie mit Photovoltaik erzeugen, müßte man über 82 GW zusätzlich installieren. Trotzdem wäre es weiterhin des Nachts dunkel.

Die Speicherfrage erübrigt sich, denn allen ökologischen Sturmgeschützen zum Trotz: Es gibt sie wirklich, die Dunkel-Flaute. Jawohl, besonders bei Hochdruck-Wetterlage im Winter weht tagelang kein Wind – auch großflächig nicht.

Andererseits wird es den berühmten Muttertag (8.5.2016) auch immer wieder geben: Sonnenschein mit Starkwind an einem verbrauchsarmen Sonntag, der die Entsorgungskosten an der Strombörse auf -130 EUR/MWh hochgetrieben hat. Wie hoch dürfte die Entsorgungsgebühr wohl sein, wenn der Ausbau noch einmal verdoppelt wird? Sind dann unsere Nachbarn überhaupt noch bereit, unseren „Strommüll“ für uns zu entsorgen? Ich glaube nicht. Zwangsweise Abschaltungen wären die Folge: Die Abwärtsspirale immer schlechter werdender Auslastung für die „Erneuerbaren“ wird immer steiler werden. Das Rennen nach der Fabel von Hase und Igel hat ja bereits längst begonnen. Dies sei allen Traumtänzern gesagt, die von einer Vollversorgung durch Wind und Sonne schwadronieren.

Der notwendige Ersatz

Wie gesagt, es gibt sie wirklich, die Dunkel-Flaute. Speicher in der erforderlichen Größe sind nicht vorhanden. Das seit Jahren erklingende Geraune von der „Wunderwaffe-der-Großspeicher“ wabert konsequenzlos durch die deutschen „Qualitätsmedien“. Physik läßt sich halt nicht durch den richtigen Klassenstandpunkt ersetzen. Es müssen deshalb neue Grundlastkraftwerke gebaut werden. Kurzfristig kann man elektrische Energie aus dem Ausland hinzukaufen – „Atomstrom“ und „Dreckstrom“ aus den östlichen Nachbarländern – bzw. vorhandene Mittellastkraftwerke im Dauerbetrieb verschleißen.

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Wahrscheinlicher ist der Ersatz durch Steinkohlekraftwerke. Um die 8 noch laufenden Kernkraftwerke zu ersetzen, wären etwa 14 Blöcke vom Typ Hamburg-Moorburg nötig. Die würden etwa 28 Millionen to Steinkohle pro Jahr fressen. Die müssen nicht nur im Ausland gekauft, sondern auch bis zu den Kraftwerken transportiert werden.

Will man wenigstens die Versorgungssicherheit erhalten, bleibt nur die eigene Braunkohle. Man müßte nur etwa 10 neue Braunkohleblöcke vom Typ BoA-Neurath bauen. Die würden allerdings über 84 Millionen to Braunkohle pro Jahr verbrauchen. Unsere Grünen würde das sicherlich freuen, man müßte die Braunkohleförderung nicht einmal um die Hälfte erhöhen. Wieviele schöne „Demos“ gegen neue Tagebaue könnte man veranstalten!

Politik

Das Wahljahr 2017 (Landtagswahl in NRW und Bundestagswahl) kommt immer näher. Zwischen März und Juli soll der geplante Wahnsinn mit der Abschaltung von Gundremmingen beginnen. Da in Deutschland das Regulativ einer Volksabstimmung (über lebenswichtige Fragen) fehlt, bleibt nur die Auseinandersetzung in einer Parteien-Demokratie. Parteitage und Walkämpfe bieten die Möglichkeit Parteien zu zwingen „Farbe zu bekennen“. Dies gelingt aber nur, wenn die Bürger auch (öffentlich und nachdrücklich) Fragen stellen. Gerade in Deutschland neigt man eher zu „Man-hat-doch-nichts-davon-gewußt“ oder „innerlich-war-man-auch-dagegen“. Zumindest der ersten Lebenslüge, soll dieser Artikel entgegenwirken.

Die Forderung an alle Parteien kann nur lauten: Schluß mit der Kapitalvernichtung durch Abschaltung moderner Kernkraftwerke. Bis 2022 ist es weder möglich geeignete Groß-Speicher zu erfinden, das Stromnetz völlig umzukrempeln, noch fossile Kraftwerke in der benötigten Stückzahl als Ersatz zu bauen. Nicht einmal die Verdoppelung der Windenergie in nur vier Jahren ist möglich – jedenfalls nicht ohne bürgerkriegsähnliche Zustände heraufzubeschwören. Parteien, die dies nicht einsehen wollen, sind schlicht nicht wählbar. In einer indirekten Demokratie, in der dem Bürger das Recht auf Entscheidungen – in überlebenswichtigen Fragen — abgesprochen wird, kann sich der Bürger nur an der Wahlurne wehren. Nichts tut den etablierten Parteien mehr weh, als der Mandatsverlust. Dies ist halt die Kehrseite der Allmachtsphantasien der „indirekten Demokraten“.

Jetzt Braunkohle

Nachdem man die Abschaltung der Kernkraftwerke in Deutschland durchgesetzt hat, konzentriert sich die „Öko-Bewegung“ nun auf die Braunkohle.

Die erschreckenden Parallelen zur „Anti-Atomkraft-Bewegung

Die Bilder aus der Lausitz vom Pfingstwochenende gleichen erschreckend denen aus Gorleben: Besetzte Eisenbahnlinien und Erstürmung des Geländes. Das Vorgehen ist immer gleich und wird zwangsläufig in Ausschreitungen enden, auch wenn es diesmal noch glimpflich abging.

Genau wie bei der „Anti-Atomkraft-Bewegung“ steht am Anfang die Schaffung von Ängsten: Dort die „Strahlenangst“, hier die „Klimakatastrophe“. Diese Ängste treiben dann gutgläubige Menschen zu „Protestaktionen“, die wiederum die (eigentlich bekannten) Hooligans als Deckung für ihre Gewaltorgien benötigen.

Es ist aber nicht nur die Aufführung gleich, sondern auch das Theaterstück selbst, welches „Gesellschaftsveränderung“ heißt. Dies wird meist von den Betroffenen gar nicht durchschaut. Wenn man noch vor wenigen Jahren auf den wahren Hintergrund der „Anti-Atomkraft-Bewegung“ hingewiesen hat, wurde man eher mitleidig angeschaut und von den Kombinatsleitern belehrt, es sei ihnen egal, womit sie Umsatz machen würden. Ihr Herz hinge nicht an der Kernenergie. Oh heilige Einfalt! Der Gipfel der Unterwürfigkeit war dann das „Vor-Weg-Gehen“ bei der „Energiewende“. Jeder private Kapitalgeber hätte solchen Vorständen wegen ihrer andauernden Kapitalvernichtung längst den Stuhl vor die Türe gesetzt. In der typisch deutschen Art, versucht der sich über den Dividendenausfall erstaunt gebende Stadtkämmerer, lieber die Bäder und Theater zu schließen und der Kombinatsleiter wünscht sich dringend weitere Subventionen wegen der Arbeitsplätze. Man könnte auch sagen: Macht nichts, zahlen tut immer der Bürger. Von der Hand zu weisen ist diese Einstellung nicht, macht doch der Bürger immer die gleichen Kreuze in der Wahlkabine – jedenfalls bisher. Man könnte auch sagen: Selbst Schuld.

Energiewende einmal anders gedacht

Stellen sie sich einmal vor, sie hätten von der grandiosen Idee erfahren, man könnte mit Wind und Sonne elektrische Energie erzeugen. Geht nicht, meinen sie? Doch, dazu müssen sie sich nur auf das geistige Niveau eines bekannten SPD-Politikers herablassen: „Die-Sonne-schickt-keine-Rechnung“. Sie besorgen sich also Angebote über Windmühlen und alle möglichen Sonnenkollektoren. Jetzt rechnet ihnen jede Bank – wirklich jede – vor, daß sie ihren teuren Strom nicht verkaufen können. Dafür haben sie eine Lösung parat: Ihnen gut bekannte Politiker vom Typ „Kleiner-Klassenkämpfer“, die immer sofort dabei sind, wenn sie die Worte Profite, Konzerne und Kapitalisten vernehmen. Das „Erneuerbare-Energien-Gesetz“ ist geboren. Auf geht’s, für nur eine Eiskugel im Jahr die verhaßten Energiekonzerne in die Knie zwingen.

Als „links gebildeter“ Mensch wissen sie natürlich, daß man den Profit maximiert, indem man die Konkurrenz ausschaltet. Sie werden sich also auf die Kernenergie und Kohle einschießen, da sie weltweit die preiswertesten Energiearten zur Stromerzeugung sind. Allerdings haben sie noch ein gewaltiges Problem: Sie können überhaupt keine Stromversorgung mit ihrem System gewährleisten. Sie wissen das ganz genau. Es kann nicht schaden, ein paar Nebelkerzen in der Form Pump-Speicher, Power to Gas (hört sich doch echt cool an) und Elektromobilität zu werfen. Einfältige Menschen, gibt es bekanntlich mehr als genug. All das ändert aber nichts daran, daß sie dringend ein System brauchen, das eine sichere Stromversorgung für sie herstellt. Sie wissen ganz genau, die Forderung nach ausreichend Speichern zum Ausgleich des Wetters würde ihre profitable Geschäftsidee wie eine Seifenblase platzen lassen. Sie würden an den Kosten ersticken und sogar ihre Freunde aus der Politik müßten sich von ihnen abwenden.

Sie sind aber nicht allein. Sie können auf Erfahrungen z. B. aus den USA zurückgreifen und sich mächtige Verbündete suchen, die sie aus Eigennutz kräftig fördern. Schon in den 1960er Jahren fühlte sich die gesamte Industrie (Öl und Kohle) für fossile Energieträger durch die Kernenergie bedroht. Sie war billig, sauber und unerschöpflich. Man nahm Geld in die Hand und förderte damit z. B. massiv die – durch Teststoppabkommen etc. – sterbende „Anti-Atombomben-Bewegung“. Green Peace ward erschaffen. Man kann den durchschlagenden Erfolg nur verstehen, wenn man das geschichtliche Umfeld (Mai 68, Vietnamkrieg, Kalter Krieg etc.) einbezieht.

In den 1970er Jahren wurde die Ölindustrie durch die zwei Ölkrisen 1973 und 1976 arg gebeutelt. „King Coal“ drohte wieder zu erstarken. Durch die guten Erfahrungen im Kampf gegen die Kernenergie, förderte man erneut „Umweltaktivisten“. Der Ansatz hieß „Alternative Energien“ mit Erdgas und Öl als back up für schlechtes Wetter. Die Lichtgestalt aller Sonnenanbeter war Amory B. Lovins mit seinem Rocky Mountain Institute. Wichtiger Verbündeter gegen Kohle war der Sierra Club. Über ihn gelang der direkte Weg zu Hollywood. In den 1980er Jahren liefen unzählige Filme über den „Treibhauseffekt“ im US-Fernsehen. Vor allem Exxon hatte kein Problem, offen mit seinem „guten Namen“ zu werben. Gründungsmitglied und Vorsitzende der Grünen (nach ihrem Austritt aus der SPD) war eine gewisse Petra Kelly. Sie hatte schon 1968 ihr Handwerk im Präsidentschaftswahlkampf von Bobby Kennedy gelernt. Ein Schelm, wer nur an Zufälle denkt.

Warum Braunkohle?

Kernenergie und Braunkohle sind die preiswertesten Energieträger zur Stromerzeugung. Will man ein Energieversorgungsunternehmen vernichten, muß man genau diese Bereiche bekämpfen. Als erfahrener „Gesellschaftsveränderer“ kann man das natürlich nicht so offen aussprechen, will man doch nicht die viel beschworene „gesellschaftliche Mitte“ verprellen. Das bekannte Erfinden von „Phantasiekosten“ (Endlagerung, Waldsterben etc.) verfängt ebenfalls nur bei sehr schlichten Gemütern. Gerade Jugendliche lassen sich besonders leicht vor den Karren spannen, wenn man ihnen das Gefühl gibt, sie würden „die Welt retten“. Dieses Gefühl ist besonders wichtig für die unvermeidbare Konfrontation mit der lokalen Bevölkerung. Es muß ein moralisches Überlegenheitsgefühl geschaffen werden: Hier, der „edle Demonstrant“, der selbstlos kein Risiko scheut zum Wohle der Menschheit und dort, die tumbe Landbevölkerung, die sich vor Veränderung fürchtet und nur an ihr Auskommen denkt. Ganz besonders zwielichtig ist das Verhalten der Gewerkschaften: Die Funktionäre – überwiegend in der Doppelrolle des Parteimitglieds und Gewerkschaftsfunktionärs – halten sich vornehm zurück. Schließlich sind in ihrem Selbstverständnis Gewerkschaften in erster Linie politische Organisationen und höchsten zweitrangig „Arbeitnehmervertreter“. Diese Auffassung ist fester Bestandteil aller sozialistischen Systeme. Genosse, du mußt verstehen, wir müssen erstmal den Sozialismus verwirklichen und dazu sind auch Opfer – wie dein Arbeitsplatz – nötig. Aber versprochen, wenn der Öko-Sozialismus erstmal verwirklicht ist, wird auch deine Region ein Paradies werden. Ähnlichkeiten mit der Vergangenheit sind rein zufällig.

Die Parolen

Als erster Schritt, kann es nicht schaden, die Parolen der Aktivisten zu hinterfragen:

  • Braunkohletagebaue zerstören die Landschaft. Dies muß jeder selbst beurteilen. Die Zeiten, wo man nach dem Abbau Mondlandschaften hinterlassen hat, sind längst vorbei. Viele finden die neu gestaltete Landschaft (z. B. Seen) sogar reizvoller. Natur gab es vorher und nachher nicht. Alles war und ist Kulturlandschaft, also von Menschen gestaltet.
  • Dörfer werden zerstört. Dieses Argument ist besonders zynisch. Die Braunkohle gibt tausenden Menschen Arbeit. Wenn man den Bergbau einstellt, fallen die Arbeitsplätze weg. Neue sind nicht in Sicht, schon gar nicht für die speziellen Berufsgruppen. Die ganze Region wird in Dauerarbeitslosigkeit und Abwanderung versinken. Dörfer und Kleinstädte werden zu Geisterstädten werden und dem natürlichen Zerfall preisgegeben. Will man so den Nährboden für radikale Organisationen schaffen?
  • Braunkohle ist minderwertig. Richtig ist, daß Braunkohle einen geringen Heizwert hat. Der Transport von Rohbraunkohle lohnt sich daher nur über kurze Strecken. Andererseits ist sie im Tagebau sehr wirtschaftlich zu fördern. Wird sie in Kraftwerken in unmittelbarer Nähe verfeuert, ist der Transport kein Kostenfaktor.
  • Braunkohle hat einen geringen Heizwert. Braunkohle hat einen hohen Ascheanteil und einen hohen Wassergehalt. Der Aschegehalt spielt bei der Verfeuerung in einem Kraftwerk in der Nähe des Bergwerks keine große Rolle. Die Asche geht unmittelbar mit dem Abraum zurück in die Grube.
  • Braunkohle setzt besonders viel CO2 frei. Moderne Steinkohlekraftwerke haben einen Wirkungsgrad von etwa 46%, moderne Braunkohlekraftwerke von etwa 43%. Der Unterschied ist auf den hohen Wassergehalt zurückzuführen. Bei einer Vortrocknung mittels Abdampf (zusätzliche Anlagekosten) kann der Wirkungsgrad nahezu gleich sein.
  • Braunkohle setzt besonders viel Schadstoffe frei. Dies gilt für „schornsteinlose“ Kraftwerke nach deutschen Umweltschutzstandards nicht mehr. In ihnen wird die Asche (enthält z. B. Schwermetalle) durch Filter abgeschieden und die Abgase anschließend gewaschen (z. B. Abscheidung der Schwefelsäure). Die Produktion von Stickoxiden kann bereits durch die Gestaltung der Verbrennung (Temperatur und Sauerstoffgehalt) eingehalten werden. Eine zusätzliche Entstickung über Katalysatoren ist meist nicht nötig. Prinzipiell kann man heute ein Braunkohlekraftwerk genauso „sauber“ betreiben, wie ein (deutsches) Gaskraftwerk. Entscheidend ist immer nur, was im Betrieb (!) hinten raus kommt (Meßwerte).
  • Kohlekraftwerke sind nicht regelbar. Dies ist – zumindest für moderne Kohlekraftwerke – ein reines Propagandamärchen der Wind- und Sonnenlobby. Hier wird immer bewußt Technik und Betriebswirtschaft durcheinander geschmissen. Der „Zappelstrom“ kann überhaupt erst durch konventionelle Kraftwerke in ein brauchbares Produkt verwandelt werden. Dies allein, zeigt schon, wie haltlos diese Behauptung ist. Natürlich ist es ein wirtschaftlicher Unsinn, die kapitalintensiven Braunkohlekraftwerke abzuregeln, damit der ideologisch geforderte Wind- und Sonnenstrom Vorrang hat. Volkswirtschaftlich wäre es vielmehr sinnvoll, die „regenerativen Anlagen“ abzustellen. Wer ein nicht konkurrenzfähiges Produkt herstellt, muß halt aus dem Markt aussteigen. Dies muß endlich auch genauso für einen „Stromhersteller“ gelten, wie für jeden Bäcker an der Ecke.

Tschernobyl – 30 Jahre danach

Es ist schon so eine Sache, mit den runden Jubiläen. Zu solchen Anlässen schwappen Wellen der Erinnerung durchs Land. Eigentlich wollte der Autor dieses „Pflichtereignis“einfach übergehen, aber schon im Vorfeld wurde auch er von der Welle erfaßt.

Was macht Tschernobyl so besonders?

Diese Katastrophe – Unfall wäre diesem Ereignis nicht angemessen – brach auch über die Fachwelt wie ein Tsunami herein. Man kann es nur verstehen, wenn man sich die Begriffe „Sowjetunion“ (damals offiziell als das „Reich des Bösen“ betitelt) – und „eiserner Vorhang“ wieder vor Augen führt. Es gab kaum Informationen über Kernkraftwerke im „Ostblock“. Wenn überhaupt, wurden sie privat mit äußerster Zurückhaltung auf internationalen Kongressen etc. ausgetauscht. Für mich gibt es bis heute zwei Schlüsselerlebnisse für den damaligen Zustand: Das – auch im Westen sehr beliebte – Standardlehrbuch der DDR über Kernenergie (Tereza Khristoforovna Margulova, zahlreiche Bücher und über 300 Fachaufsätze), enthielt nur Zeichnungen und Bilder von westlichen Reaktoren. Es war also mehr ein „Wunschbuch“ als ein Lehrbuch. Noch viel bewegender war für mich der offene Streit zwischen Edward Teller und der Reagan-Administration über die Geheimhaltungspolitik der USA: Edward Teller trat vehement für die Freigabe aller vorhandenen Informationen über die Sowjetunion ein, weil er der Meinung war, dies würde den Menschen die Augen öffnen über dieses System und zum unmittelbaren Zusammenbruch dieser „Weltmacht“ führen.

In diese Stimmungslage platzte die Nachricht von Tschernobyl. Nicht etwa aus der Sowjetunion selbst, sondern aus Skandinavien und Frankreich. Man hatte in beiden Ländern die radioaktiven Wolken mit den Überwachungssystemen der Kernkraftwerke erfaßt. Die Nachricht war nicht mehr geheim zu halten. Jedem Fachmann war klar, da mußte etwas unvorstellbares in der Ukraine passiert sein. Besonders kafkaesk mutete die Lage in der DDR an. Das „Westfernsehen“ berichtete stündlich, die „Aktuelle Kamera “ machte noch tagelang weiter, als sei nichts geschehen. Ähnlichkeiten zu heutigem Regierungsverhalten sind keinesfalls zufällig, sondern eher von Kindheit an anerzogen. Was nicht in das eigene Weltbild zu passen scheint, wird lieber ignoriert und das eigene Nichthandeln läßt man regierungsamtlich als Besonnenheit verklären.

Die Reaktion in „West-Deutschland“

Die Wahrheit ist, das Land war überhaupt nicht vorbereitet. Kernkraftwerke sind sicher. Punkt. Nach dem Störfall von Harrisburg (TMI) galt das um so mehr: Reaktor Totalschaden, aber keine Verletzten und (praktisch) keine Freisetzung von Radioaktivität in die Umgebung – also alles richtig gemacht. Wer sich mit „schweren Unglücken“ und Gegenmaßnahmen beschäftigte, arbeitete angeblich nur den „AKW-Gegnern“ in die Hände. Ein schwerer Irrtum. Schon damals war Deutschland keine Insel der Glückseligen, umgeben von einem Meer ohne Kernenergie. Noch heute hält man eisern an dieser Ideologie fest. Man verklagt lieber Länder auf die Stilllegung ihrer Kraftwerke, als das man sich mit der Realität auseinandersetzt.

Durch die mangelnde Vorbereitung haben auch die Kernenergiebefürworter eine Chance verpasst. Man hätte die Ausbreitung, Kontaminierung von Boden und Lebensmitteln viel genauer dokumentieren können. Ein unschätzbarer Schatz gegen Kollektivdosen, LNT etc. Stattdessen waren die Messkampagnen höchst selten und unvollständig. Meist unorganisiertes Ergebnis privater Initiative.

Gleichwohl packte die „Angstindustrie“ die Gelegenheit beim Schopfe. Tschernobyl sollte Greenpeace und Co Millionen an Spendengelder einbringen. Allerdings kann man auch das nur im geschichtlichen Zusammenhang sehen. In der zweiten Hälfte der Siebzigerjahre begann der rapide Niedergang der sog. K-Gruppen an deutschen Universitäten. Die Genossen Trittin, Kretschmann etc. mußten sich umorientieren, wenn sie ihre Vorstellungen von Gesellschaftsveränderung und Sozialismus noch umsetzen wollten. Die Hunderttausende gegen Nato-Doppelbeschluss, Kernkraftwerk Brokdorf, Wiederaufbereitungsanlage Wackersdorf und Endlager Gorleben waren einfach zu verlockend. Erst 1980 gegründet, stellten die Grünen 1985 in Hessen die erste Koalition mit dem Umweltminister Joschka Fischer. Dies war noch keiner Partei „links von der SPD“ gelungen.

Interessant, aber bis heute nicht aufgearbeitet, ist die selektive Wahrnehmung unter den Linken gewesen. Irgendwie waren ja russische „AKW“ eigentlich gute „AKW“, weil sozialistische „AKW“. Bitte keine Fragen zum Sinn und Konstruktionsprinzip der RBMK stellen, denn für jeden gläubigen Linken gehört(e) es zu den Glaubensgrundsätzen, daß Ronald Reagan der Kriegstreiber gegen den friedliebenden Kreml war. Wenn man auch sonst keine Gelegenheit ausließ, auf die Verknüpfung von „AKW“ und „Atombombe“ hinzuweisen, war das im Zusammenhang mit Tschernobyl tabu. In dieser Zeit wurde der Mythos von der „Unbeherrschbarkeit“ erschaffen, der bis heute in der „ungelösten Endlagerfrage“ religiöses Dogma ist. Wenn es nicht einmal in der friedliebenden und nicht profitorientierten Sowjetunion möglich war, Kernkraftwerke „sicher“ zu betreiben, dann mußte die Kerntechnik prinzipiell nicht beherrschbar sein. Heute mag das fast lächerlich anmuten, aber 1986 konnte sich kein westdeutscher Linker vorstellen, was real existierender Sozialismus darstellte oder gar, daß dieses System in wenigen Jahren kollabieren würde. In Deutschland geht halt Ideologie vor Fakten: War doch die Begründung der Bundeskanzlerin für ihre 180°-Wende nach Fukushima, ihr angeblich enttäuschter Glaube an die Unfehlbarkeit der japanischen Technik.

Besonders zynisch ist es, wenn in deutschen Qualitätsmedien die Aufräumarbeiten von Fukushima immer in einem Atemzug mit Tschernobyl genannt werden. Kein Wort über die ahnungslosen und schlecht ausgerüsteten Feuerwehrleute, die brutal in den Tod geschickt worden sind. Kein Wort über die (fast unmittelbar) neben der Ruine spielenden Kinder, die aus ideologischen Gründen nicht unverzüglich in Sicherheit gebracht wurden. Kein Wort über die „heldenhaften“ Bauarbeiter, die direkt von den Gerüsten im Baltikum verhaftet wurden, um unter höchster Strahlenbelastung Dienst zu tun. Ganz ohne Meßgeräte, aber dafür mit jeder Menge Falschinformationen. Manch ein „Putinversteher“, der immer noch nicht begreift, warum man im Baltikum so gerne Nato-Panzer sieht, könnte hier eine Antwort (von vielen) finden. Tschernobyl war der letzte Sargnagel, den sich das Sowjetsystem höchstselbst eingeschlagen hat. Dies könnte auch eine Erklärung für „Grüne“ sein, warum Tschernobyl nicht zu einer „Anti-AKW-Bewegung“ in der Ukraine, Polen und dem Baltikum geführt hat. Anders als in Deutschland, vermag man dort zwischen Physik und Politik zu differenzieren.

Die Lehren aus Tschernobyl

Es gibt zahlreiche Lehren und Konsequenzen die international aus dieser Katastrophe gezogen worden sind. Allein die technischen Berichte und Auswertungen füllen ganze Regale. Die Kerntechniker – aber leider nur die Techniker – haben ihre Lektion gelernt. Insofern ist Tschernobyl für die Kerntechnik, was die Titanic für den Schiffbau war. Ein unüberhörbarer Weckruf, der sicherheitstechnische Grundsätze erschaffen hat, die weltweit anerkannt und praktiziert werden: Baue keinen Reaktor mit positivem Reaktivitätskoeffizienten, baue immer ein Containment usw. usw.

Seefahrt tut not, wußte man schon im Altertum, obwohl sie bis zum heutigen Tage immer wieder Opfer fordert. Energieversorgung ist für eine Gesellschaft ohne Sklaverei mindestens genauso lebensnotwendig. Aus diesem Grunde hat man in rationaleren Gesellschaften die Kernenergie auch nicht als Teufelswerk verdammt. Es gilt Risiko und Nutzen abzuwägen und die Technik beständig zu verbessern. Ganz genauso, wie es die Menschheit in ihrer Entwicklungsgeschichte immer getan hat. Ohne diese Verfahrensweise, wäre ein Fortschritt im Seetransport, der Luftfahrt usw. nicht vorstellbar gewesen. Ganz nebenbei gesagt, hat die Kerntechnik in diesem Sinne vorbildliches geleistet. Nicht ohne Grund, ist sie zu der Energieform mit der geringsten Opferzahl geworden. Gleichwohl gibt es eine „opferfreie“ Energieerzeugung nur im Märchen. Schon im Kindergarten weiß man, daß man mit einem Fahrrad schnell von A nach B gelangen kann, aber auch übel stürzen kann. Kaum ein Kind verzichtet deshalb aufs Fahrradfahren. Wer „voran gehen will“, kann das gerne tun, muß sich nur nicht wundern, wenn er irgendwann feststellt, daß die anderen viel schneller waren und schon längst beim Essen sind.

Tschernobyl hat die Angst-vorm-schwarzen-Mann genommen

Von Anfang an, hat die Angstindustrie daran gefeilt, ein Alleinstellungsmerkmal für die Kerntechnik zu konstruieren: Wenn ein „AKW explodiert“, gibt es Millionen Tote und die betroffene Gegend ist für zehntausende von Jahren unbewohnbar. Aus moralischen Gründen sei es deshalb nicht zulässig eine solche Technik zu erlauben. Das war das Totschlagargument in jeder deutschen Talkshow. Sofort standen sich der idealistische und hoch moralische Gutmensch und der profitgierige, unterbelichtete Vasall der „Atomindustrie“ gegenüber. In diesen Momenten, konnte sich selbst eine Theaterwissenschaftlerin wie eine Greenpeace-Amazone im Schlauchboot vor einem Walfänger fühlen – selbstverständlich ohne Risiko auch nur die Frisur zu gefährden.

Nun hat in Tschernobyl tatsächlich der Super-Gau stattgefunden und das Kraftwerk ist explodiert, abgebrannt und hat den größten Teil seiner radioaktiven Stoffe wie ein Vulkan ausgeworfen. Schlimmer geht nicht. Nur, wo blieb der Weltuntergang? Eine Zeit lang, konnte man die Sache noch am köcheln halten in dem man irgendwelche Geschichten über irgendwelche Mutanten in der Zone erfand. Heute ist die „Sperrzone“ längst zu einer Touristenattraktion mutiert. In den Tagen nach der Katastrophe, schwelgte noch die gesamte Presse in apokalyptischen „Krebs-Epidemien“, die in einigen Jahren folgen würden. Nun, 30-Jahre später ist davon nichts eingetreten. Lediglich die staatstragenden Medien, wie z. B. der Deutschlandfunk, machen unbeirrbar weiter:

„Kinder, die erst nach dem Reaktorunglück geboren wurden, leiden unter Erbgutschäden und Missbildungen“ (Deutschlandfunk, 30 Jahre nach der Atomkatastrophe von Tschernobyl).

Solch einen Schwachsinn trauen sich nur noch Medienbeamte mit garantierter Vollversorgung aus Zwangsbeiträgen. Das ist nicht mal mehr „Lügenpresse“, sondern einfach nur ganz schlechte Propaganda.

Es soll sogar Abtreibungen in Deutschland gegeben haben, weil Frauen fürchteten, irgendwelche Mutanten zur Welt zu bringen. In welcher Statistik werden eigentlich diese Opfer verbucht?

Die DPA teilt noch Anfang des Monats in ein und derselben Verlautbarung mit, daß 2015 bereits 15.000 Menschen die 30 km Todeszone (dieses Wort wird tatsächlich verwendet) als Touristen besucht hätten. Experten würden von Zehntausend Todesfällen infolge des Unglücks ausgehen. Sind solche Texte nun „Lügenpresse“ oder schlichte Blödheit oder beides?

Interessant ist auch, welche Hektik bei jeder Diskussion zur Endlagerung, die Erwähnung von Tschernobyl auslöst. Es fällt sogar den Kirchenvertretern sichtlich schwer zu glauben, warum das, was in Tschernobyl ziemlich offen rumliegt, nach aufwendiger Verpackung und Lagerung in hunderten Metern Tiefe, sich in eine die Menschheit gefährdende Angelegenheit verwandeln soll. Dafür ist mindestens so viel Glauben notwenig, wie für die Verwandlung von Wasser in Wein. In diesem Sinne, setzt die Feststellung von Greenpeace (Bergungskonzept für Tschernobyl-Ruine fehlt; vom 14.4.16) allem die Krönung auf: 440.000 Kubikmeter langlebiger Atomabfälle lägen unter dem alten „Sarkophag“. Das entspräche dem fünfzehnfachen Volumen aller hochradioaktiven Abfälle deutscher Atomkraftwerke. Danke Greenpeace, manchmal hab ich euch richtig lieb. So lieb, wie nach eurer Kampagne gegen die Versenkung einer alten Bohrinsel in der Nordsee.

Nun sind aber die PR-Abteilungen der Angstindustrie flexibel. Man rückte deshalb – bis Fukushima – immer weiter von der Angstmache ab. Es wurde eine angebliche Unwirtschaftlichkeit von Kernkraftwerken und die „ungelöste Endlagerfrage“ in den Vordergrund gestellt. Das erste Argument ist trefflich geeignet für Menschen, die immer noch Planwirtschaft für eine überlegene Wirtschaftsordnung halten. Wer nicht rechnen kann, glaubt halt jeden Zahlensalat. Das zweite Argument trieft vor moralischer Überlegenheit. Wer will schon seinen Nachfahren ein Problem vererben? Jedenfalls wenn es um „Atommüll“ geht. Durch Windparks zerstörte Landschaften und Vogelpopulationen, Berge von Sondermüll-Sonnenkollektoren oder mit Rückständen aus der Biogas-Produktion verseuchte Bäche und Seen sind natürlich etwas ganz anderes. Der Glaube versetzt Berge, sagt man. Um es klar zu sagen, es gibt keine Energieversorgung ohne Abfälle und Schadstoffe. Wer das Gegenteil behauptet, ist ein Schlangenölverkäufer, der sein Gegenüber für ziemlich dämlich hält.

Was uns Tschernobyl wirklich lehrt

Große Katastrophen sind immer Eckpunkte in der Technikgeschichte. Man kann meist klare Lehrsätze aus ihnen ableiten. So auch aus der Katastrophe von Tschernobyl. Dies macht die Opfer zwar nicht wieder lebendig, aber spendet vielleicht ein wenig Trost, daß ihr Tod nicht so sinnlos war, wie es manchem erscheint.

  • Die militärische und die zivile Nutzung der Kerntechnik sind strikt auseinander zu halten. Dringt das Militär mit seiner Geheimhaltung in die „doppelt genutzten“ Bereiche ein, sind die „Missverständnisse“ vorprogrammiert.
  • Fukushima und Tschernobyl haben eines gemeinsam: Die Ignoranz gegenüber ausgewiesenen Fachleuten (Fachleute sind nicht zu verwechseln mit „Atomexperten“, die von Interessengruppen ernannt werden). In Tschernobyl war es das Reaktivitätsverhalten, in Fukushima die bekannte Fluthöhe von Tsunamis. Probleme müssen offen diskutiert und erforderlichenfalls gelöst werden. Ein wird-schon-gut-gehen darf es in der Kerntechnik nicht geben.
  • Kerntechnik kann man nur richtig betreiben oder man läßt es besser bleiben. Unabdingbare Voraussetzung ist Transparenz, Verantwortung und Qualifikation aller Beteiligten. Wenn Halbwissende anfangen mit einem Reaktor zu spielen, ist alles verloren. Dies sei allen gesagt, die den Zubau von Kernkraftwerken in Diktaturen vorbehaltlos bejubeln.
  • Es gibt keine absolut sichere Technik. Deshalb sollte man auch gar nicht den Anschein erwecken. Es werden immer Schiffe untergehen, Flugzeuge abstürzen, Windmühlen umfallen, Dächer durch Sonnenkollektoren abbrennen. Nach Tschernobyl – völlige Zerstörung und Freisetzung – ist aber die Obergrenze durch ein trauriges Experiment vorgeführt worden. Lassen wir nun auch bitte den Blödsinn, von Millionen „virtuellen Toten“ zu schwafeln. 30 Jahre sind eine verdammt lange Latenzzeit. An welchem Tag soll denn das Massensterben einsetzen?
  • Wir kannten und kennen das Risiko (Schaden mal Eintrittswahrscheinlichkeit) sehr gut. Noch wichtiger: Es hat sich weder in Harrisburg, Tschernobyl oder Fukushima unvorhersehbares oder unbekanntes ereignet. Eher im Gegenteil! Es liegt nicht an der Technik als solches – wie immer gern von Grünen behauptet – sondern viel mehr an Handhabung und Aufsicht. Den Umgang gerade mit dieser Technik, kann man aber sehr wohl in den Griff bekommen, wie z. B. die US-Navy eindrucksvoll unter Beweis gestellt hat. Man muß nur den festen Willen dazu haben.
  • Man muß offensiv mit dem vorhandenen Risiko umgehen. Es darf kein Tabu geben. Schon bei der laufenden Ausbildung sollten Ereignisse durchgespielt werden, die über die „Auslegungsstörfälle“ hinausgehen. Die Einrichtung von überregionalen „Katastrophenzentren“ geht in die richtige Richtung. Schließlich ist die Antwort auf (unvermeidbare) Brände – trotz vorbeugendem Brandschutz – auch die Einrichtung von Feuerwachen.
  • Die Bevölkerung in der Nähe von Kernkraftwerken muß aufgeklärt werden und aktiv in den Katastrophenschutz einbezogen werden. Nur wer die Gefahren versteht und Schutzmaßnahmen kennt, kann im Ernstfall auch vernünftig handeln. Ganz besonders Fukushima hat gezeigt, daß (irrationale) Angst tötet.
  • Nur Übung macht den Meister. Dies gilt auch beim Katastrophenschutz. Die guten, alten ABC-Schutzübungen sind aktueller denn je. Deutschland kann sich nicht durch ein paar Windmühlen und Sonnenkollektoren aus der realen Welt wegzaubern. Wir sind von Kernkraftwerken und bald auch von Endlagern umgeben. Entweder sind die Gefahren durch Fessenheim, Bure etc. real, dann helfen keine Klagen dagegen, sondern nur Schutzmaßnahmen oder es geht einfach nur um politisches Theater. Terrorismus findet bereits vor der Tür statt. Deutschland zieht mit seiner anerzogenen „Atomangst“ und seiner Weltabgewandtheit „Nuklearterroristen“ geradezu magisch an.

Der Wahnsinn geht weiter

Wer immer noch nicht glauben mag, daß Planwirtschaft schneller wuchert als Krebs, hat die Mitteilungen Energie: Bestätigung des Reservekraftwerkbedarfs der Bundesnetzagentur noch nicht gelesen. Inzwischen gibt es eine Verordnung über „Reservekraftwerke“. Immerhin werden hier die „Gebühren“ für zusätzliche Kraftwerke mit bis zu 7800 MWel geregelt, die wir Stromverbraucher zahlen müssen.

Das neu erschaffene Handelsgut der Reservekraftwerke

Irgendwann hat auch jedes Kraftwerk sein Lebensende erreicht: Meist nicht aus technischen Gründen (ein Kraftwerk muß bis zuletzt gewartet werden), oft aus technologischen Gründen, überwiegend aus wirtschaftlichen Erwägungen und neuerdings sogar aus politischen Gründen (Ausstieg aus der Kernenergie). Normalerweise – wie gesagt, bis auf Kernkraftwerke in Deutschland – eine auf betriebswirtschaftliche Daten fußende unternehmerische Entscheidung. Mit einfachen Worten: Wenn die laufenden Kosten, die erzielten Einnahmen übersteigen, wird es stillgelegt. Nun hat man auch früher solche Kraftwerke (eher einzelne Blöcke in einem Großkraftwerk) nicht sofort abgerissen, sondern sie erst einmal in die sogenannte „Kaltreserve“ überführt. Unter „Kaltreserve“ versteht man sorgsam gepflegte Einheiten, die man innerhalb weniger Tage wieder in Betrieb setzen kann. Das kostet natürlich zusätzlich Geld. Quasi eine Versicherungsprämie gegen Ausfälle von Kraftwerken (unerwartete Schäden, Umbau- und Wartungsmaßnahmen etc.). Wieviel und welche Blöcke man in der Kaltreserve belässt, ist wieder eine betriebswirtschaftliche Entscheidung. Weil das so ist, werden stets die Einheiten mit den höchsten Unterhaltungskosten – meist die ältesten – Einheiten endgültig abgerissen. An dieser Stelle muß man verstehen, daß der notwendige Umfang der Kaltreserve ausschließlich in der Verantwortung des jeweiligen Betreibers liegt. Wer seinen Kraftwerkspark optimal betreibt, auf dem Stand der Technik hält und stets gut wartet, kommt mit einer entsprechend kleinen Reserve aus. Wer über den richtigen Brennstoffmix verfügt, braucht unerwartete Preisschwankungen nicht zu fürchten.

Die Politik hat nun durch ihre Vorgaben (Ausstieg aus der Kernenergie, Wunschenergie Wind und Sonne), die vorher beschriebenen Zusammenhänge außer Kraft gesetzt. Damit die Politik nun ihren Willen durchsetzen kann, muß sie die Entscheidung übernehmen, welche Kraftwerke stillgelegt werden dürfen. Da aber Enteignungen in unserem Wirtschaftssystem (noch) schwer durchsetzbar sind, mußte eine Krücke gefunden werden. Will oder muß ein Betreiber ein Kraftwerk abschalten, muß er sich dies genehmigen lassen. Dies stellt für sich schon einen schwerwiegenden Eingriff in das Grundrecht auf Eigentum, Gewerbefreiheit und Vertragsfreiheit dar. Um das durchziehen zu können, muß man zumindest eine akzeptable Entschädigung vorsehen. Das Wirtschaftsgut „Reservekraftwerk“ war geboren. Ein weiteres, von Politikerhand erschaffenes, planwirtschaftliches Monster, welches weitere Monster gebären wird!

Was genau, ist ein Reservekraftwerk?

Wenn der Politik – vertreten durch die Bundesnetzagentur – die endgültige Abschaltung eines Kraftwerks missfällt, wird es zu einem Reservekraftwerk erklärt. Ein Reservekraftwerk darf ausdrücklich nicht mehr von seinem Eigentümer benutzt werden, muß aber stets und in vollem Umfang (Personal, Wartung, Prüfungen etc.) durch ihn unterhalten werden. Lediglich der zuständige Übertragungsnetzbetreiber entscheidet, wann, wie oft, für wie lange, das Kraftwerk betrieben werden soll. Für einen solch schweren Eingriff in das Recht auf Eigentum, muß es natürlich eine Entschädigung geben. Diese Kosten werden auf alle Stromverbraucher über das Netzentgeld umgelegt. Ganz neben bei, ist das eine weitere Verschleierung der tatsächlichen Kosten der Windenergie! Die Festlegung der Entschädigung wird im heute üblichen Neusprech als „Durchführung eines Interessenbekundungsverfahrens “ bezeichnet. Dahinter verbirgt sich folgende Problematik: Die Entschädigung muß ausgehandelt werden. Wenn ein Eigentümer – aus welchen Gründen auch immer – partout kein Reservekraftwerk haben will, kann er sich durch die Nennung eines überhöhten Preises schützen. Deshalb wird schon mal vorsorglich mit der Keule „Gewährleistung der Sicherheit und Zuverlässigkeit des Elektrizitätsversorgungssystems“ gedroht. Andererseits ist die Bundesnetzagentur in einer eher schwachen Position, da bestimmte Kraftwerke aus bekannten technischen Gründen faktisch eine Monopolstellung besitzen. In der Praxis werden die Verhandlungen eher in größter Harmonie verlaufen. Handelt es sich doch um ein klassisches StGeschäft zu Lasten Dritter: Wir Stromkunden müssen auf jeden Fall zahlen, sitzen aber gar nicht am Verhandlungstisch.

Wozu braucht man überhaupt Reservekraftwerke?

In einem Stromnetz müssen zu jedem Zeitpunkt und an jedem Ort Energieverbrauch und Produktion in einem Gleichgewicht sein. Vor dem Zeitalter des Ökologismus hat man deshalb die Kraftwerke so nah wie möglich an den Verbrauchsschwerpunkten gebaut. Teilweise sogar in den Städten (Berlin, Hamburg, München etc.) und hat dabei die Abwärme noch für die Fernheizung verwendet. Insbesondere für die Windenergie wurde zu deren Förderung die Standortwahl freigegeben. Der Strom muß nun irgendwie zum Verbraucher fließen. Die Windparks wurden und werden bevorzugt in Norddeutschland oder sogar im Meer errichtet. Inzwischen hat man dort erhebliche Überkapazitäten. Der Abfallstrom muß auf biegen und brechen (Abnahmezwang) in Süddeutschland und im Ausland entsorgt werden. Genau dieser Abfallstrom ist aber das Hauptproblem! Nicht die Dunkelflaute, von der inzwischen sogar in der breiteren Öffentlichkeit geredet wird ist der Grund für neue Leitungen und Reservekraftwerke. Wenn kein Wind weht und keine Sonne scheint, kann der Bedarf problemlos mit dem vorhandenen Stromnetz und den (noch) vorhandenen Kraftwerken abgedeckt werden. Nur wenn der Wind – ausnahmsweise – mal etwas stärker weht, ergibt sich sofort ein Problem für jedes Stromnetz! Selbst ein immer weiter betriebener Netzausbau ist deshalb keine Lösung. Auch wenn man das Stromnetz so erweitert, daß auch Windenergiespitzen immer transportiert werden können, ist das nur an wenigen Stunden im Jahr nötig und damit völlig unwirtschaftlich.

An dieser Stelle scheint ein kleiner Einschub zum Umweltschutz nötig. Niemand kann große Mengen elektrischer Energie ohne Verluste quer durch Deutschland verschieben. Schon heute betragen allein die Verluste im Übertragungsnetz (das ist nur das Hochspannungsnetz!) an „Starkwindtagen“ 1500 MWel.! Wie die Simulationen der Bundesnetzagentur zeigen, werden diese mit dem Ausbau der Windenergie beständig ansteigen.

Ein weiteres Zauberwort: „Redispatch“

Redispatch ist, wenn man bestimmte Kraftwerke im Netz runter regelt, um die Flüsse innerhalb des Netzes zu verändern. Natürlich muß man diese Minderleistung an anderer Stelle zusätzlich einspeisen. Dazu dienen die Reservekraftwerke und deshalb haben auch nur die Übertragungsnetzbetreiber eine Verfügung über sie. Man kann sich das (stark vereinfacht) so vorstellen: Wenn eine Übertragungsleitung an ihre Grenzen zu stoßen droht, kann man die Kraftwerke vor der Leitung etwas abregeln. Natürlich fehlt diese Leistung am anderen Ende, was zumindest dort zu Spannungseinbrüchen und Frequenzschwankungen führen würde. Als Gegenmaßnahme muß das Reservekraftwerk dort, die fehlende Leistung ersetzen. An dieser Stelle sei daran erinnert, daß bereits für den Winter 2015/2016 eine Reserveleistung von geschätzt 6,7 bis 7,8 GWel. eingekauft werden muß. Die Kosten hierfür sind noch nicht bekannt. Immerhin entspricht das rund sieben Kernkraftwerken und eine solche Leistung kauft man auch in Deutschland nicht beim Kaufmann um die Ecke.

Es muß noch einmal ganz deutlich gesagt werden, das Problem ist nicht, wenn der Wind nicht weht (Dunkelflaute), sondern wenn er mal weht! Bereits jetzt haben wir bei Starkwind ein Exportsaldo von 12,1 GW. Bei Dunkelflaute (meist am Wintertag) ergibt sich nur ein Importsaldo von -2,1 GW. Die eigenen Kraftwerke reichen (noch) aus, um Deutschland zu versorgen. Im Gegensatz dazu, muß der Abfallstrom bei stärkerem Wind erst einmal zu den Grenzen transportiert werden, bevor er anschließend im Ausland teuer entsorgt werden kann.

Milchmädchen und der CO2 – freie Windstrom

Bis vor wenigen Jahren, wurde man von den Schlangenölverkäufern der Windindustrie immer brüsk abgeschmettert, wenn man von der Dunkelflaute sprach. Obwohl jedem, der sich mit den meteorologischen Daten auseinandergesetzt hat, vollkommen klar war, daß der Wind eben nicht immer weht. Gerade im Winter, wenn der Stromverbrauch am höchsten ist, treten immer wieder großräumige Hochdruckwetterlagen in Europa auf. Heute sind diese Meßdaten der Windstromproduktion von jedermann im Netz einsehbar.

Wenn man den einschlägigen Umfragen glauben mag, ist die (gut verdienende) Mehrheit in Deutschland gern bereit, höhere Strompreise zu bezahlen, wenn sie dadurch das Weltklima retten darf. So eine Art von Ablasshandel halt. Allerdings werden auch immer mehr Gutmenschen stutzig über einen vermeintlichen Widerspruch: Kaum ein Tag vergeht, an dem nicht über neue Rekorde an der Ökostrom-Produktionsfront berichtet wird – nur die CO2 – Produktion sinkt nicht parallel dazu! Nur die Schlangenölverkäufer jubeln noch über jede zusätzliche CO2 – freie Kilowattstunde aus Windstrom.

Windstrom ist nur so lange „CO2 – frei“, wie er den Windpark noch nicht verlassen hat. Selbst hartgesottene „Öko’s“ wissen aber, daß er im Windpark ohne jeden Wert ist. Er muß noch auf einem hunderte Kilometer langen Weg bis zu den Verbrauchsstellen im In- und Ausland gelangen. Ohne konventionelle Kraftwerke, läßt sich aber kein „Zappelstrom“ transportieren. Inzwischen kann man aber auch dies messen! Je höher die Produktion von Windstrom an verbrauchsfernen Standorten ist, um so höher ist die CO2.-Freisetzung um diesen Strom über weite Strecken transportieren zu können. Da kommt auch kein Netzausbau hinterher.

Planwirtschaft gegen Realität

Es ist politisch gewollt, noch mehr Windparks im Meer zu bauen. Gleichzeitig will man aus der Kernenergie aussteigen. Der Ersatz dieser Kraftwerke durch (fossile) Neubauten ist unerwünscht. Es beginnt der Kampf gegen die noch vorhandenen Kohlekraftwerke. All das zusammen genommen, führt zu einem gigantischen Park von Reservekraftwerken mit steigendem CO2.-Ausstoß. Letztendlich zum Zusammenbruch des Strommarktes mit anschließender Verstaatlichung.

Man kann schon heute die Entwicklung in Echtzeit an der Strombörse verfolgen. Jedes mal, wenn der Wind etwas stärker weht, fallen die Strompreise an der Börse synchron. Einziger Grund ist der politisch verursachte Abnahmezwang. Wenn man in einem Markt eine Überversorgung herbeiführt, fallen die Preise so lange, bis genug Marktteilnehmer die Produktion einstellen. Schon heute werden für etliche Stunden sogar negative Preise erzielt. Nichts weiter, als eine Entsorgungsgebühr für die Vernichtung der Überproduktion. Je tiefer die Preise fallen, um so mehr Produzenten können ihre Kosten nicht mehr decken und stellen die Produktion ein. Dies betrifft im derzeitigen System ausschließlich die fossilen Kraftwerke. Denn die Windstromerzeuger erhalten auch weiterhin ihren Garantiepreis für ihre garantiert abgenommene elektrische Energie! Dies haben ausschließlich die Politiker zu verantworten, denn sie haben diesen Irrsinn in Gesetzesform gegossen.

Es gibt offensichtlich noch immer genug schlichte Gemüter, die diesen Zusammenhang gut finden. Sie glauben tatsächlich, daß so immer weniger fossile Energie verbraucht wird, wodurch das „Klima gerettet wird“. Das Gegenteil ist der Fall! Je mehr Windenergie produziert werden soll, um so mehr fossile Energie (bei gleichzeitigem Verzicht auf Kernenergie) muß eingesetzt werden. Nicht nur bei Dunkelflaute muß der Strom in konventionellen Kraftwerken produziert werden, sondern auch bei jeder wetterabhängigen Überproduktion müssen vermehrt fossile Kraftwerke zum Transport des Windstroms zu den Entsorgungsstätten eingesetzt werden. Was heute schon an Sonn- und Feiertagen oder in der Nacht passiert, wird bei weiterem Ausbau bald ständig Realität sein. Es gibt keinen Ausweg aus diesem Dilemma:

  • Regelt man die Windmühlen mit zunehmendem Wind ab, wird deren Auslastung immer schlechter und es erhöhen sich beständig die Stromkosten bei den Verbrauchern. Man zahlt dann nur noch für Windmühlen, die in der Landschaft herumstehen. Wie lange die Wähler so etwas dulden, kann man vielleicht aus der Geschichte lernen. Wer kennt nicht mehr die Bilder von Obst- und Gemüseüberproduktion, die zur Stabilisierung der Preise gleich untergepflügt wurden oder die man gegen Gebühr auf der Müllkippe entsorgt hat.
  • Man versucht die Überschußenergie gleich in den Windparks zu speichern, bis sie auch tatsächlich benötigt werden. Bei dieser Energiewandlung gingen dann gleich rund die Hälfte der Produktion wieder verloren. Der zweite Hauptsatz läßt sich durch Ideologie nicht aushebeln! Abgesehen von den gigantischen Investitionen, die hierfür nötig wären. Die Butterberge und Fleischberge der planwirtschaftlichen europäischen Landwirtschaft waren Nicklichkeiten dagegen.
  • Man versucht wie bisher, die Überschüsse im Ausland zu entsorgen. Für die immer weiter entfernten Abnehmer sind immer mehr Hochspannungsleitungen nötig, auf denen immer mehr elektrische Energie gleich „verbraten“ wird. Trotzdem wird man immer mehr Reservekraftwerke benötigen, um die Netze überhaupt betreiben zu können. Logischerweise werden die Betreiber immer ihre ältesten und umweltverschmutzenden Kraftwerke den Übertragungsnetzbetreibern vermieten.

Es gibt nur eine Möglichkeit diesen Wahnsinn zu stoppen. Man macht sofort Schluß damit. Dies kann aber nur die Politik leisten, weil sie dieses Monster der Planwirtschaft erst erschaffen hat.

Die europaweite Dimension

Die Idee, den Stromabfall gegen Gebühr im Ausland zu entsorgen, war ziemlich dämlich. Polen ist bereits dabei, seine Grenzen dicht zu machen. Man ist es leid, kostenlos Strom über Tschechien nach Bayern und Österreich zu transportieren. Auch die Idee Reservekraftwerke in Polen anzumieten, war ziemlich kurz gedacht. Weder sind die Polen bereit, ihre Souveränität für ein Linsengericht an die Deutschen zu verkaufen, noch die dadurch zusätzlich entstehenden Belastungen in ihrem Netz zu tragen. Einzig Greenpeace hätte sich wahrscheinlich einen Ast gelacht: Die als besonders umweltfreundlich bekannten (abgenutzten alten) Kohlekraftwerke in Polen von Deutschland weiter am Leben gehalten, um den „Grünen Strom“ von der Ostsee nach Österreich und weiter zu verkaufen.

Besonders lustig ist auch, daß ausgerechnet Deutschland nun darüber nachdenkt, den Stromhandel mit Skandinavien und Österreich zu begrenzen. Leider weht auch der Wind in Dänemark, wenn er in Norddeutschland weht. Weil ganz Norddeutschland bereits mit Windstrom verstopft ist, tut jede zusätzlich Kilowattstunde, die Dänemark in Deutschland entsorgen will, besonders weh. Langsam merkt man, daß sich Deutschland zu einem Transitland für elektrische Energie entwickelt. Man findet es inzwischen auch nicht mehr so prickelnd, daß deutsche Stromverbraucher für lukrative Geschäfte zwischen Österreich, Ungarn und Italien bezahlen müssen. Deutscher Stromabfall wird billig von Österreich aufgekauft und gewinnbringend an das alte KuK-Gebiet weiterverscherbelt. Inzwischen fließen bereits 8,5 GW nach Österreich. Tendenz weiter steigend. Alles ein Ergebnis des politisch gewollten „Ein-Zonen- Modells“, in dem die örtliche Entfernung per Ukas außer Kraft gesetzt wurde. Strom soll überall gleich teuer sein. Transportkosten müssen zur Verschleierung aus anderen Töpfen bezahlt werden.

Auch das „Vorangehen“ hat sich als blöde Idee herausgestellt. Frankreich z. B. ist inzwischen auch in das Windgeschäft eingestiegen. Dumm nur, daß dort die geographischen Bedingungen (z. B. Atlantikküste) wesentlich günstiger als in Bayern und im Schwabenland sind, somit die Produktionskosten auch geringer. Warum sollte Frankreich also zusätzlichen Windstrom aus Deutschland importieren? Es sei denn, Michel ist bereit, die Subventionen weiter hoch zu schrauben.

Völlig verschlafen haben unsere Politiker beim „Vorangehen“ den Netzausbau in Ost-West-Richtung. Man war zu sehr von der Idee besessen, die Kernkraftwerke in Süddeutschland abzuschalten und durch Windstrom zu ersetzen. Inzwischen hat man durch die politisch verordnete Überproduktion Strompreise an der Börse erzeugt, die (teilweise) unter den Brennstoffkosten liegen. Daraus ergeben sich erbliche Stromflüsse in Ost-West-Richtung. Ein Netzausbau auch in diese Richtung, ist unvermeidbar! Deutschland wird ein Land der „Stromautobahnen“ und „Reservekraftwerke“. Ist das, das „tolle Europa“, was man uns immer zu verkaufen versucht hat? Gut gemeint, ist noch lange nicht, gut gemacht.

Fukushima – ein Zwischenbericht

In letzter Zeit ist es in den „Qualitätsmedien“ still geworden um die „Reaktorkatastrophe“. Um so mehr ein Grund, hier mal wieder einen Zwischenbericht zu liefern. Man könnte es sich einfach machen: Noch immer kein Toter durch Strahlung, noch immer keine Krebs-Epidemie, noch immer ist der Fisch an Japans Küste essbar…

…da warn es nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der „Reaktorhalle“ zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche „Betonhülle“ um das Kernkraftwerk gebaut hätte. Um es auch unserer – von der japanischen Industriegesellschaft so enttäuschten – Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein „Bankpalast“ aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von „Windmühlen“ und „Sonnenkollektoren“ hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen im Kölner Dom hunderte male stärker als die Strahlenbelastung aus Fukushima.). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die „Flugbahnen“ der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine – auch gegenüber allen Baustoffen, wie Stahl, Beton usw. – außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch „nachrechnen“ des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine „Aufnahmen“ der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden.

Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden.

An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt.

Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die „Eiswände“ fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch „gut verschlossen“ ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit „Wischern“ und „Staubsaugern“ ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man „taucht“ heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik – nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren – ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit – und ganz besonders in Deutschland – zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten „Experten“, die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch „Festigkeit im Rechten-Glauben“ ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher – aber anscheinend nicht so offensichtlich – ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten – und längst überprüften und für sicher befundenen – Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. „Wind und Sonne“ sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der „Krebstoten“ nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung „Krebs“ früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell „Strahlenangst“ erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Fukushima – Zweite Begutachtung durch IAEA

Anfang Februar 2014 veröffentlichte die IAEA (International Atomic Energy Agency) ihren zweiten Bericht zur Vorgehensweise bei der Beseitigung der Schäden im Kernkraftwerk von Fukushima. Dieser Bericht enthält neben zahlreichen Details zum gegenwärtigen Zustand vor Ort, auch eine kritische Würdigung der bisher durchgeführten Maßnahmen und Vorschläge für Verbesserungen und mögliche internationale Unterstützung. Da es sicherlich für viele etwas zu zeitaufwendig ist, einen 72-Seiten-Bericht in englischer Sprache zu lesen, wird hier eine Zusammenfassung versucht.

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese „Roadmap“ enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser „Roadmap“ gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen „Atomexperten“ kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich „Castoren“) verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie „normalen“ Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des „radioaktiven Bruches“. Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt – verursacht durch die Wasserstoffexplosionen – wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

  1. Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des „radioaktiven Schutts“.
  2. Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.
  3. Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich für die Strahlenbelastung im Tanklager verantwortlich; β- und α-Strahler sind in diesem Sinne unerheblich – niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3. sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks bestehen inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es „strahlt“ daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr90 und Y90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide – bis auf Tritium – unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet „titriertes Wasser“, welches chemisch praktisch nicht von normalem H2 O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in „Trinkwasserqualität“ in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen „Ja“ zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume „leicht verstrahlt“ sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser „Altholzfässer“ wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m„Atommüll“ aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3.. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses „leicht radioaktive“ Material gleich zum Bau der „Atommülldeponien“ wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3. täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser – absurd niedrige Wert – hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der „cloudshine“ (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^-8 mSv/a, die direkte Strahlung ungefähr 2,8 x 10^-2 mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^-4 mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung „dramatisch“ auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der „ersten Kühlwässer“ eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die „Strahlenbelastung der Öffentlichkeit“ eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen – diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs137. wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von „natürlichem“ Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.

Die Krebsgeschwulst der Energiewirtschaft

Es begann alles mit den Subventionen für Wind- und Sonnenenergie. Manche tiefgläubige Politiker halten die zwangsweise Einspeisung von elektrischer Energie zu staatlich festgelegten und garantierten Preisen immer noch für einen ideologischen Exportschlager. Eher ist es so, daß sich die „EEG-Philosophie“ wie Krebs über Europa ausgebreitet hat. Inzwischen ist man schon bei der Förderung neuer Kernkraftwerke (z. B. Großbritannien) und fossilen Kraftwerken als „Kaltreserve“ (z. B. Deutschland) angekommen. Es ist, wie es immer war und sein wird: Einige Politiker wollen mit ihrem Halbwissen in einen Markt eingreifen, um ihn zu verbessern. Zwangsläufig führen ihre Eingriffe zu Störungen an anderen Stellen, die flugs durch weitere Eingriffe beseitigt werden sollen. Eine Kettenreaktion kommt in Gang, an deren Ende meist der Zusammenbruch des gesamten Systems steht. Es scheint also durchaus sinnvoll, sich mit der unterschiedlichen „Rangehensweise“ in Europa auseinanderzusetzen.

Einer oder besser viele?

Historisch gewachsen ist das Modell „integrierter Konzern mit Gebietsmonopol“. In einem geographisch (was meist mit Ländergrenzen gleichzusetzen ist) begrenztem Gebiet hat eine Gesellschaft die Versorgung aller Kunden übernommen. Diese Gesellschaft hat dafür ein Leitungsnetz aufgebaut und betrieben und sich einen passenden Kraftwerkspark zugelegt. Dies geschah in eigener Regie und Verantwortung. In der guten, alten Zeit beschränkten sich die Politiker auf die Forderungen „sichere Versorgung zu günstigen Preisen“, „anständige Dividende“ und „Einhaltung der Gesetze und Vorschriften“. Entscheidend war, daß diese „Stromkonzerne“ wie Kaufhäuser geführt wurden: Alles unter einem Dach. Am Jahresende zählte nur das Gesamtergebnis. Wieviel, welche Abteilung dazu beigetragen hat, war höchstens Insidern bekannt. In der Tat, eine etwas undurchsichtige Angelegenheit. Allerdings weit aus weniger, als Laien (und Politiker sind fast immer Laien!) vielleicht meinen. Sind die internen Zahlen bekannt, sind sie immer auch vergleichbar mit ähnlichen Bereichen in anderen Branchen. Vorteil einer solchen Konstruktion sind die Optimierungsmöglichkeiten und die gegenseitigen Synergien, sowie die günstige Finanzstruktur. Letztendlich läuft alles immer auf die eine Frage hinaus: Was kostet am Ende der Strom? In diesem Sinne, ist z. B. ein Vergleich zwischen Deutschland und Frankreich eindeutig: Die französischen Strompreise bewegen sich im unteren Drittel, Deutschland ist auf dem Weg zur absoluten Spitze.

Das vermeintliche Gegenmodell zum „Staatskonzern a la EDF“ ist die deutsche „Strommarktliberalisierung“. Schon dieser Begriff war einer der dreistesten Neusprech-Schöpfungen in der Geschichte.

  • Man zerschlug gnadenlos bestehende Unternehmensstrukturen: Die regionalen Energieversorger BEWAG (Berlin) und HEW (Hamburg) wurden beispielsweise an den sozialdemokratischen, schwedischen Staatskonzern Vattenfall verschachert. Heute rennen die gleichen Rot/Grünen-Strategen durch die Straßen von Berlin und Hamburg und sammeln Unterschriften zur „Rekommunalisierung“. Aus den einst florierenden Aktiengesellschaften im Landesbesitz sollen über den Zwischenschritt „ausländischer Konzern“ Energiekombinate unter der Leitung von Politkommissaren gemacht werden. Elektrische Energie als neue Kopfsteuer und Zwangsabgabe zur Verwirklichung politischer Ziele – vorbei an Parlamenten und ohne lästige Haushaltsdebatten.
  • Man wandelte die Preisfindung einer Marktwirtschaft in eine reine Planwirtschaft um: Durch das „EEG“ werden nicht nur die Erzeugerpreise staatlich vorgeschrieben, sondern auch die Abnahme der Produktion zwangsweise garantiert. Bei dem Einheitsverkaufspreis (EVP) der zusammengebrochenen DDR handelte es sich noch um ein aufwendiges und strikt reglementiertes Kalkulationsverfahren. Schwarz/Gelb hat daraus die Festlegung der „Einspeisevergütung“ als eine Hinterzimmerveranstaltung unter Politikern gemacht. Der Rahmen eines „Fünf-Jahr-Plan“ wurde durch das Korsett des Abnahmezwanges ersetzt. Damit wurde den Kombinatsleitern der Stromwirtschaft sogar noch die Wahl des Produktionsstandortes entzogen. So viel Staatswirtschaft gab es noch nie auf deutschem Boden.
  • Rot/Grün erschufen die „Strombörse“ als Karikatur einer Börse, in der die eine Abteilung eines Konzerns den Strom an die andere Abteilung des gleichen Konzerns „verkauft“. Gerne benutzen Grüne Politstars diese Art der „Preisfindung“ auch noch als Beweis, daß böse Kapitalisten die „ständig sinkenden Preise an der Strombörse für Wind- und Sonnenenergie“ nicht an die Stromverbraucher weitergeben.
  • Man ist stolz darauf, daß man Ein-Mann-Finanzspekulanten (Photovoltaik auf dem Dach) und Bauernkollektive („Bürgerwindparks“) als neue deutsche Energieversorgungsunternehmen in die Schlacht gegen internationale Milliardenkonzerne geschickt hat. Mal abwarten, wie viele Privatinsolvenzen die Energiewende hinterlassen wird. Bisher haben ja nur super schlaue Stadtwerkedirektoren Millionen in spanische „Sonnenfarmen“ versenkt. Macht ja nichts, werden zum Ausgleich eben die Müllgebühren etwas erhöht.
  • Die Krönung der Volksverdummung war die Idee, haftendes (!) Eigenkapital mit einer Verzinsung von bis zu 5% (!) zur Finanzierung von Hochspannungsleitungen ein zu werben. So dämlich ist nicht einmal unser Michel: Er finanziert Hochspannungsmasten vor seinem Fenster, die niemand braucht und die voraussichtlich auch nie benutzt werden. Weil weder die bestehenden Kraftwerke im Süden abgeschaltet werden, noch die Windparks im Meer im geträumten Umfang gebaut werden. Unter Finanzhaien nennt man das skalpieren. Hauptsache, der Vertrieb hat seine Provision kassiert. Die „Hausfrauen-Hausse“ ist längst gestartet: Deutsche Bank und Co haben längst ihre Aktien in Wind und Sonne an Privatanleger mit Gewinn weiterverkauft. Jetzt können die „Zukunftstechnologien“ getrost pleite gehen und die Arbeitnehmer „frei gestellt“ werden. Es soll ja ohnehin Fachkräftemangel herrschen.

Auswirkungen auf Europa

Bisher konnten Deutschland und Dänemark ihren Stromabfall aus Wind und Sonne problemlos in ihren Nachbarländern entsorgen. Wenn auch nur über direkte oder indirekte Subventionen. Der Strompreis wird so weit runter subventioniert, bis er konventionelle Kraftwerke aus dem Markt drückt. Im Grunde genommen, ist dieses Modell ein Abklatsch alter europäischer Agrarsubventionen. Damals (Milchseen, Butterberge etc.) wie heute, führt es solange zu einer Überproduktion, bis die Subventionen über alle Maßen steigen und politisch nicht mehr zu verkaufen sind. Die Betonung liegt dabei auf „politisch ertragbar“, denn die Schmerzgrenze und die entstehenden Schäden sind in unterschiedlichen Ländern verschieden. Als erste, scherten unsere Nachbarn Polen und Tschechien aus: Die volkswirtschaftlichen Schäden durch deutschen Stromabfall nahmen solche Ausmaße an, daß sie nicht mehr durch den vermeintlich günstigen Preis aufgewogen werden. Sie machen die Grenzen dicht. Übrigens mit vollem Recht: Der Verkauf von Produkten unter Gestehungspreis wird gemeinhin als Dumping bezeichnet und verstößt gegen alle internationalen Handelsabkommen. Eine Trumpfkarte, die unsere Nachbarn gegenüber Deutschland weiter in der Hinterhand halten, solange, bis der „EEG-Wahnsinn“ gestoppt wird.

Es gibt aber noch eine Reihe indirekter Wirkungen auf andere Energiemärkte. Eindeutige Untergrenze für die Strompreise an der Europäischen Strombörse ist seit längerem der Brennstoffpreis für Kohle. Kohle und Kernenergie bilden das Rückrat der Stromerzeugung. Die von allen Sonnenmännchen und Flackerströmern heiß geliebten Gaskraftwerke müssen bereits aus dem Markt ausscheiden. Ihre Brennstoffkosten liegen deutlich über den erzielbaren Strompreisen. Dadurch entsteht eine Todesspirale: Durch die immer geringer werdende Ausnutzung (Vollaststunden) explodieren die Fixkosten. Der Zeitpunkt der vollständigen Stilllegung naht. Neuerdings werden sogar Neubauten unmittelbar nach der ersten Inbetriebsetzung gleich wieder eingemottet. Das grüne Märchen von den unflexiblen Kohle- und Kernkraftwerken, hat sich inzwischen längst als schlechte Propaganda enttarnt. Nur die Politkommissare in den nahestehenden Stadtwerken sind dem aufgesessen und haben kräftig in Gaskraftwerke (fehl)investiert. Manch ein Stadtkämmerer wird noch schlaflose Nächte bekommen: Aus den vermeintlich profitablen „Kraft-Wärme-Kopplungs-Projekten“ – gedacht zur Quersubventionierung von städtischen Hallenbädern, Busbetrieben etc. – werden Investitionsruinen werden.

Genau aus dieser Ecke weht der verzweifelte Schrei nach „Kapazitätsmärkten“. Man benötigt dringend Subventionen um seine Fehlinvestitionen zu vertuschen. Da kaum einer etwas mit diesem Begriff anfangen kann, er aber um so bereitwilliger nachgeplappert wird, hier eine Übertragung in die Alltagswelt. Betriebswirtschaftlich ist es das klassische Problem einer Eisdiele. Der Betreiber einer Eisdiele ist extrem vom Wetter abhängig. Er muß praktisch an den wenigen Tagen mit schönem Wetter den wesentlichen Teil seines Jahresumsatzes machen. All sein Bestreben ist darauf ausgerichtet. Er muß den Preis für sein Eis so kalkulieren, daß er die unzähligen flauen Tage überbrücken kann. Gemeinhin nennt man das unternehmerisches Risiko. Hätte er die Idee vom „Kapazitätsmarkt“ schon gekannt, wäre er zur Gemeinde gegangen und hätte sich jeden Monat einen festen Betrag von der Allgemeinheit bezahlen lassen, um seine Kosten für Miete, Personal etc. abdecken zu können. Als Gegenleistung hätte er sich selbstverständlich verpflichtet, seine Eisdiele an warmen und schönen Sommertagen zu öffnen. Absurd? Wieso, er stellt doch die gesellschaftlich wichtige Aufgabe der Eisversorgung an heißen Tagen bereit. Wenn es immer noch keiner merkt, wir sind mit Volldampf in eine Gesellschaft unterwegs, gegen die der Real-Existierende-Sozialismus ein Freiraum für unternehmerische Tätigkeiten war.

Die Zukunft

Solange es kein wesentliches Wachstum im Stromabsatz gibt, kann man sich eine ganze Zeit durchwursteln. Gleichwohl altert der Kraftwerkspark jeden Tag weiter. Hat man einmal mit der Planwirtschaft angefangen, kann man nicht mehr erwarten, daß das unkalkulierbare – weil politische – Risiko von irgendwelchen verantwortungsbewussten Investoren getragen wird. An diesem Punkt ist man heute bereits in Großbritannien angekommen.

Das englische Modell

Im Vereinigten Königreich hat man eine Reihe alter gasgekühlter Kernkraftwerke. Diese werden nach einem festen Fahrplan außer Betrieb gesetzt. Hinzu kommen eine Reihe alter Kohlekraftwerke, die zumindest nachgerüstet werden müßten, um die europäischen Umweltschutzstandards zu erfüllen. Ferner hat man sich auf das kostspielige Abenteuer der Windenergie aus dem Meer eingelassen. Nach jahrelangen Diskussionen ist man zum Ergebnis gekommen, daß man mindestens 18.000 MWe neue Kernkraftwerke bauen muß und das möglichst schnell. Nur, wer soll das finanzieren? Man hat alle britischen Stromversorger längst privatisiert. Die alten Kernkraftwerke werden beispielsweise von der französischen EDF betrieben. Die würde auch gerne neue bauen und betreiben, aber bitte nur mit eingeschränktem Risiko.

Die britische Lösung den Fehler der Subventionierung der Windenergie zu heilen, heißt „CO2 – freier-Strom“. Man dreht den „Ökospieß“ um. Auch Kernenergie ist „CO2.frei“, hat also folglich auch Subventionsansprüche zum Wohle des Klimas zu stellen. Man handelt für jedes Projekt (Wind auf Land, Wind auf Meer, Biomasse, Kernenergie etc.) mit dem Investor einen Mindestpreis für einen bestimmten Zeitraum aus. Der Antrieb der Verhandlungen ist, einen Preis zu finden, mit dem der Betreiber leben kann ohne pleite zu gehen. Kann dieser Preis nicht am Markt erzielt werden, gibt es die Differenz aus einem Fond oben drauf. Wird umgekehrt am Markt ein höherer Preis erzielt, wird aus der positiven Differenz die angehäufte Schuld getilgt. Erst wenn der Fond auf Null gesetzt ist, kann der Kraftwerksbetreiber den vollen Preis einstreichen. Lange Diskussionen werden immer noch über die Frage der Haftung für diese Fonds geführt: Gibt es eine direkte Bürgschaft durch den englischen Staat oder durch das Kollektiv der Stromverbraucher. Diese Frage ist von zentraler Bedeutung, da sie auf den Garantiepreis zurück koppelt. Bürgt der Staat, hat die gesamte Finanzierung des Projektes die Wertigkeit – und damit geringe Zinssätze – einer britischen Staatsanleihe. Tritt lediglich das Kollektiv der Stromverbraucher als Rückversicherer auf, hat die Finanzierung den Stellenwert einer Unternehmensanleihe. An dieser Stelle ergibt sich deshalb ein möglicher Konflikt mit dem EU-Recht wegen (vermeintlich) unerlaubter Subventionen.

Die Lösung des NIMBY-Problems?

Alle Großprojekte der Energietechnik, vom Windpark bis zum Kernkraftwerk, leiden heute am NIMBY („Aber nicht hinter meinem Haus“) Syndrom: Man erkennt die volkswirtschaftliche Notwendigkeit an, ist aber nicht bereit, persönliche Nachteile zu tragen. Die Briten wollen dieses Dilemma nun marktwirtschaftlich lösen. Die Gemeinden, die solche Projekte bei sich gestatten – vielleicht zukünftig sich sogar darum bewerben – bekommen einen hälftigen Anteil an den Unternehmenssteuern. Man geht für ein Kernkraftwerk von mindestens 193 Millionen Pfund in einem Zeitraum von 40 Jahren aus. Wer das (gefühlte) Risiko eines Kernkraftwerkes in seiner Gemeinde auf sich nimmt, wird mit zusätzlichen Freibädern, Kindergärten und was sonst noch alles, „entschädigt“. Es wird interessant sein, wie die Angstindustrie darauf reagieren wird. Greenpeace und Co. zukünftig nicht mehr in der Rolle der guten „Naturschützer“, sondern eher als Verhinderer von besser ausgestatteten Schulen und Kindergärten. Ganz neu ist dieses Erfolgsmodell nicht. Wyoming hat die am besten ausgestatteten öffentlichen Schulen in den USA (jedem Kind ein kostenloser Laptop). Finanziert durch Abgaben der Kohleindustrie. In solchen Gemeinden fällt das Hetzen gegen die als „guter Nachbar“ empfundene Kohlegrube, schwer. Im fernen Washington ist das Schwadronieren über Klimakatastrophen mit Staatsbediensten wesentlich angenehmer.

Es gibt noch einen weiteren Ansatz, der auch für Windparks und Shale Gas (1000 Pfund pro Bohrstelle + 1% vom Umsatz) gelten soll: Die Gemeinde bekommt 1000 Pfund im Jahr pro MW installierter Leistung (Ziel: Je größer das Kraftwerk, je mehr Einnahmen für die Gemeinde) begrenzt bis zum Jahr 2060 (Ziel: Je schneller gebaut wird, um so mehr Einnahmen.)

Die Rolle der EU-Kommission

Man könnte fast Schadenfreude empfinden: Über Jahrzehnte ist der Popanz „Klimakiller CO2.“ von allen möglichen Schlangenölverkäufern und Systemveränderern aufgebaut worden. Nun braucht die Wettbewerbskommission nur noch betonen, daß Kernenergie auch „kohlenstoffarm“ ist und all die schönen „Ausnahmetatbestände“ gelten auch für die Kernenergie. Oder man macht generell Schluß mit den Subventionen in der europäischen Energiewirtschaft – dann aber, ist die Kernenergie als preiswerteste Methode der Stromerzeugung (in der Grundlast) strahlender Sieger. Ein Ausbauprogramm von chinesischem Ausmaß wäre die Folge.

Es wird interessant zu beobachten sein, wie ein Heulen durch die politischen Parteien und Energiekombinate in Deutschland gehen wird. Hat nicht vor all zu langer Zeit beispielsweise die Kombinatsleitung von E.ON Energie AG in vorauseilendem Gehorsam ihre fertig entwickelten Standorte in England an die Japaner verkauft? Wollte man das erhaltene Geld nicht in die „Zukunftstechnologie Windkraft auf Hoher See“ investieren (versenken)? Mal sehen, wie die Analysten an der Börse reagieren. Das gleiche gilt für Siemens und ein halbes Dutzend Firmen in der zweiten Reihe. Wenn man jemals Manager für Arbeitsplatzvernichtung verantwortlich machen kann, dann sicherlich diese „Energiewender“. Hoffentlich gibt’s noch ne schöne Abfindung.

Niemand wird in der EU Mitleid für „Madame No“ haben, die sich selbst in diese Zwickmühle laviert hat. Ihr überhasteter „Ausstiegsbeschluss“ wird ihr vielleicht in wenigen Wochen eine Koalition mit den Grünen ermöglichen, aber der Machterhalt über Tagespolitik ist erfahrungsgemäß nicht von langer Dauer. Man schaue sich nur Spanien an: Dort sind Milliarden in der spanischen Wüste für Sonnenenergie verbrannt worden. Richtige Konsequenz aus der „Euro-Krise“: Sofortiger Schluß mit dem Unsinn der „Solarförderung“. Entgegen dem Werbeslogan eines bekannten Sozialdemokraten hat die Sonne nun doch brutal eine Rechnung geschrieben. Die politische Frage der nächsten Jahre wird sein, wie lange die (jugendlichen) Arbeitslosen in Europa bereit sind, solche alten Deckel aus der „Grünen Periode“ abzustottern. Wie lange der „Kleinrentner“ über seine Stromrechnung bereit ist, dem Schlangenölverkäufer sein durch „Solarenergie“erworbenes Schloss weiter zu erhalten. Vielleicht wird ja noch ein deutsches Energiemodell zum Exportschlager: Entschädigungslose Enteignung! Es muß ja nicht gleich ein Tsunami in Japan zur Begründung herhalten, vielleicht reicht auch eine umgeblasene Windmühle in der Nordsee.

Obama ruft zum Kreuzzug

Im Juni 2013 stellte das „Executive Office of the President“ seinen 20-seitigen „THE PRESIDENT’S CLIMATE ACTION PLAN“ vor. Medienwirksam hielt der Präsident am 25. Juni einen Vortrag an der Georgetown-Universität in Washington. Alle „Betroffenheitsorganisationen“ von Greenpeace bis WWF waren pflichtschuldigst mit Lob zur Stelle. Das Strommagazin, als Zentralorgan der Sonnenmännchen Deutschlands titelte:

„Die USA machen endlich Ernst beim Klimaschutz. Nach Jahren des Stillstands und der Blockade gibt es endlich ermutigende Signale von der größten Volkswirtschaft der Welt.“

Wieder einmal, war es dem „Ankündigungspräsidenten“ gelungen, der Linken weltweit etwas Zucker zu geben und für sich selbst ein Thema zu finden, mit dem er hofft in positiver Erinnerung zu bleiben.

Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher „Rechter Militärs“ die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2.-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des „Shale-Gas“ und „Shale-Oil“-boom eingefahren – ganz entgegen dem über 60 Jahre andauernden Gefasel von „Peak-Oil“. Deswegen mußte „Greenpeace-Klimaexperte Martin Kaiser“ auch sofort anmerken:

…dass Obama aber auch auf „Risikotechnologien“ wie Fracking oder Atomkraft setze, sei ein falsches Signal…“.

Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur „Ölkrise“ in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die „Freisetzung“ fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der „Systemveränderer“, gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein „Marktversagen“ durch politische Eingriffe erzeugen kann, läßt sich dem Zombie „Planwirtschaft“ wieder neues Leben einhauchen.

Die „Shale-Gas Revolution“

Das sogenannte „Fracking“ ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode „horizontaler Bohrungen“, die in den letzten Jahrzehnten eine bemerkenswerte technische – und vor allem wirtschaftliche – Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das „Erdgasnetz“ gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer „Schweinezyklus“ beginnt.

Der wichtigste „swinging user“ in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2.-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche „Energiewende“. Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen „Gutmenschen“, die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2. wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des „Klimakillers“ (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2 – Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden „CO2 – frei“ (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll und das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose „Guantanamo-Schließung“ auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung „CO2 – frei“.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….