Grundgesetz und Kernenergie

Vor einigen Tagen hat mir ein Leser eine Unterrichtung durch die Bundesregierung mit der Bitte um eine Stellungnahme zum Kapitel Kernenergie zugeschickt. Hierbei handelt es sich um ein Sondergutachten des Sachverständigenrates für Umweltfragen: Wege zur 100 % erneuerbaren Stromversorgung vom 18. Februar 2011. Warum nun eine so olle Kammelle aus der Zeit der Koalition von CDU/CSU und FDP? Geschichtlich von Bedeutung ist die Tatsache, daß das Unglück von Fukushima erst am 11. März 2011 stattfand. Also erst einen Monat nach dem Druck dieses Gutachtens. Ganz offensichtlich ein willkommener Anlaß für den schon lange geplanten und gewünschten Ausstieg aus der Kernenergie. Wohlgemerkt, maßgeblich mit geplant und umgesetzt durch die FDP (17. Wahlperiode vom 27.10.09 – 22.10.13).

Es gibt aber noch einen aktuelleren Grund: Immer mehr Bürger fragen sich, ob die Energiewende überhaupt mit dem Artikel 20a unseres Grundgesetzes vereinbar ist:

„Der Staat schützt auch in Verantwortung für die künftigen Generationen die natürlichen Lebensgrundlagen und die Tiere im Rahmen der verfassungsmäßigen Ordnung durch die Gesetzgebung und nach Maßgabe von Gesetz und Recht durch die vollziehende Gewalt und die Rechtsprechung„.

Genau darum geht es nämlich in dem Sondergutachten. Es soll die Energiewende als zwingend durch das Grundgesetz vorgeschriebenes Staatsziel legitimieren. Es ist sicherlich kein Zufall, da gerade die FDP eine Partei mit überdurchschnittlich hohem Anteil an Juristen ist. Man hat dieses „Gutachten“ — nach der immer noch bewährten Methode — bei besonders linientreuen Scharlatanen in Auftrag gegeben. Das Verzeichnis der Personen spricht Bände: Ausgesucht keine einschlägige Berufsausbildung oder fachliche Qualifikation auf dem Gebiet der „Stromversorgung“, dafür aber ideologisch um so gefestigter. Fachkenntnisse — oder gar andere Ansichten — hätten die Auftragsarbeit sicherlich nur behindert und das schon im Titel geforderte Ergebnis vielleicht sogar gefährdet. Politik in Deutschland des 21. Jahrhunderts. Ähnlichkeiten mit Staat und Papsttum des Mittelalters sind sicherlich rein zufällig.

Kurzfassung für Entscheidungsträger

Früher nannte man einen solch zeitsparenden Überblick noch „Minister-Seite“. Heute braucht Politiker*in über fünf Seiten „Fakten“ und bunte Bilder um in einer Talkshow sitzen zu können oder gar den Qualitätsmedien Fachkunde vorspielen zu können. Für das Durchwinken eines Gesetzes ist nicht einmal das nötig, denn da folgt man immer schön dem Beschluss der eigenen Fraktion — damit kann man sicher nichts verkehrt machen. Um die Sache noch einmal für den letzen Hinterbänkler zu verdichten, lautet gleich der erste Satz:

„Die Klimapolitik steht vor der Herausforderung, dass die Treibhausgasemissionen der Industrieländer um 80 bis 95 % reduziert werden müssen, um eine als gefährlich angesehene globale Temperaturerhöhung von über 2°Celsius gegenüber dem vorindustriellen Niveau zu vermeiden“.

Alles klar? Es geht also um die Weltrettung. Dass dieser Satz gleich mehrfach Blödsinn ist — selbst in dieser Studie — erfährt man erst beim vollständigen lesen der fast 400 Seiten. Aber welcher Parlamentarier hat schon so viel Zeit. Da ist es doch besser, man zeigt ihm gleich wo die Mehrheiten sitzen:

„In Deutschland besteht ein weitgehender Konsens, dass eine nachhaltige Entwicklung des Energiebereichs langfristig eine möglichst vollständig auf regenerativen Energieträgern basierende Elektrizitätsversorgung erfordert.“

Das versteht er. Ist zwar auch bloß eine Sprechblase — die zudem auch noch mehr als diskussionswürdig ist — aber Mainstream ist immer gut für die Wiederwahl. Was aber, wenn Volksvertreter*in gerade keine Lesebrille auf hat? Deshalb die alles entscheidende und beruhigende Aussage noch einmal im Fettdruck:

„100 % Vollversorgung mit Strom aus erneuerbaren Energien ist möglich, sicher und bezahlbar.

Basta! Wie ein anderer Bundeskanzler und heutiger Vertreter für Russengas immer zu meckernden Parteimitgliedern zu sagen pflegte. Gleichnamigem Kanzler und seinem „Kellner“, dem Diplom-Sozialwirt Jürgen Trittin, ist übrigens die Besetzung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit mit solch großen Denkern und Forschern zu verdanken. Vorgänger dieses Ministers war übrigens eine gewisse Angela Merkel. Sage keiner, es gäbe keine Kontinuität in diesem Sachgebiet. Man ist aber fair genug, selbst in dieser Kurzfassung, noch eine Duftmarke seiner politischen Gesinnung zu hinterlassen:

„Die Einsparung von Strom kann als die wichtigste Brückentechnologie auf dem Weg zur regenerativen Vollversorgung betrachtet werden. Die Bundesregierung sollte daher ein absolutes Verbrauchsziel für den Stromverbrauch setzen. Ein geeignetes Instrument zur deutlichen Stärkung der Marktanreize für ein solches Ziel könnte die Einführung von Stromkundenkonten sein.“

Nur zur Erinnerung: Koalitionspartner war die FDP. Der Austausch der Sprache im Orwellschen Sinne findet nicht erst seit heute statt: Hier wird aus „planwirtschaftlichem Bezugssytem der staatlichen Mangelwirtschaft“ flugs „Marktanreize durch Stromkundenkonten“ gemacht. Frau Claudia Kemfert — die unvergleichliche Denkerin des DIW — hätte es nicht besser sagen können. Freilich hätte sie als ausgewiesene Artistin des Denglish lieber vom „Smart Grid“ und „Smart Meter“ geschwärmt.

Nachhaltigkeitsbewertung verschiedener Optionen der Energieerzeugung: Kernenergie

Jetzt ist eine kunstvolle Pirouette gefragt. Sie erinnern sich noch an den ersten Satz der Kurzfassung? Vielleicht sollten sie noch mal das Zitat weiter oben genau lesen, damit sie auch in den vollen Genuß der geistigen Verrenkungen kommen. Es geht um nichts weniger als die Errettung vor dem bösen CO2. Oh Schreck, jetzt taucht auf Seite 46 des Gutachtens eine Tabelle über „Gesamte durchschnittliche Treibhausgas-Emissionen von Stromerzeugungsoptionen“ auf. Ihre Einheit ist „Emissionen in g/kWhel CO2 Äquivalente“. Spitzenreiter sind die bösen Braunkohle-Kraftwerke, die auch noch die Stromnetze verstopfen, mit sagenhaften 1153. Aber selbst die „AKW mit Uran aus Russland“ geben nur 63 her. Nur dreimal so viel wie die ideologisch guten Windparks mit 23 und nur gut die Hälfte von den ebenfalls ideologisch einwandfreien „Solarzelle (multikristallin)“ mit 101. Wohlgemerkt, diese Tabelle ist nicht von der bösen „Atomlobby“ erschaffen, sondern vom Öko-Institut errechnet, der Glaubenskongregation aller „Umweltschützer und Atomkraftgegner“. Auch deshalb muß man an dieser Stelle zu dem glasklaren Schluß kommen:

„Stromerzeugung aus Kernenergie ist weniger schädlich für das globale Klima als die Kohleverstromung; die im Lebenszyklus auftretenden Treibhausgasemissionen pro erzeugter Kilowattstunde liegen in der Größenordnung von denen erneuerbarer Energien. Dennoch ist die Kernenergie aus mehreren Gründen, insbesondere aufgrund der Entsorgungsproblematik und der Risiken beim Betrieb, als nicht nachhaltig einzustufen.“

Wow! So geht also Wissenschaft heute. Wenn die selbst errechneten Zahlen nicht zum eigenen Weltbild passen, werden sie einfach durch „Argumente“ ersetzt. Der Auftritt der Tochter des „Solarpapstes“ Hermann-Scheer (SPD) Dr. Nina Scheer (SPD) im Bundestag war also doch kein Ausreißer.

Es gibt also zwei „Argumente“: „Entsorgungsproblematik“ und „Risiken beim Betrieb“, die die Kernenergie aus dem Kreis der „CO2 armen“ Technologien ausschließen. Dabei muß wieder einmal die Förster-Weisheit von der „Nachhaltigkeit“ herhalten. Dieses Wort besitzt für jeden Gutdenker die gleiche Zauberkraft wie „Neo-Liberal, Kasino-Kapitalismus etc.“. Man weiß sofort, auf welcher Seite man zu stehen hat.

Der geneigte Leser wird jetzt vielleicht ein paar Argumente erwarten, aber weit gefehlt.

Endlagerung

Dieses Unterkapitel nimmt in diesem „Sondergutachten“ weniger als eine halbe Seite ein. Der einzige Inhalt zur Begründung besteht aus dem Satz:

„Starke Radioaktivität, hohe chemische Toxizität, lang anhaltende Wärmeproduktion und die durch Korrosion und mikrobielle Vorgänge hervorgerufene Gasbildung stellen hohe Anforderungen an das Rückhaltevermögen der Barriereelemente.“

Raten sie mal, was als Quelle für den „weltweiten“ Stand der Forschung zu diesem Komplex angegeben wird? Der Sachverständigenrat für Umweltfragen (SRU 2000). Das ist die Steigerung des Echoraumes, das selbstverliebte Eigenzitat. Von unfreiwilliger Komik ist der sich direkt anschließende Satz:

„Eine Bewertung der langfristigen Sicherheit von Endlagerstandorten muss sich notwendigerweise auf Annahmen und Modellrechnungen stützen. Die Ergebnisse solcher Untersuchungen sind mit umso größeren Unsicherheiten behaftet, je weiter die betrachteten Zeitpunkte in der Zukunft liegen.“

Hoppla! Wie hieß es noch im ersten Satz der Kurzfassung für Entscheidungsträgerglobale Temperaturerhöhung von über 2°Celsius“. Was auch immer eine „globale Temperaturerhöhung“ sein soll, jedenfalls wird diese ebenfalls durch mit Annahmen gefütterte Modellrechnungen bestimmt. Allerdings mit einem kleinen, aber gewichtigen Unterschied: Kein einziges „Klimamodell“ ist in der Lage, die „Klimaverläufe“ der Vergangenheit auch nur annähernd nachzubilden. Demgegenüber stellen die Rechenprogramme der Geologen ihre Brauchbarkeit nahezu täglich unter Beweis: Sonst hätten wir längst kein Öl und kein Erdgas mehr zur Verfügung.

Die letzten zwei Sätze dieses Kapitels geben in einem Zirkelschluss noch einmal den Auftrag wieder:

„Somit ist nicht auszuschließen, dass die Lebensgrundlagen kommender Generationen durch heute eingelagerten radioaktiven Abfall in katastrophalem Ausmaß beschädigt werden. Die Kernenergie ist damit im Sinne der Generationengerechtigkeit und der Risikovorsorge als nicht nachhaltig einzustufen.“

Wenn man — ich bin ausdrücklich kein Jurist — die vorhergehenden Kapitel über den Artikel 20a GG in diesem Sondergutachten gelesen hat, soll damit wohl suggeriert werden, daß die Kernenergie gegen das Grundgesetz verstößt.

Störfallrisiko

Es ist ja nicht so, daß die Kerntechnik keine Erfahrungen mit Störfällen und Unglücken hätte. Sie ist der am stärksten überwachte und durch Vorschriften reglementierte Industriezweig weltweit. Spätestens nach der Katastrophe von Tschernobyl wissen wir, daß die Propaganda der Angstindustrie „Millionen-Tote, für-zehntausende-Jahre-unbewohnbar“ einfach nur ein Märchen ist. Was bitte, ist denn noch denkbar, als ein Reaktor der explodiert, brennt und fast seine ganze Radioaktivität wie ein Vulkan ausspeit? Selbst mehrere Reaktoren wie in Fukushima stellen kein Sicherheitsrisiko für die Bevölkerung dar. Auch an unseren Gutachtern sind diese Tatsachen sicherlich nicht ganz spurlos vorbeigegangen. Sie beschließen dieses Kapitel deshalb lieber etwas schwammig:

„Die Charakterisierung des Risikos mit einer bestimmbaren und niedrigen Eintrittswahrscheinlichkeit sowie einem bestimmbaren und großen Schadensausmaß ist daher nicht mehr zeitgemäß. Vielmehr sind weder die Eintrittswahrscheinlichkeiten noch die möglichen Schadenswirkungen genau bestimmbar. Das Kernenergierisiko ist außerdem gekennzeichnet durch hohe Persistenz, Ubiquität und Irreversibilität“.

Wieder ist die Quelle dieser Aussage der eigene Echoraum: Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU 1998). Aber der Bildungshorizont unserer Gutachter geht natürlich noch viel weiter — man Beachte auch die Quellenangaben in diesem wörtlichen Zitat:

„Das Prinzip der Nachhaltigkeit erfordert Priorität für die Vermeidung solcher Risiken. Wenn die Möglichkeit katastrophaler Auswirkungen existiert, stößt die wissenschaftliche Bewertung der Risiken und Kosten an Grenzen – formale Kosten-Nutzen-Rechnungen sind in einem solchen Fall keine adäquate Grundlage für Abwägungsentscheidungen (vgl. Paul Krugman im New York Times Magazin vom 7. April 2010). Stattdessen muss die Vermeidung von Großrisiken auch bei sehr geringen Eintrittswahrscheinlichkeiten als Nachhaltigkeitskriterium Vorrang haben (Tz. 27). Für die Stromerzeugung sind demnach Technologien vorzuziehen, die technisch realisierbar, wirtschaftlich vertretbar, aber mit deutlich geringeren Sicherheitsrisiken verbunden sind.“

Welche Technologien wohl damit gemeint sind? Etwa die wetterabhängigen Umweltenergien Wind und Sonne? Wo sind die technisch realisierten Speicher gebaut worden? Wie hoch die Kosten für diesen Unsinn sind, kann jeder selbst aus seiner eigenen Stromrechnung nachvollziehen.

Umwelt- und Gesundheitsbelastungen durch den Uranabbau

Allseits bekannt ist ja, daß Deutschland sich immer sehr um fremde Länder sorgt. Neuerdings wollen wir ja sogar Fluchtursachen beseitigen:

„Viele Uranabbaugebiete liegen in Entwicklungsländern und auf dem Gebiet indigener Völker. Die Einhaltung sozialer und Umweltstandards, etwa ein angemessener Schutz der Minenarbeiter, kann für importierte Uranbrennstoffe nur schwer kontrolliert werden.“

Die Generatoren der Windmühlen und die Photovoltaik benötigen große Mengen exotischer Materialien. Wie hoch war doch noch mal der Mindestlohn im Kongo? Wie sah noch mal der Umweltschutz bei der Gewinnung seltener Erden in China aus? Wo wird der Abfall aus der Produktion beseitigt? Auch Windmühlen und Sonnenkollektoren haben nur eine endliche Lebensdauer. Fragen über Fragen…

Verbrauch nicht-erneuerbarer Ressourcen

Man scheut aber auch in dieser Unterrichtung durch die Bundesregierung nicht vor dreisten und dummen Lügen zurück:

„Kernenergie kann aufgrund der Endlichkeit der Ressourcen für Kernbrennstoffe bestenfalls als Übergangstechnologie genutzt werden. Die gängigen Schätzungen gehen davon aus, dass die bekannten Uranreserven die weltweite Versorgung noch für einige Jahrzehnte sicherstellen können…. Insgesamt ist angesichts der begrenzten Uranvorkommen auch der Verbrauch dieser nicht-erneuerbaren Ressource ein Kriterium, das bei der Nachhaltigkeitsbewertung dieser Option berücksichtigt werden muss.“

Kernbrennstoffe werden aus Uran, Plutonium und Thorium hergestellt. Auf der Basis der heutigen weltweiten Energienachfrage ist Uran und Thorium in der Erdkruste und den Weltmeeren für mindestens Zehntausende von Jahren vorhanden. Bestenfalls liegt hier der ewige „Peak-Irrtum“ vor. Die gewinnbaren Rohstoffvorkommen hängen immer von den erzielbaren Preisen und der sich ständig weiter entwickelnden Technik ab. Wegen der außerordentlich hohen Energiefreisetzung bei der Kernspaltung ist die Grenze fast beliebig nach oben ausweitbar.

Abgesehen davon, gilt die Försterweisheit von der Nachhaltigkeit nur dann, wenn man auch tatsächlich den Wald erhalten will. Hätten unsere Vorfahren so gehandelt, müßten wir heute noch auf den Bäumen leben. Niemand kann aber die Zukunft vorhersagen. Deshalb ist das Schonen von Ressourcen bestenfalls anmaßend und zeugt von eindimensionalem Denken oder wie weiland ein Ölminister bemerkte: Die Steinzeit ist nicht aus Mangel an Steinen zu ihrem Ende gekommen.

Kosten

Der Schlußsatz des etwa dreiseitigen Kapitels zur Bewertung der Kernenergie lautet:

„Insgesamt besteht bei der Kernenergie große Unsicherheit hinsichtlich der Kostenentwicklung sowie eine große potenzielle Diskrepanz zwischen den gesellschaftlichen Kosten und den Kosten für die Betreiber. Dass die Kosten langfristig sinken werden, kann als unwahrscheinlich betrachtet werden.“

Kosten sind Kosten. Immer wenn von „externen Kosten“ oder „gesellschaftlichen Kosten“ die Rede ist, versuchen irgendwelche Vulgärmarxisten ein „Marktversagen“ zu konstruieren um ihre unpopulären gesellschaftlichen Vorstellungen durchzudrücken.

Abschließende Betrachtung

Es ist schon so eine Sache mit unserem Grundgesetz: Es wächst und wächst. Teilweise hat es einen bemerkenswerten Detaillierungsgrad erreicht. So hat sich sogar der Tierschutz mit einem eigenen Paragraphen eingeschlichen. Es war sicherlich einfach, für die „niedlichen Welpen“ eine erforderliche Mehrheit zu finden. Wer möchte schon in seinem Wahlkreis als Tierquäler verdächtigt werden. Die meisten Parlamentarier haben wahrscheinlich gar nicht gemerkt, daß es sich dabei um ein Trojanisches Pferd gehandelt hat. Denn viel bedeutender ist die erste Hälfte des Satzes über die Lebensgrundlagen. Der Duden sagt zur Bedeutung des Wortes: Materielle Grundlage, Voraussetzung des Lebens.

Das Gutachten spricht von „abiotischen Elementen wie Luft, Wasser, Böden und auch das Klima“. Was ist mit Flora und Fauna oder mit etwas eher ästhetischem wie Landschaft oder gar den Menschen und ihrem Naturrecht nach Glück zu streben? Das Gutachten geht noch weiter, man schwadroniert von der Lebensgrundlage kommender Generationen, von Generationengerechtigkeit und Risikovorsorge. Am besten gefällt mir die Generationengerechtigkeit als Staatsziel. Ich dachte bisher, die Parlamentarier hätten sich im Zusammenhang mit der Rentenfrage bereits daran abgearbeitet. Man verzeih mir als einfachem Ingenieur, daß ich mir wenig unter einer „generationengerechten Stromversorgung“ vorstellen kann.

Je länger ich mich mit diesem Machwerk beschäftigt habe, komme ich zu dem Schluß, daß es hier nur um die Durchsetzung einer ganz bestimmten — allenfalls laienhaften — Vorstellung über eine Energieversorgung geht. Wenn nicht sogar um schlimmeres. Vordergründig geht es um den „Atomausstieg“, längerfristig um die „große Transformation“. Wohin eigentlich genau: Bloß in Maos „Großen Sprung“ oder gleich in die steinzeitkommunistischen Utopien des „Bruder Nummer Eins“?

Robuste Kraftwerke für robuste Netze

Für eine robuste Stromversorgung („Grid Resilience“) unter den erschwerten Bedingungen von Wind- und Sonnenenergie ergeben sich auch besondere Anforderungen an die Kraftwerke. Wind und Sonneneinstrahlung sind Wetterphänomene und damit nicht vom Menschen beeinflußbar. Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

Robuste Lastfolge

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

Abwehr äußerer Einflüsse

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

Sicherer Inselbetrieb

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

Unendliche Notkühlung

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

Schwarzstartfähigkeit

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Die Robustheit eines Stromnetzes

In den USA hat die ideologisch bedingte („Klimakatastrophe“) Subventionierung von Wind- und Sonnenkraftwerken zu ähnlichen Problemen wie in Deutschland geführt: Immer mehr konventionelle Kraftwerke arbeiten mit Verlusten und drohen deshalb mit Schließung. Präsident Trump hat versucht dem mit verschiedenen Erlassen entgegen zu wirken. Inzwischen gibt es in verschiedenen Bundesstaaten ebenfalls konkrete Maßnahmen, insbesondere um die Schließung von Kernkraftwerken zu verhindern. Es hat der bekannte planwirtschaftliche Teufelskreis eingesetzt: Die Verzerrung des Marktes durch Subventionen wird mit weiteren Subventionen an anderer Stelle bekämpft. Das Ergebnis sind allgemein steigende Kosten, die zu überhöhten Preisen und letztendlich zum Schaden der Gesellschaft wirken.

Das neue Modewort „Resilience

Der Begriff „Resilience“ kommt eigentlich aus den Gesellschaftswissenschaften. Man versteht darunter die Fähigkeit eines technischen Systems oder einer Gesellschaft Veränderungen oder zerstörerischen Ereignissen zu widerstehen, indem es die negativen Einflüsse dämpft (absorptive capability), sich selbst verändert und anpasst (adaptive capability) oder letztendlich durch eine Wiederherstellung (restorative capability). Es wird deshalb hier das Wort „Robustheit“ als Übertragung ins Deutsche verwendet.

Um dem ganzen einen wissenschaftlichen Anstrich zu verleihen, wird gern ein Bild gezeichnet, welches als „System Resilience Curve (SRC)“ bezeichnet wird. Darunter versteht man die bauchige Kurve der „Performance“ über der Zeit. Dem gewöhnlichen Ingenieur sei dringend empfohlen, sich mit diesem neuen Wieselwort vertraut zu machen, da es nur eine Frage der Zeit sein kann, bis es zum Standardrepertoire eines jeden Dampfplauderers gehört. Es werden üblicherweise vier Phasen definiert:

  1. Zum Zeitpunkt t1 tritt eine Störung auf. Bis zum Zeitpunkt t2 kämpft das System mit dieser Störung. Man bezeichnet diese Phase noch als Normalbetrieb, solange die Auswirkungen auf die „Performance“ noch im Rahmen der Toleranzen bleiben.
  2. Zum Zeitpunkt t2 beginnt der teilweise Zusammenbruch des Systems. Gegenmaßnahmen zur Stabilisierung werden ergriffen und die „Performance“ erreicht zum Zeitpunkt t4 ihren Tiefpunkt.
  3. Ab dem Zeitpunkt t4 beginnt die Wiederherstellung des Systems im Notbetrieb, die zum Zeitpunkt t5 abgeschlossen ist. Die „Performance“ erreicht aber nicht wieder den Wert im Normalbetrieb.
  4. Ab dem Zeitpunkt t4 beginnt die Reparaturphase bis zum Zeitpunkt t5 an dem ein neuer Normalbetrieb erreicht wird.

So theoretisch, so schön und gut. Nur, dem Techniker dürstet es immer nach konkreten Zahlenwerten und genauen Definitionen. Mit Geschwurbel kann man zwar in den Gesellschaftswissenschaften hervorragend Geld und Anerkennung verdienen, aber in der realen Welt bringt man damit keine Maschine zum Laufen — geschweige ein so komplexes System wie ein Stromnetz. Zumal Experimente nur sehr eingeschränkt möglich sind: Es wären Operationen am „offenen Herzen einer Gesellschaft“.

Was bitte, ist die .„Performance“ eines Stromnetzes?

In einer Marktwirtschaft sollte man immer zuerst nach den Anforderungen der Kunden fragen. Der Kunde — das sind wir alle selbst — will zu jedem Zeitpunkt, an jeder Steckdose, seine georderte Leistung haben. Er will selbst und frei entscheiden, wann er das Licht oder seinen Computer einschaltet oder was sonst er mit elektrischer Energie alles machen will. Für uns seit Jahrzehnten eine Selbstverständlichkeit. Vielleicht zu selbstverständlich, als das wir die heraufziehenden Gefahren „Der-schönen-neuen-Welt“ des Öko-Sozialismus noch wahrnehmen.

Wir sollen uns an einen Systemwechsel gewöhnen: Zukünftig geht es nicht mehr um die Interessen der Kunden, sondern ausschließlich um die Interessen der Lieferanten. Aus dem Kunden wird ein lästiger „Strom-Bittsteller“, dessen einzige Aufgabe noch darin besteht, mit seiner ständig steigenden Stromrechnung diejenigen zu mästen, die besonders gut und gerne von diesem Land leben — die Sonnen- und Windbarone.

In der guten alten Zeit, in der noch die Energieversorgung im Vordergrund stand, war die Aufgabenstellung einfach und klar definiert: Priorität hatte stets die Stabilität des Netzes. Auch die Verantwortung war über die Gebietsmonopole eindeutig geregelt. Jeder Versorger hatte von der Erzeugung (Kraftwerke) über den Transport (Netz) bis zur Abrechnung (Zähler usw.) alles bereitzustellen. Robustheit war so selbstverständlich, daß niemand darüber reden mußte. Die Bewertung der Performance war einfach: Wie oft und für wie lange ist die Stromversorgung in einem Gebiet ausgefallen?

Alles eine Frage der Verantwortlichkeit

Ein klassisches Energieversorgungs-Unternehmen mußte selbst entscheiden, in welchen Kraftwerkspark (Kohle-, Kernkraft-, Gaskraftwerke etc.) in welcher Zusammensetzung (Optimierung der Erzeugungskosten) es investierte. Welche Kraftwerke es in Betrieb hatte, welche in Reserve, wann Wartungsarbeiten, wann Modernisierungen etc. durchgeführt wurden. In der Praxis oft schwierig zu beantwortende Fragen, aber durch entsprechend große Stäbe an Ingenieuren handhabbar. Ein über alle Kulturkreise und sogar Gesellschaftssysteme erfolgreiches Modell.

Eine alte Volksweisheit besagt: Wenn es dem Esel zu wohl geht, geht er aufs Eis tanzen. Die „Große Transformation“ zurück ins Mittelalter ward erschaffen: Plötzlich wurde die Technik zwangsweise durch die vom Menschen nicht bestimmbare Kraft des Wetters ersetzt. Absurderweise auch noch mit der Begründung, genau diese Naturgewalt dadurch beeinflussen zu können und zu müssen („Klimakatastrophe“). Da kein Energieversorgungsunternehmen so blöd war, sich weiterhin für ein robustes Stromnetz verantwortlich machen zu lassen, aber die Stellhebel ausschließlich dem „Wettergott“ zu überlassen (100% Wind und Sonne), mußte die „Strommarktliberalisierung“ erschaffen werden. Eine herrliche Wortschöpfung um den verbrannten Begriff „Planwirtschaft“ zu vermeiden. Die Vorgehensweise ist und bleibt immer gleich: Zerschlage erstmal das funktionierende System und bilde möglichst viele Einheiten (Energieerzeugung, Netzgesellschaft etc.) mit möglichst gegensätzlichen und unterschiedlichen Interessen — auch als Teile und Herrsche bekannt. Damit die Sache beschleunigt wird, sorge für möglichst viele „Schlangenölverkäufer“ (EE-Gesetz) und Agitprop-Einheiten (Greenpeace, Klimainstitute usw.). [Einschub: Warum fällt mir an dieser Stelle bloß eine Paraderolle mit Mario Adorf ein: Ich sch… dich zu mit Geld.] In diesem Punkt unterscheidet sich der „Öko-Sozialismus“ von seinen eher armen Vorgängern. Man hat in diesem (noch) erfolgreichen System einfach mehr Geld anderer Leute — auch Steuern und Abgaben genannt — zur Verfügung.

Wofür dient die SRC wirklich?

Bisher hat man einfach den Bedarf gedeckt. Störungen für das Stromnetz haben sich aus technischen Fehlern (Kraftwerk, Trafo etc.), aus höherer Gewalt (Bagger) und zum geringeren Maße durch das Wetter (Sturm, Vereisung, Blitzschlag etc.) ergeben. Alles sehr gut beherrschbar, weil man stets selbst die Hoheit über die Produktion und Verteilung besessen hat. Man hat sich fast immer und ausschließlich in der ersten Phase des Normalbetriebes bewegt. Die Öffentlichkeit hat meist nichts von etwaigen Schwierigkeiten mitbekommen. Stromausfällen gab es — wenn überhaupt — nur lokal und kurzfristig.

Nun hat man — nicht aus Not, sondern nur aus ideologischen Gründen — die Erzeugung in die Hand des „Wettergottes“ übergeben. Dort geht aber die Bandbreite der Stromproduktion von nahezu Null (Dunkelflaute) bis zur maximalen installierten Leistung, die manchmal höher als der Gesamtbedarf sein kann. Mit zunehmendem Ausbau in Europa werden die notwendigen Abschaltungen immer weiter zunehmen. Wirtschaftlich eine sich selbst verstärkende Katastrophe. Mit jeder notwendigen Zwangsabschaltung wird die — ohnehin geringe — Arbeitsausnutzung (Strommenge, die die entsprechenden Anlagen pro Jahr produzieren) geringer und die Kosten der erzeugten Kilowattstunden steigen dadurch entsprechend an. Noch einmal in einem kurzen Merksatz zusammengefaßt: Je mehr Windmühlen und Sonnenkollektoren in Betrieb gehen, um so teurer werden die damit erzeugten Kilowattstunden! Ganz im Gegensatz zur geltenden Propaganda, die von immer weiter sinkenden Preisen faselt. Jeder Investor, der sich heute noch mit dem Gedanken trägt in Wind und Sonne zu gehen, sollte diesen Zusammenhang beherzigen. Ist der Redeschwall und die Zahlenakrobatik der Schlangenölverkäufer auch noch so verführerisch.

In diesem Zusammenhang ist die Einbeziehung des Wirtschaftsraumes Europa nicht zu vernachlässigen. Je weiter auch dort der Ausbau von „regenerativen Energien“ fortschreitet, um so mehr werden die Entsorgungsgebühren (negative Strompreise an den Börsen) ansteigen. Die von den Stromkunden in Deutschland bezahlten Entsorgungsgebühren machen die Preise für den Windstrom in unseren Nachbarländern immer weiter kaputt und erhöhen damit die dort fälligen Subventionen. Auch das, eine weitere Todesspirale für die „regenerativen Energien“. Die alte Propagandalüge „irgendwo-weht immer-der Wind“ ist längst als solche enttarnt. Was Meteorologen schon immer wußten, daß Großwetterlagen nicht an den nationalen Grenzen halt machen, ist heute bereits in den Übertragungsnetzen meßbar: Die Produktion von Windenergie in den zentraleuropäischen Staaten verläuft bemerkenswert synchron.

Wenn also der Wettergott die Produktion übernimmt, muß man von tagelangen und großräumigen Flauten ausgehen. Speicher in dieser Größe gibt es nicht. Wenn man zudem in der kurzen Zeit, in der der Wind genug weht und die Sonne scheint (Arbeitsausnutzung <15% in der Summe beider), nicht nur die aktuelle Nachfrage abdecken muß, sondern auch noch die zu speichernde Energie einschließlich der Verluste (mindestens 50%) produzieren muß, benötigt man gigantische installierte Leistungen. Dabei muß man auch noch beachten, daß die Vollbenutzungsstunden der Wandlungsanlagen (Batterien, Power to Gas oder was auch immer) und Übertragungsnetze ebenfalls sehr gering ausfallen müssen (Produktion minus Nachfrage), was bei den ohnehin sehr hohen Investitionskosten für Speicher- und Übertragungssysteme zu gigantischen spezifischen Kapitalkosten (€/kWh) führt.

Die Antwort liegt in Phase 2 der SRC

Jeder Fachmann weiß, daß bei immer weniger konventionellen Kraftwerken am Netz, zukünftig der Punkt 2 der SRC-Kurve immer häufiger zu dem Ergebnis führt, daß Störungen eben nicht mehr ausgeregelt werden können. Störungen sind zukünftig nicht mehr nur technische Fehler im System, sondern vielmehr auch noch die Launen des Wettergottes. Wenn erst einmal kein „Kohlestrom mehr die Netze verstopft“ und die Kernkraftwerke abgeschaltet sind, bleibt nur noch der Abwurf von Verbrauchern. Dieser muß in Sekundenschnelle erfolgen, sonst bricht — gemäß den Kirchhoffschen Regeln — das gesamte Netz großflächig (Europaweit?) zusammen.

Unsere Fachpersonen an den Schaltstellen der großen Transformation haben natürlich auch darauf eine Antwort: Man schwadroniert vom „Smart Grid“ und von „Smart Metering“. Dahinter verbirgt sich nichts anderes, als der elektronische Bezugsschein der Mangelwirtschaft. Auch die fanatischsten „Transformatoren“ sehen durchaus das Problem von großflächigen Stromabschaltungen. Deshalb wollen sie gemäß Dringlichkeit abstellen. Wer im Dunkeln sitzen muß, entscheidet wohl der örtliche Parteisekretär oder schlicht der Geldbeutel. Der dumme Michel wird schon zahlen, wenn er unbedingt die Sportschau sehen will oder sein Gefriergut retten muß. In Afrika überleben die Menschen schließlich auch irgendwie.

Wenn nun der Wind wieder richtig weht und der Tag nach einer langen Winternacht anbricht, kann man langsam in die Phase 3 übergehen. Es ist nämlich gar nicht so einfach ein Netz wieder zu stabilisieren. Man kann dann schrittweise die Notstromaggregate in den Krankenhäusern, Unternehmen usw. abstellen und die Verbraucher wieder aufs Netz schalten. Wie die „Performance“ aussieht, wird sich zeigen. Als letztes kommt dann mit Phase 4 die Beseitigung der entstandenen Schäden im Netz.

Ausblick

Der nächste Artikel wird sich mit den Konsequenzen für die Kernkraftwerke in dieser neuen Welt befassen. Mit Sicherheit wird es noch eine jahrelange Übergangszeit geben, bis man mit dem Spuk der „Regenerativen Energien“ wieder Schluß macht. Es gilt diese Zeit möglichst elegant aus zu sitzen.

Immobilisierung von Pu & Co

Alle radioaktiven Stoffe sind erst richtig gefährlich, wenn sie in den Körper aufgenommen werden. Solange sie sich außerhalb befinden, ist eine Abschirmung recht einfach möglich. Für eine „Inkorporation“ sind drei Wege ausschlaggebend: Über die Atemluft, Trinkwasser und Nahrung. Solange sie also gar nicht in die „Biosphäre“ gelangen, können sie auch keinen Menschen schädigen oder sich dort anreichern. Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.

Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.

Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.

Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.

Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.

Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

Die Verdünnung

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.

Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.

Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.

Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

Das Dose in Kanister Verfahren

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.

Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

Bohrlöcher

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.

Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.

Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.

Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

Beseitigung in Reaktoren .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?

Könnte Deutschland die große Schweiz werden?

Die Bürger der Schweiz haben sich gegen eine vorzeitige Abschaltung ihrer Kernkraftwerke entschieden. Ein Anlass, einmal über die Verhältnisse in Deutschland (neu) nachzudenken.

Der Istzustand

Vielen Menschen in Deutschland ist gar nicht bewußt, daß immer noch acht Blöcke am Netz sind (Isar 2, Brokdorf, Philippsburg 2, Grohnde, Emsland, Neckarwestheim 2, Gundremmingen B und C) und in aller Stille reichlich zur Energieversorgung in Deutschland beitragen. Sie haben immerhin zusammen die stolze Leistung von 10.799 MWel. und produzieren damit durchschnittlich 86.595.052.800 kWh elektrische Energie jährlich. Wohl gemerkt, jedes Jahr, unabhängig davon, wie stark der Wind bläst oder die Sonne scheint. Halt Energie nach den Bedürfnissen der Menschen und nicht „auf Bezugsschein“ irgendwelcher Schlangenölverkäufer mit (meist) öko-sozialistischer Gesinnung. Ganz neben bei, tragen sie durch ihre gewaltigen Generatoren auch noch zur Netzstabilität bei. Wie wichtig und kostenträchtig allein dieser Aspekt ist, werden unsere Laiendarsteller erst merken, wenn diese Kraftwerke endgültig abgeschaltet sind.

Wieviel Volksvermögen vernichtet werden soll

Fangen wir mal mit dem letzten Aspekt an: Die Standorte zukünftiger Windparks und Photovoltaikanlagen können – wegen der geringen Energiedichte von Wind und Sonne – gar nicht den Kernkraftwerken entsprechen. Das vorhandene Stromnetz muß daher komplett umgebaut bzw. erweitert werden. In der Öffentlichkeit wird wohlweislich nur von den neuen „Stromautobahnen“ gesprochen, die den „Windstrom“ von Norddeutschland nach Süddeutschland transportieren sollen. Freilich sind bereits dafür Milliarden erforderlich. Kaum ein Wort über die Frequenzregelung und die Niedervolt Netze zum Einsammeln des flächigen Angebots (z. B. Sonnenkollektoren auf den Dächern).

Wir reden hier nicht von irgendwelchen „Schrottreaktoren“, sondern ausnahmslos von Kernkraftwerken, die erst zwischen 1984 und 1989 ans Netz gegangen sind. Für solche Kraftwerke geht man heute international von einer Betriebszeit von 60 bis 80 Jahren aus. Sie hätten also eine „Restlaufzeit“ bis in die zweite Hälfte dieses Jahrhunderts vor sich – wenn sie nicht in Deutschland, sondern bei unseren Nachbarn stehen würden! Warum nur, fällt mir an dieser Stelle, der alte Witz-über-die-Geisterfahrer ein?

Um es klar und deutlich zu sagen, sie verfügen über Sicherheitseinrichtungen, die heute noch international Spitze sind. Teilweise werden japanische und osteuropäische Kernkraftwerke gerade erst auf dieses Niveau nachgerüstet. Selbst noch im Bau befindliche Reaktoren in China und den Emiraten, sind keinesfalls sicherer. Das alles, obwohl es in Deutschland weder schwere Erdbeben noch Tsunamis gibt.

Wenn man als Wiederbeschaffungswert die Baukosten der koreanischen Reaktoren in den Vereinigten Emiraten ansetzt (4 x 1400 MW für 20 Milliarden US-Dollar), werden hier mal eben rund 35 Milliarden Euro verbrannt. Zugegeben eine grobe Abschätzung, aber wie war das noch mal mit dem Rentenniveau für die kommende Generation? Es ist ja offensichtlich nicht so, als wäre in diesem Land überhaupt kein Kapital mehr vorhanden oder anders: Der Kleinrentner soll auch noch durch überteuerten „Ökostrom“ zusätzlich bluten.

Der energetische Ersatz

Ein beliebter Vergleich der Schlangenölverkäufer ist immer die produzierte Energie. Lassen wir die Zahlen für sich sprechen: Im Jahr 2015 wurden insgesamt 86 TWh Windenergie erzeugt. Dazu waren 27.147 Windmühlen mit einer Gesamtleistung von 44,95 GW notwendig gewesen. Wollte man die acht verbliebenen Kernkraftwerke durch Windmühlen ersetzen, müßte man also noch einmal die gleiche Anzahl zusätzlich bauen. Besser kann man den Irrsinn nicht verdeutlichen. Schon allein unsere Vogelwelt könnte 20.000 zusätzliche Schredderanlagen nicht verkraften. Welche Wälder sollen noch gerodet werden?

Wollte man die gleiche Energie mit Photovoltaik erzeugen, müßte man über 82 GW zusätzlich installieren. Trotzdem wäre es weiterhin des Nachts dunkel.

Die Speicherfrage erübrigt sich, denn allen ökologischen Sturmgeschützen zum Trotz: Es gibt sie wirklich, die Dunkel-Flaute. Jawohl, besonders bei Hochdruck-Wetterlage im Winter weht tagelang kein Wind – auch großflächig nicht.

Andererseits wird es den berühmten Muttertag (8.5.2016) auch immer wieder geben: Sonnenschein mit Starkwind an einem verbrauchsarmen Sonntag, der die Entsorgungskosten an der Strombörse auf -130 EUR/MWh hochgetrieben hat. Wie hoch dürfte die Entsorgungsgebühr wohl sein, wenn der Ausbau noch einmal verdoppelt wird? Sind dann unsere Nachbarn überhaupt noch bereit, unseren „Strommüll“ für uns zu entsorgen? Ich glaube nicht. Zwangsweise Abschaltungen wären die Folge: Die Abwärtsspirale immer schlechter werdender Auslastung für die „Erneuerbaren“ wird immer steiler werden. Das Rennen nach der Fabel von Hase und Igel hat ja bereits längst begonnen. Dies sei allen Traumtänzern gesagt, die von einer Vollversorgung durch Wind und Sonne schwadronieren.

Der notwendige Ersatz

Wie gesagt, es gibt sie wirklich, die Dunkel-Flaute. Speicher in der erforderlichen Größe sind nicht vorhanden. Das seit Jahren erklingende Geraune von der „Wunderwaffe-der-Großspeicher“ wabert konsequenzlos durch die deutschen „Qualitätsmedien“. Physik läßt sich halt nicht durch den richtigen Klassenstandpunkt ersetzen. Es müssen deshalb neue Grundlastkraftwerke gebaut werden. Kurzfristig kann man elektrische Energie aus dem Ausland hinzukaufen – „Atomstrom“ und „Dreckstrom“ aus den östlichen Nachbarländern – bzw. vorhandene Mittellastkraftwerke im Dauerbetrieb verschleißen.

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Wahrscheinlicher ist der Ersatz durch Steinkohlekraftwerke. Um die 8 noch laufenden Kernkraftwerke zu ersetzen, wären etwa 14 Blöcke vom Typ Hamburg-Moorburg nötig. Die würden etwa 28 Millionen to Steinkohle pro Jahr fressen. Die müssen nicht nur im Ausland gekauft, sondern auch bis zu den Kraftwerken transportiert werden.

Will man wenigstens die Versorgungssicherheit erhalten, bleibt nur die eigene Braunkohle. Man müßte nur etwa 10 neue Braunkohleblöcke vom Typ BoA-Neurath bauen. Die würden allerdings über 84 Millionen to Braunkohle pro Jahr verbrauchen. Unsere Grünen würde das sicherlich freuen, man müßte die Braunkohleförderung nicht einmal um die Hälfte erhöhen. Wieviele schöne „Demos“ gegen neue Tagebaue könnte man veranstalten!

Politik

Das Wahljahr 2017 (Landtagswahl in NRW und Bundestagswahl) kommt immer näher. Zwischen März und Juli soll der geplante Wahnsinn mit der Abschaltung von Gundremmingen beginnen. Da in Deutschland das Regulativ einer Volksabstimmung (über lebenswichtige Fragen) fehlt, bleibt nur die Auseinandersetzung in einer Parteien-Demokratie. Parteitage und Walkämpfe bieten die Möglichkeit Parteien zu zwingen „Farbe zu bekennen“. Dies gelingt aber nur, wenn die Bürger auch (öffentlich und nachdrücklich) Fragen stellen. Gerade in Deutschland neigt man eher zu „Man-hat-doch-nichts-davon-gewußt“ oder „innerlich-war-man-auch-dagegen“. Zumindest der ersten Lebenslüge, soll dieser Artikel entgegenwirken.

Die Forderung an alle Parteien kann nur lauten: Schluß mit der Kapitalvernichtung durch Abschaltung moderner Kernkraftwerke. Bis 2022 ist es weder möglich geeignete Groß-Speicher zu erfinden, das Stromnetz völlig umzukrempeln, noch fossile Kraftwerke in der benötigten Stückzahl als Ersatz zu bauen. Nicht einmal die Verdoppelung der Windenergie in nur vier Jahren ist möglich – jedenfalls nicht ohne bürgerkriegsähnliche Zustände heraufzubeschwören. Parteien, die dies nicht einsehen wollen, sind schlicht nicht wählbar. In einer indirekten Demokratie, in der dem Bürger das Recht auf Entscheidungen – in überlebenswichtigen Fragen — abgesprochen wird, kann sich der Bürger nur an der Wahlurne wehren. Nichts tut den etablierten Parteien mehr weh, als der Mandatsverlust. Dies ist halt die Kehrseite der Allmachtsphantasien der „indirekten Demokraten“.

Jetzt Braunkohle

Nachdem man die Abschaltung der Kernkraftwerke in Deutschland durchgesetzt hat, konzentriert sich die „Öko-Bewegung“ nun auf die Braunkohle.

Die erschreckenden Parallelen zur „Anti-Atomkraft-Bewegung

Die Bilder aus der Lausitz vom Pfingstwochenende gleichen erschreckend denen aus Gorleben: Besetzte Eisenbahnlinien und Erstürmung des Geländes. Das Vorgehen ist immer gleich und wird zwangsläufig in Ausschreitungen enden, auch wenn es diesmal noch glimpflich abging.

Genau wie bei der „Anti-Atomkraft-Bewegung“ steht am Anfang die Schaffung von Ängsten: Dort die „Strahlenangst“, hier die „Klimakatastrophe“. Diese Ängste treiben dann gutgläubige Menschen zu „Protestaktionen“, die wiederum die (eigentlich bekannten) Hooligans als Deckung für ihre Gewaltorgien benötigen.

Es ist aber nicht nur die Aufführung gleich, sondern auch das Theaterstück selbst, welches „Gesellschaftsveränderung“ heißt. Dies wird meist von den Betroffenen gar nicht durchschaut. Wenn man noch vor wenigen Jahren auf den wahren Hintergrund der „Anti-Atomkraft-Bewegung“ hingewiesen hat, wurde man eher mitleidig angeschaut und von den Kombinatsleitern belehrt, es sei ihnen egal, womit sie Umsatz machen würden. Ihr Herz hinge nicht an der Kernenergie. Oh heilige Einfalt! Der Gipfel der Unterwürfigkeit war dann das „Vor-Weg-Gehen“ bei der „Energiewende“. Jeder private Kapitalgeber hätte solchen Vorständen wegen ihrer andauernden Kapitalvernichtung längst den Stuhl vor die Türe gesetzt. In der typisch deutschen Art, versucht der sich über den Dividendenausfall erstaunt gebende Stadtkämmerer, lieber die Bäder und Theater zu schließen und der Kombinatsleiter wünscht sich dringend weitere Subventionen wegen der Arbeitsplätze. Man könnte auch sagen: Macht nichts, zahlen tut immer der Bürger. Von der Hand zu weisen ist diese Einstellung nicht, macht doch der Bürger immer die gleichen Kreuze in der Wahlkabine – jedenfalls bisher. Man könnte auch sagen: Selbst Schuld.

Energiewende einmal anders gedacht

Stellen sie sich einmal vor, sie hätten von der grandiosen Idee erfahren, man könnte mit Wind und Sonne elektrische Energie erzeugen. Geht nicht, meinen sie? Doch, dazu müssen sie sich nur auf das geistige Niveau eines bekannten SPD-Politikers herablassen: „Die-Sonne-schickt-keine-Rechnung“. Sie besorgen sich also Angebote über Windmühlen und alle möglichen Sonnenkollektoren. Jetzt rechnet ihnen jede Bank – wirklich jede – vor, daß sie ihren teuren Strom nicht verkaufen können. Dafür haben sie eine Lösung parat: Ihnen gut bekannte Politiker vom Typ „Kleiner-Klassenkämpfer“, die immer sofort dabei sind, wenn sie die Worte Profite, Konzerne und Kapitalisten vernehmen. Das „Erneuerbare-Energien-Gesetz“ ist geboren. Auf geht’s, für nur eine Eiskugel im Jahr die verhaßten Energiekonzerne in die Knie zwingen.

Als „links gebildeter“ Mensch wissen sie natürlich, daß man den Profit maximiert, indem man die Konkurrenz ausschaltet. Sie werden sich also auf die Kernenergie und Kohle einschießen, da sie weltweit die preiswertesten Energiearten zur Stromerzeugung sind. Allerdings haben sie noch ein gewaltiges Problem: Sie können überhaupt keine Stromversorgung mit ihrem System gewährleisten. Sie wissen das ganz genau. Es kann nicht schaden, ein paar Nebelkerzen in der Form Pump-Speicher, Power to Gas (hört sich doch echt cool an) und Elektromobilität zu werfen. Einfältige Menschen, gibt es bekanntlich mehr als genug. All das ändert aber nichts daran, daß sie dringend ein System brauchen, das eine sichere Stromversorgung für sie herstellt. Sie wissen ganz genau, die Forderung nach ausreichend Speichern zum Ausgleich des Wetters würde ihre profitable Geschäftsidee wie eine Seifenblase platzen lassen. Sie würden an den Kosten ersticken und sogar ihre Freunde aus der Politik müßten sich von ihnen abwenden.

Sie sind aber nicht allein. Sie können auf Erfahrungen z. B. aus den USA zurückgreifen und sich mächtige Verbündete suchen, die sie aus Eigennutz kräftig fördern. Schon in den 1960er Jahren fühlte sich die gesamte Industrie (Öl und Kohle) für fossile Energieträger durch die Kernenergie bedroht. Sie war billig, sauber und unerschöpflich. Man nahm Geld in die Hand und förderte damit z. B. massiv die – durch Teststoppabkommen etc. – sterbende „Anti-Atombomben-Bewegung“. Green Peace ward erschaffen. Man kann den durchschlagenden Erfolg nur verstehen, wenn man das geschichtliche Umfeld (Mai 68, Vietnamkrieg, Kalter Krieg etc.) einbezieht.

In den 1970er Jahren wurde die Ölindustrie durch die zwei Ölkrisen 1973 und 1976 arg gebeutelt. „King Coal“ drohte wieder zu erstarken. Durch die guten Erfahrungen im Kampf gegen die Kernenergie, förderte man erneut „Umweltaktivisten“. Der Ansatz hieß „Alternative Energien“ mit Erdgas und Öl als back up für schlechtes Wetter. Die Lichtgestalt aller Sonnenanbeter war Amory B. Lovins mit seinem Rocky Mountain Institute. Wichtiger Verbündeter gegen Kohle war der Sierra Club. Über ihn gelang der direkte Weg zu Hollywood. In den 1980er Jahren liefen unzählige Filme über den „Treibhauseffekt“ im US-Fernsehen. Vor allem Exxon hatte kein Problem, offen mit seinem „guten Namen“ zu werben. Gründungsmitglied und Vorsitzende der Grünen (nach ihrem Austritt aus der SPD) war eine gewisse Petra Kelly. Sie hatte schon 1968 ihr Handwerk im Präsidentschaftswahlkampf von Bobby Kennedy gelernt. Ein Schelm, wer nur an Zufälle denkt.

Warum Braunkohle?

Kernenergie und Braunkohle sind die preiswertesten Energieträger zur Stromerzeugung. Will man ein Energieversorgungsunternehmen vernichten, muß man genau diese Bereiche bekämpfen. Als erfahrener „Gesellschaftsveränderer“ kann man das natürlich nicht so offen aussprechen, will man doch nicht die viel beschworene „gesellschaftliche Mitte“ verprellen. Das bekannte Erfinden von „Phantasiekosten“ (Endlagerung, Waldsterben etc.) verfängt ebenfalls nur bei sehr schlichten Gemütern. Gerade Jugendliche lassen sich besonders leicht vor den Karren spannen, wenn man ihnen das Gefühl gibt, sie würden „die Welt retten“. Dieses Gefühl ist besonders wichtig für die unvermeidbare Konfrontation mit der lokalen Bevölkerung. Es muß ein moralisches Überlegenheitsgefühl geschaffen werden: Hier, der „edle Demonstrant“, der selbstlos kein Risiko scheut zum Wohle der Menschheit und dort, die tumbe Landbevölkerung, die sich vor Veränderung fürchtet und nur an ihr Auskommen denkt. Ganz besonders zwielichtig ist das Verhalten der Gewerkschaften: Die Funktionäre – überwiegend in der Doppelrolle des Parteimitglieds und Gewerkschaftsfunktionärs – halten sich vornehm zurück. Schließlich sind in ihrem Selbstverständnis Gewerkschaften in erster Linie politische Organisationen und höchsten zweitrangig „Arbeitnehmervertreter“. Diese Auffassung ist fester Bestandteil aller sozialistischen Systeme. Genosse, du mußt verstehen, wir müssen erstmal den Sozialismus verwirklichen und dazu sind auch Opfer – wie dein Arbeitsplatz – nötig. Aber versprochen, wenn der Öko-Sozialismus erstmal verwirklicht ist, wird auch deine Region ein Paradies werden. Ähnlichkeiten mit der Vergangenheit sind rein zufällig.

Die Parolen

Als erster Schritt, kann es nicht schaden, die Parolen der Aktivisten zu hinterfragen:

  • Braunkohletagebaue zerstören die Landschaft. Dies muß jeder selbst beurteilen. Die Zeiten, wo man nach dem Abbau Mondlandschaften hinterlassen hat, sind längst vorbei. Viele finden die neu gestaltete Landschaft (z. B. Seen) sogar reizvoller. Natur gab es vorher und nachher nicht. Alles war und ist Kulturlandschaft, also von Menschen gestaltet.
  • Dörfer werden zerstört. Dieses Argument ist besonders zynisch. Die Braunkohle gibt tausenden Menschen Arbeit. Wenn man den Bergbau einstellt, fallen die Arbeitsplätze weg. Neue sind nicht in Sicht, schon gar nicht für die speziellen Berufsgruppen. Die ganze Region wird in Dauerarbeitslosigkeit und Abwanderung versinken. Dörfer und Kleinstädte werden zu Geisterstädten werden und dem natürlichen Zerfall preisgegeben. Will man so den Nährboden für radikale Organisationen schaffen?
  • Braunkohle ist minderwertig. Richtig ist, daß Braunkohle einen geringen Heizwert hat. Der Transport von Rohbraunkohle lohnt sich daher nur über kurze Strecken. Andererseits ist sie im Tagebau sehr wirtschaftlich zu fördern. Wird sie in Kraftwerken in unmittelbarer Nähe verfeuert, ist der Transport kein Kostenfaktor.
  • Braunkohle hat einen geringen Heizwert. Braunkohle hat einen hohen Ascheanteil und einen hohen Wassergehalt. Der Aschegehalt spielt bei der Verfeuerung in einem Kraftwerk in der Nähe des Bergwerks keine große Rolle. Die Asche geht unmittelbar mit dem Abraum zurück in die Grube.
  • Braunkohle setzt besonders viel CO2 frei. Moderne Steinkohlekraftwerke haben einen Wirkungsgrad von etwa 46%, moderne Braunkohlekraftwerke von etwa 43%. Der Unterschied ist auf den hohen Wassergehalt zurückzuführen. Bei einer Vortrocknung mittels Abdampf (zusätzliche Anlagekosten) kann der Wirkungsgrad nahezu gleich sein.
  • Braunkohle setzt besonders viel Schadstoffe frei. Dies gilt für „schornsteinlose“ Kraftwerke nach deutschen Umweltschutzstandards nicht mehr. In ihnen wird die Asche (enthält z. B. Schwermetalle) durch Filter abgeschieden und die Abgase anschließend gewaschen (z. B. Abscheidung der Schwefelsäure). Die Produktion von Stickoxiden kann bereits durch die Gestaltung der Verbrennung (Temperatur und Sauerstoffgehalt) eingehalten werden. Eine zusätzliche Entstickung über Katalysatoren ist meist nicht nötig. Prinzipiell kann man heute ein Braunkohlekraftwerk genauso „sauber“ betreiben, wie ein (deutsches) Gaskraftwerk. Entscheidend ist immer nur, was im Betrieb (!) hinten raus kommt (Meßwerte).
  • Kohlekraftwerke sind nicht regelbar. Dies ist – zumindest für moderne Kohlekraftwerke – ein reines Propagandamärchen der Wind- und Sonnenlobby. Hier wird immer bewußt Technik und Betriebswirtschaft durcheinander geschmissen. Der „Zappelstrom“ kann überhaupt erst durch konventionelle Kraftwerke in ein brauchbares Produkt verwandelt werden. Dies allein, zeigt schon, wie haltlos diese Behauptung ist. Natürlich ist es ein wirtschaftlicher Unsinn, die kapitalintensiven Braunkohlekraftwerke abzuregeln, damit der ideologisch geforderte Wind- und Sonnenstrom Vorrang hat. Volkswirtschaftlich wäre es vielmehr sinnvoll, die „regenerativen Anlagen“ abzustellen. Wer ein nicht konkurrenzfähiges Produkt herstellt, muß halt aus dem Markt aussteigen. Dies muß endlich auch genauso für einen „Stromhersteller“ gelten, wie für jeden Bäcker an der Ecke.

Tschernobyl – 30 Jahre danach

Es ist schon so eine Sache, mit den runden Jubiläen. Zu solchen Anlässen schwappen Wellen der Erinnerung durchs Land. Eigentlich wollte der Autor dieses „Pflichtereignis“einfach übergehen, aber schon im Vorfeld wurde auch er von der Welle erfaßt.

Was macht Tschernobyl so besonders?

Diese Katastrophe – Unfall wäre diesem Ereignis nicht angemessen – brach auch über die Fachwelt wie ein Tsunami herein. Man kann es nur verstehen, wenn man sich die Begriffe „Sowjetunion“ (damals offiziell als das „Reich des Bösen“ betitelt) – und „eiserner Vorhang“ wieder vor Augen führt. Es gab kaum Informationen über Kernkraftwerke im „Ostblock“. Wenn überhaupt, wurden sie privat mit äußerster Zurückhaltung auf internationalen Kongressen etc. ausgetauscht. Für mich gibt es bis heute zwei Schlüsselerlebnisse für den damaligen Zustand: Das – auch im Westen sehr beliebte – Standardlehrbuch der DDR über Kernenergie (Tereza Khristoforovna Margulova, zahlreiche Bücher und über 300 Fachaufsätze), enthielt nur Zeichnungen und Bilder von westlichen Reaktoren. Es war also mehr ein „Wunschbuch“ als ein Lehrbuch. Noch viel bewegender war für mich der offene Streit zwischen Edward Teller und der Reagan-Administration über die Geheimhaltungspolitik der USA: Edward Teller trat vehement für die Freigabe aller vorhandenen Informationen über die Sowjetunion ein, weil er der Meinung war, dies würde den Menschen die Augen öffnen über dieses System und zum unmittelbaren Zusammenbruch dieser „Weltmacht“ führen.

In diese Stimmungslage platzte die Nachricht von Tschernobyl. Nicht etwa aus der Sowjetunion selbst, sondern aus Skandinavien und Frankreich. Man hatte in beiden Ländern die radioaktiven Wolken mit den Überwachungssystemen der Kernkraftwerke erfaßt. Die Nachricht war nicht mehr geheim zu halten. Jedem Fachmann war klar, da mußte etwas unvorstellbares in der Ukraine passiert sein. Besonders kafkaesk mutete die Lage in der DDR an. Das „Westfernsehen“ berichtete stündlich, die „Aktuelle Kamera “ machte noch tagelang weiter, als sei nichts geschehen. Ähnlichkeiten zu heutigem Regierungsverhalten sind keinesfalls zufällig, sondern eher von Kindheit an anerzogen. Was nicht in das eigene Weltbild zu passen scheint, wird lieber ignoriert und das eigene Nichthandeln läßt man regierungsamtlich als Besonnenheit verklären.

Die Reaktion in „West-Deutschland“

Die Wahrheit ist, das Land war überhaupt nicht vorbereitet. Kernkraftwerke sind sicher. Punkt. Nach dem Störfall von Harrisburg (TMI) galt das um so mehr: Reaktor Totalschaden, aber keine Verletzten und (praktisch) keine Freisetzung von Radioaktivität in die Umgebung – also alles richtig gemacht. Wer sich mit „schweren Unglücken“ und Gegenmaßnahmen beschäftigte, arbeitete angeblich nur den „AKW-Gegnern“ in die Hände. Ein schwerer Irrtum. Schon damals war Deutschland keine Insel der Glückseligen, umgeben von einem Meer ohne Kernenergie. Noch heute hält man eisern an dieser Ideologie fest. Man verklagt lieber Länder auf die Stilllegung ihrer Kraftwerke, als das man sich mit der Realität auseinandersetzt.

Durch die mangelnde Vorbereitung haben auch die Kernenergiebefürworter eine Chance verpasst. Man hätte die Ausbreitung, Kontaminierung von Boden und Lebensmitteln viel genauer dokumentieren können. Ein unschätzbarer Schatz gegen Kollektivdosen, LNT etc. Stattdessen waren die Messkampagnen höchst selten und unvollständig. Meist unorganisiertes Ergebnis privater Initiative.

Gleichwohl packte die „Angstindustrie“ die Gelegenheit beim Schopfe. Tschernobyl sollte Greenpeace und Co Millionen an Spendengelder einbringen. Allerdings kann man auch das nur im geschichtlichen Zusammenhang sehen. In der zweiten Hälfte der Siebzigerjahre begann der rapide Niedergang der sog. K-Gruppen an deutschen Universitäten. Die Genossen Trittin, Kretschmann etc. mußten sich umorientieren, wenn sie ihre Vorstellungen von Gesellschaftsveränderung und Sozialismus noch umsetzen wollten. Die Hunderttausende gegen Nato-Doppelbeschluss, Kernkraftwerk Brokdorf, Wiederaufbereitungsanlage Wackersdorf und Endlager Gorleben waren einfach zu verlockend. Erst 1980 gegründet, stellten die Grünen 1985 in Hessen die erste Koalition mit dem Umweltminister Joschka Fischer. Dies war noch keiner Partei „links von der SPD“ gelungen.

Interessant, aber bis heute nicht aufgearbeitet, ist die selektive Wahrnehmung unter den Linken gewesen. Irgendwie waren ja russische „AKW“ eigentlich gute „AKW“, weil sozialistische „AKW“. Bitte keine Fragen zum Sinn und Konstruktionsprinzip der RBMK stellen, denn für jeden gläubigen Linken gehört(e) es zu den Glaubensgrundsätzen, daß Ronald Reagan der Kriegstreiber gegen den friedliebenden Kreml war. Wenn man auch sonst keine Gelegenheit ausließ, auf die Verknüpfung von „AKW“ und „Atombombe“ hinzuweisen, war das im Zusammenhang mit Tschernobyl tabu. In dieser Zeit wurde der Mythos von der „Unbeherrschbarkeit“ erschaffen, der bis heute in der „ungelösten Endlagerfrage“ religiöses Dogma ist. Wenn es nicht einmal in der friedliebenden und nicht profitorientierten Sowjetunion möglich war, Kernkraftwerke „sicher“ zu betreiben, dann mußte die Kerntechnik prinzipiell nicht beherrschbar sein. Heute mag das fast lächerlich anmuten, aber 1986 konnte sich kein westdeutscher Linker vorstellen, was real existierender Sozialismus darstellte oder gar, daß dieses System in wenigen Jahren kollabieren würde. In Deutschland geht halt Ideologie vor Fakten: War doch die Begründung der Bundeskanzlerin für ihre 180°-Wende nach Fukushima, ihr angeblich enttäuschter Glaube an die Unfehlbarkeit der japanischen Technik.

Besonders zynisch ist es, wenn in deutschen Qualitätsmedien die Aufräumarbeiten von Fukushima immer in einem Atemzug mit Tschernobyl genannt werden. Kein Wort über die ahnungslosen und schlecht ausgerüsteten Feuerwehrleute, die brutal in den Tod geschickt worden sind. Kein Wort über die (fast unmittelbar) neben der Ruine spielenden Kinder, die aus ideologischen Gründen nicht unverzüglich in Sicherheit gebracht wurden. Kein Wort über die „heldenhaften“ Bauarbeiter, die direkt von den Gerüsten im Baltikum verhaftet wurden, um unter höchster Strahlenbelastung Dienst zu tun. Ganz ohne Meßgeräte, aber dafür mit jeder Menge Falschinformationen. Manch ein „Putinversteher“, der immer noch nicht begreift, warum man im Baltikum so gerne Nato-Panzer sieht, könnte hier eine Antwort (von vielen) finden. Tschernobyl war der letzte Sargnagel, den sich das Sowjetsystem höchstselbst eingeschlagen hat. Dies könnte auch eine Erklärung für „Grüne“ sein, warum Tschernobyl nicht zu einer „Anti-AKW-Bewegung“ in der Ukraine, Polen und dem Baltikum geführt hat. Anders als in Deutschland, vermag man dort zwischen Physik und Politik zu differenzieren.

Die Lehren aus Tschernobyl

Es gibt zahlreiche Lehren und Konsequenzen die international aus dieser Katastrophe gezogen worden sind. Allein die technischen Berichte und Auswertungen füllen ganze Regale. Die Kerntechniker – aber leider nur die Techniker – haben ihre Lektion gelernt. Insofern ist Tschernobyl für die Kerntechnik, was die Titanic für den Schiffbau war. Ein unüberhörbarer Weckruf, der sicherheitstechnische Grundsätze erschaffen hat, die weltweit anerkannt und praktiziert werden: Baue keinen Reaktor mit positivem Reaktivitätskoeffizienten, baue immer ein Containment usw. usw.

Seefahrt tut not, wußte man schon im Altertum, obwohl sie bis zum heutigen Tage immer wieder Opfer fordert. Energieversorgung ist für eine Gesellschaft ohne Sklaverei mindestens genauso lebensnotwendig. Aus diesem Grunde hat man in rationaleren Gesellschaften die Kernenergie auch nicht als Teufelswerk verdammt. Es gilt Risiko und Nutzen abzuwägen und die Technik beständig zu verbessern. Ganz genauso, wie es die Menschheit in ihrer Entwicklungsgeschichte immer getan hat. Ohne diese Verfahrensweise, wäre ein Fortschritt im Seetransport, der Luftfahrt usw. nicht vorstellbar gewesen. Ganz nebenbei gesagt, hat die Kerntechnik in diesem Sinne vorbildliches geleistet. Nicht ohne Grund, ist sie zu der Energieform mit der geringsten Opferzahl geworden. Gleichwohl gibt es eine „opferfreie“ Energieerzeugung nur im Märchen. Schon im Kindergarten weiß man, daß man mit einem Fahrrad schnell von A nach B gelangen kann, aber auch übel stürzen kann. Kaum ein Kind verzichtet deshalb aufs Fahrradfahren. Wer „voran gehen will“, kann das gerne tun, muß sich nur nicht wundern, wenn er irgendwann feststellt, daß die anderen viel schneller waren und schon längst beim Essen sind.

Tschernobyl hat die Angst-vorm-schwarzen-Mann genommen

Von Anfang an, hat die Angstindustrie daran gefeilt, ein Alleinstellungsmerkmal für die Kerntechnik zu konstruieren: Wenn ein „AKW explodiert“, gibt es Millionen Tote und die betroffene Gegend ist für zehntausende von Jahren unbewohnbar. Aus moralischen Gründen sei es deshalb nicht zulässig eine solche Technik zu erlauben. Das war das Totschlagargument in jeder deutschen Talkshow. Sofort standen sich der idealistische und hoch moralische Gutmensch und der profitgierige, unterbelichtete Vasall der „Atomindustrie“ gegenüber. In diesen Momenten, konnte sich selbst eine Theaterwissenschaftlerin wie eine Greenpeace-Amazone im Schlauchboot vor einem Walfänger fühlen – selbstverständlich ohne Risiko auch nur die Frisur zu gefährden.

Nun hat in Tschernobyl tatsächlich der Super-Gau stattgefunden und das Kraftwerk ist explodiert, abgebrannt und hat den größten Teil seiner radioaktiven Stoffe wie ein Vulkan ausgeworfen. Schlimmer geht nicht. Nur, wo blieb der Weltuntergang? Eine Zeit lang, konnte man die Sache noch am köcheln halten in dem man irgendwelche Geschichten über irgendwelche Mutanten in der Zone erfand. Heute ist die „Sperrzone“ längst zu einer Touristenattraktion mutiert. In den Tagen nach der Katastrophe, schwelgte noch die gesamte Presse in apokalyptischen „Krebs-Epidemien“, die in einigen Jahren folgen würden. Nun, 30-Jahre später ist davon nichts eingetreten. Lediglich die staatstragenden Medien, wie z. B. der Deutschlandfunk, machen unbeirrbar weiter:

„Kinder, die erst nach dem Reaktorunglück geboren wurden, leiden unter Erbgutschäden und Missbildungen“ (Deutschlandfunk, 30 Jahre nach der Atomkatastrophe von Tschernobyl).

Solch einen Schwachsinn trauen sich nur noch Medienbeamte mit garantierter Vollversorgung aus Zwangsbeiträgen. Das ist nicht mal mehr „Lügenpresse“, sondern einfach nur ganz schlechte Propaganda.

Es soll sogar Abtreibungen in Deutschland gegeben haben, weil Frauen fürchteten, irgendwelche Mutanten zur Welt zu bringen. In welcher Statistik werden eigentlich diese Opfer verbucht?

Die DPA teilt noch Anfang des Monats in ein und derselben Verlautbarung mit, daß 2015 bereits 15.000 Menschen die 30 km Todeszone (dieses Wort wird tatsächlich verwendet) als Touristen besucht hätten. Experten würden von Zehntausend Todesfällen infolge des Unglücks ausgehen. Sind solche Texte nun „Lügenpresse“ oder schlichte Blödheit oder beides?

Interessant ist auch, welche Hektik bei jeder Diskussion zur Endlagerung, die Erwähnung von Tschernobyl auslöst. Es fällt sogar den Kirchenvertretern sichtlich schwer zu glauben, warum das, was in Tschernobyl ziemlich offen rumliegt, nach aufwendiger Verpackung und Lagerung in hunderten Metern Tiefe, sich in eine die Menschheit gefährdende Angelegenheit verwandeln soll. Dafür ist mindestens so viel Glauben notwenig, wie für die Verwandlung von Wasser in Wein. In diesem Sinne, setzt die Feststellung von Greenpeace (Bergungskonzept für Tschernobyl-Ruine fehlt; vom 14.4.16) allem die Krönung auf: 440.000 Kubikmeter langlebiger Atomabfälle lägen unter dem alten „Sarkophag“. Das entspräche dem fünfzehnfachen Volumen aller hochradioaktiven Abfälle deutscher Atomkraftwerke. Danke Greenpeace, manchmal hab ich euch richtig lieb. So lieb, wie nach eurer Kampagne gegen die Versenkung einer alten Bohrinsel in der Nordsee.

Nun sind aber die PR-Abteilungen der Angstindustrie flexibel. Man rückte deshalb – bis Fukushima – immer weiter von der Angstmache ab. Es wurde eine angebliche Unwirtschaftlichkeit von Kernkraftwerken und die „ungelöste Endlagerfrage“ in den Vordergrund gestellt. Das erste Argument ist trefflich geeignet für Menschen, die immer noch Planwirtschaft für eine überlegene Wirtschaftsordnung halten. Wer nicht rechnen kann, glaubt halt jeden Zahlensalat. Das zweite Argument trieft vor moralischer Überlegenheit. Wer will schon seinen Nachfahren ein Problem vererben? Jedenfalls wenn es um „Atommüll“ geht. Durch Windparks zerstörte Landschaften und Vogelpopulationen, Berge von Sondermüll-Sonnenkollektoren oder mit Rückständen aus der Biogas-Produktion verseuchte Bäche und Seen sind natürlich etwas ganz anderes. Der Glaube versetzt Berge, sagt man. Um es klar zu sagen, es gibt keine Energieversorgung ohne Abfälle und Schadstoffe. Wer das Gegenteil behauptet, ist ein Schlangenölverkäufer, der sein Gegenüber für ziemlich dämlich hält.

Was uns Tschernobyl wirklich lehrt

Große Katastrophen sind immer Eckpunkte in der Technikgeschichte. Man kann meist klare Lehrsätze aus ihnen ableiten. So auch aus der Katastrophe von Tschernobyl. Dies macht die Opfer zwar nicht wieder lebendig, aber spendet vielleicht ein wenig Trost, daß ihr Tod nicht so sinnlos war, wie es manchem erscheint.

  • Die militärische und die zivile Nutzung der Kerntechnik sind strikt auseinander zu halten. Dringt das Militär mit seiner Geheimhaltung in die „doppelt genutzten“ Bereiche ein, sind die „Missverständnisse“ vorprogrammiert.
  • Fukushima und Tschernobyl haben eines gemeinsam: Die Ignoranz gegenüber ausgewiesenen Fachleuten (Fachleute sind nicht zu verwechseln mit „Atomexperten“, die von Interessengruppen ernannt werden). In Tschernobyl war es das Reaktivitätsverhalten, in Fukushima die bekannte Fluthöhe von Tsunamis. Probleme müssen offen diskutiert und erforderlichenfalls gelöst werden. Ein wird-schon-gut-gehen darf es in der Kerntechnik nicht geben.
  • Kerntechnik kann man nur richtig betreiben oder man läßt es besser bleiben. Unabdingbare Voraussetzung ist Transparenz, Verantwortung und Qualifikation aller Beteiligten. Wenn Halbwissende anfangen mit einem Reaktor zu spielen, ist alles verloren. Dies sei allen gesagt, die den Zubau von Kernkraftwerken in Diktaturen vorbehaltlos bejubeln.
  • Es gibt keine absolut sichere Technik. Deshalb sollte man auch gar nicht den Anschein erwecken. Es werden immer Schiffe untergehen, Flugzeuge abstürzen, Windmühlen umfallen, Dächer durch Sonnenkollektoren abbrennen. Nach Tschernobyl – völlige Zerstörung und Freisetzung – ist aber die Obergrenze durch ein trauriges Experiment vorgeführt worden. Lassen wir nun auch bitte den Blödsinn, von Millionen „virtuellen Toten“ zu schwafeln. 30 Jahre sind eine verdammt lange Latenzzeit. An welchem Tag soll denn das Massensterben einsetzen?
  • Wir kannten und kennen das Risiko (Schaden mal Eintrittswahrscheinlichkeit) sehr gut. Noch wichtiger: Es hat sich weder in Harrisburg, Tschernobyl oder Fukushima unvorhersehbares oder unbekanntes ereignet. Eher im Gegenteil! Es liegt nicht an der Technik als solches – wie immer gern von Grünen behauptet – sondern viel mehr an Handhabung und Aufsicht. Den Umgang gerade mit dieser Technik, kann man aber sehr wohl in den Griff bekommen, wie z. B. die US-Navy eindrucksvoll unter Beweis gestellt hat. Man muß nur den festen Willen dazu haben.
  • Man muß offensiv mit dem vorhandenen Risiko umgehen. Es darf kein Tabu geben. Schon bei der laufenden Ausbildung sollten Ereignisse durchgespielt werden, die über die „Auslegungsstörfälle“ hinausgehen. Die Einrichtung von überregionalen „Katastrophenzentren“ geht in die richtige Richtung. Schließlich ist die Antwort auf (unvermeidbare) Brände – trotz vorbeugendem Brandschutz – auch die Einrichtung von Feuerwachen.
  • Die Bevölkerung in der Nähe von Kernkraftwerken muß aufgeklärt werden und aktiv in den Katastrophenschutz einbezogen werden. Nur wer die Gefahren versteht und Schutzmaßnahmen kennt, kann im Ernstfall auch vernünftig handeln. Ganz besonders Fukushima hat gezeigt, daß (irrationale) Angst tötet.
  • Nur Übung macht den Meister. Dies gilt auch beim Katastrophenschutz. Die guten, alten ABC-Schutzübungen sind aktueller denn je. Deutschland kann sich nicht durch ein paar Windmühlen und Sonnenkollektoren aus der realen Welt wegzaubern. Wir sind von Kernkraftwerken und bald auch von Endlagern umgeben. Entweder sind die Gefahren durch Fessenheim, Bure etc. real, dann helfen keine Klagen dagegen, sondern nur Schutzmaßnahmen oder es geht einfach nur um politisches Theater. Terrorismus findet bereits vor der Tür statt. Deutschland zieht mit seiner anerzogenen „Atomangst“ und seiner Weltabgewandtheit „Nuklearterroristen“ geradezu magisch an.

Der Wahnsinn geht weiter

Wer immer noch nicht glauben mag, daß Planwirtschaft schneller wuchert als Krebs, hat die Mitteilungen Energie: Bestätigung des Reservekraftwerkbedarfs der Bundesnetzagentur noch nicht gelesen. Inzwischen gibt es eine Verordnung über „Reservekraftwerke“. Immerhin werden hier die „Gebühren“ für zusätzliche Kraftwerke mit bis zu 7800 MWel geregelt, die wir Stromverbraucher zahlen müssen.

Das neu erschaffene Handelsgut der Reservekraftwerke

Irgendwann hat auch jedes Kraftwerk sein Lebensende erreicht: Meist nicht aus technischen Gründen (ein Kraftwerk muß bis zuletzt gewartet werden), oft aus technologischen Gründen, überwiegend aus wirtschaftlichen Erwägungen und neuerdings sogar aus politischen Gründen (Ausstieg aus der Kernenergie). Normalerweise – wie gesagt, bis auf Kernkraftwerke in Deutschland – eine auf betriebswirtschaftliche Daten fußende unternehmerische Entscheidung. Mit einfachen Worten: Wenn die laufenden Kosten, die erzielten Einnahmen übersteigen, wird es stillgelegt. Nun hat man auch früher solche Kraftwerke (eher einzelne Blöcke in einem Großkraftwerk) nicht sofort abgerissen, sondern sie erst einmal in die sogenannte „Kaltreserve“ überführt. Unter „Kaltreserve“ versteht man sorgsam gepflegte Einheiten, die man innerhalb weniger Tage wieder in Betrieb setzen kann. Das kostet natürlich zusätzlich Geld. Quasi eine Versicherungsprämie gegen Ausfälle von Kraftwerken (unerwartete Schäden, Umbau- und Wartungsmaßnahmen etc.). Wieviel und welche Blöcke man in der Kaltreserve belässt, ist wieder eine betriebswirtschaftliche Entscheidung. Weil das so ist, werden stets die Einheiten mit den höchsten Unterhaltungskosten – meist die ältesten – Einheiten endgültig abgerissen. An dieser Stelle muß man verstehen, daß der notwendige Umfang der Kaltreserve ausschließlich in der Verantwortung des jeweiligen Betreibers liegt. Wer seinen Kraftwerkspark optimal betreibt, auf dem Stand der Technik hält und stets gut wartet, kommt mit einer entsprechend kleinen Reserve aus. Wer über den richtigen Brennstoffmix verfügt, braucht unerwartete Preisschwankungen nicht zu fürchten.

Die Politik hat nun durch ihre Vorgaben (Ausstieg aus der Kernenergie, Wunschenergie Wind und Sonne), die vorher beschriebenen Zusammenhänge außer Kraft gesetzt. Damit die Politik nun ihren Willen durchsetzen kann, muß sie die Entscheidung übernehmen, welche Kraftwerke stillgelegt werden dürfen. Da aber Enteignungen in unserem Wirtschaftssystem (noch) schwer durchsetzbar sind, mußte eine Krücke gefunden werden. Will oder muß ein Betreiber ein Kraftwerk abschalten, muß er sich dies genehmigen lassen. Dies stellt für sich schon einen schwerwiegenden Eingriff in das Grundrecht auf Eigentum, Gewerbefreiheit und Vertragsfreiheit dar. Um das durchziehen zu können, muß man zumindest eine akzeptable Entschädigung vorsehen. Das Wirtschaftsgut „Reservekraftwerk“ war geboren. Ein weiteres, von Politikerhand erschaffenes, planwirtschaftliches Monster, welches weitere Monster gebären wird!

Was genau, ist ein Reservekraftwerk?

Wenn der Politik – vertreten durch die Bundesnetzagentur – die endgültige Abschaltung eines Kraftwerks missfällt, wird es zu einem Reservekraftwerk erklärt. Ein Reservekraftwerk darf ausdrücklich nicht mehr von seinem Eigentümer benutzt werden, muß aber stets und in vollem Umfang (Personal, Wartung, Prüfungen etc.) durch ihn unterhalten werden. Lediglich der zuständige Übertragungsnetzbetreiber entscheidet, wann, wie oft, für wie lange, das Kraftwerk betrieben werden soll. Für einen solch schweren Eingriff in das Recht auf Eigentum, muß es natürlich eine Entschädigung geben. Diese Kosten werden auf alle Stromverbraucher über das Netzentgeld umgelegt. Ganz neben bei, ist das eine weitere Verschleierung der tatsächlichen Kosten der Windenergie! Die Festlegung der Entschädigung wird im heute üblichen Neusprech als „Durchführung eines Interessenbekundungsverfahrens “ bezeichnet. Dahinter verbirgt sich folgende Problematik: Die Entschädigung muß ausgehandelt werden. Wenn ein Eigentümer – aus welchen Gründen auch immer – partout kein Reservekraftwerk haben will, kann er sich durch die Nennung eines überhöhten Preises schützen. Deshalb wird schon mal vorsorglich mit der Keule „Gewährleistung der Sicherheit und Zuverlässigkeit des Elektrizitätsversorgungssystems“ gedroht. Andererseits ist die Bundesnetzagentur in einer eher schwachen Position, da bestimmte Kraftwerke aus bekannten technischen Gründen faktisch eine Monopolstellung besitzen. In der Praxis werden die Verhandlungen eher in größter Harmonie verlaufen. Handelt es sich doch um ein klassisches StGeschäft zu Lasten Dritter: Wir Stromkunden müssen auf jeden Fall zahlen, sitzen aber gar nicht am Verhandlungstisch.

Wozu braucht man überhaupt Reservekraftwerke?

In einem Stromnetz müssen zu jedem Zeitpunkt und an jedem Ort Energieverbrauch und Produktion in einem Gleichgewicht sein. Vor dem Zeitalter des Ökologismus hat man deshalb die Kraftwerke so nah wie möglich an den Verbrauchsschwerpunkten gebaut. Teilweise sogar in den Städten (Berlin, Hamburg, München etc.) und hat dabei die Abwärme noch für die Fernheizung verwendet. Insbesondere für die Windenergie wurde zu deren Förderung die Standortwahl freigegeben. Der Strom muß nun irgendwie zum Verbraucher fließen. Die Windparks wurden und werden bevorzugt in Norddeutschland oder sogar im Meer errichtet. Inzwischen hat man dort erhebliche Überkapazitäten. Der Abfallstrom muß auf biegen und brechen (Abnahmezwang) in Süddeutschland und im Ausland entsorgt werden. Genau dieser Abfallstrom ist aber das Hauptproblem! Nicht die Dunkelflaute, von der inzwischen sogar in der breiteren Öffentlichkeit geredet wird ist der Grund für neue Leitungen und Reservekraftwerke. Wenn kein Wind weht und keine Sonne scheint, kann der Bedarf problemlos mit dem vorhandenen Stromnetz und den (noch) vorhandenen Kraftwerken abgedeckt werden. Nur wenn der Wind – ausnahmsweise – mal etwas stärker weht, ergibt sich sofort ein Problem für jedes Stromnetz! Selbst ein immer weiter betriebener Netzausbau ist deshalb keine Lösung. Auch wenn man das Stromnetz so erweitert, daß auch Windenergiespitzen immer transportiert werden können, ist das nur an wenigen Stunden im Jahr nötig und damit völlig unwirtschaftlich.

An dieser Stelle scheint ein kleiner Einschub zum Umweltschutz nötig. Niemand kann große Mengen elektrischer Energie ohne Verluste quer durch Deutschland verschieben. Schon heute betragen allein die Verluste im Übertragungsnetz (das ist nur das Hochspannungsnetz!) an „Starkwindtagen“ 1500 MWel.! Wie die Simulationen der Bundesnetzagentur zeigen, werden diese mit dem Ausbau der Windenergie beständig ansteigen.

Ein weiteres Zauberwort: „Redispatch“

Redispatch ist, wenn man bestimmte Kraftwerke im Netz runter regelt, um die Flüsse innerhalb des Netzes zu verändern. Natürlich muß man diese Minderleistung an anderer Stelle zusätzlich einspeisen. Dazu dienen die Reservekraftwerke und deshalb haben auch nur die Übertragungsnetzbetreiber eine Verfügung über sie. Man kann sich das (stark vereinfacht) so vorstellen: Wenn eine Übertragungsleitung an ihre Grenzen zu stoßen droht, kann man die Kraftwerke vor der Leitung etwas abregeln. Natürlich fehlt diese Leistung am anderen Ende, was zumindest dort zu Spannungseinbrüchen und Frequenzschwankungen führen würde. Als Gegenmaßnahme muß das Reservekraftwerk dort, die fehlende Leistung ersetzen. An dieser Stelle sei daran erinnert, daß bereits für den Winter 2015/2016 eine Reserveleistung von geschätzt 6,7 bis 7,8 GWel. eingekauft werden muß. Die Kosten hierfür sind noch nicht bekannt. Immerhin entspricht das rund sieben Kernkraftwerken und eine solche Leistung kauft man auch in Deutschland nicht beim Kaufmann um die Ecke.

Es muß noch einmal ganz deutlich gesagt werden, das Problem ist nicht, wenn der Wind nicht weht (Dunkelflaute), sondern wenn er mal weht! Bereits jetzt haben wir bei Starkwind ein Exportsaldo von 12,1 GW. Bei Dunkelflaute (meist am Wintertag) ergibt sich nur ein Importsaldo von -2,1 GW. Die eigenen Kraftwerke reichen (noch) aus, um Deutschland zu versorgen. Im Gegensatz dazu, muß der Abfallstrom bei stärkerem Wind erst einmal zu den Grenzen transportiert werden, bevor er anschließend im Ausland teuer entsorgt werden kann.

Milchmädchen und der CO2 – freie Windstrom

Bis vor wenigen Jahren, wurde man von den Schlangenölverkäufern der Windindustrie immer brüsk abgeschmettert, wenn man von der Dunkelflaute sprach. Obwohl jedem, der sich mit den meteorologischen Daten auseinandergesetzt hat, vollkommen klar war, daß der Wind eben nicht immer weht. Gerade im Winter, wenn der Stromverbrauch am höchsten ist, treten immer wieder großräumige Hochdruckwetterlagen in Europa auf. Heute sind diese Meßdaten der Windstromproduktion von jedermann im Netz einsehbar.

Wenn man den einschlägigen Umfragen glauben mag, ist die (gut verdienende) Mehrheit in Deutschland gern bereit, höhere Strompreise zu bezahlen, wenn sie dadurch das Weltklima retten darf. So eine Art von Ablasshandel halt. Allerdings werden auch immer mehr Gutmenschen stutzig über einen vermeintlichen Widerspruch: Kaum ein Tag vergeht, an dem nicht über neue Rekorde an der Ökostrom-Produktionsfront berichtet wird – nur die CO2 – Produktion sinkt nicht parallel dazu! Nur die Schlangenölverkäufer jubeln noch über jede zusätzliche CO2 – freie Kilowattstunde aus Windstrom.

Windstrom ist nur so lange „CO2 – frei“, wie er den Windpark noch nicht verlassen hat. Selbst hartgesottene „Öko’s“ wissen aber, daß er im Windpark ohne jeden Wert ist. Er muß noch auf einem hunderte Kilometer langen Weg bis zu den Verbrauchsstellen im In- und Ausland gelangen. Ohne konventionelle Kraftwerke, läßt sich aber kein „Zappelstrom“ transportieren. Inzwischen kann man aber auch dies messen! Je höher die Produktion von Windstrom an verbrauchsfernen Standorten ist, um so höher ist die CO2.-Freisetzung um diesen Strom über weite Strecken transportieren zu können. Da kommt auch kein Netzausbau hinterher.

Planwirtschaft gegen Realität

Es ist politisch gewollt, noch mehr Windparks im Meer zu bauen. Gleichzeitig will man aus der Kernenergie aussteigen. Der Ersatz dieser Kraftwerke durch (fossile) Neubauten ist unerwünscht. Es beginnt der Kampf gegen die noch vorhandenen Kohlekraftwerke. All das zusammen genommen, führt zu einem gigantischen Park von Reservekraftwerken mit steigendem CO2.-Ausstoß. Letztendlich zum Zusammenbruch des Strommarktes mit anschließender Verstaatlichung.

Man kann schon heute die Entwicklung in Echtzeit an der Strombörse verfolgen. Jedes mal, wenn der Wind etwas stärker weht, fallen die Strompreise an der Börse synchron. Einziger Grund ist der politisch verursachte Abnahmezwang. Wenn man in einem Markt eine Überversorgung herbeiführt, fallen die Preise so lange, bis genug Marktteilnehmer die Produktion einstellen. Schon heute werden für etliche Stunden sogar negative Preise erzielt. Nichts weiter, als eine Entsorgungsgebühr für die Vernichtung der Überproduktion. Je tiefer die Preise fallen, um so mehr Produzenten können ihre Kosten nicht mehr decken und stellen die Produktion ein. Dies betrifft im derzeitigen System ausschließlich die fossilen Kraftwerke. Denn die Windstromerzeuger erhalten auch weiterhin ihren Garantiepreis für ihre garantiert abgenommene elektrische Energie! Dies haben ausschließlich die Politiker zu verantworten, denn sie haben diesen Irrsinn in Gesetzesform gegossen.

Es gibt offensichtlich noch immer genug schlichte Gemüter, die diesen Zusammenhang gut finden. Sie glauben tatsächlich, daß so immer weniger fossile Energie verbraucht wird, wodurch das „Klima gerettet wird“. Das Gegenteil ist der Fall! Je mehr Windenergie produziert werden soll, um so mehr fossile Energie (bei gleichzeitigem Verzicht auf Kernenergie) muß eingesetzt werden. Nicht nur bei Dunkelflaute muß der Strom in konventionellen Kraftwerken produziert werden, sondern auch bei jeder wetterabhängigen Überproduktion müssen vermehrt fossile Kraftwerke zum Transport des Windstroms zu den Entsorgungsstätten eingesetzt werden. Was heute schon an Sonn- und Feiertagen oder in der Nacht passiert, wird bei weiterem Ausbau bald ständig Realität sein. Es gibt keinen Ausweg aus diesem Dilemma:

  • Regelt man die Windmühlen mit zunehmendem Wind ab, wird deren Auslastung immer schlechter und es erhöhen sich beständig die Stromkosten bei den Verbrauchern. Man zahlt dann nur noch für Windmühlen, die in der Landschaft herumstehen. Wie lange die Wähler so etwas dulden, kann man vielleicht aus der Geschichte lernen. Wer kennt nicht mehr die Bilder von Obst- und Gemüseüberproduktion, die zur Stabilisierung der Preise gleich untergepflügt wurden oder die man gegen Gebühr auf der Müllkippe entsorgt hat.
  • Man versucht die Überschußenergie gleich in den Windparks zu speichern, bis sie auch tatsächlich benötigt werden. Bei dieser Energiewandlung gingen dann gleich rund die Hälfte der Produktion wieder verloren. Der zweite Hauptsatz läßt sich durch Ideologie nicht aushebeln! Abgesehen von den gigantischen Investitionen, die hierfür nötig wären. Die Butterberge und Fleischberge der planwirtschaftlichen europäischen Landwirtschaft waren Nicklichkeiten dagegen.
  • Man versucht wie bisher, die Überschüsse im Ausland zu entsorgen. Für die immer weiter entfernten Abnehmer sind immer mehr Hochspannungsleitungen nötig, auf denen immer mehr elektrische Energie gleich „verbraten“ wird. Trotzdem wird man immer mehr Reservekraftwerke benötigen, um die Netze überhaupt betreiben zu können. Logischerweise werden die Betreiber immer ihre ältesten und umweltverschmutzenden Kraftwerke den Übertragungsnetzbetreibern vermieten.

Es gibt nur eine Möglichkeit diesen Wahnsinn zu stoppen. Man macht sofort Schluß damit. Dies kann aber nur die Politik leisten, weil sie dieses Monster der Planwirtschaft erst erschaffen hat.

Die europaweite Dimension

Die Idee, den Stromabfall gegen Gebühr im Ausland zu entsorgen, war ziemlich dämlich. Polen ist bereits dabei, seine Grenzen dicht zu machen. Man ist es leid, kostenlos Strom über Tschechien nach Bayern und Österreich zu transportieren. Auch die Idee Reservekraftwerke in Polen anzumieten, war ziemlich kurz gedacht. Weder sind die Polen bereit, ihre Souveränität für ein Linsengericht an die Deutschen zu verkaufen, noch die dadurch zusätzlich entstehenden Belastungen in ihrem Netz zu tragen. Einzig Greenpeace hätte sich wahrscheinlich einen Ast gelacht: Die als besonders umweltfreundlich bekannten (abgenutzten alten) Kohlekraftwerke in Polen von Deutschland weiter am Leben gehalten, um den „Grünen Strom“ von der Ostsee nach Österreich und weiter zu verkaufen.

Besonders lustig ist auch, daß ausgerechnet Deutschland nun darüber nachdenkt, den Stromhandel mit Skandinavien und Österreich zu begrenzen. Leider weht auch der Wind in Dänemark, wenn er in Norddeutschland weht. Weil ganz Norddeutschland bereits mit Windstrom verstopft ist, tut jede zusätzlich Kilowattstunde, die Dänemark in Deutschland entsorgen will, besonders weh. Langsam merkt man, daß sich Deutschland zu einem Transitland für elektrische Energie entwickelt. Man findet es inzwischen auch nicht mehr so prickelnd, daß deutsche Stromverbraucher für lukrative Geschäfte zwischen Österreich, Ungarn und Italien bezahlen müssen. Deutscher Stromabfall wird billig von Österreich aufgekauft und gewinnbringend an das alte KuK-Gebiet weiterverscherbelt. Inzwischen fließen bereits 8,5 GW nach Österreich. Tendenz weiter steigend. Alles ein Ergebnis des politisch gewollten „Ein-Zonen- Modells“, in dem die örtliche Entfernung per Ukas außer Kraft gesetzt wurde. Strom soll überall gleich teuer sein. Transportkosten müssen zur Verschleierung aus anderen Töpfen bezahlt werden.

Auch das „Vorangehen“ hat sich als blöde Idee herausgestellt. Frankreich z. B. ist inzwischen auch in das Windgeschäft eingestiegen. Dumm nur, daß dort die geographischen Bedingungen (z. B. Atlantikküste) wesentlich günstiger als in Bayern und im Schwabenland sind, somit die Produktionskosten auch geringer. Warum sollte Frankreich also zusätzlichen Windstrom aus Deutschland importieren? Es sei denn, Michel ist bereit, die Subventionen weiter hoch zu schrauben.

Völlig verschlafen haben unsere Politiker beim „Vorangehen“ den Netzausbau in Ost-West-Richtung. Man war zu sehr von der Idee besessen, die Kernkraftwerke in Süddeutschland abzuschalten und durch Windstrom zu ersetzen. Inzwischen hat man durch die politisch verordnete Überproduktion Strompreise an der Börse erzeugt, die (teilweise) unter den Brennstoffkosten liegen. Daraus ergeben sich erbliche Stromflüsse in Ost-West-Richtung. Ein Netzausbau auch in diese Richtung, ist unvermeidbar! Deutschland wird ein Land der „Stromautobahnen“ und „Reservekraftwerke“. Ist das, das „tolle Europa“, was man uns immer zu verkaufen versucht hat? Gut gemeint, ist noch lange nicht, gut gemacht.

Fukushima – ein Zwischenbericht

In letzter Zeit ist es in den „Qualitätsmedien“ still geworden um die „Reaktorkatastrophe“. Um so mehr ein Grund, hier mal wieder einen Zwischenbericht zu liefern. Man könnte es sich einfach machen: Noch immer kein Toter durch Strahlung, noch immer keine Krebs-Epidemie, noch immer ist der Fisch an Japans Küste essbar…

…da warn es nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der „Reaktorhalle“ zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche „Betonhülle“ um das Kernkraftwerk gebaut hätte. Um es auch unserer – von der japanischen Industriegesellschaft so enttäuschten – Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein „Bankpalast“ aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von „Windmühlen“ und „Sonnenkollektoren“ hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen im Kölner Dom hunderte male stärker als die Strahlenbelastung aus Fukushima.). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die „Flugbahnen“ der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine – auch gegenüber allen Baustoffen, wie Stahl, Beton usw. – außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch „nachrechnen“ des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine „Aufnahmen“ der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden.

Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden.

An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt.

Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die „Eiswände“ fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch „gut verschlossen“ ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit „Wischern“ und „Staubsaugern“ ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man „taucht“ heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik – nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren – ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit – und ganz besonders in Deutschland – zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten „Experten“, die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch „Festigkeit im Rechten-Glauben“ ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher – aber anscheinend nicht so offensichtlich – ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten – und längst überprüften und für sicher befundenen – Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. „Wind und Sonne“ sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der „Krebstoten“ nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung „Krebs“ früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell „Strahlenangst“ erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Fukushima – Zweite Begutachtung durch IAEA

Anfang Februar 2014 veröffentlichte die IAEA (International Atomic Energy Agency) ihren zweiten Bericht zur Vorgehensweise bei der Beseitigung der Schäden im Kernkraftwerk von Fukushima. Dieser Bericht enthält neben zahlreichen Details zum gegenwärtigen Zustand vor Ort, auch eine kritische Würdigung der bisher durchgeführten Maßnahmen und Vorschläge für Verbesserungen und mögliche internationale Unterstützung. Da es sicherlich für viele etwas zu zeitaufwendig ist, einen 72-Seiten-Bericht in englischer Sprache zu lesen, wird hier eine Zusammenfassung versucht.

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese „Roadmap“ enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser „Roadmap“ gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen „Atomexperten“ kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich „Castoren“) verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie „normalen“ Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des „radioaktiven Bruches“. Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt – verursacht durch die Wasserstoffexplosionen – wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

  1. Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des „radioaktiven Schutts“.
  2. Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.
  3. Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich für die Strahlenbelastung im Tanklager verantwortlich; β- und α-Strahler sind in diesem Sinne unerheblich – niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3. sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks bestehen inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es „strahlt“ daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr90 und Y90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide – bis auf Tritium – unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet „titriertes Wasser“, welches chemisch praktisch nicht von normalem H2 O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in „Trinkwasserqualität“ in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen „Ja“ zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume „leicht verstrahlt“ sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser „Altholzfässer“ wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m„Atommüll“ aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3.. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses „leicht radioaktive“ Material gleich zum Bau der „Atommülldeponien“ wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3. täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser – absurd niedrige Wert – hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der „cloudshine“ (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^-8 mSv/a, die direkte Strahlung ungefähr 2,8 x 10^-2 mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^-4 mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung „dramatisch“ auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der „ersten Kühlwässer“ eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die „Strahlenbelastung der Öffentlichkeit“ eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen – diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs137. wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von „natürlichem“ Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.