Neutronen als Spürhund

Neutronen sind schon seltsame Geschöpfe. Sie haben eine recht große Masse und keine elektrische Ladung. Sie sind deshalb in der Lage, viele Materialien nahezu ungehindert zu durchdringen. Ganz im Gegenteil zu den Protonen — ihren Gegenstücken im Kern — die eine positive Ladung besitzen. Sie haben zwar fast die gleiche Masse, werden aber wegen ihrer elektrischen Ladung stark beim Durchtritt durch Materie beeinflußt. Elektronen sind nur leicht und sind elektrisch negativ geladen. Wegen ihrer Ladung sind sie gut zu beschleunigen und auszurichten, dringen aber wegen ihrer geringen Masse nur wenig in Materialien ein. Sie werden deshalb z. B. zum Schweißen verwendet. Ein Partikelstrahl aus Neutronen würde den Stahl einfach durchdringen, ihn aber nicht zum Schmelzen bringen.

Da Neutronen keine Ladung besitzen, lassen sie sich nicht beschleunigen und in ihrer Flugrichtung beeinflussen. Sie lassen sich nur „mechanisch“ durch Zusammenstöße abbremsen. Sinnigerweise nur leicht, wenn sie mit schweren Kernen zusammenstoßen und sehr stark, wenn sie mit möglichst leichten Kernen zusammentreffen. Ihre „Reaktionsfreude“ hängt wiederum von ihrer Energie, d. h. ihrer Geschwindigkeit ab. Aufgrund dieses Zusammenhanges entsann der Mensch die Neutronenwaffe: Schnelle Neutronen sollten nahezu ungehindert Panzer durchdringen und erst mit den darin sitzenden Menschen (tödlich) reagieren.

Neutronen zur Analyse

Wenn Neutronen mit Atomkernen reagieren, entstehen immer irgendwelche charakteristischen γ-Quanten. Diese kann man recht einfach und sehr genau messen. Sprengstoffe bestehen wesentlich aus Wasserstoff, Stickstoff, Sauerstoff und Kohlenstoff in bestimmten chemischen Verbindungen. Wird ein solcher Stoff mit Neutronen beschossen, ergibt sich ein eindeutiger „Fingerabdruck“ in der Form des gemessenen γ-Spektrums. Sehr genau und sehr zuverlässig. Man kann nicht nur sagen, daß es Sprengstoff ist, sondern genau die Sorte angeben. Fehlalarme sind nahezu ausgeschlossen — wenn man genug Neutronen hat und über die erforderliche Meßtechnik verfügt.

In der Forschung — und teilweise der Forensik — ein seit Jahrzehnten erfolgreich angewendetes Verfahren. Man kann z. B. noch Gifte in Konzentrationen finden, bei denen chemische Analyseverfahren längst versagen. Solche Untersuchungen finden meist in kerntechnischen Einrichtungen statt, denn man benötigt neben der Meßtechnik Zeit und viele geeignete Neutronen — üblicherweise aus einem Forschungsreaktor.

Während des Irak-Krieges erlitten die Truppen die meisten Verluste durch „Eigenbau-Sprengfallen“ die unmittelbar neben den Straßen gelegt wurden. Wenn eine LKW-Kolonne vorbeifuhr, wurden sie (meist über Funk) ausgelöst. Schutz gegen solche Sprengfallen bieten nur gepanzerte Fahrzeuge. Die größten Verluste hatten deshalb nicht die kämpfenden Truppen an der Front, sondern die Versorgungseinheiten, die in Kolonnen durch endloses Feindesland fahren mußten. Nach amerikanischem Muster wurde deshalb richtig Geld in die Hand genommen, um dieses Problem zu lösen. Eine Lösung ist heute die Neutronenaktivierungsanalyse: Sie wirkt auch gegen versteckte und eingegrabene Sprengkörper aus schwer detektierbaren Materialien wie z. B. Kunststoff und Holz in einer vermüllten Umwelt. Für eine praktische Anwendung ist die sichere und schnelle Erkennung aus einem (langsam) fahrenden Fahrzeug und sicherer Entfernung von etlichen Metern erforderlich. In der Messdauer und der Entfernung liegt aber die Herausforderung.

Die „Neutronenkanone“

Will man größere Mengen Neutronen in einer möglichst kleinen Anlage erzeugen, bleibt praktisch nur die Kernfusion. Man schießt in einem Beschleuniger z. B. H2 – Kerne auf H3 – Kerne, wodurch ein Neutron mit hoher Energie freigesetzt wird. Das Problem solch einer Kernreaktion ist aber, daß die entstandenen Neutronen sich in einer beliebigen Richtung davonmachen. Ganz ähnlich wie die Lichtquanten einer Glühbirne. Es ist gleichmäßig hell im gesamten Raum um die Glühbirne. Diese großräumige Verteilung hat zur Folge, daß die Helligkeit sehr schnell mit dem Quadrat der Entfernung abnimmt. Will man eine bestimmte Stelle „ausleuchten“, muß man den Lichtstrahl darauf konzentrieren. Genau dies ist aber bei Neutronen nicht so einfach. Ein Spiegel funktioniert — anders als bei Licht — praktisch nicht. Eine Ablenkung durch Magnetfelder funktioniert wegen der nicht vorhandenen Ladung — anders als bei dem Elektronenstrahl einer Röhre — auch nicht. Eine solch einfache Neutronenquelle hätte nur eine sehr geringe Reichweite und wäre damit unbrauchbar.

Wenn es aber trotzdem gelänge den größten Teil der Neutronen gezielt auf ein Objekt zu lenken anstatt sie sinnlos im Raum zu verteilen, sehe die Sache anders aus. Je mehr Neutronen den Sprengkörper treffen, um so stärker sendet dieser seine charakteristischen γ-Quanten aus und die erforderliche Messdauer verkürzt sich, was dem Suchfahrzeug eine höhere Geschwindigkeit erlaubt. Neutronen sind zwar schwer auf Kurs zu bringen, dafür halten sie aber um so sturer ihren Kurs (große Masse und keine Ladung) und fliegen mit einer Geschwindigkeit von über 40 000 km/s davon.

Neutronen kann man praktisch nicht mehr beeinflussen. Dies ist ein Vorteil und Nachteil zugleich: Positiv ist, daß sie gegenüber allen anderen Partikeln eine außergewöhnliche Reichweite besitzen, da sie durch die Luftmoleküle nahezu unbeeinflußt hindurch fliegen. Neutronen sind gegenüber Atomen winzig klein, sodaß die Atmosphäre für sie ein nahezu leerer Raum ist. Die vielen Elektronen die um die Kerne schwirren, sind für sie kein Hindernis, da sie selbst keine elektrische Ladung besitzen und ihre Masse (Zusammenstoß) gegenüber den Elektronen riesig anmutet. Man muß sie nur einheitlich ausrichten um einen wirksamen Partikelstrahl zu erhalten.

Dies geht jedoch über einen Trick aus der Quantenphysik. Neutronen besitzen einen sog. Spin: Anschaulich gesagt, rotieren sie wie ein Kreisel um ihre Achse. Ein solcher Spin ist eine Erhaltungsgröße, d. h. der Spin eines Atomkerns überträgt sich nach dem Aussenden des Neutrons aus dem fusionierten Kern auf dieses Neutron. Normalerweise sind die Spins der Atomkerne nicht einheitlich. Deshalb schwirren die Neutronen normalerweise in alle Richtungen des Raumes davon. Wenn man jedoch vor der Fusion allen Atomkernen den gleichen Spin aufzwingt und sie wie eine Perlenkette ausrichtet, fliegen auch alle Neutronen wie ein Strahl von der Neutronenquelle davon. Dies alles gelingt inzwischen in so kleinen Gerätschaften, daß man sie einschließlich der nötigen Energieversorgung etc. auf einem Klein-LKW unterbringen kann. Diese „Neutronenkanonen“ erzeugen einen mehr als tausendfachen Neutronenfluß in eine Richtung.

Die Teilchenstrahlungswaffe

Momentan ist die „Neutronenkanone“ so klein und einsatzbereit, daß sie mit allem notwendigen Zubehör auf einen Kleinlastwagen zum Auffinden von Sprengfallen am Straßenrand in den Einsatz geht. Die Entwicklung wird aber massiv in die Richtungen: Kleiner, leistungsfähiger und billiger vorangetrieben. Der nächste Schritt ist ein Gerät, welches sich in ein Flugzeug einbauen läßt.

Vordringlich ist aber ein weiteres Einsatzfeld: Die Analyse von Kernwaffensprengköpfen. Eine einfache Maßnahme gegen die immer erfolgreichere Raketenabwehr ist das Ausstoßen von zusätzlichen Attrappen. Bei den bisherigen Raketenabwehrsystemen muß man sich noch auf das Erreichen des Scheitelpunktes einer ballistischen Rakete beschränken. Erst dann kann man erst sicher die Flugbahn berechnen und das Ziel voraussagen. Eine einfache Abwehrmaßnahme ist der gleichzeitige Ausstoß von mehreren Attrappen. Heute kann man noch nicht Sprengkopf und Attrappen unterscheiden. Man müßte also alle Objekte sicher abschießen, was schnell eine Raketenabwehr — zumindest wirtschaftlich — überfordern würde. Hier kommt wieder die „Neutronenkanone“ ins Spiel. Genau wie eine Sprengfalle könnte man den Sprengkopf sicher identifizieren.

An dieser Stelle drängt sich eine weitere Lösung auf. Ein Sprengkopf ist nicht einfach ein Klumpen aus Plutonium, sondern ist vollgestopft mit Elektronik (Zünder), Sprengstoff und sonstigen Hilfsmitteln. Wenn der Neutronenstrahl stark genug wäre, könnte er den Sprengkopf nicht nur identifizieren sondern sogar unbrauchbar machen.

Neutronen können gerade auf Halbleiter eine verheerende Wirkung haben. In moderne Phasenradargeräten (Raketen- und Flugabwehr) werden Halbleiter aus Galliumnitrid (GaN) verwendet. Ein Beschuß mit Neutronen kann diese Halbleiter schnell zerstören. Dies bezieht sich nicht nur auf das Rausschlagen von Elektronen, sondern Gallium hat auch recht große Einfangquerschnitte, was bedeutet, daß durch Kernumwandlung und Strahlung der Halbleiter dauerhaft zerstört wird.

Lückenpresse oder doch mehr?

Am Montag dem 23.7.2018 um 20.00 Ortszeit brach der fast fertiggestellte Staudamm Xepian-Xe Nam Noy in Laos. 5 Milliarden Kubikmeter Schlamm und Wassermassen ergossen sich über mehrere Dörfer. Offizielle Bilanz: (angeblich nur) 27 Tote, aber Hunderte vermisste Personen — zumeist Kinder — und fast 7000 Obdachlose. Eine schreckliche Tragödie. Solche Unglücke im Zusammenhang mit der Gewinnung elektrischer Energie und Naturereignissen — hier außergewöhnliche Regenfälle — wird es immer wieder geben. Nur Laien glauben an „gute“ und „böse“ Arten von Energie. Es soll hier nicht um die technischen Aspekte gehen, sondern das Warum steht hier im Vordergrund und die (zweifelhafte) Reaktion der Medien in Deutschland.

Die Demokratische Volksrepublik Laos ist einer der ärmsten Länder in Asien. Ein vom Kommunismus gebeuteltes Land. Mehr als 23% der Bevölkerung haben weniger als 2 US$ pro Tag zur Verfügung. Von einschlägigen Kreisen wird es wegen seiner Topographie gern als „Batterie Südostasiens“ bezeichnet. Der Mekong durchfließt das Land auf rund 2000 km Länge. Zahlreiche laotische Flüsse münden in ihm. Besonders diese Nebenflüsse werden mit Stauseen zur Stromerzeugung gepflastert. Geld hierfür fließt zur Zeit in Strömen — nicht nur aus China — denn Staudämme sind wie Windräder gut für das Klima. Besonders all die Anleger, die aus der „bösen Kohle“ aussteigen, brauchen dringend neue profitable Geldanlagen. Der gerade zusammengebrochene Xepian-Damm hat bereits über eine Milliarde US$ verschlungen. Er sollte eine Leistung von 410 MWel haben und 1860 GWh pro Jahr liefern. Dies ergibt aufschlußreiche Zahlen: Die spezifischen Investitionskosten betragen somit etwa 2400 US$ pro KWel. Aber halt, da ist ja noch eine zweite Zahl: Geplante Produktion 1860 GWh pro Jahr. Hoppla, das sind ja gerade 4536 Vollbenutzungsstunden. So ist das halt mit den wetterabhängigen Umweltenergien. Ein Kernkraftwerk läuft mindestens 7885 Vollaststunden pro Jahr, also fast doppelt so lange. Und dies immer dann, wenn man den Strom braucht und nicht wenn der Wettergott Lust hat. Somit dürften die gleichwertigen Investitionskosten also rund 4200 US$ pro kWel betragen. Das ist die Antwort, warum ganz Asien Kernkraftwerke (nahezu keine Brennstoffkosten, aber entsprechende Infrastruktur erforderlich) oder Kohlekraftwerke baut.

Hinzu kommt noch ein anderes Problem: Konventionelle Kraftwerke sind nahezu standortunabhängig und benötigen nur wenig Fläche. Wasserkraftwerke können praktisch nur noch in Diktaturen gebaut werden: In diesem Fall mußten sechs Dörfer mit ihren Einwohnern verschwinden. Entschädigung? Es handelte sich um eine Minderheit von Bergstämmen. Wer bekommt den Strom? Die „Eingeborenen“ wären gar nicht in der Lage die elektrische Energie zu bezahlen. Deshalb sollen 90% der Stromproduktion nach Thailand exportiert werden. Langfristige Verträge über 27 Jahre sichern den Banken ihren Rückfluß des eingesetzten Kapitals — plus einer netten Rendite. Umweltbelastung? Bei einem Wasserkraftwerk kommt zwar kein „böses CO2“ aus dem Schornstein, aber jeder Staudamm belastet das „Ökosystem Fluß“. Wenn man dutzende miteinander verbundene Wasserkraftwerke baut, wird das einen erheblichen Einfluß auf Flora und Fauna haben. Der Mekong ist aber die Lebensader für die Flußanrainer von China bis Vietnam.

Die Berichterstattung in unserem Lande

Erinnern sie sich noch an Fukushima? Von morgens bis abends gab es kein anderes Thema. Nun ist Laos auch nicht weiter als Japan. In beiden Fällen war die Ursache ein Naturereignis. In Laos ein Tropensturm mit außergewöhnlichen Niederschlägen und in Japan ein Tsunami. Die immerwährenden Wasserschäden halt. Naturgewalt wird man nie ausschließen können, lediglich sich dagegen durch viel Technik wappnen können. In beiden Fällen entstand erheblicher Sachschaden. Nicht nur für die Anlagenbetreiber, sondern auch für viele völlig unbeteiligte Personen in weiterer Entfernung. In einem Fall wahrscheinlich hunderte Tote durch die direkte Einwirkung der Anlage, im anderen Fall sind keine Menschenleben zu beklagen. Was macht nun den Unterschied in der Wahrnehmung beider Ereignisse aus?

In der Wahrnehmung „normaler Menschen“ gibt es kaum einen Unterschied. Im Gegenteil dürfte das Mitfühlen für die Angehörigen der Todesopfer (überwiegend Kinder) in Laos eher größer sein. Man erinnere sich nur an die Kinder-Fußballmannschaft in Thailand. Weltweit wurde tagelang mit den in der Höhle eingeschlossenen mitgefiebert. Aus aller Welt traf Unterstützung ein. Warum also, reagierten die Medien in Deutschland — das muß ausdrücklich betont werden — so desinteressiert? Es ist ja nicht so, daß kein Bildmaterial oder Hintergrundinformationen vorhanden sind. Es liegt alles vor für eine „Enthüllungs-Geschichte“ a la „Panama-Papers“ etc.: Diktatoren, Indigene Minderheiten, Ausbeutung der „3. Welt“, Banken, internationale Konzerne, großräumige Umweltzerstörung usw. Kurz, alles was einen Linken elektrisiert. Ne richtige „Spiegel Story“ so zu sagen.

Man könnte die Antwort in einem Satz geben: Was nicht sein darf, findet auch nicht statt. Die totale Realitätsverweigerung. Wie einst in der DDR. Tschernobyl hielt erst mit tagelanger Verzögerung Einzug in die Aktuelle Kamera. So funktionieren halt staatliche Medien. Nur mit dem Unterschied, daß die DDR sich selbst gegenüber so ehrlich war, ihre Medien direkt aus dem Staatshaushalt und nicht über eine Zwangsabgabe für Wohnungen zu finanzieren. Die Wirkung ist die gleiche: Von den Regierenden mit üppigen Mitteln und unzähligen Privilegien ausgestattet, weiß man auch ohne direkte Anweisung, was zu tun ist.

Die Vorgabe ist einfach und auch von „Nachrichten-Vorlesern“ mit geringer Bildung auszuführen: Die Energiewende ist um jeden Preis zu verteidigen. Kernenergie und Kohle sind beides Teufelszeug, müssen daher mit allen Mitteln — besser gesagt Gruselgeschichten — madig gemacht werden. Einzig selig machend ist Wind- und Sonnenenergie mit (noch zu erfindenden) Speichern und deshalb darf der Bruch eines Staudammes nicht stattfinden. Höchsten als Randnotiz, sonst könnte der Bürger noch auf abwegige Gedanken kommen.

Das „GEZ-Fernsehen“ ist schon länger auf dem Niveau der Prawda angekommen: Immer mal rein schauen, damit man weiß, was einem die Regierung zum Thema Energie mitteilen will. Aber als Informationsmedium absolut unbrauchbar. Wer glaubt, was einem dort verkauft wird, macht sich selbst und freiwillig zum Deppen.

Wer Informationen sucht, muß sich notgedrungen im kapitalistischen Ausland umschauen. Dort sind Nachrichten immer noch eine Ware und keine ideologischen Verlautbarungen zur Volksertüchtigung. Deshalb war in wenigen Stunden das Staudammunglück verbreitet — samt Hintergrundinformationen: Wer hat den Damm gebaut, wer hat die Finanzierung gemacht, wie haben sich deren Aktienkurse entwickelt usw. Im Internetzeitalter alles was man braucht, um seinen eigenen Ansprüchen entsprechend weiter zu recherchieren. Genau die journalistische Arbeit, die im Deutschen Fernsehen immer mehr verweigert wird — ob schlicht aus Faulheit oder aus Boshaftigkeit sei dahingestellt. Überdeutlich wird dies immer wieder im Zusammenhang mit Donald Trump: Bevor man sich seine Rede selbst anhört, verwendet man lieber einen Beitrag eines klassenbewußten „Experten“ darüber, was der Präsident angeblich gesagt haben soll. Sicher ist sicher, wie bei der Energiewende. Wenn man mit den Wölfen heult und immer nur das nach quatscht, was die einschlägigen „Größten Denker“ vorgekaut haben, ist man immer auf der richtigen Seite. Schlimmstenfalls haben sich halt alle anderen auch geirrt. Die üppige Pension ist damit, gemäß deutscher Tradition, auf jeden Fall gesichert. Später sagt man einfach, wenn man das gewußt hätte….

Grundgesetz und Kernenergie

Vor einigen Tagen hat mir ein Leser eine Unterrichtung durch die Bundesregierung mit der Bitte um eine Stellungnahme zum Kapitel Kernenergie zugeschickt. Hierbei handelt es sich um ein Sondergutachten des Sachverständigenrates für Umweltfragen: Wege zur 100 % erneuerbaren Stromversorgung vom 18. Februar 2011. Warum nun eine so olle Kammelle aus der Zeit der Koalition von CDU/CSU und FDP? Geschichtlich von Bedeutung ist die Tatsache, daß das Unglück von Fukushima erst am 11. März 2011 stattfand. Also erst einen Monat nach dem Druck dieses Gutachtens. Ganz offensichtlich ein willkommener Anlaß für den schon lange geplanten und gewünschten Ausstieg aus der Kernenergie. Wohlgemerkt, maßgeblich mit geplant und umgesetzt durch die FDP (17. Wahlperiode vom 27.10.09 – 22.10.13).

Es gibt aber noch einen aktuelleren Grund: Immer mehr Bürger fragen sich, ob die Energiewende überhaupt mit dem Artikel 20a unseres Grundgesetzes vereinbar ist:

„Der Staat schützt auch in Verantwortung für die künftigen Generationen die natürlichen Lebensgrundlagen und die Tiere im Rahmen der verfassungsmäßigen Ordnung durch die Gesetzgebung und nach Maßgabe von Gesetz und Recht durch die vollziehende Gewalt und die Rechtsprechung„.

Genau darum geht es nämlich in dem Sondergutachten. Es soll die Energiewende als zwingend durch das Grundgesetz vorgeschriebenes Staatsziel legitimieren. Es ist sicherlich kein Zufall, da gerade die FDP eine Partei mit überdurchschnittlich hohem Anteil an Juristen ist. Man hat dieses „Gutachten“ — nach der immer noch bewährten Methode — bei besonders linientreuen Scharlatanen in Auftrag gegeben. Das Verzeichnis der Personen spricht Bände: Ausgesucht keine einschlägige Berufsausbildung oder fachliche Qualifikation auf dem Gebiet der „Stromversorgung“, dafür aber ideologisch um so gefestigter. Fachkenntnisse — oder gar andere Ansichten — hätten die Auftragsarbeit sicherlich nur behindert und das schon im Titel geforderte Ergebnis vielleicht sogar gefährdet. Politik in Deutschland des 21. Jahrhunderts. Ähnlichkeiten mit Staat und Papsttum des Mittelalters sind sicherlich rein zufällig.

Kurzfassung für Entscheidungsträger

Früher nannte man einen solch zeitsparenden Überblick noch „Minister-Seite“. Heute braucht Politiker*in über fünf Seiten „Fakten“ und bunte Bilder um in einer Talkshow sitzen zu können oder gar den Qualitätsmedien Fachkunde vorspielen zu können. Für das Durchwinken eines Gesetzes ist nicht einmal das nötig, denn da folgt man immer schön dem Beschluss der eigenen Fraktion — damit kann man sicher nichts verkehrt machen. Um die Sache noch einmal für den letzen Hinterbänkler zu verdichten, lautet gleich der erste Satz:

„Die Klimapolitik steht vor der Herausforderung, dass die Treibhausgasemissionen der Industrieländer um 80 bis 95 % reduziert werden müssen, um eine als gefährlich angesehene globale Temperaturerhöhung von über 2°Celsius gegenüber dem vorindustriellen Niveau zu vermeiden“.

Alles klar? Es geht also um die Weltrettung. Dass dieser Satz gleich mehrfach Blödsinn ist — selbst in dieser Studie — erfährt man erst beim vollständigen lesen der fast 400 Seiten. Aber welcher Parlamentarier hat schon so viel Zeit. Da ist es doch besser, man zeigt ihm gleich wo die Mehrheiten sitzen:

„In Deutschland besteht ein weitgehender Konsens, dass eine nachhaltige Entwicklung des Energiebereichs langfristig eine möglichst vollständig auf regenerativen Energieträgern basierende Elektrizitätsversorgung erfordert.“

Das versteht er. Ist zwar auch bloß eine Sprechblase — die zudem auch noch mehr als diskussionswürdig ist — aber Mainstream ist immer gut für die Wiederwahl. Was aber, wenn Volksvertreter*in gerade keine Lesebrille auf hat? Deshalb die alles entscheidende und beruhigende Aussage noch einmal im Fettdruck:

„100 % Vollversorgung mit Strom aus erneuerbaren Energien ist möglich, sicher und bezahlbar.

Basta! Wie ein anderer Bundeskanzler und heutiger Vertreter für Russengas immer zu meckernden Parteimitgliedern zu sagen pflegte. Gleichnamigem Kanzler und seinem „Kellner“, dem Diplom-Sozialwirt Jürgen Trittin, ist übrigens die Besetzung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit mit solch großen Denkern und Forschern zu verdanken. Vorgänger dieses Ministers war übrigens eine gewisse Angela Merkel. Sage keiner, es gäbe keine Kontinuität in diesem Sachgebiet. Man ist aber fair genug, selbst in dieser Kurzfassung, noch eine Duftmarke seiner politischen Gesinnung zu hinterlassen:

„Die Einsparung von Strom kann als die wichtigste Brückentechnologie auf dem Weg zur regenerativen Vollversorgung betrachtet werden. Die Bundesregierung sollte daher ein absolutes Verbrauchsziel für den Stromverbrauch setzen. Ein geeignetes Instrument zur deutlichen Stärkung der Marktanreize für ein solches Ziel könnte die Einführung von Stromkundenkonten sein.“

Nur zur Erinnerung: Koalitionspartner war die FDP. Der Austausch der Sprache im Orwellschen Sinne findet nicht erst seit heute statt: Hier wird aus „planwirtschaftlichem Bezugssytem der staatlichen Mangelwirtschaft“ flugs „Marktanreize durch Stromkundenkonten“ gemacht. Frau Claudia Kemfert — die unvergleichliche Denkerin des DIW — hätte es nicht besser sagen können. Freilich hätte sie als ausgewiesene Artistin des Denglish lieber vom „Smart Grid“ und „Smart Meter“ geschwärmt.

Nachhaltigkeitsbewertung verschiedener Optionen der Energieerzeugung: Kernenergie

Jetzt ist eine kunstvolle Pirouette gefragt. Sie erinnern sich noch an den ersten Satz der Kurzfassung? Vielleicht sollten sie noch mal das Zitat weiter oben genau lesen, damit sie auch in den vollen Genuß der geistigen Verrenkungen kommen. Es geht um nichts weniger als die Errettung vor dem bösen CO2. Oh Schreck, jetzt taucht auf Seite 46 des Gutachtens eine Tabelle über „Gesamte durchschnittliche Treibhausgas-Emissionen von Stromerzeugungsoptionen“ auf. Ihre Einheit ist „Emissionen in g/kWhel CO2 Äquivalente“. Spitzenreiter sind die bösen Braunkohle-Kraftwerke, die auch noch die Stromnetze verstopfen, mit sagenhaften 1153. Aber selbst die „AKW mit Uran aus Russland“ geben nur 63 her. Nur dreimal so viel wie die ideologisch guten Windparks mit 23 und nur gut die Hälfte von den ebenfalls ideologisch einwandfreien „Solarzelle (multikristallin)“ mit 101. Wohlgemerkt, diese Tabelle ist nicht von der bösen „Atomlobby“ erschaffen, sondern vom Öko-Institut errechnet, der Glaubenskongregation aller „Umweltschützer und Atomkraftgegner“. Auch deshalb muß man an dieser Stelle zu dem glasklaren Schluß kommen:

„Stromerzeugung aus Kernenergie ist weniger schädlich für das globale Klima als die Kohleverstromung; die im Lebenszyklus auftretenden Treibhausgasemissionen pro erzeugter Kilowattstunde liegen in der Größenordnung von denen erneuerbarer Energien. Dennoch ist die Kernenergie aus mehreren Gründen, insbesondere aufgrund der Entsorgungsproblematik und der Risiken beim Betrieb, als nicht nachhaltig einzustufen.“

Wow! So geht also Wissenschaft heute. Wenn die selbst errechneten Zahlen nicht zum eigenen Weltbild passen, werden sie einfach durch „Argumente“ ersetzt. Der Auftritt der Tochter des „Solarpapstes“ Hermann-Scheer (SPD) Dr. Nina Scheer (SPD) im Bundestag war also doch kein Ausreißer.

Es gibt also zwei „Argumente“: „Entsorgungsproblematik“ und „Risiken beim Betrieb“, die die Kernenergie aus dem Kreis der „CO2 armen“ Technologien ausschließen. Dabei muß wieder einmal die Förster-Weisheit von der „Nachhaltigkeit“ herhalten. Dieses Wort besitzt für jeden Gutdenker die gleiche Zauberkraft wie „Neo-Liberal, Kasino-Kapitalismus etc.“. Man weiß sofort, auf welcher Seite man zu stehen hat.

Der geneigte Leser wird jetzt vielleicht ein paar Argumente erwarten, aber weit gefehlt.

Endlagerung

Dieses Unterkapitel nimmt in diesem „Sondergutachten“ weniger als eine halbe Seite ein. Der einzige Inhalt zur Begründung besteht aus dem Satz:

„Starke Radioaktivität, hohe chemische Toxizität, lang anhaltende Wärmeproduktion und die durch Korrosion und mikrobielle Vorgänge hervorgerufene Gasbildung stellen hohe Anforderungen an das Rückhaltevermögen der Barriereelemente.“

Raten sie mal, was als Quelle für den „weltweiten“ Stand der Forschung zu diesem Komplex angegeben wird? Der Sachverständigenrat für Umweltfragen (SRU 2000). Das ist die Steigerung des Echoraumes, das selbstverliebte Eigenzitat. Von unfreiwilliger Komik ist der sich direkt anschließende Satz:

„Eine Bewertung der langfristigen Sicherheit von Endlagerstandorten muss sich notwendigerweise auf Annahmen und Modellrechnungen stützen. Die Ergebnisse solcher Untersuchungen sind mit umso größeren Unsicherheiten behaftet, je weiter die betrachteten Zeitpunkte in der Zukunft liegen.“

Hoppla! Wie hieß es noch im ersten Satz der Kurzfassung für Entscheidungsträgerglobale Temperaturerhöhung von über 2°Celsius“. Was auch immer eine „globale Temperaturerhöhung“ sein soll, jedenfalls wird diese ebenfalls durch mit Annahmen gefütterte Modellrechnungen bestimmt. Allerdings mit einem kleinen, aber gewichtigen Unterschied: Kein einziges „Klimamodell“ ist in der Lage, die „Klimaverläufe“ der Vergangenheit auch nur annähernd nachzubilden. Demgegenüber stellen die Rechenprogramme der Geologen ihre Brauchbarkeit nahezu täglich unter Beweis: Sonst hätten wir längst kein Öl und kein Erdgas mehr zur Verfügung.

Die letzten zwei Sätze dieses Kapitels geben in einem Zirkelschluss noch einmal den Auftrag wieder:

„Somit ist nicht auszuschließen, dass die Lebensgrundlagen kommender Generationen durch heute eingelagerten radioaktiven Abfall in katastrophalem Ausmaß beschädigt werden. Die Kernenergie ist damit im Sinne der Generationengerechtigkeit und der Risikovorsorge als nicht nachhaltig einzustufen.“

Wenn man — ich bin ausdrücklich kein Jurist — die vorhergehenden Kapitel über den Artikel 20a GG in diesem Sondergutachten gelesen hat, soll damit wohl suggeriert werden, daß die Kernenergie gegen das Grundgesetz verstößt.

Störfallrisiko

Es ist ja nicht so, daß die Kerntechnik keine Erfahrungen mit Störfällen und Unglücken hätte. Sie ist der am stärksten überwachte und durch Vorschriften reglementierte Industriezweig weltweit. Spätestens nach der Katastrophe von Tschernobyl wissen wir, daß die Propaganda der Angstindustrie „Millionen-Tote, für-zehntausende-Jahre-unbewohnbar“ einfach nur ein Märchen ist. Was bitte, ist denn noch denkbar, als ein Reaktor der explodiert, brennt und fast seine ganze Radioaktivität wie ein Vulkan ausspeit? Selbst mehrere Reaktoren wie in Fukushima stellen kein Sicherheitsrisiko für die Bevölkerung dar. Auch an unseren Gutachtern sind diese Tatsachen sicherlich nicht ganz spurlos vorbeigegangen. Sie beschließen dieses Kapitel deshalb lieber etwas schwammig:

„Die Charakterisierung des Risikos mit einer bestimmbaren und niedrigen Eintrittswahrscheinlichkeit sowie einem bestimmbaren und großen Schadensausmaß ist daher nicht mehr zeitgemäß. Vielmehr sind weder die Eintrittswahrscheinlichkeiten noch die möglichen Schadenswirkungen genau bestimmbar. Das Kernenergierisiko ist außerdem gekennzeichnet durch hohe Persistenz, Ubiquität und Irreversibilität“.

Wieder ist die Quelle dieser Aussage der eigene Echoraum: Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU 1998). Aber der Bildungshorizont unserer Gutachter geht natürlich noch viel weiter — man Beachte auch die Quellenangaben in diesem wörtlichen Zitat:

„Das Prinzip der Nachhaltigkeit erfordert Priorität für die Vermeidung solcher Risiken. Wenn die Möglichkeit katastrophaler Auswirkungen existiert, stößt die wissenschaftliche Bewertung der Risiken und Kosten an Grenzen – formale Kosten-Nutzen-Rechnungen sind in einem solchen Fall keine adäquate Grundlage für Abwägungsentscheidungen (vgl. Paul Krugman im New York Times Magazin vom 7. April 2010). Stattdessen muss die Vermeidung von Großrisiken auch bei sehr geringen Eintrittswahrscheinlichkeiten als Nachhaltigkeitskriterium Vorrang haben (Tz. 27). Für die Stromerzeugung sind demnach Technologien vorzuziehen, die technisch realisierbar, wirtschaftlich vertretbar, aber mit deutlich geringeren Sicherheitsrisiken verbunden sind.“

Welche Technologien wohl damit gemeint sind? Etwa die wetterabhängigen Umweltenergien Wind und Sonne? Wo sind die technisch realisierten Speicher gebaut worden? Wie hoch die Kosten für diesen Unsinn sind, kann jeder selbst aus seiner eigenen Stromrechnung nachvollziehen.

Umwelt- und Gesundheitsbelastungen durch den Uranabbau

Allseits bekannt ist ja, daß Deutschland sich immer sehr um fremde Länder sorgt. Neuerdings wollen wir ja sogar Fluchtursachen beseitigen:

„Viele Uranabbaugebiete liegen in Entwicklungsländern und auf dem Gebiet indigener Völker. Die Einhaltung sozialer und Umweltstandards, etwa ein angemessener Schutz der Minenarbeiter, kann für importierte Uranbrennstoffe nur schwer kontrolliert werden.“

Die Generatoren der Windmühlen und die Photovoltaik benötigen große Mengen exotischer Materialien. Wie hoch war doch noch mal der Mindestlohn im Kongo? Wie sah noch mal der Umweltschutz bei der Gewinnung seltener Erden in China aus? Wo wird der Abfall aus der Produktion beseitigt? Auch Windmühlen und Sonnenkollektoren haben nur eine endliche Lebensdauer. Fragen über Fragen…

Verbrauch nicht-erneuerbarer Ressourcen

Man scheut aber auch in dieser Unterrichtung durch die Bundesregierung nicht vor dreisten und dummen Lügen zurück:

„Kernenergie kann aufgrund der Endlichkeit der Ressourcen für Kernbrennstoffe bestenfalls als Übergangstechnologie genutzt werden. Die gängigen Schätzungen gehen davon aus, dass die bekannten Uranreserven die weltweite Versorgung noch für einige Jahrzehnte sicherstellen können…. Insgesamt ist angesichts der begrenzten Uranvorkommen auch der Verbrauch dieser nicht-erneuerbaren Ressource ein Kriterium, das bei der Nachhaltigkeitsbewertung dieser Option berücksichtigt werden muss.“

Kernbrennstoffe werden aus Uran, Plutonium und Thorium hergestellt. Auf der Basis der heutigen weltweiten Energienachfrage ist Uran und Thorium in der Erdkruste und den Weltmeeren für mindestens Zehntausende von Jahren vorhanden. Bestenfalls liegt hier der ewige „Peak-Irrtum“ vor. Die gewinnbaren Rohstoffvorkommen hängen immer von den erzielbaren Preisen und der sich ständig weiter entwickelnden Technik ab. Wegen der außerordentlich hohen Energiefreisetzung bei der Kernspaltung ist die Grenze fast beliebig nach oben ausweitbar.

Abgesehen davon, gilt die Försterweisheit von der Nachhaltigkeit nur dann, wenn man auch tatsächlich den Wald erhalten will. Hätten unsere Vorfahren so gehandelt, müßten wir heute noch auf den Bäumen leben. Niemand kann aber die Zukunft vorhersagen. Deshalb ist das Schonen von Ressourcen bestenfalls anmaßend und zeugt von eindimensionalem Denken oder wie weiland ein Ölminister bemerkte: Die Steinzeit ist nicht aus Mangel an Steinen zu ihrem Ende gekommen.

Kosten

Der Schlußsatz des etwa dreiseitigen Kapitels zur Bewertung der Kernenergie lautet:

„Insgesamt besteht bei der Kernenergie große Unsicherheit hinsichtlich der Kostenentwicklung sowie eine große potenzielle Diskrepanz zwischen den gesellschaftlichen Kosten und den Kosten für die Betreiber. Dass die Kosten langfristig sinken werden, kann als unwahrscheinlich betrachtet werden.“

Kosten sind Kosten. Immer wenn von „externen Kosten“ oder „gesellschaftlichen Kosten“ die Rede ist, versuchen irgendwelche Vulgärmarxisten ein „Marktversagen“ zu konstruieren um ihre unpopulären gesellschaftlichen Vorstellungen durchzudrücken.

Abschließende Betrachtung

Es ist schon so eine Sache mit unserem Grundgesetz: Es wächst und wächst. Teilweise hat es einen bemerkenswerten Detaillierungsgrad erreicht. So hat sich sogar der Tierschutz mit einem eigenen Paragraphen eingeschlichen. Es war sicherlich einfach, für die „niedlichen Welpen“ eine erforderliche Mehrheit zu finden. Wer möchte schon in seinem Wahlkreis als Tierquäler verdächtigt werden. Die meisten Parlamentarier haben wahrscheinlich gar nicht gemerkt, daß es sich dabei um ein Trojanisches Pferd gehandelt hat. Denn viel bedeutender ist die erste Hälfte des Satzes über die Lebensgrundlagen. Der Duden sagt zur Bedeutung des Wortes: Materielle Grundlage, Voraussetzung des Lebens.

Das Gutachten spricht von „abiotischen Elementen wie Luft, Wasser, Böden und auch das Klima“. Was ist mit Flora und Fauna oder mit etwas eher ästhetischem wie Landschaft oder gar den Menschen und ihrem Naturrecht nach Glück zu streben? Das Gutachten geht noch weiter, man schwadroniert von der Lebensgrundlage kommender Generationen, von Generationengerechtigkeit und Risikovorsorge. Am besten gefällt mir die Generationengerechtigkeit als Staatsziel. Ich dachte bisher, die Parlamentarier hätten sich im Zusammenhang mit der Rentenfrage bereits daran abgearbeitet. Man verzeih mir als einfachem Ingenieur, daß ich mir wenig unter einer „generationengerechten Stromversorgung“ vorstellen kann.

Je länger ich mich mit diesem Machwerk beschäftigt habe, komme ich zu dem Schluß, daß es hier nur um die Durchsetzung einer ganz bestimmten — allenfalls laienhaften — Vorstellung über eine Energieversorgung geht. Wenn nicht sogar um schlimmeres. Vordergründig geht es um den „Atomausstieg“, längerfristig um die „große Transformation“. Wohin eigentlich genau: Bloß in Maos „Großen Sprung“ oder gleich in die steinzeitkommunistischen Utopien des „Bruder Nummer Eins“?

Robuste Kraftwerke für robuste Netze

Für eine robuste Stromversorgung („Grid Resilience“) unter den erschwerten Bedingungen von Wind- und Sonnenenergie ergeben sich auch besondere Anforderungen an die Kraftwerke. Wind und Sonneneinstrahlung sind Wetterphänomene und damit nicht vom Menschen beeinflußbar. Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

Robuste Lastfolge

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

Abwehr äußerer Einflüsse

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

Sicherer Inselbetrieb

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

Unendliche Notkühlung

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

Schwarzstartfähigkeit

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Die Robustheit eines Stromnetzes

In den USA hat die ideologisch bedingte („Klimakatastrophe“) Subventionierung von Wind- und Sonnenkraftwerken zu ähnlichen Problemen wie in Deutschland geführt: Immer mehr konventionelle Kraftwerke arbeiten mit Verlusten und drohen deshalb mit Schließung. Präsident Trump hat versucht dem mit verschiedenen Erlassen entgegen zu wirken. Inzwischen gibt es in verschiedenen Bundesstaaten ebenfalls konkrete Maßnahmen, insbesondere um die Schließung von Kernkraftwerken zu verhindern. Es hat der bekannte planwirtschaftliche Teufelskreis eingesetzt: Die Verzerrung des Marktes durch Subventionen wird mit weiteren Subventionen an anderer Stelle bekämpft. Das Ergebnis sind allgemein steigende Kosten, die zu überhöhten Preisen und letztendlich zum Schaden der Gesellschaft wirken.

Das neue Modewort „Resilience

Der Begriff „Resilience“ kommt eigentlich aus den Gesellschaftswissenschaften. Man versteht darunter die Fähigkeit eines technischen Systems oder einer Gesellschaft Veränderungen oder zerstörerischen Ereignissen zu widerstehen, indem es die negativen Einflüsse dämpft (absorptive capability), sich selbst verändert und anpasst (adaptive capability) oder letztendlich durch eine Wiederherstellung (restorative capability). Es wird deshalb hier das Wort „Robustheit“ als Übertragung ins Deutsche verwendet.

Um dem ganzen einen wissenschaftlichen Anstrich zu verleihen, wird gern ein Bild gezeichnet, welches als „System Resilience Curve (SRC)“ bezeichnet wird. Darunter versteht man die bauchige Kurve der „Performance“ über der Zeit. Dem gewöhnlichen Ingenieur sei dringend empfohlen, sich mit diesem neuen Wieselwort vertraut zu machen, da es nur eine Frage der Zeit sein kann, bis es zum Standardrepertoire eines jeden Dampfplauderers gehört. Es werden üblicherweise vier Phasen definiert:

  1. Zum Zeitpunkt t1 tritt eine Störung auf. Bis zum Zeitpunkt t2 kämpft das System mit dieser Störung. Man bezeichnet diese Phase noch als Normalbetrieb, solange die Auswirkungen auf die „Performance“ noch im Rahmen der Toleranzen bleiben.
  2. Zum Zeitpunkt t2 beginnt der teilweise Zusammenbruch des Systems. Gegenmaßnahmen zur Stabilisierung werden ergriffen und die „Performance“ erreicht zum Zeitpunkt t4 ihren Tiefpunkt.
  3. Ab dem Zeitpunkt t4 beginnt die Wiederherstellung des Systems im Notbetrieb, die zum Zeitpunkt t5 abgeschlossen ist. Die „Performance“ erreicht aber nicht wieder den Wert im Normalbetrieb.
  4. Ab dem Zeitpunkt t4 beginnt die Reparaturphase bis zum Zeitpunkt t5 an dem ein neuer Normalbetrieb erreicht wird.

So theoretisch, so schön und gut. Nur, dem Techniker dürstet es immer nach konkreten Zahlenwerten und genauen Definitionen. Mit Geschwurbel kann man zwar in den Gesellschaftswissenschaften hervorragend Geld und Anerkennung verdienen, aber in der realen Welt bringt man damit keine Maschine zum Laufen — geschweige ein so komplexes System wie ein Stromnetz. Zumal Experimente nur sehr eingeschränkt möglich sind: Es wären Operationen am „offenen Herzen einer Gesellschaft“.

Was bitte, ist die .„Performance“ eines Stromnetzes?

In einer Marktwirtschaft sollte man immer zuerst nach den Anforderungen der Kunden fragen. Der Kunde — das sind wir alle selbst — will zu jedem Zeitpunkt, an jeder Steckdose, seine georderte Leistung haben. Er will selbst und frei entscheiden, wann er das Licht oder seinen Computer einschaltet oder was sonst er mit elektrischer Energie alles machen will. Für uns seit Jahrzehnten eine Selbstverständlichkeit. Vielleicht zu selbstverständlich, als das wir die heraufziehenden Gefahren „Der-schönen-neuen-Welt“ des Öko-Sozialismus noch wahrnehmen.

Wir sollen uns an einen Systemwechsel gewöhnen: Zukünftig geht es nicht mehr um die Interessen der Kunden, sondern ausschließlich um die Interessen der Lieferanten. Aus dem Kunden wird ein lästiger „Strom-Bittsteller“, dessen einzige Aufgabe noch darin besteht, mit seiner ständig steigenden Stromrechnung diejenigen zu mästen, die besonders gut und gerne von diesem Land leben — die Sonnen- und Windbarone.

In der guten alten Zeit, in der noch die Energieversorgung im Vordergrund stand, war die Aufgabenstellung einfach und klar definiert: Priorität hatte stets die Stabilität des Netzes. Auch die Verantwortung war über die Gebietsmonopole eindeutig geregelt. Jeder Versorger hatte von der Erzeugung (Kraftwerke) über den Transport (Netz) bis zur Abrechnung (Zähler usw.) alles bereitzustellen. Robustheit war so selbstverständlich, daß niemand darüber reden mußte. Die Bewertung der Performance war einfach: Wie oft und für wie lange ist die Stromversorgung in einem Gebiet ausgefallen?

Alles eine Frage der Verantwortlichkeit

Ein klassisches Energieversorgungs-Unternehmen mußte selbst entscheiden, in welchen Kraftwerkspark (Kohle-, Kernkraft-, Gaskraftwerke etc.) in welcher Zusammensetzung (Optimierung der Erzeugungskosten) es investierte. Welche Kraftwerke es in Betrieb hatte, welche in Reserve, wann Wartungsarbeiten, wann Modernisierungen etc. durchgeführt wurden. In der Praxis oft schwierig zu beantwortende Fragen, aber durch entsprechend große Stäbe an Ingenieuren handhabbar. Ein über alle Kulturkreise und sogar Gesellschaftssysteme erfolgreiches Modell.

Eine alte Volksweisheit besagt: Wenn es dem Esel zu wohl geht, geht er aufs Eis tanzen. Die „Große Transformation“ zurück ins Mittelalter ward erschaffen: Plötzlich wurde die Technik zwangsweise durch die vom Menschen nicht bestimmbare Kraft des Wetters ersetzt. Absurderweise auch noch mit der Begründung, genau diese Naturgewalt dadurch beeinflussen zu können und zu müssen („Klimakatastrophe“). Da kein Energieversorgungsunternehmen so blöd war, sich weiterhin für ein robustes Stromnetz verantwortlich machen zu lassen, aber die Stellhebel ausschließlich dem „Wettergott“ zu überlassen (100% Wind und Sonne), mußte die „Strommarktliberalisierung“ erschaffen werden. Eine herrliche Wortschöpfung um den verbrannten Begriff „Planwirtschaft“ zu vermeiden. Die Vorgehensweise ist und bleibt immer gleich: Zerschlage erstmal das funktionierende System und bilde möglichst viele Einheiten (Energieerzeugung, Netzgesellschaft etc.) mit möglichst gegensätzlichen und unterschiedlichen Interessen — auch als Teile und Herrsche bekannt. Damit die Sache beschleunigt wird, sorge für möglichst viele „Schlangenölverkäufer“ (EE-Gesetz) und Agitprop-Einheiten (Greenpeace, Klimainstitute usw.). [Einschub: Warum fällt mir an dieser Stelle bloß eine Paraderolle mit Mario Adorf ein: Ich sch… dich zu mit Geld.] In diesem Punkt unterscheidet sich der „Öko-Sozialismus“ von seinen eher armen Vorgängern. Man hat in diesem (noch) erfolgreichen System einfach mehr Geld anderer Leute — auch Steuern und Abgaben genannt — zur Verfügung.

Wofür dient die SRC wirklich?

Bisher hat man einfach den Bedarf gedeckt. Störungen für das Stromnetz haben sich aus technischen Fehlern (Kraftwerk, Trafo etc.), aus höherer Gewalt (Bagger) und zum geringeren Maße durch das Wetter (Sturm, Vereisung, Blitzschlag etc.) ergeben. Alles sehr gut beherrschbar, weil man stets selbst die Hoheit über die Produktion und Verteilung besessen hat. Man hat sich fast immer und ausschließlich in der ersten Phase des Normalbetriebes bewegt. Die Öffentlichkeit hat meist nichts von etwaigen Schwierigkeiten mitbekommen. Stromausfällen gab es — wenn überhaupt — nur lokal und kurzfristig.

Nun hat man — nicht aus Not, sondern nur aus ideologischen Gründen — die Erzeugung in die Hand des „Wettergottes“ übergeben. Dort geht aber die Bandbreite der Stromproduktion von nahezu Null (Dunkelflaute) bis zur maximalen installierten Leistung, die manchmal höher als der Gesamtbedarf sein kann. Mit zunehmendem Ausbau in Europa werden die notwendigen Abschaltungen immer weiter zunehmen. Wirtschaftlich eine sich selbst verstärkende Katastrophe. Mit jeder notwendigen Zwangsabschaltung wird die — ohnehin geringe — Arbeitsausnutzung (Strommenge, die die entsprechenden Anlagen pro Jahr produzieren) geringer und die Kosten der erzeugten Kilowattstunden steigen dadurch entsprechend an. Noch einmal in einem kurzen Merksatz zusammengefaßt: Je mehr Windmühlen und Sonnenkollektoren in Betrieb gehen, um so teurer werden die damit erzeugten Kilowattstunden! Ganz im Gegensatz zur geltenden Propaganda, die von immer weiter sinkenden Preisen faselt. Jeder Investor, der sich heute noch mit dem Gedanken trägt in Wind und Sonne zu gehen, sollte diesen Zusammenhang beherzigen. Ist der Redeschwall und die Zahlenakrobatik der Schlangenölverkäufer auch noch so verführerisch.

In diesem Zusammenhang ist die Einbeziehung des Wirtschaftsraumes Europa nicht zu vernachlässigen. Je weiter auch dort der Ausbau von „regenerativen Energien“ fortschreitet, um so mehr werden die Entsorgungsgebühren (negative Strompreise an den Börsen) ansteigen. Die von den Stromkunden in Deutschland bezahlten Entsorgungsgebühren machen die Preise für den Windstrom in unseren Nachbarländern immer weiter kaputt und erhöhen damit die dort fälligen Subventionen. Auch das, eine weitere Todesspirale für die „regenerativen Energien“. Die alte Propagandalüge „irgendwo-weht immer-der Wind“ ist längst als solche enttarnt. Was Meteorologen schon immer wußten, daß Großwetterlagen nicht an den nationalen Grenzen halt machen, ist heute bereits in den Übertragungsnetzen meßbar: Die Produktion von Windenergie in den zentraleuropäischen Staaten verläuft bemerkenswert synchron.

Wenn also der Wettergott die Produktion übernimmt, muß man von tagelangen und großräumigen Flauten ausgehen. Speicher in dieser Größe gibt es nicht. Wenn man zudem in der kurzen Zeit, in der der Wind genug weht und die Sonne scheint (Arbeitsausnutzung <15% in der Summe beider), nicht nur die aktuelle Nachfrage abdecken muß, sondern auch noch die zu speichernde Energie einschließlich der Verluste (mindestens 50%) produzieren muß, benötigt man gigantische installierte Leistungen. Dabei muß man auch noch beachten, daß die Vollbenutzungsstunden der Wandlungsanlagen (Batterien, Power to Gas oder was auch immer) und Übertragungsnetze ebenfalls sehr gering ausfallen müssen (Produktion minus Nachfrage), was bei den ohnehin sehr hohen Investitionskosten für Speicher- und Übertragungssysteme zu gigantischen spezifischen Kapitalkosten (€/kWh) führt.

Die Antwort liegt in Phase 2 der SRC

Jeder Fachmann weiß, daß bei immer weniger konventionellen Kraftwerken am Netz, zukünftig der Punkt 2 der SRC-Kurve immer häufiger zu dem Ergebnis führt, daß Störungen eben nicht mehr ausgeregelt werden können. Störungen sind zukünftig nicht mehr nur technische Fehler im System, sondern vielmehr auch noch die Launen des Wettergottes. Wenn erst einmal kein „Kohlestrom mehr die Netze verstopft“ und die Kernkraftwerke abgeschaltet sind, bleibt nur noch der Abwurf von Verbrauchern. Dieser muß in Sekundenschnelle erfolgen, sonst bricht — gemäß den Kirchhoffschen Regeln — das gesamte Netz großflächig (Europaweit?) zusammen.

Unsere Fachpersonen an den Schaltstellen der großen Transformation haben natürlich auch darauf eine Antwort: Man schwadroniert vom „Smart Grid“ und von „Smart Metering“. Dahinter verbirgt sich nichts anderes, als der elektronische Bezugsschein der Mangelwirtschaft. Auch die fanatischsten „Transformatoren“ sehen durchaus das Problem von großflächigen Stromabschaltungen. Deshalb wollen sie gemäß Dringlichkeit abstellen. Wer im Dunkeln sitzen muß, entscheidet wohl der örtliche Parteisekretär oder schlicht der Geldbeutel. Der dumme Michel wird schon zahlen, wenn er unbedingt die Sportschau sehen will oder sein Gefriergut retten muß. In Afrika überleben die Menschen schließlich auch irgendwie.

Wenn nun der Wind wieder richtig weht und der Tag nach einer langen Winternacht anbricht, kann man langsam in die Phase 3 übergehen. Es ist nämlich gar nicht so einfach ein Netz wieder zu stabilisieren. Man kann dann schrittweise die Notstromaggregate in den Krankenhäusern, Unternehmen usw. abstellen und die Verbraucher wieder aufs Netz schalten. Wie die „Performance“ aussieht, wird sich zeigen. Als letztes kommt dann mit Phase 4 die Beseitigung der entstandenen Schäden im Netz.

Ausblick

Der nächste Artikel wird sich mit den Konsequenzen für die Kernkraftwerke in dieser neuen Welt befassen. Mit Sicherheit wird es noch eine jahrelange Übergangszeit geben, bis man mit dem Spuk der „Regenerativen Energien“ wieder Schluß macht. Es gilt diese Zeit möglichst elegant aus zu sitzen.

Immobilisierung von Pu & Co

Alle radioaktiven Stoffe sind erst richtig gefährlich, wenn sie in den Körper aufgenommen werden. Solange sie sich außerhalb befinden, ist eine Abschirmung recht einfach möglich. Für eine „Inkorporation“ sind drei Wege ausschlaggebend: Über die Atemluft, Trinkwasser und Nahrung. Solange sie also gar nicht in die „Biosphäre“ gelangen, können sie auch keinen Menschen schädigen oder sich dort anreichern. Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.

Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.

Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.

Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.

Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.

Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

Die Verdünnung

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.

Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.

Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.

Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

Das Dose in Kanister Verfahren

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.

Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

Bohrlöcher

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.

Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.

Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.

Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

Beseitigung in Reaktoren .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?

Wie soll Plutonium beseitigt werden?

Durch den Baustopp der Mischoxid-Anlage zur Vernichtung von überschüssigem „Waffenplutonium“ in den USA, ist dort wieder eine Grundsatzdebatte losgetreten worden. Nach den Zahlen des International Panel on Fissile Materials (IPFM) gibt es zur Zeit etwa 216 to „Waffenplutonium“ (in Kernwaffen verbaut und als Reserve) und etwa 271 to „ziviles Plutonium“ aus der Wiederaufbereitung von Kernbrennstoffen weltweit. Das Ganze ist also beileibe kein rein akademisches Problem.

Die Kernwaffen-Frage

Wenn man wirkliche Abrüstung will und nicht nur das Einlegen einer Pause, dann muß man nicht nur Trägersysteme und Kernwaffen verschrotten, sondern auch das „Bombenmaterial“ vernichten. Gerade dessen Herstellung — ob Plutonium oder höchst angereichertes Uran — ist der zeit- und kostenaufwendigste Teil bei einer „atomaren Aufrüstung“. Insofern war der Vertrag zwischen den USA und Rußland ihr Überschussplutonium zu vernichten, der einzig richtige Weg. Die Russen gehen nun den Weg — mit vollerZustimmung der USA — ihren Anteil an Überschüssen in ihren schnellen, natriumgekühlten Reaktoren als Brennstoff zu verwenden. Ganz so einfach und schnell geht das aber auch nicht. Selbst der größte „Brüter“ mit 800 MWel braucht überschlägig weniger als 5 to Plutonium für seine Erstbeladung. Es wird deshalb auch dort noch einige Jahre bis Jahrzehnte dauern, bis zumindest der Überschuß soweit „denaturiert“ ist, daß man ihn nie mehr zur Produktion von Kernwaffen einsetzen kann.

Die zivile Herkunft

Für die zivile Produktion von Plutonium aus abgebrannten Brennstäben gab es drei Beweggründe:

  1. Als Erstbeladung für schnelle Brüter
  2. Zur Streckung des Uranverbrauchs über MOX-Elemente
  3. Um das Volumen des „Atommülls“ zu verringern und die „Endlager-Anforderungen“ drastisch zu senken.

Brüter

Noch in den 1960er Jahren ging man von sehr begrenzten Vorräten an förderbarem Natururan aus. Man befürchtete eine baldige Preisexplosion. Gerade „Atomkraftgegner“ haben immer wieder dieses Argument für ihre Propaganda mißbraucht. In Wirklichkeit hängen die förderbaren Vorräte — wie beim Öl — immer vom Uranpreis selbst und von der technologischen Entwicklung ab. Nach heutigen Erfahrungen sind die Natururanvorräte nahezu unendlich. Sehr viel wichtiger ist das Verhältnis zwischen „Strompreis“ und „Brennstoffpreis“. Je 100 $US pro kg Natururan schlägt es mit 0,002 $US pro kWh (!) auf die Stromerzeugungskosten nieder. Wenn schon die Sonne keine Rechnung schickt, tut es die Uranader auch nicht.

Jedenfalls haben wir schon heute mit über 271 to Plutonium aus der Wiederaufbereitung abgebrannter Brennelemente weltweit einen beachtlichen Vorrat für den Start in die Technologie mit schnellen Reaktoren. Wir könnten damit auf einen Schlag 30.000 MWel Schnelle-Brüter bauen.

MOX-Elemente

Die Verwendung von einer Mischung aus Uranoxid und Plutoniumoxid (MOX) in Leichtwasserreaktoren (LWR) kann nur eine Übergangslösung sein. Zwar kann man dadurch Natururan ersetzen, aber der Aufwand steht in keinem wirtschaftlichen Verhältnis zum Nutzen. Zur Verringerung der Plutonium Vorräte trägt es auch nur wenig bei, da in einem LWR etwa für 10 Kerne die gespalten werden, gleichzeitig 6 neue Plutoniumkerne gebildet werden.

Außerdem verschlechtert sich die Isotopenzusammensetzung: Es bilden sich immer mehr Minore Aktinoide, was sowohl die Verarbeitung erschwert, als auch den „Restmüll“ aus der Wiederaufbereitung immer langlebiger macht.

Schon bei der Herstellung von MOX-Brennstäben bleiben etwa 10 bis 15% nach der erforderlichen Reinigung des Eingangsmaterials übrig. Diese gehen meist direkt in den Abfallstrom zur Endlagerung. Es lohnt einfach nicht, aus diesem Abfall noch das Rest-Plutonium zu extrahieren.

Hier sieht man auch den Vorteil metallischen Brennstoffs als Uran-Plutonium-Zirconium-Legierung, wie sie z. B. in PRISM-Reaktoren verwendet werden soll: In ihr kann aller „Dreck“ mit verarbeitet werden und erneut dem Reaktor zur Behandlung zugeführt werden.

Wiederaufbereitung

Abgebrannte Brennelemente enthalten immer noch rund 95% Uran und etwa 1% Plutonium. Anders herum, sind im Sinne der Energieerzeugung nur etwa 4% Abfall. Dies ist die Asche der Kernenergie, die sicher deponiert werden muß. Durch das Recycling ergibt sich eine erhebliche Reduzierung des Abfalls. Man vergleiche dies einmal mit z. B. Altpapier oder gar Plastik.

Eine Wiederaufbereitung ist ein rein chemischer Prozeß. Es wird — anders als im Reaktor — keine Radioaktivität erzeugt, sondern schlimmstenfalls bereits vorhandene radioaktive Stoffe verschleppt. Dies kann aber durch Dekontamination wieder beseitigt werden. Wenn man früher alle Rohre, Schutzkleidung, Werkzeuge, Chemikalien etc. einfach weggeworfen hat, geschah dies aus Kostengründen.

„Atomkraftgegner“ versuchen diese Tatsachen immer noch zu leugnen. Ist doch die „angeblich ungelöste Atommüll-Frage“ ziemlich das letzte Argument, was ihnen gegen die friedliche Nutzung der Kernenergie geblieben ist. Wird dieser Schwindel auch in breiten Bevölkerungskreisen erkannt, ist es aus mit der Angstindustrie. Sie braucht dann dringend neue Phantome um ihre Einnahmen zu sichern.

Nachhaltigkeitsproblematik

In der Szene der „Atomkraftgegner“ ist das Neusprechwort „Nachhaltigkeit“ eine Grundvokabel der Propaganda. Zwar ist diese Försterweisheit [Wenn du mehr Bäume abholzt, als gerade nachwachsen, ist der Wald irgendwann futsch. Nur, gäbe es heute gar kein Deutschland, wenn die alten Germanen schon dem statischen Denken der Melonen-Partei verfallen gewesen wären] schon immer fragwürdig gewesen, hört sich aber gut an.

Wenn man 1 gr Plutonium spaltet, ist es nicht nur unwiederbringlich weg, sondern hat auch noch etwa 22800 kWh Energie geliefert. Wenn man also 70 to überflüssig gewordenes „Waffen-Plutonium“ in Kernreaktoren spaltet, entspricht das dem Energiegehalt von 210 Millionen to Kohle oder 910 Millionen barrel Öl. Damit ließen sich rund 630 TWh elektrische Energie erzeugen (mehr als ein Jahresverbrauch von Deutschland). Eine hübsche Friedensdividende, wenn nicht die verdammte „Grüne Ideologie“ davor stehen würde.

Geht nun Gefahr von Plutonium aus oder doch nicht?

Was „Waffen-Plutonium“ betrifft, ist die Frage eindeutig zu beantworten: Die Sicherheit — im Sinne von Diebstahl etc. — ist zwingend einzuhalten. Es ist ähnlich, wie mit Sprengstoffen: Sie sind an und für sich harmlos — wenn man damit nicht Menschen in die Luft sprengen könnte.

Wie verhält es sich aber mit Plutonium an sich? An den Lagerfeuern von Gorleben erzählt man sich die schaurigsten Geschichten von „wenigen Gramm, die die ganze Menschheit töten können“. Dies ist absoluter Blödsinn! Reines Plutonium ist ein α-Strahler, man kann es deshalb gefahrlos in die Hand nehmen. Dies geschah und geschieht in zahlreichen Labors und in der Waffenproduktion täglich. Schäden sind nicht bekannt. Solange man es nicht als Feinstaub einatmet oder mit der Nahrung zu sich nimmt, passiert rein gar nichts. Selbst bei einer Aufnahme in den Körper, spielt die chemische Verbindung eine große Rolle, in der es vorliegt. Seine (chemische) Wirkung als ein Schwermetall übertrifft meist sogar seine Strahlungswirkung.

Damit ergibt sich für „Atomkraftgegner“ ein schwierig zu lösendes Dilemma: Ist Plutonium ganz, ganz gefährlich, müßte man es zwingend aus der Welt schaffen. Dummerweise erzeugt aber Kernspaltung große Mengen an Energie. Ist es aber nicht so gefährlich, könnte man es problemlos lagern. Die „weltweit ungelöste Endlagerfrage“ — das zentrale Argument der Angstindustrie in Deutschland — platzt wie eine Seifenblase. Es bleibt daher nur der erprobte und erfolgreiche Weg, die Kosten in die Höhe zu treiben, um anschließend sagen zu können, die friedliche Nutzung der Kernenergie sei leider total unwirtschaftlich. Eigentlich ganz leicht zu durchschauen.

WIPP, das Gorleben der USA

In den USA gibt es überall große Mengen von „Atommüll“ aus den staatlichen Forschungslabors und der Kernwaffenproduktion. Manchmal sind ganze Landstriche noch Sperrgebiet. Es stand außer Frage, daß diese Gebiete nach und nach saniert werden müssen. Aber wohin mit dem Abfall? Ein Endlager mußte her, wollte man das Problem nicht den nachfolgenden Generationen aufbürden. Es entstand das Waste Isolation Pilot Plant (WIPP) in Carlsbad, New Mexico. Ein Endlager, in dem der gesamte hochaktive Müll aus Forschung und (militärischer) Wiederaufbereitung verschwinden soll. Ausdrücklich auch Plutonium. Dies ist nicht ganz unwichtig, denn wir haben es damit mit wesentlich langlebigerem „Atommüll“ zu tun, als dem aus z. B. der französischen Wiederaufbereitung von Kernbrennstoffen. Auch dies wird in Deutschland gern verschwiegen. Ist doch hier aus ideologischen Gründen der „Ausstieg aus der Atomenergie“ gefordert. Diesem Diktat haben sich selbstverständlich Sicherheit und Kosten unter zu ordnen. Die Stützung einer kleinen Partei — als potentiellem Koalitionspartner zum Erhalt des Machtgefüges — hat absoluten Vorrang.

Die Ironie an der Geschichte ist, daß das WIPP ein Abbild des Endlagers in Gorleben ist. Man hat es in einem Salzstock in 655 m Tiefe als Kavernenfeld von 1,6 x 1,4 km angelegt. Es werden dort Kammern bergmännisch aus dem Salz aufgefahren, in denen die „Müllbehälter“ gestapelt werden. Wichtig ist, es handelt sich hier nicht um ein altes Salzbergwerk wie bei den Schachtanlagen Asse und Morsleben, sondern eine ausschließlich für die Endlagerung geplante und neu gebaute Anlage. Es ist aber auch kein Zufall, daß man einst in USA und Deutschland einen Salzstock als das ideale Wirtsgestein für ein Endlager angesehen hat. Salz ist plastisch und umschließt langfristig „selbstabdichtend“ den Atommüll. Außerdem ist es ein Rohstoff, der im Überfluß vorhanden ist, was eine etwaige spätere Nutzung ausschließt. Die Baukosten betrugen in den 1980er Jahren rund 700 Millionen $US. Ein geradezu lächerlicher Betrag, wenn man ihn mit der „Geldvernichtungsmaschine“ Gorleben vergleicht.

In Deutschland fängt man gerade an, „ergebnisoffen“ einen neuen Standort zu suchen: Alles außer Gorleben, den Wallfahrtsort der Öko-Sozialistischen Bewegung. Wie putzig dieses neue Suchverfahren abläuft, sieht man schon an dem geforderten „strikten Bohrverbot“ für Gebiete, die von der „Endlagerkommission“ für potentiell würdig erachtet werden. Fährt man auf der kilometerlangen Zufahrtsstraße zum WIPP, hat man tunlichst auf zwei Dinge zu achten: Die halbwilden Rinder, die links und rechts grasen und die LKW und Tanklaster, die in unendlichem Strom zu den Bohrstellen rasen. Der Salzstock liegt mitten in einem Ölfördergebiet — was für Geologen nicht weiter verwunderlich ist. In Sichtweite rund um das WIPP sieht man zahlreiche Bohrtürme. Kein Mensch stört sich daran. Auch nicht die Rancher, deren überlebenswichtige Wasservorräte (Wüstengebiet) durchbohrt oder mit Atommüll unterfüttert werden.

Ausblick

Die letzte Folge dieser kleinen Serie wird sich mit den verschiedenen „Immobilisierungen“ für Plutonium beschäftigen.

Notbremse gezogen?

Anfang Mai schrieb der „Energieminister“ (US Energy Secretary Rick Perry) der USA eine Mitteilung an sein Parlament (Congress), daß er im Grunde den Bau der Anlage zur Produktion von Mischoxid-Brennelementen (MOX) in Savannah River Site in South Carolina abgebrochen habe. Die Anlage ist bereits zu 70% fertiggestellt und sollte aus 34 to waffengrädigem Plutonium Brennstoff für Leichtwasserreaktoren herstellen.

Die Vorgeschichte

Bereits vor dem Zusammenbruch der Sowjetunion setzte ein gewaltiges Abrüstungsprogramm zwischen den USA und Russland ein. Letztendlich wurden im Rahmen des ersten Vertrages zur Verringerung strategischer Waffen (START I) tausende Raketen und Sprengköpfe auf beiden Seiten vernichtet. Damit saß jeder der beiden Vertragspartner auf zig Tonnen waffengrädigem Materials, aus dem man zehntausende von neuen Sprengköpfen hätte bauen können. Im Zeitalter des aufkeimenden Terrorismus eine äußerst unbehagliche Situation, zumal die Sowjetunion in Auflösung begriffen war.

Die Mengen an hochangereichertem Uran stellten nur ein kleines Problem dar: Sie wurden mit abgereichertem Uran auf die Gehalte für Brennstoff verschnitten und nach und nach in Kernkraftwerken zur Stromerzeugung verbraucht. Gleichwohl waren die Mengen so gewaltig, daß für Jahre der Markt für Natururan nahezu zusammenbrach. Für sich genommen schon ein gewaltiger Schaden für die Uranbergwerke.

Ganz anders verhielt es sich mit dem Plutonium. Jeder der beiden Vertragspartner verfügte nun über einen Überschuß von 34 to waffengrädigem Plutoniums, der irgendwie aus der Welt geschafft werden mußte. Um zu verstehen, warum das gar nicht so einfach ist, muß man sich etwas näher mit Plutonium beschäftigen.

Das besondere Plutonium

Plutonium ist ein chemisches Element mit der Ordnungszahl 94 (94 Protonen im Kern), welches faktisch nicht in der Natur vorkommt. Es kann zwar in verschiedene chemische Verbindungen mit verschiedenen chemischen Eigenschaften überführt werden, nicht aber auf chemischen Wegen wieder aus der Welt geschafft werden. Es kommt in zahlreichen Isotopen (unterschiedliche Anzahl von Neutronen im Kern) — von Pu236 bis Pu244 — mit jeweils eigener Halbwertszeit und eigenem Einfangquerschnitt für Neutronen vor. Die einzige Möglichkeit es wieder aus der Welt zu schaffen, ist es mittels Neutronen zu spalten oder wenigstens in andere Isotopen um zu formen.

Schon in den Anfängen der Entwicklung von Kernwaffen hat man erkannt, daß Pu239ein idealer Kandidat für den Bau von Kernwaffen ist. Es ist recht einfach und preiswert in „speziellen Reaktoren“ in beliebigen Mengen aus Natururan herstellbar und es besitzt ein Optimum aus „Lebensdauer“ und Einfangquerschnitt im auftretenden Energiespektrum einer Kernexplosion.

Jede Kernwaffe altert durch spontane Zerfälle. Je kürzer die Halbwertszeit des Materials ist, desto schneller ist die Kernwaffe unbrauchbar. Jeder Kern, der schon zerfallen ist, steht für die Kettenreaktion im Ernstfall nicht mehr zur Verfügung. Dies ist leicht einsichtig. Jeder Spontanzerfall löst aber eine ganze Kette weiterer radioaktiver Produkte aus. Jedes Glied hat eigene, energieabhängige Einfangquerschnitte. Vereinfachend gesagt, viele verbrauchen nur Neutronen, die für eine Kettenreaktion nicht mehr zur Verfügung stehen können. Im Extremfall bricht die „Explosion“ sehr schnell in sich zusammen.

Der Zweck einer Kernwaffe ist Zerstörung (Druckwelle, Feuerball und Strahlung). Dafür braucht man eine hohe Leistung (Energie pro Zeiteinheit). Mit einfachen Worten: Man muß möglichst viele Kerne (ungefähr 200 MeV pro Spaltung) in nahezu „Null Sekunden“ spalten. Das Geheimnis des Bombenbaues liegt nun in der Beherrschung der Kettenreaktion: Mit jeder Spaltung werden weitere Neutronen frei, die von Generation zu Generation (jeweils etwa Verdoppelung) immer noch mehr Kerne spalten könnten — wenn sie nicht parasitär weggefangen werden oder den Ort des Geschehens einfach mit hoher Geschwindigkeit verlassen würden ohne überhaupt jemals einem spaltbaren Kern begegnet zu sein. Insbesondere für diesen „Verlust von Neutronen durch Austritt“ ist die schnelle Ausdehnung des Spaltmaterials durch die entstehende Hitze verantwortlich.

Waffengrädiges- oder Reaktorplutonium?

Von „Atomkraftgegnern“ wird immer wieder behauptet, man könne auch aus Reaktorplutonium „Bomben bauen“. Man möchte damit Plutonium aus der Wiederaufbereitung von Brennelementen aus Leichtwasserreaktoren gefährlicher erscheinen lassen, als es in Wirklichkeit ist. Bestenfalls steckt dahinter Wortklauberei. Natürlich kann man mit großem Aufwand unter Laborbedingungen auch mit Reaktorplutonium eine Kettenreaktion auslösen — bloß bringt man damit keine Fensterscheibe zum wackeln. Deshalb ist auch noch keiner so bescheuert gewesen, mit gewaltigem Aufwand eine „Atombombe“ aus Reaktorplutonium zu bauen, die trotzdem nur einem Knallfrosch gleicht, wenn er mit geringstem Aufwand aus Natururan waffengrädiges Plutonium erzeugen kann.

Damit ist auch ein Weg aufgezeigt, wie man „altes Bombenplutonium“ dauerhaft und sicher beseitigen kann. Setzt man es als Brennstoff in Leistungsreaktoren ein, wird dadurch ein erheblicher Teil der Ursprungsmenge „verbrannt“ und gleichzeitig der Rest durch die Bildung von anderen Isotopen verdorben. Denn nicht jeder Kern Pu239 wird durch das Einfangen eines Neutrons gespalten, sondern wird teilweise bloß in ein anderes Isotop (Pu240, Pu241 usw.) umgewandelt. Man kann das mit dem vergällen von trinkbarem Alkohol vergleichen: Der Zusatz von geringen Mengen ähnlicher Stoffe macht aus einer großen Menge Genussmittel einen für Menschen giftigen Industriealkohol. Der Trick ist der Gleiche: Der Aufwand zur Trennung wäre um ein vielfaches höher, als die erneute Herstellung von Trinkalkohol.

Grundsätzlich kann man „überschüssiges Bombenplutonium“ in schnellen Reaktoren oder in konventionellen Leichtwasserreaktoren einsetzen. Effektiver ist der von Rußland eingeschlagene Weg der Herstellung von Brennstoff für einen natriumgekühlten Reaktor mit schnellen Neutronen: Man kann größere Anteile (schnelle Reaktoren über 20%, LW bis rund 8%) verwenden. Dies vereinfacht schon mal die notwendige Überwachung bei der Produktion. Durch eine angepaßte Fahrweise (nicht die Energieerzeugung steht im Vordergrund, sondern die Erzeugung ungeeigneter Isotope) kann man recht schnell große Mengen Plutonium für eine Waffenproduktion dauerhaft unbrauchbar machen. So gibt es beispielsweise ein Konzept — bestehend aus zwei PRISM-Reaktoren — innerhalb von nur zwei Jahren alle Überschussbestände in Großbritannien für eine Waffenproduktion unbrauchbar zu machen. Elektrische Energie könnten diese Reaktoren mit diesem Plutonium dann trotzdem noch viele Jahrzehnte weiter produzieren.

Der Weg über MOX

Üblicherweise setzt man in Kernkraftwerken einen Brennstoff aus (nur) angereichertem Uran ein. Man kann aber auch einen Brennstoff aus einer Mischung aus Uranoxid und Plutoniumoxid verwenden. Keine neue Erfindung. Bereits 1972 wurde in Deutschland (!) erfolgreich ein Mischoxid in einem Reaktor verwendet. Heute sind rund 5% aller verwendeten Brennelemente weltweit vom Typ MOX. Führend in dieser Technologie ist mit großem Abstand Frankreich. Ursprünglich wollte man damit den Verbrauch von Natururan strecken. Es war daher nicht abwegig, über diese Schiene auch das „Überschuß-Plutonium“ aus der Rüstung vernichten zu wollen. Nur mußte aus politischen Gründen (Proliferation und Verträge mit Rußland) in USA erst einmal eine neue Anlage gebaut werden. Und damit nahm das Verhängnis seinen Lauf…

Wenn man eine verfahrenstechnische Großanlage in Auftrag gibt, sollte man vorher wissen, welches Produkt man eigentlich herstellen will, welche Vorschriften im eigenen Land gelten und welchen Rohstoff man genau einsetzen muß. Ganz offensichtlich für Politiker (per Eigendefinition Alleskönner) und öffentliche Verwaltungsapparate (zumindest, wenn sie sich auf einem neuen Gebiet bewegen sollen) eine unlösbare Aufgabe. Wie immer, wurde erst einmal — im Bewußtsein kein eigenes Geld, sondern das Geld der Steuerzahler zu verschwenden — eine Anlage für den Durchsatz von 3,5 to Plutonium pro Jahr bei Areva für 2,7 Milliarden Dollar in Auftrag gegeben. Baubeginn war 2007 mit einer geplanten Fertigstellung im Jahr 2016.

Nachdem der Baubeginn bereits erfolgt war, stellte man fest, daß der spezielle Eingangsstoff — besagtes Waffenplutonium zur Vernichtung in Leichtwasserreaktoren — anders, als das übliche Plutonium — Plutonium aus französischer Wiederaufbereitung von Kernbrennstoff— war. Flugs mußte noch ein kompletter zusätzlicher Verfahrensschritt zur Entfernung von Verunreinigungen eingeführt werden. Die Anlage — fast genau so groß, wie die bereits im Bau befindliche — wurde verniedlichend „Aqueous Polishing“ genannt. Die geplante Fertigstellung verschob sich auf 2019 und die geplanten Kosten schossen auf 4,9 Milliarden Dollar hoch.

Im Jahre 2012 führte man eine Untersuchung durch und aktualisierte die Kostenschätzung auf 7,7 Milliarden. Eine weitere Untersuchung im Jahre 2016 ergab eine Kostenschätzung von 17,2 Milliarden und eine Inbetriebnahme nicht vor 2025. Wie bei öffentlichen Projekten üblich — wir kennen das vom Flughafen BER in Berlin — wurschtelt man weiter vor sich hin. Jährlich versickerten zwischen 350 und 500 Millionen Dollar aus diversen Haushaltstiteln in diesem Sumpf. Ein schönes Auftragsvolumen, für das man schon etwas für die Politik tun kann.

Die Programmkosten

Mit dem Bau der Anlage ist es aber noch nicht getan. In einer Marktwirtschaft muß man auch noch Kunden für das Produkt finden. In diesem Fall, wegen der geltenden Abrüstungsverträge, ausschließlich in den USA. Die Kernkraftwerke in den USA müssen aber Genehmigungen für den Betrieb mit MOX-Brennelementen besitzen. Sie müssen geprüft und umgebaut werden. Mit anderen Worten, im Moment würden die Betreiber die Brennelemente nicht einmal geschenkt nehmen. Lange Rede, kurzer Sinn, das Energieministerium schätzt die Gesamtkosten für das Programm auf 50 Milliarden Dollar. Das entspricht einem Preis von über 1,4 Millionen Dollar für jedes Kilogramm Waffenplutonium. Selbst wenn man die Anlagen noch für andere Zwecke nutzen kann, ist das ein Irrsinn.

Dieser Vorgang zeigt sehr schön, was geschieht, wenn man Politikern solche komplexen technischen Herausforderungen überläßt. Man muß nur so ein verrücktes Programm starten und erschließt sich damit eine sprudelnde Geldquelle: In diesem Fall mit ursprünglich „etwa 1 Milliarde für ein tolles Abrüstungsprogramm“ oder einer „Eiskugel für eine Energiewende“ bei uns. Sind erstmal genug Laiendarsteller auf den Zug aufgesprungen, kann man sie beliebig ausquetschen. Der Politiker steht vor der Alternative: Ich verbrenne weiterhin das Geld fremder Leute (sprich unsere Steuern) oder gebe zu, gar nicht allwissend zu sein, was das Ende der eigenen Karriere bedeutet. Solche „Steuergelder-Verbrennungsanlagen“ werden erst gestoppt, wenn Kräfte an die Regierung kommen, die bisher nicht im etablierten Machtapparat tätig waren. Dies geschah mit der Wahl von Donald Trump zum 45. Präsidenten der USA, der schon in seinem Wahlkampf lieber vom „Sumpf“ sprach und ungern das etablierte Synonym „Washington“ benutzte.

Wie geht’s weiter

Allerdings ist mit dem Baustopp der Anlage noch lange nicht das Problem beseitigt. Dabei ist das Plutonium selbst das geringste Problem: Es schlummert weiterhin in den Tresoren vor sich hin. Was drückt, sind die Abrüstungsverträge mit Russland. Im Moment herrscht ein seltsames gegenseitiges „Wegsehen“: Die USA kommen nicht mit der Vernichtung ihres „Überschussplutonium“ voran, dafür regt man sich nicht sonderlich über den Bruch des Abrüstungsabkommens über Mittelstreckenwaffen (Landgestützte Cruise missile mit „Atomsprengköpfen“) durch Putin auf.

Es muß also eine Lösung her. Zumindest über einen weiteren Ansatz, wird hier demnächst berichtet…

Trump kündigt das „Iranabkommen“

Für manche in Deutschland ist es wie eine Bombe eingeschlagen: Trump hat den „Joint Comprehensive Plan of Action“ nicht mehr verlängert. Dies ist schon die erste wichtige Feststellung: Es hat sich nie um einen völkerrechtlichen Vertrag – wie z. B. die zahlreichen Abrüstungsabkommen mit Rußland – gehandelt, sondern viel mehr um eine „Bekundung“ des vorhergehenden Präsidenten Obama. Für eine Ratifizierung des US-Parlaments hat es nie gereicht, denn es hat schon immer zahlreiche Kritiker gegeben. Dies sei schon einmal vorab allen gesagt, die reflexartig auf den Präsidenten Trump einprügeln – sei es aus Unkenntnis oder tiefer linker Gesinnung. Deshalb mußte dieses seltsame Abkommen vom jeweiligen Präsidenten turnusgemäß verlängert werden. Auf jeden Fall eine Gewissensentscheidung, wie sie einsamer nicht zu treffen ist. Präsident Trump hat sich die Entscheidung wahrlich nicht leicht gemacht, hat er doch bisher jedesmal verlängert. Er hat aber auch bei jeder Verlängerung eindringlich auf seine Bedenken aufmerksam gemacht und damit dem Mullah-Regime die Hand für Verhandlungen gereicht. Was kam, war jedesmal eine schroffe Ablehnung. Die Mullahs haben sich gründlich verzockt. Präsident Trump ist kein Jimmy Carter und auch kein Obama. Man mag es nicht glauben, wenn man ausschließlich GEZ-Verlautbarungen hört: Präsident Trump ist ein Mann mit klaren Überzeugungen – egal ob man sie mag oder nicht. Auch in dieser Frage ist er seit seinen Wahlkampfbekundungen keinen Millimeter von seinen Aussagen abgewichen. Es wäre gerade unserer selbsternannten „Führungselite“ dringend angeraten, endlich einmal aufmerksam zu zu hören. Nicht Präsident Trump ist unberechenbar, sondern die „Politikerkaste“, deren oberster Karrieregrundsatz „was kümmert mich mein Geschwätz von gestern“ ist. Präsident Trump macht das, von dem er überzeugt ist und nicht das, was unsere Realitätsverweigerer glauben was er machen sollte.

Was ist so schlecht an diesem Abkommen?

In diesem Blog ist bereits schon bei der Verabschiedung dieses Abkommens ein kritischer Artikel erschienen. Eine alte Geschäftsweisheit lautet: Ein gutes Geschäft ist nur eines, was für beide Seiten ein gutes Geschäft ist. Übertragen auf dieses Abkommen kann man sagen, daß es ausschließlich für Iran ein gutes – um nicht zu sagen Bombengeschäft war. Für den gesamten Nahen Osten eine einzige Katastrophe und für Israel eine existenzielle Bedrohung. Warum eine so eindeutige Feststellung: Iran hat den Bau von Kernwaffen nur um wenige Jahre verschoben. Bei Lichte besehen, nicht einmal das. Betrachtet man das System aus Kernwaffe und Rakete, hätte Iran ohne das Abkommen keinesfalls schneller zum Ziel kommen können. Eher im Gegenteil. Für dieses Stück Papier hat es jedoch irgendwo zwischen 100 und 200 Milliarden US-Dollar kassiert: Freigabe von gesperrten Konten, Ölverkäufe etc. Überraschung, es hat dieses Geld nicht zum Nutzen der eigenen Bevölkerung eingesetzt, sondern für eine beispiellose Aufrüstung und zur Finanzierung des Terrorismus. Mullahs ticken halt sehr viel anders, als idealistische europäische Friedensengel. Wie groß wäre wohl die Bedrohung von Israel und Saudi Arabien durch iranische Raketen und die Anzahl der Opfer in Jemen und Syrien ohne diesen „Geldsegen“ gewesen? Wer glaubte, die Welt hätte aus der Erfahrung des „Münchener Abkommens“ gelernt, ist bitter enttäuscht worden. Diktatoren mit Sendungsbewusstsein lassen sich nicht durch gut gemeinte Gesten von ihrem Kurs abbringen. Getrieben durch religiöse Wahnvorstellungen sind sie in der Lage, ganze Völker auszurotten. Im Zusammenhang mit Israel alles andere als eine Übertreibung. Gerade als Deutsche haben wir die Pflicht, solche Diktatoren und ihre .– ständig wiederholten – Aussagen ernst zu nehmen. Wir haben es uns schon einmal vorgemacht, daß ein gewisser Adolf Hitler alles nicht so ernst meint. Am Ende dieser Selbsttäuschung stand dann Auschwitz.

Der Zusammenhang mit Nord-Korea

Es gibt einen wesentlichen Unterschied zwischen der Diktatur in Nord-Korea und Iran. Kim und seine Clique ist eine gewöhnliche Mafia-Truppe: Sie beutet das eigene Volk bis aufs Blut aus, macht auch gern ein paar illegale Geschäfte, ist sich aber darüber im Klaren, wenn der Sheriff mit der Kavallerie kommt ist Schluß mit Lustig. Soll heißen: Die Bedrohung seiner Nachbarn oder der USA mit Kernwaffen ist letztendliche Selbstmord. Mit Teheran verhält es sich anders. Wer überzeugt ist, er wird mit 72 Jungfrauen belohnt, wenn er sich selbst in die Luft sprengt, ist ein anderes Kaliber. Da helfen Verträge nur sehr bedingt.

Wenn man solchen Regimen Kernwaffen zubilligt, wem will man sie dann noch verwehren? Wie lange sollen Nachbarländer (Saudi Arabien, Vereinigte Emirate, Irak usw.), die sich bereits heute faktisch im Kriegszustand mit Iran befinden auf Kernwaffen verzichten? Will man in Europa die Raketenabwehr weiter ausbauen? Wie will man die daraus resultierenden Verwicklungen mit Rußland meistern (Schon heute behauptet Putin, daß die Abwehrsysteme in Rumänien in Wirklichkeit gegen ihn gerichtet sind)?

Die Konsequenzen

Manchmal gibt es nur eindeutige Entscheidungen. Wenn man einem Psychopaten, der ständig gewalttätig gegen seine Nachbarn ist, auch noch eine Schusswaffe zugesteht, macht man sich an dem absehbaren Blutbad mitschuldig. Wenn man ein Land wie Israel, dem ständig die Ausrottung angedroht wird, ohne Unterstützung läßt, muß man nicht erstaunt sein, wenn dieses Land irgendwann zu einem Präventivschlag ausholt. Wer Krieg und unschuldige Opfer verhindern will, muß jetzt handeln. Ein verschieben des Problems um wenige Jahre – und nichts weiter ist das Abkommen gewesen – ist lediglich weiße Salbe. Jetzt kann man die Mullahs noch mit Wirtschaftssanktionen bändigen, sind sie erstmal Atomwaffenmacht, wird es mit Sicherheit nicht einfacher. Gleichzeitig zeigt man allen Potentaten deutlich die Konsequenzen von Kernwaffen auf.

Wenn Leute von den eingehaltenen Bedingungen faseln, stellen sie damit nur unter Beweis, daß sie nie den Text gelesen haben. Allein der Passus über Anmeldefristen und zur Inspektion freigegebener Orte ist ein einziger Witz. Selbst die Abkommen in den schlimmsten Zeiten des „Kalten Kriegs“ haben mehr Überwachungen erlaubt und damit Vertrauen geschaffen. Allerdings kommt man hiermit zum entscheidenden Unterschied: Es waren Abrüstungsverträge. Man hat die Verschrottung und deren Überwachung vereinbart. Vor allen Dingen aber, hat man die Trägersysteme mit einbezogen. Iran hingegen, hat sich lediglich bereit erklärt, die Entwicklung von Sprengköpfen um etwa eine Dekade zu verschieben. Dafür haben sie alle Mittel in die Entwicklung von Raketen gesteckt. Gerade das Beispiel Nord-Korea zeigt aber, wie problematisch der umgekehrte Weg ist. Nord-Korea hat bereits funktionierende Sprengköpfe vorgeführt, hat aber Schwierigkeiten mit den Trägersystemen. Erst als diese medienwirksam gestartet wurden hat die Weltöffentlichkeit reagiert.

Politischer Schaden

Unsere großartigen Fachkräfte der Außenpolitik haben bereits einen Scherbenhaufen angerichtet, ohne sich dessen überhaupt bewußt zu sein. Erst haben sie sich ein katastrophales Abkommen abhandeln lassen. Getreu dem Grundsatz „die Partei hat immer recht“ klammern sie sich nun daran. Obwohl sie hätten erkennen müssen, daß irgendwann jemand neues kommt, der sich nicht an dieses Machwerk gebunden fühlt.

Als wenn der Schaden nicht schon genug wäre, lassen sie sich jetzt auch noch von den Mullahs vorführen. Ganz offen gehen sie auf Konfrontationskurs mit den USA. Kann diesen Größen nicht einmal jemand einen Globus schenken, damit sie mal kapieren, wer zuerst betroffen ist? Es sind die gleichen Strategen, die schon nicht adäquat auf Erdogan reagieren konnten. Gegen die Mullahs ist Erdogan jedoch ein lupenreiner Demokrat und ein lediglich islamistisch angehauchter Politiker.

Als nächstes werden noch die Trittbrettfahrer China und Russland auf den Zug gegen Amerika aufspringen. China wird versuchen sich das Öl und Erdgas Irans billig zu sichern. Putin muß den Mullahs ohnehin aus der Hand fressen, da sie für seine Interessen im Mittelmeer das Kanonenfutter liefern. Deutschland ist dabei, seinen fetten Hintern gleich zwischen alle Stühle zu setzen. Langfristig, könnte die „Flüchtlingspolitik“ dagegen noch ein harmloses Abenteuer gewesen sein.

Thorcon – neue Reaktoren aus/mit Indonesien?

Das US-Unternehmen Thorcon will Salzbadreaktoren in Indonesien bauen.

Indonesien

Für ein besseres Verständnis, erscheinen ein paar Worte über die Energiesituation in Indonesien angebracht. Indonesien besteht aus über 17000 Inseln und ist mit 253 Millionen Einwohnern (Stand 2014) das viertgrößte Land der Erde. Als Schwellenland hat es einen rasanten Anstieg des Primärenergieverbrauches zu verzeichnen. In der Dekade zwischen 2003 und 2013 um 43%. Die Hauptenergieträger sind Öl, Kohle und Erdgas. Indonesien ist seit 1885 ein Ölförderland. Inzwischen ist die Nachfrage durch Bevölkerungs- und Wirtschaftswachstum so stark gestiegen, daß es seit etwa 2003 Nettoölimporteur ist.

Es besitzt auch große Erdgasvorkommen (Platz 13 in der Weltrangliste, Platz 2 in Asien) und ist immer noch Nettoexporteur. Der Verbrauchsanstieg ist aber so groß, daß es neuerdings sogar Erdgas als LNG aus den USA importiert (20 Jahresvertrag mit Cheniere). Hinzu kommt die ungleiche Verteilung im Inselreich.

Eigentlich ist Indonesien Kohlenland mit über 500 Millionen Tonnen jährlich. Davon werden rund 80% exportiert (weltweit größter Exporteur nach Masse). Trotzdem beträgt der Inlandsverbrauch rund 80 Millionen Tonnen mit stark steigender Tendenz wegen des Zubaues von Kohlekraftwerken.

In Indonesien sind erst 84% der Bevölkerung überhaupt an das Stromnetz angeschlossen. Bei bisher erst 51 GWel installierter Leistung (88% fossil, davon 50% Kohle) ist das Netz chronisch überlastet. Die häufigen Zwangsabschaltungen sind eine enorme Belastung für Bevölkerung und Industrie.

Traurige Berühmtheit erlangte Indonesien durch die Brandrodung des Regenwaldes zur Anpflanzung gigantischer Palmölplantagen. Auch hier wieder ökosozialistische Wahnvorstellungen als entscheidende Triebkraft: Biokraftstoffe und Holzschnitzel zur „Klimarettung“ und gegen „Peakoil“.

Indonesiens Weg in die Kernenergie

Langfristig kommt Indonesien als bevölkerungsreiches Schwellenland – genauso wie China und Indien – nicht ohne eine Nutzung der Kernenergie aus. Man will aber offensichtlich einen etwas anderen Weg gehen: Nicht der schnelle Einstieg durch den Kauf fertiger Kraftwerke steht im Vordergrund, sondern der Aufbau einer eigenen kerntechnischen Industrie. Konsequent setzt man auf die Entwicklung „neuer“ Kernreaktoren. Dies ist zwar mit einem erheblichen Risiko verbunden, erlaubt aber eine konsequente Anpassung an lokale Verhältnisse und vermeidet hohe Lizenzgebühren. Für ein Inselreich bieten sich kleine Reaktoren (SMR) an, bevorzugt als schwimmende Einheiten.

Eine Entwicklungsschiene ist ein gasgekühlter Hochtemperaturreaktor mit Uran als TRISO Kugelhaufen. Der Prototyp RDE (Reaktor Daya Eksperimental) soll eine Leistung von 10 MWel haben, die später auf bis zu 100 MWel erweitert werden soll. Diese SMR (Small Modular Reactor) sind besonders für die „kleineren“ Inseln des Archipels vorgesehen. Noch dieses Jahr soll ein detaillierter Konstruktionsplan durch ein Konsortium aus Universitäten und privaten Unternehmen einer internationalen Kommission der IAEA zur Begutachtung vorgelegt werden. Grundlage für eine endgültige Entscheidung und die Finanzierung.

Schon 2015 hat die US-Firma Martingale (jetzt ThorCon International) mit einem staatlichen indonesischen Konsortium PT Industry Nuklir Indonesia (INUKI) ein Abkommen zum Bau eines Flüssigsalzreaktors abgeschlossen. Angeblich soll schon 2019 mit dem Bau begonnen werden und das erste Kraftwerk 2025 in Betrieb gehen.

Das ThorConIsle-Konzept

Der Guru der Flüssigsalzreaktoren Robert Hargraves verkündet in seinem neuesten Prospekt vollmundig, daß sein Kraftwerk weniger Investitionen als ein Kohlekraftwerk erfordern würde. Allerdings erinnert das schön bebilderte Verkaufsprospekt an einschlägige Exponate von Bauträgern: Alles schön, keine Probleme, super günstig, daher sofort kaufen.

Das Grundkonzept ist von den Russen abgekupfert: Man baut ein Schiff ohne Antrieb um zwei Reaktoren (plus dem nötigem Zubehör) herum. Alles etwas größer und schöner, versteht sich. Nur mit dem Unterschied, daß das russische Modell nach langer Bauzeit endlich schwimmt. Kein Supertanker – nur 2 x 35 MWel anstelle von 2 x 256 MWel – und „nur“ mit auf Eisbrechern erprobten Reaktoren, anstelle von frisch erfundenen Thorium-Flüssigsalz-Reaktoren. Schön wenn ein solches Kraftwerk mal gebaut wird, aber ganz gewiss nicht bis 2025 und dazu noch billiger als ein Kohlekraftwerk.

Die Idee Kernkraftwerke als Schiffe in Serie zu bauen, ist sicherlich für ein Inselreich verlockend. Nur ist eben ein Kernkraftwerk kein Supertanker (Schuhkarton ), sondern randvoll mit Technik. Insofern können die Baukosten nicht einfach übertragen werden.. Ein Schiff bleibt ein Schiff: Die Korrosionsprobleme im tropischen Meer sind gewaltig und erfordern erhöhte Betriebskosten. Ein Schiff kann auch keine „Betonburg“ (Terrorismus, Flugzeugabsturz etc.) sein. Ganz so einfach, wie im Prospekt, dürfte es nicht gehen: Man kippt einfach die Zwischenräume voll Beton und erhält so einen tollen Bunker. Wer z. B. das Genehmigungsverfahren für den AP-1000 (Sandwich aus Stahlplatten und Beton) verfolgt hat, ahnt, wie Genehmigungsbehörden ticken.

Alle Komponenten sollen zwischen 150 und 500 to schwer sein und sich sogar während des Betriebs auswechseln lassen. Auch hier scheint es mehr um Wunschdenken zu gehen.

Der Reaktor

Bei dem Reaktor handelt sich um eine Kanne, in der der eigentliche Reaktorbehälter (gen. Pot), die Umwälzpumpen und die Wärmetauscher untergebracht sind. Die Kanne wiegt knapp 400 to, wovon etwa 43 to auf die Salzfüllung entfallen. Dieses Gebilde soll spätesten nach acht Jahren komplett ausgebaut und mit einem Spezialschiff zur Wiederaufbereitung geschickt werden. Nach acht Jahren ist das Salz so voller Spaltprodukten, daß es nicht mehr weiter im Kraftwerk eingesetzt werden kann. Vor dem Transport soll es vier Jahre lagern, bis die Strahlung auf akzeptable Werte abgeklungen ist. Jeder Block hat deshalb zwei Kannen.

Die Kanne ist das Neuartige an diesem Konzept: Man tauscht nicht regelmäßig Brennstoff aus, sondern der eigentliche Reaktor ist eine „Batterie“, die komplett gewechselt wird. Vorteil dabei ist, daß man erforderliche Inspektionen und Reparaturen in einer Spezialfabrik durchführen kann. Der gesamte nukleare Teil („der strahlt.“) befindet sich in dieser Kanne. Alle anderen Komponenten sind „konventionell“. Mal sehen, was der Genehmigungsbehörde dazu alles einfällt….

Allerdings stellt das Batterieprinzip alle bisher geltenden Lehrmeinungen über Thorium-Reaktoren auf den Kopf:

  • Bisher ging man von einer kontinuierlichen Wiederaufbereitung aus. Man wollte das Spaltproduktinventar stets gering halten. So hätte man es bei einem schweren Störfall automatisch nur mit geringen Mengen zu tun.
  • Je mehr Neutronengifte – und im Sinne einer selbsterhaltenden Kettenreaktion ist schon Thorium selbst ein starker Parasit – vorhanden sind und je länger die Wechselintervalle sein sollen, um so mehr spaltbares Uran muß man am Anfang zugeben. Dieses muß auch noch möglichst hoch angereichert sein (hier geplant 19,7 %).

Das Salz

Als Brennstoff soll ein NaF – BeF2 – ThF4 – UF4 (mit 76 – 12 – 10,2 – 1,8 mol%) Salz verwendet werden. Es soll ganz tolle Lösungseigenschaften haben, die alle „gefährlichen“ Spaltprodukte zurückhalten. An dieser Stelle fällt mir immer der alte Chemikerwitz ein: Ruft der Professor überglücklich, ich habe endlich das ultimative Lösungsmittel gefunden. Antwortet der Laborant trocken, Glückwunsch und wo soll ich es jetzt hinein füllen? Bei einem solchen Salz ist das leider mehr als ein blöder Witz. Zumal hier auch noch mit Temperaturen von über 700 °C gearbeitet werden soll. Mit Schiffbaustahl (Kostenangaben) wird sich da leider gar nichts ausrichten lassen.

Beryllium und auch Berylliumfluorid sind sehr giftig und werden als krebserregend eingestuft. Wenn Beryllium ein Neutron einfängt, bildet es Helium und setzt dabei zwei Neutronen frei. Es wirkt dabei sowohl als Moderator, wie auch als Neutronenvervielfacher. Fluor und Fluorwasserstoff sind gasförmig und sehr giftig. Fluor ist äußerst reaktionsfreudig und geht mit fast allen Elementen stabile chemische Verbindungen ein. Mit Wasserstoff reagiert es letztendlich zu Flußsäure, die sogar Glas ätzt. Jede Kernspaltung zerstört auch die chemische Verbindung und neue chemische Elemente in Form der Spaltprodukte entstehen. Man hat es deshalb stets auch mit elementarem Fluor zu tun, der auch gern mit dem Strukturmaterial reagieren kann. Da Fluoride sehr reaktionsfreudig sind, reagieren sie natürlich auch wieder mit dem größten Teil der Spaltprodukte und binden diese sicher ein. Es gibt aber zwei Ausnahmen: Edelmetalle und Edelgase. Die Edelmetalle lagern sich innerhalb der Anlage ab und führen zu „Verschmutzungen“, die man regelmäßig und aufwendig wird entfernen müssen (Die Batterie doch komplett auf den Müll?). Die Edelgase müssen (eigentlich) durch Helium ständig aus dem Salz herausgespült werden.

Der immer wieder gern gehörte Hinweis aus der Salzbad-Scene auf den legendären MSRE-Reaktor, hilft in diesem Sinne leider auch nicht weiter: Er hat nur 1,5 Voll-Lastjahre (1966 bis 1969) gelaufen.

Das Sicherheitskonzept

Der Reaktor stellt sich immer selbstständig ab, wirbt ThorCon. Zwar ist dies durchaus kein Alleinstellungsmerkmal eines Flüssigsalzreaktors, aber trotzdem eine feine Sache. Locker mit „Walkaway Safe“ umschrieben. Es ist kein Hexenwerk, eine Kettenreaktion durch Überhitzung (Verkleinerung des makroskopischen Einfangquerschnittes) aus sich selbst heraus zusammenbrechen zu lassen, es bleibt aber immer noch die Nachzerfallswärme (Fukushima und Harrisburg): Sie muß entsprechend schnell abgeführt werden, sonst schmilzt der Reaktor. Auch hier gilt natürlich, je mehr Spaltprodukte im Reaktor enthalten sind (Batterie gegen kontinuierliche Aufbereitung), um so größer ist das Problem.

Die Konstrukteure von Flüssigsalzreaktoren gehen nun davon aus, daß das Salz unter allen denkbaren Umständen und überall im Reaktor schön fließfähig bleibt. Im Ernstfall läuft es dann problemlos in einen gekühlten Tank aus. Dazu denkt man sich an geeigneter Stelle einen Pfropfen als Verschluß, der während des Normalbetriebs durch permanente Kühlung erzeugt wird. Unterbricht man im Notfall die Kühlung, schmelzt das flüssige Salz den Pfropfen auf und gibt so den Weg frei. Der Nottank soll aus vielen Röhren bestehen, die über ihre Oberflächen die Wärme gegen eine Kühlwand abstrahlen. Die Wand wird mit Wasser gefüllt, welches verdampfen kann und sich in Kühltürmen auf Deck wieder niederschlägt. Das Kondensat läuft dann in die Hohlwand zurück.

Schlussbetrachtung

Indonesien muß wie jedes andere Schwellenland in die Kerntechnik einsteigen. Nicht nur zur Energiegewinnung, sondern auch um Anschluß an moderne Industriestaaten zu gewinnen. Kerntechnik ist neben Luft- und Raumfahrt die Schlüsseltechnologie schlechthin. In keiner anderen Branche kommen so viele Technologien mit ihren jeweiligen Spitzenleistungen zusammen. Insofern ist es nur konsequent, möglichst frühzeitig in die internationale Entwicklung „neuer“ Reaktortechnologien einzusteigen. Schon die Zusammenarbeit mit Spitzenuniversitäten und Hochtechnologieunternehmen stellt einen unschätzbaren Wert für die eigene Ausbildungslandschaft dar. Selbst wenn diese jungen Ingenieure später nicht in der Kerntechnik tätig werden, werden sie mit Sicherheit zu den gefragten Spitzenkräften in ihrer Heimat zählen. Keine „Entwicklungshilfe“, die „angepasste Technologie“ für die „große Transformation“ verbreiten will, wird auch nur ansatzweise vergleichbares hervorbringen. Technik – und damit die Gesellschaft –entwickelt sich halt immer nur durch machen weiter und nicht in irgendwelchen geisteswissenschaftlichen Seminaren.