Grundgesetz und Kernenergie

Vor einigen Tagen hat mir ein Leser eine Unterrichtung durch die Bundesregierung mit der Bitte um eine Stellungnahme zum Kapitel Kernenergie zugeschickt. Hierbei handelt es sich um ein Sondergutachten des Sachverständigenrates für Umweltfragen: Wege zur 100 % erneuerbaren Stromversorgung vom 18. Februar 2011. Warum nun eine so olle Kammelle aus der Zeit der Koalition von CDU/CSU und FDP? Geschichtlich von Bedeutung ist die Tatsache, daß das Unglück von Fukushima erst am 11. März 2011 stattfand. Also erst einen Monat nach dem Druck dieses Gutachtens. Ganz offensichtlich ein willkommener Anlaß für den schon lange geplanten und gewünschten Ausstieg aus der Kernenergie. Wohlgemerkt, maßgeblich mit geplant und umgesetzt durch die FDP (17. Wahlperiode vom 27.10.09 – 22.10.13).

Es gibt aber noch einen aktuelleren Grund: Immer mehr Bürger fragen sich, ob die Energiewende überhaupt mit dem Artikel 20a unseres Grundgesetzes vereinbar ist:

„Der Staat schützt auch in Verantwortung für die künftigen Generationen die natürlichen Lebensgrundlagen und die Tiere im Rahmen der verfassungsmäßigen Ordnung durch die Gesetzgebung und nach Maßgabe von Gesetz und Recht durch die vollziehende Gewalt und die Rechtsprechung„.

Genau darum geht es nämlich in dem Sondergutachten. Es soll die Energiewende als zwingend durch das Grundgesetz vorgeschriebenes Staatsziel legitimieren. Es ist sicherlich kein Zufall, da gerade die FDP eine Partei mit überdurchschnittlich hohem Anteil an Juristen ist. Man hat dieses „Gutachten“ — nach der immer noch bewährten Methode — bei besonders linientreuen Scharlatanen in Auftrag gegeben. Das Verzeichnis der Personen spricht Bände: Ausgesucht keine einschlägige Berufsausbildung oder fachliche Qualifikation auf dem Gebiet der „Stromversorgung“, dafür aber ideologisch um so gefestigter. Fachkenntnisse — oder gar andere Ansichten — hätten die Auftragsarbeit sicherlich nur behindert und das schon im Titel geforderte Ergebnis vielleicht sogar gefährdet. Politik in Deutschland des 21. Jahrhunderts. Ähnlichkeiten mit Staat und Papsttum des Mittelalters sind sicherlich rein zufällig.

Kurzfassung für Entscheidungsträger

Früher nannte man einen solch zeitsparenden Überblick noch „Minister-Seite“. Heute braucht Politiker*in über fünf Seiten „Fakten“ und bunte Bilder um in einer Talkshow sitzen zu können oder gar den Qualitätsmedien Fachkunde vorspielen zu können. Für das Durchwinken eines Gesetzes ist nicht einmal das nötig, denn da folgt man immer schön dem Beschluss der eigenen Fraktion — damit kann man sicher nichts verkehrt machen. Um die Sache noch einmal für den letzen Hinterbänkler zu verdichten, lautet gleich der erste Satz:

„Die Klimapolitik steht vor der Herausforderung, dass die Treibhausgasemissionen der Industrieländer um 80 bis 95 % reduziert werden müssen, um eine als gefährlich angesehene globale Temperaturerhöhung von über 2°Celsius gegenüber dem vorindustriellen Niveau zu vermeiden“.

Alles klar? Es geht also um die Weltrettung. Dass dieser Satz gleich mehrfach Blödsinn ist — selbst in dieser Studie — erfährt man erst beim vollständigen lesen der fast 400 Seiten. Aber welcher Parlamentarier hat schon so viel Zeit. Da ist es doch besser, man zeigt ihm gleich wo die Mehrheiten sitzen:

„In Deutschland besteht ein weitgehender Konsens, dass eine nachhaltige Entwicklung des Energiebereichs langfristig eine möglichst vollständig auf regenerativen Energieträgern basierende Elektrizitätsversorgung erfordert.“

Das versteht er. Ist zwar auch bloß eine Sprechblase — die zudem auch noch mehr als diskussionswürdig ist — aber Mainstream ist immer gut für die Wiederwahl. Was aber, wenn Volksvertreter*in gerade keine Lesebrille auf hat? Deshalb die alles entscheidende und beruhigende Aussage noch einmal im Fettdruck:

„100 % Vollversorgung mit Strom aus erneuerbaren Energien ist möglich, sicher und bezahlbar.

Basta! Wie ein anderer Bundeskanzler und heutiger Vertreter für Russengas immer zu meckernden Parteimitgliedern zu sagen pflegte. Gleichnamigem Kanzler und seinem „Kellner“, dem Diplom-Sozialwirt Jürgen Trittin, ist übrigens die Besetzung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit mit solch großen Denkern und Forschern zu verdanken. Vorgänger dieses Ministers war übrigens eine gewisse Angela Merkel. Sage keiner, es gäbe keine Kontinuität in diesem Sachgebiet. Man ist aber fair genug, selbst in dieser Kurzfassung, noch eine Duftmarke seiner politischen Gesinnung zu hinterlassen:

„Die Einsparung von Strom kann als die wichtigste Brückentechnologie auf dem Weg zur regenerativen Vollversorgung betrachtet werden. Die Bundesregierung sollte daher ein absolutes Verbrauchsziel für den Stromverbrauch setzen. Ein geeignetes Instrument zur deutlichen Stärkung der Marktanreize für ein solches Ziel könnte die Einführung von Stromkundenkonten sein.“

Nur zur Erinnerung: Koalitionspartner war die FDP. Der Austausch der Sprache im Orwellschen Sinne findet nicht erst seit heute statt: Hier wird aus „planwirtschaftlichem Bezugssytem der staatlichen Mangelwirtschaft“ flugs „Marktanreize durch Stromkundenkonten“ gemacht. Frau Claudia Kemfert — die unvergleichliche Denkerin des DIW — hätte es nicht besser sagen können. Freilich hätte sie als ausgewiesene Artistin des Denglish lieber vom „Smart Grid“ und „Smart Meter“ geschwärmt.

Nachhaltigkeitsbewertung verschiedener Optionen der Energieerzeugung: Kernenergie

Jetzt ist eine kunstvolle Pirouette gefragt. Sie erinnern sich noch an den ersten Satz der Kurzfassung? Vielleicht sollten sie noch mal das Zitat weiter oben genau lesen, damit sie auch in den vollen Genuß der geistigen Verrenkungen kommen. Es geht um nichts weniger als die Errettung vor dem bösen CO2. Oh Schreck, jetzt taucht auf Seite 46 des Gutachtens eine Tabelle über „Gesamte durchschnittliche Treibhausgas-Emissionen von Stromerzeugungsoptionen“ auf. Ihre Einheit ist „Emissionen in g/kWhel CO2 Äquivalente“. Spitzenreiter sind die bösen Braunkohle-Kraftwerke, die auch noch die Stromnetze verstopfen, mit sagenhaften 1153. Aber selbst die „AKW mit Uran aus Russland“ geben nur 63 her. Nur dreimal so viel wie die ideologisch guten Windparks mit 23 und nur gut die Hälfte von den ebenfalls ideologisch einwandfreien „Solarzelle (multikristallin)“ mit 101. Wohlgemerkt, diese Tabelle ist nicht von der bösen „Atomlobby“ erschaffen, sondern vom Öko-Institut errechnet, der Glaubenskongregation aller „Umweltschützer und Atomkraftgegner“. Auch deshalb muß man an dieser Stelle zu dem glasklaren Schluß kommen:

„Stromerzeugung aus Kernenergie ist weniger schädlich für das globale Klima als die Kohleverstromung; die im Lebenszyklus auftretenden Treibhausgasemissionen pro erzeugter Kilowattstunde liegen in der Größenordnung von denen erneuerbarer Energien. Dennoch ist die Kernenergie aus mehreren Gründen, insbesondere aufgrund der Entsorgungsproblematik und der Risiken beim Betrieb, als nicht nachhaltig einzustufen.“

Wow! So geht also Wissenschaft heute. Wenn die selbst errechneten Zahlen nicht zum eigenen Weltbild passen, werden sie einfach durch „Argumente“ ersetzt. Der Auftritt der Tochter des „Solarpapstes“ Hermann-Scheer (SPD) Dr. Nina Scheer (SPD) im Bundestag war also doch kein Ausreißer.

Es gibt also zwei „Argumente“: „Entsorgungsproblematik“ und „Risiken beim Betrieb“, die die Kernenergie aus dem Kreis der „CO2 armen“ Technologien ausschließen. Dabei muß wieder einmal die Förster-Weisheit von der „Nachhaltigkeit“ herhalten. Dieses Wort besitzt für jeden Gutdenker die gleiche Zauberkraft wie „Neo-Liberal, Kasino-Kapitalismus etc.“. Man weiß sofort, auf welcher Seite man zu stehen hat.

Der geneigte Leser wird jetzt vielleicht ein paar Argumente erwarten, aber weit gefehlt.

Endlagerung

Dieses Unterkapitel nimmt in diesem „Sondergutachten“ weniger als eine halbe Seite ein. Der einzige Inhalt zur Begründung besteht aus dem Satz:

„Starke Radioaktivität, hohe chemische Toxizität, lang anhaltende Wärmeproduktion und die durch Korrosion und mikrobielle Vorgänge hervorgerufene Gasbildung stellen hohe Anforderungen an das Rückhaltevermögen der Barriereelemente.“

Raten sie mal, was als Quelle für den „weltweiten“ Stand der Forschung zu diesem Komplex angegeben wird? Der Sachverständigenrat für Umweltfragen (SRU 2000). Das ist die Steigerung des Echoraumes, das selbstverliebte Eigenzitat. Von unfreiwilliger Komik ist der sich direkt anschließende Satz:

„Eine Bewertung der langfristigen Sicherheit von Endlagerstandorten muss sich notwendigerweise auf Annahmen und Modellrechnungen stützen. Die Ergebnisse solcher Untersuchungen sind mit umso größeren Unsicherheiten behaftet, je weiter die betrachteten Zeitpunkte in der Zukunft liegen.“

Hoppla! Wie hieß es noch im ersten Satz der Kurzfassung für Entscheidungsträgerglobale Temperaturerhöhung von über 2°Celsius“. Was auch immer eine „globale Temperaturerhöhung“ sein soll, jedenfalls wird diese ebenfalls durch mit Annahmen gefütterte Modellrechnungen bestimmt. Allerdings mit einem kleinen, aber gewichtigen Unterschied: Kein einziges „Klimamodell“ ist in der Lage, die „Klimaverläufe“ der Vergangenheit auch nur annähernd nachzubilden. Demgegenüber stellen die Rechenprogramme der Geologen ihre Brauchbarkeit nahezu täglich unter Beweis: Sonst hätten wir längst kein Öl und kein Erdgas mehr zur Verfügung.

Die letzten zwei Sätze dieses Kapitels geben in einem Zirkelschluss noch einmal den Auftrag wieder:

„Somit ist nicht auszuschließen, dass die Lebensgrundlagen kommender Generationen durch heute eingelagerten radioaktiven Abfall in katastrophalem Ausmaß beschädigt werden. Die Kernenergie ist damit im Sinne der Generationengerechtigkeit und der Risikovorsorge als nicht nachhaltig einzustufen.“

Wenn man — ich bin ausdrücklich kein Jurist — die vorhergehenden Kapitel über den Artikel 20a GG in diesem Sondergutachten gelesen hat, soll damit wohl suggeriert werden, daß die Kernenergie gegen das Grundgesetz verstößt.

Störfallrisiko

Es ist ja nicht so, daß die Kerntechnik keine Erfahrungen mit Störfällen und Unglücken hätte. Sie ist der am stärksten überwachte und durch Vorschriften reglementierte Industriezweig weltweit. Spätestens nach der Katastrophe von Tschernobyl wissen wir, daß die Propaganda der Angstindustrie „Millionen-Tote, für-zehntausende-Jahre-unbewohnbar“ einfach nur ein Märchen ist. Was bitte, ist denn noch denkbar, als ein Reaktor der explodiert, brennt und fast seine ganze Radioaktivität wie ein Vulkan ausspeit? Selbst mehrere Reaktoren wie in Fukushima stellen kein Sicherheitsrisiko für die Bevölkerung dar. Auch an unseren Gutachtern sind diese Tatsachen sicherlich nicht ganz spurlos vorbeigegangen. Sie beschließen dieses Kapitel deshalb lieber etwas schwammig:

„Die Charakterisierung des Risikos mit einer bestimmbaren und niedrigen Eintrittswahrscheinlichkeit sowie einem bestimmbaren und großen Schadensausmaß ist daher nicht mehr zeitgemäß. Vielmehr sind weder die Eintrittswahrscheinlichkeiten noch die möglichen Schadenswirkungen genau bestimmbar. Das Kernenergierisiko ist außerdem gekennzeichnet durch hohe Persistenz, Ubiquität und Irreversibilität“.

Wieder ist die Quelle dieser Aussage der eigene Echoraum: Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU 1998). Aber der Bildungshorizont unserer Gutachter geht natürlich noch viel weiter — man Beachte auch die Quellenangaben in diesem wörtlichen Zitat:

„Das Prinzip der Nachhaltigkeit erfordert Priorität für die Vermeidung solcher Risiken. Wenn die Möglichkeit katastrophaler Auswirkungen existiert, stößt die wissenschaftliche Bewertung der Risiken und Kosten an Grenzen – formale Kosten-Nutzen-Rechnungen sind in einem solchen Fall keine adäquate Grundlage für Abwägungsentscheidungen (vgl. Paul Krugman im New York Times Magazin vom 7. April 2010). Stattdessen muss die Vermeidung von Großrisiken auch bei sehr geringen Eintrittswahrscheinlichkeiten als Nachhaltigkeitskriterium Vorrang haben (Tz. 27). Für die Stromerzeugung sind demnach Technologien vorzuziehen, die technisch realisierbar, wirtschaftlich vertretbar, aber mit deutlich geringeren Sicherheitsrisiken verbunden sind.“

Welche Technologien wohl damit gemeint sind? Etwa die wetterabhängigen Umweltenergien Wind und Sonne? Wo sind die technisch realisierten Speicher gebaut worden? Wie hoch die Kosten für diesen Unsinn sind, kann jeder selbst aus seiner eigenen Stromrechnung nachvollziehen.

Umwelt- und Gesundheitsbelastungen durch den Uranabbau

Allseits bekannt ist ja, daß Deutschland sich immer sehr um fremde Länder sorgt. Neuerdings wollen wir ja sogar Fluchtursachen beseitigen:

„Viele Uranabbaugebiete liegen in Entwicklungsländern und auf dem Gebiet indigener Völker. Die Einhaltung sozialer und Umweltstandards, etwa ein angemessener Schutz der Minenarbeiter, kann für importierte Uranbrennstoffe nur schwer kontrolliert werden.“

Die Generatoren der Windmühlen und die Photovoltaik benötigen große Mengen exotischer Materialien. Wie hoch war doch noch mal der Mindestlohn im Kongo? Wie sah noch mal der Umweltschutz bei der Gewinnung seltener Erden in China aus? Wo wird der Abfall aus der Produktion beseitigt? Auch Windmühlen und Sonnenkollektoren haben nur eine endliche Lebensdauer. Fragen über Fragen…

Verbrauch nicht-erneuerbarer Ressourcen

Man scheut aber auch in dieser Unterrichtung durch die Bundesregierung nicht vor dreisten und dummen Lügen zurück:

„Kernenergie kann aufgrund der Endlichkeit der Ressourcen für Kernbrennstoffe bestenfalls als Übergangstechnologie genutzt werden. Die gängigen Schätzungen gehen davon aus, dass die bekannten Uranreserven die weltweite Versorgung noch für einige Jahrzehnte sicherstellen können…. Insgesamt ist angesichts der begrenzten Uranvorkommen auch der Verbrauch dieser nicht-erneuerbaren Ressource ein Kriterium, das bei der Nachhaltigkeitsbewertung dieser Option berücksichtigt werden muss.“

Kernbrennstoffe werden aus Uran, Plutonium und Thorium hergestellt. Auf der Basis der heutigen weltweiten Energienachfrage ist Uran und Thorium in der Erdkruste und den Weltmeeren für mindestens Zehntausende von Jahren vorhanden. Bestenfalls liegt hier der ewige „Peak-Irrtum“ vor. Die gewinnbaren Rohstoffvorkommen hängen immer von den erzielbaren Preisen und der sich ständig weiter entwickelnden Technik ab. Wegen der außerordentlich hohen Energiefreisetzung bei der Kernspaltung ist die Grenze fast beliebig nach oben ausweitbar.

Abgesehen davon, gilt die Försterweisheit von der Nachhaltigkeit nur dann, wenn man auch tatsächlich den Wald erhalten will. Hätten unsere Vorfahren so gehandelt, müßten wir heute noch auf den Bäumen leben. Niemand kann aber die Zukunft vorhersagen. Deshalb ist das Schonen von Ressourcen bestenfalls anmaßend und zeugt von eindimensionalem Denken oder wie weiland ein Ölminister bemerkte: Die Steinzeit ist nicht aus Mangel an Steinen zu ihrem Ende gekommen.

Kosten

Der Schlußsatz des etwa dreiseitigen Kapitels zur Bewertung der Kernenergie lautet:

„Insgesamt besteht bei der Kernenergie große Unsicherheit hinsichtlich der Kostenentwicklung sowie eine große potenzielle Diskrepanz zwischen den gesellschaftlichen Kosten und den Kosten für die Betreiber. Dass die Kosten langfristig sinken werden, kann als unwahrscheinlich betrachtet werden.“

Kosten sind Kosten. Immer wenn von „externen Kosten“ oder „gesellschaftlichen Kosten“ die Rede ist, versuchen irgendwelche Vulgärmarxisten ein „Marktversagen“ zu konstruieren um ihre unpopulären gesellschaftlichen Vorstellungen durchzudrücken.

Abschließende Betrachtung

Es ist schon so eine Sache mit unserem Grundgesetz: Es wächst und wächst. Teilweise hat es einen bemerkenswerten Detaillierungsgrad erreicht. So hat sich sogar der Tierschutz mit einem eigenen Paragraphen eingeschlichen. Es war sicherlich einfach, für die „niedlichen Welpen“ eine erforderliche Mehrheit zu finden. Wer möchte schon in seinem Wahlkreis als Tierquäler verdächtigt werden. Die meisten Parlamentarier haben wahrscheinlich gar nicht gemerkt, daß es sich dabei um ein Trojanisches Pferd gehandelt hat. Denn viel bedeutender ist die erste Hälfte des Satzes über die Lebensgrundlagen. Der Duden sagt zur Bedeutung des Wortes: Materielle Grundlage, Voraussetzung des Lebens.

Das Gutachten spricht von „abiotischen Elementen wie Luft, Wasser, Böden und auch das Klima“. Was ist mit Flora und Fauna oder mit etwas eher ästhetischem wie Landschaft oder gar den Menschen und ihrem Naturrecht nach Glück zu streben? Das Gutachten geht noch weiter, man schwadroniert von der Lebensgrundlage kommender Generationen, von Generationengerechtigkeit und Risikovorsorge. Am besten gefällt mir die Generationengerechtigkeit als Staatsziel. Ich dachte bisher, die Parlamentarier hätten sich im Zusammenhang mit der Rentenfrage bereits daran abgearbeitet. Man verzeih mir als einfachem Ingenieur, daß ich mir wenig unter einer „generationengerechten Stromversorgung“ vorstellen kann.

Je länger ich mich mit diesem Machwerk beschäftigt habe, komme ich zu dem Schluß, daß es hier nur um die Durchsetzung einer ganz bestimmten — allenfalls laienhaften — Vorstellung über eine Energieversorgung geht. Wenn nicht sogar um schlimmeres. Vordergründig geht es um den „Atomausstieg“, längerfristig um die „große Transformation“. Wohin eigentlich genau: Bloß in Maos „Großen Sprung“ oder gleich in die steinzeitkommunistischen Utopien des „Bruder Nummer Eins“?

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Der LFTR – ein Reaktor mit Salzbad

Immer massiver wird für ein völlig neuartiges Reaktorkonzept geworben, den Liquid-Fluorid Thorium Reactor (LFTR). Dieses Konzept bricht radikal mit den Prinzipien der heutigen Leichtwasserreaktoren: Thorium in der Form als Salz für Brennstoff und Kühlmittel und integrierte Wiederaufbereitung.

Warum Thorium?

Thorium und Uran sind die einzigen in der Natur vorkommenden Elemente zur Gewinnung von Energie durch Kernspaltung. Thorium kommt etwa vier mal häufiger vor und ist wesentlich gleichmäßiger verteilt. Es gibt bereits große Mengen als Abfall aus der Gewinnung seltener Erden. In Indien und Brasilien gibt es ganze Strände, die aus thoriumhaltigem Sand bestehen. Eine verlockende zusätzliche und nahezu unerschöpfliche Energiequelle. Uran und Thorium zusammen, könnten den gesamten Energieverbrauch der Menschheit mindestens für Jahrtausende decken.

Aus Thorium läßt sich – anders als aus natürlichem Uran – kein Reaktor mit einer sich selbst erhaltenden Kettenreaktion bauen. Man muß das Thorium zuerst in Uran umwandeln. Dieser „Brutprozess“ soll in in dem LFTR-Reaktor integriert werden. Um eine optimale Ausbeute zu erhalten, soll es jeweils einen „Brutkreislauf“ (in dem Thorium in Uran umgewandelt wird) und einen „Spaltkreislauf“ (in dem die gewünschte Energieerzeugung stattfindet) in dem Reaktor geben. Wenn ein Thorium-232-Kern ein Neutron einfängt, bildet sich Thorium-233. Dieses zerfällt mit einer Halbwertszeit von knapp 22 Minuten in Protactinium-233 und anschließend erst mit einer Halbwertszeit von 27 Tagen in Uran-233. Mit anderen Worten, erst nach rund einem Jahr ist die (nahezu vollständige) Umwandlung von Thorium in ein brauchbares Spaltmaterial erfolgt. In dieser Zeit, sollten die Zwischenprodukte keinen weiteren Neutronen ausgesetzt sein, da sich sonst unerwünschte Elemente bilden könnten.

Thorium hat im Gegensatz zu Uran nur etwa 232 anstelle von 238 Protonen und Neutronen in seinem Kern. Da immer nur ein Neutron eingefangen werden kann, dauert es bei Thorium wesentlich länger und ist wesentlich unwahrscheinlicher, bis sich „überschwere“ Kerne gebildet haben. Genau diese Kerne (z. B. Plutonium, Americium, Curium usw.) sind aber für die Langlebigkeit von „Atommüll“ verantwortlich. Entstehen sie erst gar nicht, ist der „Atommüll“ relativ harmlos und seine technische Lagerung bis zum (nahezu) vollständigen Zerfall reduziert sich auf Jahrzehnte bis Jahrhunderte.

Warum Salzschmelze als Betriebsmittel?

Man kann Thorium auch in anderen Reaktorkonzepten (Kugelhaufen-, Schwerwasserreaktoren etc.) nutzen. Umgekehrt kann man auch bei Salzschmelzen Uran oder Plutonium einsetzen. Es muß also noch andere Gründe geben.

Ein Alleinstellungsmerkmal des LFTR ist die integrierte Wiederaufbereitung. Nur bei der ersten Beladung muß Spaltstoff aus anderen Quellen hinzugefügt werden. Ist der Reaktor erst einmal im Gleichgewicht, wird nur noch Thorium dem Brutkreislauf hinzugefügt und Spaltstoffe aus dem Spaltungskreislauf abgezogen. Wegen der geringen Mengen wird eine Lagerung auf dem Gelände des Kraftwerks vorgeschlagen. Später kann dann über eine etwaige Endlagerung entschieden werden. Da die Spaltstoffe recht kurzlebig sind und (langlebige) Aktinoide praktisch nicht im Abfall vorhanden sind, erscheint eine industrielle Nutzung (Abklingzeit je nach Verwendungszweck) eher wahrscheinlich.

Grundsätzlich kann man den Brennstoff in fester Form in Brennelemente einschließen oder in einer Flüssigkeit auflösen. Im ersten Fall müssen die Brennelemente durch eine Flüssigkeit oder ein Gas gekühlt werden. Im zweiten Fall erhitzt sich die Flüssigkeit infolge der Kernspaltung und kann durch einen Wärmeübertrager gepumpt werden, in dem sie ihre Energie an ein Arbeitsmedium bzw. ein Kühlmittel abgibt. So gesehen, besteht kein großer Unterschied zwischen beiden Systemen. Bei Brennelementen muß der gesamte Spaltstoff für die gesamte Betriebszeit des Brennelementes schon am Anfang in dieses eingebracht werden (Überschußreaktivität) und umgekehrt enthalten sie beim Ausladen alle Spaltprodukte der vollständigen Betriebsdauer. Bei flüssigem Brennstoff kann dieser kontinuierlich gereinigt werden. Bei einem schweren Störfall (z. B. Fukushima) braucht man auch nur von der Freisetzung einer kleinen Menge auszugehen. Das kann einen entscheidenden Sicherheitsgewinn bedeuten.

Mit Salzschmelzen kann man hohe Temperaturen erreichen und bleibt trotzdem auch bei geringem Druck noch weit vom Siedepunkt entfernt. Die oft als Argument angegebene „Drucklosigkeit“ ist aber etwas übertrieben. Schließlich muß das Salz beständig durch die (engen) Kanäle des Kerns hindurch gepumpt werden. Der Druckverlust ist erheblich, sodaß man beim LFTR von einem erforderlichen Druck hinter der Pumpe von 11 bar ausgeht.

Fluoride als Salz für Brennstoff und Brutstoff

Als besonders geeignet hat sich ein Salz der Zusammensetzung 2*LiF2 – BeF2 – XF4 herausgestellt. Lithium (Li) und Beryllium (Be) bilden das Grundgerüst, in dem Uran-233 (X) bzw. Thorium-232 (X) in der erforderlichen Menge gelöst sind. Diese Stoffe sind nicht ganz unproblematisch:

  • Lithium kommt in der Natur in den Isotopen Li-6 (7,4%) und Li-7 (92,6%) vor. Li-6 ist ein starkes Neutronengift. Wenn es ein Neutron einfängt, bildet sich radioaktives Tritium. Es kann als Wasserstoff explosive Gase bilden, die nach der Reaktion mit Sauerstoff zu „radioaktivem“ Wasser führen. Alles unerfreuliche Nebeneffekte. Man verwendet daher abgereichertes Lithium, das aber recht teuer ist.
  • Beryllium und auch Berylliumfluorid sind sehr giftig und werden als krebserregend eingestuft. Wenn es ein Neutron einfängt, bildet es Helium und setzt dabei zwei Neutronen frei. Es wirkt dabei sowohl als Moderator, wie auch als Neutronenvervielfacher.
  • Fluor und Fluorwasserstoff sind gasförmig und sehr giftig. Fluor ist äußerst reaktionsfreudig und geht mit fast allen Elementen stabile chemische Verbindungen ein. Mit Wasserstoff reagiert es letztendlich zu Flußsäure, die sogar Glas ätzt.

Die Lithium-Beryllium-Salze sind zwar chemisch sehr beständig, haben einen hohen Verdampfungspunkt und man hat vielfache praktische Erfahrungen mit ihnen in der chemischen Industrie. In einem Kernreaktor ist aber besonders, daß mit jeder Kernspaltung auch die chemische Verbindung zerstört wird und neue chemische Elemente in Form der Spaltprodukte entstehen. Man hat es deshalb stets auch mit elementarem Fluor zu tun, der auch gern mit dem Strukturmaterial reagieren kann. Ferner muß man für die Wiederaufbereitung ständig mit Fluor und Beryllium umgehen, um neues „Brennstoff- und Brutsalz“ zu bilden. Ähnliches gilt am anderen Ende des Prozesses bei der Abscheidung der Spaltprodukte. Hier muß noch eine Menge Entwicklungsarbeit geleistet werden und unbedingt Erfahrungen bei einer großtechnischen Anwendung im Alltagsbetrieb gewonnen werden.

Da Fluoride sehr reaktionsfreudig sind, reagieren sie auch mit dem größten Teil der Spaltprodukte und binden diese sicher ein. Es gibt aber zwei Ausnahmen: Edelmetalle und Edelgase. Die Edelmetalle lagern sich innerhalb der Anlage ab und führen zu „Verschmutzungen“, die man regelmäßig und aufwendig wird entfernen müssen. Die Edelgase müssen durch Helium ständig aus dem Salz herausgespült werden.

Der Aufbau des LFTR-Kraftwerks

Aus Thorium läßt sich sehr gut Uran-233 mit thermischen Neutronen erbrüten. Für die Spaltung sind thermische Neutronen ohnehin besser geeignet. Da selbst das enthaltene Beryllium nicht zur entsprechenden Abbremsung ausreicht, ist Kohlenstoff als Moderator vorgesehen. Damit kommt man zu der bekannten Struktur aus Graphitblöcken, die von Kanälen für die Salze und Einbauten durchzogen sind. Ein Bauprinzip, das schon bei den englischen Gasreaktoren und den russischen Reaktoren vom „Typ Tschernobyl“ nicht unbedingt überzeugt hat. Das Graphit wird von der Salzschmelze lediglich benetzt. Nach kurzer Zeit werden die Poren des Graphits vom Salz so verstopft, daß keine Spaltprodukte in das Graphit einziehen. Graphit verändert jedoch durch den Neutronenbeschuß seine Geometrie. Infolge der jahrzehntelangen Erfahrungen mit gasgekühlten Reaktoren in GB kann man dieses Phänomen inzwischen gut vorausberechnen und beherrschen.

Wegen der bereits beschriebenen Reaktionskette: Thorium über Protactinium zu Uran-233, hält man Brutstoff (sog. blanket salt) und Brennstoff (sog. fuel salt) fein säuberlich in zwei Flüssigkeitskreisläufen getrennt. Man will aus dem Thorium möglichst reines Uran-233 erbrüten. Insofern macht es keinen Sinn, das Protactinium oder das Uran-233 weiterem Neutronenbeschuß auszusetzen. Der Brutkreislauf soll keine Wärme produzieren, die Spaltung soll erst im Brennstoffkreislauf stattfinden. Gleichwohl setzt der Zerfall des Th-233 (geringe Halbwertszeit von 22 Minuten) beträchtliche Energie frei und es läßt sich nicht chemisch abtrennen. Der Brutkreislauf muß deshalb über eine geeignete Notkühlung verfügen.

Wegen der Trennung zwischen Brut- und Spaltkreislauf ergibt sich eine recht komplexe Reaktivitätssteuerung. Man kann die Reaktivität erhöhen, indem man die Urankonzentration im Spaltkreislauf erhöht. Dies kann zwar nur langsam, aber kontinuierlich geschehen. Der Brutkreislauf „verschluckt“ laufend Neutronen, wodurch er wie ein großer Regelstab wirkt. Deshalb ist bei diesem Reaktorkonzept der Verlust der Salzschmelze im Brutbereich, ein wichtiger Auslegungsstörfall. Zur Feinregulierung und Schnellabschaltung sind zusätzliche Regelstäbe notwendig. Diese sollen auf den Salzschmelzen schwimmen, sodaß sie bei einem Leck automatisch in den Reaktor einsinken. Weiterhin sind auch mit Gas gefüllte Kanäle zur Regelung vorgesehen. Über den Gasdruck kann damit das Salzvolumen und damit die Reaktivität gesteuert werden.

Der gesamte Kern, mit all seinen Einbauten befindet sich in einem Tank aus Hastelloy N. Einer Legierung die zu 94% aus Nickel, Chrom und Molybdän besteht. Diese Legierung wurde an den Oak Ridge National Laboratories für den Einsatz bei Fluorsalzen entwickelt. Dies dürfte der Werkstoff der Wahl für solche Reaktoren sein, da heiße Fluorsalze sehr korrosiv wirken können.

Die Salzschmelze wird permanent durch den Reaktor und einen Wärmeübertrager gepumpt. Im Kern werden die Neutronen im Graphit abgebremst. Nur hier, in diesem Bereich, kann eine selbsterhaltende Kettenreaktion stattfinden. Durch die Kernspaltungen erwärmt sich das Salz entsprechend. Diese Wärme wird in dem Wärmeübertrager an das Salz des Sekundärkreislaufes übertragen. Der Primärkreislauf ist durch einen gefrorenen Pfropfen in der Leitung zu dem Sicherheits-Lagertank getrennt. Dieser Pfropfen wird im Betrieb ständig gekühlt. Tritt eine Überhitzung im Reaktor ein, schmilzt er und gibt dadurch den Weg in den Tank frei. Im Tank bricht die Kettenreaktion sofort zusammen. Hier entsteht nur noch die Nachzerfallswärme, die wegen der permanenten Aufbereitung viel geringer als in herkömmlichen Leichtwasserreaktoren ist. Sie kann leicht über (z. B.) die Oberfläche des Tanks an die Umgebung abgegeben werden. Umgekehrt muß eine Heizung vorhanden sein, die das Salz aufschmelzen kann.

Das Arbeitsmedium

Zwischen dem Primärkreislauf des Reaktors und dem Arbeitsmedium befindet sich ein Sekundärkreislauf aus Salzschmelze. Dieser hat zwei entscheidende Sicherheitsfunktionen:

  • Das Arbeitsmedium CO2 steht unter einem Druck von etwa 200 bar. Bei einer Leckage im Wärmeübertrager steigt der Druck zwar im Sekundärkreislauf stark an, aber nicht im Reaktor. Er ist durch Sicherheitseinrichtungen abgesichert. Das austretende Salz ist kaum radioaktiv.
  • Die Wärmeübertragung zwischen zwei Salzströmen ist sehr gut. Der reaktorseitige Wärmeübertrager kann damit klein ausfallen und damit auch das Volumen an Spaltstoff und Spaltprodukten im Reaktor.

Bisher hat man bei allen Kernkraftwerken (und konventionellen Kraftwerken) einen Dampfkreislauf mit Dampfturbine und Kondensator zur Umwandlung von Wärme in mechanische Energie verwendet. Beim LFTR ist das anders: Hier will man einen geschlossenen Gasturbinenkreislauf (Turbineneintritt: 550 °C, 198 bar; Turbinenaustritt: 440 °C, 79 bar) mit überkritischem CO2 verwenden. Die Turbine treibt neben dem Generator zur Stromerzeugung zwei Verdichter zur Druckerzeugung an. Das Abgas der Turbine wird benutzt um den Gasstrom vor dem Eintritt in den Salz/Gas-Wärmeübertrager vorzuwärmen. Durch diese sog. „regenerative Vorwärmung“ verbessert sich der Wirkungsgrad ganz erheblich. Der Wirkungsgrad des LFTR soll auch bei trockener Luftkühlung über 40% betragen. Ein Vorteil für trockene Landstriche.

Als Hauptgrund für die Abkehr von Wasser als Arbeitsmedium, wird die relativ hohe Produktion von Tritium bei diesem Reaktorkonzept genannt. Reagiert es mit Sauerstoff, ergibt sich „radioaktives Wasser“, welches sich praktisch immer mehr im Wasserkreislauf (Halbwertszeit 12,3 Jahre) anreichern würde. Hingegen ist es relativ einfach, dieses Wasser aus dem CO2. zu entfernen.

Die Chemiefabrik im Kraftwerk

Der LFTR ist ein Brutreaktor mit integrierter Aufbereitung. Es ist nicht einfach ein Kernkraftwerk, das mit Thorium betrieben wird. Das Konzept des flüssigen Brennstoffs (Salzschmelze) erfordert eine kontinuierliche Entfernung der Spaltprodukte und eine kontinuierliche Zuführung von frischem Brutmaterial (Thorium) und Spaltstoff (erbrütetes Uran-233).

Aus dem Brutkreislauf wird kontinuierlich das Protactinium und das Uran-233 abgeschieden. Zu diesem Zweck wird flüssiges Wismut, in dem metallisches Thorium und Lithium gelöst sind, mit einem Teilstrom des Brutmaterials vermischt. Chemisch betrachtet (reductive extraction), „tauschen“ Thorium und Lithium mit dem Protactinium und Uran die Plätze. Das nun gereinigte Salz, wird mit Thorium und Lithium ergänzt dem Reaktor wieder zugeführt.

Das Wismut wir in einem weiteren Schritt wieder „gereinigt“, in dem alle in ihm gelösten Metalle elektrolytisch oxidiert werden. Sie werden einem Lagertank zugeführt, in dem weiterhin Protactinium (Halbwertszeit 27 Tage) zu Uran zerfallen kann. Das so gereinigte Wismut wird in einer weiteren Zelle elektrolytisch reduziert und der Waschkolonne für das Brutmaterial erneut zugeführt.

Der Strom aus dem Lagertank, wird in einem weiteren Verfahrensschritt mit gasförmigem Fluor in Kontakt gebracht. Hierdurch bildet sich gasförmiges Uranhexafluorid, das so leicht abgezogen werden kann. Die Restflüssigkeit wird an geeigneter Stelle dem vorher beschriebenen Kreislauf wieder zugeführt.

Das Uranhexafluorid wir in einem weiteren Verfahrensschritt mit Wasserstoff reduziert, damit es anschließend dem Brennstoffkreislauf des Reaktors zugeführt werden kann.

Ähnlich muß auch das Brennstoffsalz behandelt werden. Ein Teilstrom wird abgezogen und einem Tank zugeführt, in dem die besonders kurzlebigen Spaltprodukte schon mal vorab zerfallen können. Dies senkt die radioaktive Strahlung in der „Chemiefabrik“ ganz beträchtlich. Anschließend wird mit gasförmigem Fluor Uranhexafluorid gebildet, welches relativ einfach abgeschieden werden kann. Es wird mit dem vorher beschriebenem Strom aus der Aufbereitung des Brutmaterials zusammengeführt.

Das so behandelte Brennstoffsalz wird mit in Wismut gelöstem Lithium reduziert und so von den Spaltprodukten befreit. Die Spaltprodukte haben die Plätze des Lithium in der Metallschmelze eingenommen und das Lithium ist in der Form von Lithiumfluorid an das Brennstoffsalz übergegangen. Die Spaltprodukte müssen wieder aus dem Wismut abgeschieden werden und in eine sicher lagerfähige Form überführt werden.

Die chemischen Prozesse sind hier nur sehr grob beschrieben worden. Sie sind recht komplex und bedürfen noch einer umfangreichen Entwicklungsarbeit bis sie großtechnisch und im Alltagsbetrieb zuverlässig anwendbar sind. Sie sind keinesfalls einfacher als das Purex-Verfahren – nur eben ganz neu. Unter den speziellen Randbedingungen der Kerntechnik, wird man realistisch von Jahrzehnten ausgehen müssen.

Die Abgasstrecke

Bei der Kernspaltung entstehen zahlreiche Gase und Edelgase. Bisher ging man davon aus, diese möglichst lange und sicher in den Brennstäben einzuschließen. Sie sollten erst nach vielen Jahren in der Wiederaufbereitungsanlage kontrolliert austreten. Bei einer Salzschmelze ist dies gar nicht möglich. Die Edelgase gehen auch keine chemische Verbindung ein, sondern verlassen an irgendeiner ungewünschten Stelle das Salz.

Es ist daher geplant, einen Teilstrom der Salzschmelze mit Helium zu durchspülen. Die radioaktiven Gase gehen dabei in das Helium über. Dieser Abgasstrom soll in einer Absorptionsstrecke (gekühlte Aktivkohle) 47 Stunden gehalten werden, bevor er erneut zur Spülung eingesetzt wird. Ein Teilstrom wird für 90 Tage gelagert, damit das radioaktive Xenon und Krypton – mit Ausnahme von Kr-85 mit einer Halbwertszeit von 10,7 Jahren – zerfallen kann. Anschließend wird das Gas durch Abkühlung verflüssigt und in Xenon (Handelsprodukt), Krypton (zur weiteren Lagerung) und Helium (zur Wiederverwendung) getrennt.

Schlusswort

Die „Molten-Salt“-Reaktoren stellen ein weiteres vielversprechendes Reaktorkonzept dar. Ihre Vorteile liegen in der hohen Betriebstemperatur bei geringem Druck und der eleganten Erschließung einer weiteren Energiequelle, in der Form von Thorium. Allerdings sind beide Punkte keine „Killerapplikation“: Hohe Temperaturen werden nur in der industriellen Anwendung benötigt. Zur Stromproduktion – und das ist bis auf weiteres die Domäne der Kerntechnik – sind sie nicht zwingend erforderlich. Thorium läßt sich auch in anderen, bereits erprobten Reaktoren (THTR, Candu) nutzen.

Unter den politischen Bedingungen der Kerntechnik, dürfte die Entwicklung bis zur Serienreife, noch mehrere Jahrzehnte dauern. Es ist fraglich, ob sich ein Energieversorger finden dürfte, der das damit verbundene Risiko auf sich nehmen wollte. Auch die „Chemiefabrik“ in der eigenen Regie, dürfte eher abstoßend wirken. Gleichwohl, wird die Entwicklung in USA und China im Moment eher beschleunigt vorangetrieben.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.