Nukleare Fernwärme

Neuerdings rückt die Kerntechnik wieder in den Zusammenhang mit „Luftverbesserung“. Besonders in China wird über den Ersatz von Kohle nachgedacht.

Der Raumwärmebedarf

Die Heizung bzw. Kühlung von Gebäuden wird oft unterschätzt. Alle reden von Verkehr und Stromerzeugung. In Wirklichkeit werden aber ein Viertel bis ein Drittel des gesamten Energieverbrauches für unsere Gebäude benötigt. Unter dem Gesichtspunkt von Luftschadstoffen (z. B. Stickoxide, Feinstaub etc.) ist besonders problematisch, daß die Energiewandlung unmittelbar in unseren Städten stattfindet und das auch noch in unzähligen Einzelfeuerstätten (hiermit sind auch die „Zentralheizungen“ gemeint). Die einzelnen Heizkessel – oder gar Holzöfen – können keine kontrollierte Verbrennung gewährleisten oder gar eine Rauchgaswäsche benutzen. Zudem werden ihre Abgase in geringer Höhe flächig abgegeben. Eine hohe Luftbelastung gerade in Ballungsgebieten ist die Folge. Eine Erkenntnis, die schon unsere Urgroßväter hatten. Man begann deshalb schon Ende des 19. Jahrhunderts mit dem Bau zentraler Heizwerke.

Das Wärmenetz

Die angestrebte Raumtemperatur liegt bei etwa 20 °C. Es ist also ausgesprochene „Niedertemperaturwärme“. Hinzu kommt noch ein ganzjähriger Brauchwasserbedarf mit etwa 60 °C (Legionellen). Will man auch Kaltwasser für Klimaanlagen damit erzeugen, ist eine Temperatur von 130°C (Absorptions-Kälteanlagen) zu empfehlen. Damit ergeben sich schon die Randbedingungen für ein Rohrleitungsnetz.

Die Strömungsgeschwindigkeit ist begrenzt. Somit hängt die transportierbare Wärmeleistung von dem verwendeten Rohrdurchmesser und der Temperaturspreizung zwischen Vor- und Rücklauf ab. Alles eine Kostenfrage. Hat man sehr hohe Leistungen pro Grundstück (z. B. Hochhäuser in Manhattan) und dazu noch beengte Straßenverhältnisse, bleibt sogar nur Dampf als Transportmedium übrig. Zumindest in Deutschland hat sich eine maximale Vorlauftemperatur im Netz von 130 °C bis 150 °C als optimal erwiesen. Die Vorlauftemperatur im Netz wird proportional zur Außentemperatur geregelt. In manchen Regionen hat man noch ein drittes Rohr als „Konstantleiter“, an dem die Brauchwasserbereiter und die Klimaanlagen angeschlossen sind. Dadurch kann man im Sommer den Heizungsvorlauf komplett abstellen. Alles eine Frage der vorhandenen Bausubstanz.

Heizwerk oder Kraftwärmekopplung

Das Problem ist, daß das gesamte System für die maximale Leistung (kältester Tag in einer Region) ausgelegt sein muß. Diese tritt aber nur an wenigen Tagen auf. Die ohnehin hohen Kapitalkosten führen zu hohen Fixkosten, die wegen der geringen Anzahl von Vollbenutzungsstunden zu vergleichsweise hohen spezifischen Heizkosten führen. Als einzige Stellschraube bleiben die Brennstoffkosten.

Man ist deshalb schon frühzeitig auf die Idee gekommen, Kraftwerke mitten in den Städten zu bauen, um die Leitungskosten (Strom und Wärme) gering zu halten. Die Kraftwerke liefen auch als Kraftwerke und haben das ganze Jahr über elektrische Energie erzeugt. Sie haben ihre Kosten über die Stromproduktion eingespielt. Zusätzlich zu den normalen Kondensatoren hat man noch „Heizkondensatoren“ als Quelle für das Fernwärmenetz eingebaut. In diesen Heizkondensatoren wurde ein Teil des Dampfes (in Abhängigkeit von der Außentemperatur) zur Beheizung niedergeschlagen. Da dieser Dampf nicht mehr vollständig seine Arbeit in der Turbine verrichten konnte, ging die Stromproduktion etwas zurück. Dieser Rückgang wurde dem Kraftwerk vom Fernwärmenetzbetreiber vergütet. Es war quasi dessen „Brennstoffpreis“.

Zusätzlich hatte man auch immer schon reine Heizwerke, die nur Wärme für die Fernwärme erzeugt haben. Die geringen Kapitalkosten eines solchen „Warmwasserkessels“ lohnten sich schon immer als Reserve oder zur Spitzenlasterzeugung an wenigen Tagen eines Jahres.

Die nukleare Heizung

Soweit zur Fernwärme im Allgemeinen. Jetzt zu der Frage, was eine Umstellung auf Kernspaltung bringen kann. Der Brennstoffpreis des Urans ist konkurrenzlos gering. Geringer noch als Kohle. Es gibt fast keine Belastung durch Transporte (Kohle, Asche, Heizöl etc.). Es gibt keine Luftbelastung durch Abgase. Es besteht eine enorm hohe Versorgungssicherheit und Preisstabilität (Heizkosten als „zweite Miete“). Dagegen spricht eigentlich nur „die Angst vor dem Atom“. Diese ist aber zum Glück unterschiedlich ausgeprägt. Man kann sie sogar noch beträchtlich verringern. Um die notwendigen technischen Aspekte wird es im Weiteren gehen.

Kernkraftwerke als Wärmequelle

Technisch gesehen, besteht kein Unterschied zwischen einem Kernkraftwerk und einem fossilen Kraftwerk. Man könnte problemlos z. B. ein Kohlekraftwerke durch ein Kernkraftwerk ersetzen. Es gibt aber ein juristisches Hindernis: Das Genehmigungsverfahren. Bisher muß man immer noch davon ausgehen, daß es schwere Störfälle gibt (z. B. Fukushima), die einen Teil der Radioaktivität austreten läßt und somit die unmittelbare Umgebung belasten könnte. Dafür ist der Nachweis von Evakuierungszonen und Plänen notwendig. Spätestens seit Fukushima weiß man zwar, daß die Annahmen über Freisetzungsraten viel zu konservativ waren, aber das tut der Argumentation der Angstindustrie keinen Abbruch. Die jahrzehntelange Gehirnwäsche „Millionen-Tote, zehntausend-Jahre-unbewohnbar“ hat sich zumindest in den Industrieländern festgesetzt.

Will man Kernkraftwerke in Ballungsgebieten bauen, müssen neue Reaktortypen her, die als „inhärent sicher“ betrachtet werden. Außerdem empfiehlt es sich, kleinere Reaktoren (SMR) zu bauen, um zu lange Rohrleitungen (Kosten und Wärmeverluste) zu vermeiden. Gerade in den letzten Wochen wurde in diesem Sinne ein Durchbruch erzielt: Die US-Genehmigungsbehörde hat dem Reaktor der Firma NuScale bescheinigt, daß er ohne elektrische Hilfsenergie auch bei schwersten Störfällen auskommt. Es handelt sich um einen kleinen (50 MWel) Reaktor, der selbst in einem wassergefüllten Becken steht. Er ist also stets von ausreichend Kühlwasser umgeben. Alle Einbauten (Druckhaltung, Dampferzeuger etc.) befinden sich im Druckgefäß (keine Rohrleitungen), das von einem Containment nach dem Prinzip einer Thermosflasche umgeben ist. Er benötigt keine Pumpen zur „Notkühlung“, da er schon im Normalbetrieb ausschließlich im Naturumlauf (warmes Wasser steigt auf und sinkt nach der Abkühlung wieder in den Reaktorkern zurück) funktioniert. Ein solches Kernkraftwerk bietet ein geringeres Risiko für seine Nachbarn, als jedes Gas- oder Ölkraftwerk. Genau solche Kraftwerke befinden sich aber zahlreich mitten in deutschen Großstädten. Seit Jahrzehnten lebt ihre Nachbarschaft relativ angstfrei damit – Geräusche und Abgase inbegriffen.

Den deutschen „Grün-Wähler“ wird das alles nicht überzeugen. Er ist unerschütterlich in seinem Öko-Glauben. Warum auch nicht? Man diskutiert ja auch nicht mit einem Katholiken über die unbefleckte Empfängnis der Jungfrau Maria oder mit einem Hindu über die Heiligkeit von Kühen. In den Weiten Sibiriens wird die Kernenergie schon heute positiv bewertet. In ähnlichen Regionen Kanadas und den USA wird sie aus gleichen Gründen (Versorgungssicherheit auch bei -40 °C) ernsthaft in Erwägung gezogen. In den bevölkerungsreichen Metropolen Chinas steht die Luftverschmutzung im Vordergrund. Die reale Gefahr von Lungenkrebs und Herz- Kreislauferkrankungen durch Smog wird dort gegen die eingebildete „Strahlengefahr“ abgewogen. Selbst im Großraum Helsinki prüft man den Ersatz der fossilen Fernheizwerke durch Kernenergie. Sonne geht gar nicht und Wind nur sehr eingeschränkt in diesen nördlichen Breiten.

Nukleare Heizwerke

Seit Anbeginn der Kernkraftnutzung gab es die Idee von reinen Heizwerken. Die reine Wärmeproduktion kann einige Vorteile haben: Schließlich verbrennt man ja auch Gas in einem einfachen Heizkessel und setzt nicht alles Gas in „rotierenden Öfen“ (Blockheizkraftwerk) zur gleichzeitigen Stromerzeugung ein. Schon nach den „Ölkrisen“ der 1970er Jahre, setzte sich z. B. der Schweizer Professor Seifritz für ein solches Konzept ein. Er ging damals von der Verwendung erprobter Komponenten aus Kernkraftwerken (Druckbehälter, Brennelemente etc.) zum Bau eines abgespeckten Heizreaktors aus. Durch die „Überdimensionierung“ erhoffte er sich einen zusätzlichen Sicherheitsgewinn, der zu einer Akzeptanz bei der Politik führen würde. Die Grundüberlegung ist noch heute so gültig, wie vor nunmehr 50 Jahren: Ersatz fossiler Brennstoffe durch Uran. Damals wie heute, standen der Ölpreis und die Luftverschmutzung in den Städten im Vordergrund.

Um den Ansatz von Professor Seifritz zu verstehen, ist etwas Physik notwendig. Ein typischer Druckwasserreaktor eines Kernkraftwerks hat eine Wärmeleistung von etwa 4000 MWth. Viel zu viel für ein Fernheizwerk. Geht man aber mit der Leistung um mehr als eine Größenordnung runter – läßt den Reaktor quasi nur im Leerlauf laufen – hat man einen entsprechenden Sicherheitsgewinn in allen Parametern. Bis überhaupt die Betriebszustände eines – zigfach erprobten – Druckwasserreaktors erreicht werden, müßte eine Menge schief gehen. Man hätte genug Zeit den Reaktor abzustellen.

Bei einer so geringen Leistung, könnte man handelsübliche Brennelemente viel länger im Reaktor belassen bis sie „abgebrannt“ wären (Versorgungssicherheit, Preisstabilität etc.).

Ein Druckwasserreaktor in einem Kernkraftwerk arbeitet mit einem Betriebsdruck von etwa 155 bar und einer Wassertemperatur von etwa 325 °C. Beides recht ordentliche Werte. Wie sehe es bei einem Heizreaktor aus? Gehen wir von einer Vorlauftemperatur im Netz von 150 °C aus (Einsatz von Absorptionsanlagen zur Klimatisierung um das Netz auch im Sommer besser auszulasten). Damit das Wasser noch flüssig bleibt und nicht verdampft ist ein Betriebsdruck von mindestens 5 bar nötig. Geben wir noch mal 30 °C als treibende Temperaturdifferenz für die Wärmeübertrager im Heizreaktor drauf, kommen wir auf eine Betriebstemperatur von 180 °C. Dafür ist ein Betriebsdruck von mindestens 10 bar nötig. Ein beträchtlicher Sicherheitsgewinn.. Vor allen Dingen entfallen alle Hochdruck-Sicherheitseinrichtungen: Was man nicht hat, kann auch nicht kaputt gehen.

Noch eleganter erscheint ein Heizreaktor auf der Basis eines Siedewasserreaktors. Man bräuchte – da keine Turbine vorhanden ist – auch keinerlei Einbauten zur Dampftrocknung und keine Umwälzpumpen. Einfacher und sicherer geht nicht.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

Nachbemerkung

Fernheizungsnetze erfordern sehr hohe Investitionen, haben dafür kaum Betriebskosten und halten Jahrzehnte. Sie sind somit anderen Infrastrukturen, wie Trinkwasser- und Abwassernetzen sehr ähnlich. Gleichwohl gibt es schon heute weltweit unzählige Fernwärmenetze, die kontinuierlich erweitert werden. Der Markt für Wärmeerzeuger ist somit gewaltig. Auch die in Deutschland so beliebte „Plastikverpackung“ von Neubauten tut dem keinen Abbruch. Was braucht man also, um eine solche Entwicklung zu fördern?

  • Man benötigt möglichst kleine Heizreaktoren. Die Netzkosten fressen sonst sehr schnell etwaige Kosteneinsparungen bei den Reaktoren auf.
  • Die Reaktoren müssen sehr einfach und robust sein. Sie müssen standardisiert sein und in großen Stückzahlen in Fabriken hergestellt werden.
  • Es sollte weitgehend auf genehmigte Verfahren und Bauteile aus der Kernkraftwerkstechnik zurückgegriffen werden. Nur so kann man die kostspieligen und langwierigen Genehmigungsverfahren in den Griff bekommen.
  • Die Reaktoren müssen inhärent sicher sein und vollautomatisch betrieben werden können.
  • Sie müssen komplett und ständig fernüberwacht werden.
  • Die Anforderungen an Umgebung und Personal müssen vor Beginn des ersten Projekts neu definiert, öffentlich diskutiert und rechtssicher verabschiedet sein.
  • Bei jedem Standort müssen die Anwohner frühzeitig einbezogen werden. Nur durch Aufklärung kann man die einschlägige Angstindustrie und ihre Kumpane aus der Politik abwehren. Skandinavien und Frankreich bieten hierfür zahlreiche Beispiele und erprobte Vorgehensweisen.

Manchem mag das alles phantastisch vorkommen. Nur, ist die Diskussion nicht nur in China losgetreten worden. Sie läuft bereits auch in Osteuropa und Skandinavien. Es mag in Deutschland noch ein paar Jahre dauern, aber dann wird die Mehrheit der Bevölkerung erkennen, wie sie systematisch von Politikern und Schlangenölverkäufern mit der „Energiewende“ betrogen worden ist. Ist dieser Punkt erst erreicht, wird das Pendel ruckartig in seine alte Lage zurückkehren.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Kohle, Gas, Öl, Kernenergie? – Teil 2

Neben den fossilen Energieträgern wird auch in der Zukunft weltweit die Kernenergie einen steigenden Anteil übernehmen. Wem das als eine gewagte Aussage erscheint, sollte dringend weiterlesen, damit er nicht eines Tages überrascht wird.

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von „Energieeffizienz“ ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein „Gutmensch“ in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen „VW-Käfer“ auf den Motor mit Katalysator, vom „hohen Schornstein“ auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.

Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an „Strahlengefahr“ denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der „Atomstromverbraucher“ wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.

Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. „Red book“, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

  • Wieviel Kernkraftwerke sind in Betrieb,
  • welche Reaktortypen werden eingesetzt,
  • welche Anreicherungsverfahren zu welchen Betriebskosten und
  • wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im „Red book“ geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?

Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über U235 einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel. pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen U235 und U238 wird die Konzentration von U235 im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von U235erhöht hat, hat er sich natürlich im „Abfallstrom“ entsprechend verringert. Das „tails assay“, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% U235.. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).

Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine „Wiederanreicherung“ könnte man fast 500.000 to „Natururan“ erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% U235 etwa 420.000 to künstlich hergestelltes „Natururan“ und einen neuen „Abfallstrom“ von 1.080.000 to tails assay mit 0,14% U235.. Man sieht also, der Begriff „Abfall“ ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement „abgebrannt“ ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.

Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen „Endlager“ (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium „erbrütet“. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das „abgebrannte Uran“ immer noch einen etwas höheren Gehalt (rund 0,9%) an U235.als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.

Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.

Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat „Atommüll“ – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig „weniger gefährlich“ zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von über 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.

Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael. aus (siehe oben), die ein Leichtwasserreaktor „statistisch“ verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, „Schnelle Brüter“ etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.

Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die „besseren Modelle“ auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.

SMR Teil 1 – nur eine neue Mode?

Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht

In letzter Zeit wird wieder verstärkt über „kleine, bausteinförmig aufgebaute Kernkraftwerke“ diskutiert. Wie immer, wenn es ums Geld geht, war der Auslöser ein Förderungsprogramm des Department of Energy (DoE) in den USA. Hersteller konnten sich um einen hälftigen Zuschuss zu den Kosten für das notwendige Genehmigungsverfahren bewerben. Der Gewinner bekommt vom amerikanischen Staat fünf Jahre lang die Kosten des Genehmigungsverfahrens und die hierfür notwendigen Entwicklungs- und Markteinführungskosten anteilig ersetzt. Es gibt die Förderung nur, wenn das Kraftwerk bis 2022 fertig ist (es handelt sich also um kein Forschungs- und Entwicklungsprogramm) und man muß sich zusammen mit einem Bauherrn bewerben.

Sieger der ersten Runde war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Eine sehr konservative Entscheidung: Babcock & Wilcox hat bereits alle Reaktoren der US Kriegsschiffe gebaut und besitzt deshalb jahrzehntelange Erfahrung im Bau kleiner (militärischer) Reaktoren. Bechtel ist einer der größten internationalen Ingenieurfirmen mit dem Schwerpunkt großer Bau- und Infrastrukturprojekte. Tennessee Valley Authority ist ein öffentliches Energieversorgungsunternehmen. Wie groß die Fördersumme letztendlich sein wird, steht noch nicht fest. Die in der Öffentlichkeit verbreiteten 452 Millionen US-Dollar beziehen sich auf das gesamte Programm und nicht jeden Hersteller. Insofern war die Entscheidung für den Kandidaten, mit dem am weitesten gediehenen Konzept, folgerichtig.

Die Wirtschaftlichkeit

An dieser Stelle soll nicht auf den Preis für eine kWh elektrischer Energie eingegangen werden, da in diesem frühen Stadium noch keine ausreichend genauen Daten öffentlich zugänglich sind und es rein spekulativ wäre. Es sollen viel mehr ein paar qualitative Überlegungen angestellt werden.

Man geht von deutlich unter einer Milliarde US-Dollar pro SMR aus. Auch, wenn man nur eine Stückzahl von 100 Stück annimmt, ergibt das den stolzen Umsatz von 100 Milliarden. Dies entspricht in etwa dem „Modellwert“ in der Flugzeugindustrie. Damit wird sofort klar, daß das keine Hinterhof-Industrie werden kann. Der Weltmarkt wird unter einigen wenigen Konsortien von der Größenordnung Boing oder Airbus unter sich aufgeteilt werden! Wer zu lange wartet, hat praktisch keine Chance mehr, in diesen Markt einzusteigen. Ob Europa jemals noch ein Konsortium wie Airbus schmieden kann, ist mehr als fraglich. Die Energieindustrie wird wohl nur noch von den USA und China bestimmt werden.

Es ergeben sich auch ganz neue Herausforderungen für die Finanzindustrie durch die Verlagerung des Risikos vom Besteller zum Hersteller. Bisher mußte ein Energieversorger das volle Risiko allein übernehmen. Es sei hier nur das Risiko einer nicht termingerechten Fertigstellung und das Zinsänderungsrisiko während einer Bauzeit von zehn Jahren erwähnt. Zukünftig wird es einen Festpreis und kurze Bauzeiten geben. Die Investition kann schnell wieder zurückfließen. Daraus erklärt sich der Gedanke, ein Kernkraftwerk heutiger Größenordnung zukünftig aus bis zu einem Dutzend einzelner Anlagen zusammen zu setzen. Sobald der erste Reaktor in Betrieb geht, beginnt der Kapitalrückfluss. Man spielt plötzlich in der Liga der Gaskraftwerke!

Damit stellt sich aber die alles entscheidende Frage: Wer ist bereit, das finanzielle Risiko zu tragen? China hat sich durch den Bau von 28 Kernkraftwerken eine bedeutende Zulieferindustrie aufgebaut. Auch die USA verfügen über eine solche. Das Risiko auf verschiedene Schultern zu verteilen, ist ein probates Mittel. Europa müßte sich unter – wahrscheinlich französisch-britischer Führung – mächtig sputen, um den Anschluß nicht zu verlieren. Im Moment sieht es eher so aus, als wenn Frankreich, Großbritannien und die USA gleichermaßen um die Gunst von China buhlen.

Um es noch einmal in aller Deutlichkeit zu sagen: Europa fehlt es nicht an technischen Möglichkeiten und an Finanzkraft, sondern am politischen Willen. Es ist das klassische Henne-Ei-Problem: Ohne ausreichende Bestellungen, ist keiner bereit, in Fertigungsanlagen zu investieren. Wer aber, sollte diesen Mut aufbringen, ausgerechnet in Deutschland, wo es keinen Schutz des Eigentums mehr gibt, wo eine Hand voll Politiker nach einem Tsunami im fernen Japan, mit einem Federstrich, Milliarden vernichten können und die breite Masse dazu auch noch Beifall klatscht?

Fertigung in einer Fabrik

Bisher wurden Kernreaktoren mit immer mehr Leistung gebaut. Inzwischen wurde beim EPR von Areva fast die 1700 MWel erreicht. Man macht damit Kernkraftwerke und ihre Komponenten selbst zu einem Nischenprodukt. Nur wenige Stromnetze können so große Blockgrößen überhaupt verkraften. Andererseits wird der Kreis der Zulieferer immer kleiner. Es gibt weltweit nur eine Handvoll Stahlwerke, die überhaupt das Rohmaterial in der erforderlichen Qualität liefern können. Hinzu kommen immer weniger Schmieden, die solch große Reaktordruckgefäße, Turbinenwellen, Schaufeln etc. bearbeiten können. Je kleiner die Stückzahlen und der Kreis der Anbieter wird, um so teurer das Produkt.

Es macht aber wenig Sinn, kleine Reaktoren als verkleinertes Abbild bisheriger Typen bauen zu wollen. Dies dürfte im Gegenteil zu einem Kostenanstieg führen. Will man kostengünstige SMR bauen, muß die gesamte Konstruktion neu durchdacht werden. Man muß praktisch mit dem weißen Blatt von vorne beginnen. Typisches Beispiel ist die Integration bei einem Druckwasserreaktor: Bei der konventionellen Bauweise ist jede Baugruppe (Druckgefäß, Dampferzeuger, Umwälzpumpen, Druckhalter) für sich so groß, daß sie isoliert gefertigt und transportiert werden muß und erst am Aufstellungsort durch Rohrleitungen miteinander verbunden werden kann. Damit wird ein erheblicher Arbeits- und Prüfaufwand auf die Baustelle verlegt. Stundensätze auf Baustellen sind aber wegen ihrer Nebenkosten stets um ein vielfaches höher, als in Fabriken. Gelingt es, alle Baugruppen in das Druckgefäß zu integrieren, entfallen alle notwendigen Montagearbeiten auf der Baustelle, weil ein bereits fertiger und geprüfter „Reaktor“ dort angeliefert wird. Bauteile, die es gar nicht gibt (z. B. Rohrleitungen zwischen Reaktordruckgefäß und Dampferzeugern) müssen auch nicht ständig gewartet und wiederholt geprüft werden, was auch noch die Betriebskosten erheblich senkt.

Wenn alle Bauteile wieder „kleiner“ werden, erweitert sich auch automatisch der potentielle Herstellerkreis. Die Lieferanten können ihre Fertigungsanlagen wieder besser auslasten, da sie nicht so speziell sein müssen. Es ist wieder möglich, eine nationale Fertigung mit akzeptablen Lieferzeiten zu unterhalten.

Durch die Fertigung von Bauteilen in geschlossenen Hallen ist man vor Witterungseinflüssen (oder schlicht Dreck) geschützt, was die Kosten und das Ausschussrisiko senkt. Eine Serienfertigung führt durch den Einsatz von Vorrichtungen und die Umlage von Konstruktions- und Entwicklungskosten etc. zu geringeren Kosten. Die Standardisierung senkt Schulungskosten und erhöht die Qualität.

In der Automobilindustrie ist die Teilung in Markenhersteller und Zulieferindustrie üblich. Gelingt es Bauteile für Kernkraftwerke zu standardisieren, kann sich auch eine kerntechnische Zulieferindustrie etablieren. Ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken ist dem erforderlichen „nuclear grade“ geschuldet. Es ist kein Einzelfall, daß ein und das selbe Teil für Kernkraftwerke durch diesen Status (Dokumentation, Zulassung etc.) oft ein Vielfaches des „handelsüblichen“ kostet. Ein wesentlicher Schritt für den Erfolg, ist dabei die klare Trennung in „sicherheitsrelevante“ und „sonstige“ Teile. Eine Vorfertigung und komplette Prüfung von Baugruppen kann dabei entscheidend sein. Wird beispielsweise das Notkühlsystem komplett passiv ausgelegt – also (fast) keine elektrische Energie benötigt – können die kompletten Schaltanlagen usw. in den Zustand „normales Kraftwerk“ entlassen werden.

Was ist die richtige Größe?

Die Bandbreite der elektrischen Leistung von SMR geht etwa von 40 bis 300 MWel. Die übliche Definition von „klein“ leitet sich von der Baugröße der Zentraleinheit ab. Sie sollte noch in einem Stück transportierbar sein. Dies ist eine sehr relative Definition, die sich beständig nach oben ausweitet. Es werden heute immer größere Einheiten (Ölindustrie, Schiffbau usw.) auch über Kontinente transportiert. Der Grundgedanke bei dieser Definition bleibt aber die Zusammenfassung eines „kompletten“ Reaktors in nur einem Teil und die Funktionsprüfung vor der Auslieferung, in einer Fabrik.

Sinnvoller erscheint die Definition nach Anwendung. Grundsätzlich sind Insellösungen und die Integration in vorhandene Netze unterscheidbar. Besonders abgelegene Regionen erfordern einen erheblichen Aufwand und laufende Kosten für die Energieversorgung. Auf diese Anwendung zielt beispielsweise das russische Konzept eines schwimmenden Kernkraftwerks. Die beiden je 40 MWel Reaktoren sollen nach Chuktoa in Ost-Sibirien geschleppt werden und dort Bergwerke versorgen. Sehr großes Interesse existiert auch im kanadischen Ölsandgebiet. Ein klassischer Anwender war früher auch das US-Militär. Es besitzt wieder ein verstärktes Interesse, abgelegene Militärstützpunkte durch SMR zu versorgen. Langfristig fallen in diese Kategorie auch Chemieparks und Raffinerien.

Kernkraftwerke unterliegen – wie alle anderen Kraftwerke auch – prinzipiell einer Kostendegression und Wirkungsgradverbesserung mit steigender Leistung. Es ist deshalb bei allen Kraftwerkstypen eine ständige Vergrößerung der Blockleistungen feststellbar. Heute wird die maximale Leistung hauptsächlich durch das Netz bestimmt. Man kann die Grundregel für Neuinvestitionen (stark vereinfacht) etwa so angeben:

  • Baue jeden Block so groß, wie es das Netz erlaubt. Das Netz muß Schnellabschaltungen oder Ausfälle vertragen können.
  • Baue von diesen Blöcken auf einem Gelände so viel, wie du kannst. Wieviel Ausfall kann das Netz bei einem Ausfall einer Übertragungsleitung verkraften? Wie kann die Brennstoffversorgung am Standort gewährleistet werden (Erdgaspipeline, Eisenbahnanschluss, eigener Hafen etc.)? Wie groß ist das Kühlwasserangebot und wie sind die Randbedingungen bezüglich des Umweltschutzes?

Aus den vorgenannten Überlegungen ergeben sich heute international Blockgrößen von 200 bis 800 MWel, bei zwei bis acht Blöcken an einem Standort.

Wie groß der potentielle Markt ist, sieht man allein an der Situation in den USA. Dort müssen wegen verschärfter Bestimmungen zur Luftverschmutzung (Mercury and Air Toxic Standards (MATS) und Cross-State Air Pollution Rule (CSDAPR)) bis 2016 rund 34 GWel Kohlekraftwerke vom Netz genommen werden. Neue Kohlekraftwerke dürfen praktisch nicht mehr gebaut werden. Die Umstellung auf Erdgas kann wegen der erforderlichen Gasmengen und des daraus resultierenden Nachfragedrucks nur eine Übergangslösung sein. Da die „alten Kohlekraftwerke“ relativ klein sind, würde ein Ersatz nur durch „große“ Kernkraftwerke einen erheblichen Umbau der Netzstruktur erforderlich machen. Eine schmerzliche Erfahrung, wie teuer Zentralisierung ist, macht gerade Deutschland mit seinem Programm „Nordseewind für Süddeutschland“. Insofern brauchen SMR auch nur mit „kleinen“ Kohlekraftwerken (100 bis 500 MWel) konkurrieren, die der gleichen Kostendegression unterliegen.

Das Sicherheitskonzept

Bei der Markteinführung von SMR gibt es kaum technische, aber dafür um so größere administrative Probleme. Aus diesem Grund rechtfertigt sich auch das staatliche Förderprogramm in den USA. Die Regierung schreibt zwingend eine Zulassung und Überwachung durch die NRC vor. Dieses Verfahren muß vollständig durch die Hersteller und Betreiber bezahlt werden. Die Kosten sind aber nicht nur (mit dem jedem Genehmigungsantrag innewohnenden) Risiko des Nichterfolges versehen, sie sind auch in der Höhe unkalkulierbar. Die Prüfung erfolgt in Stundenlohnarbeit, zu Stundensätzen von knapp 300 US-Dollar! In diesem System begründet sich ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken. Die NRC hat stets – nicht ganz uneigennützig – ein offenes Ohr für Kritik an der Sicherheit von Kernkraftwerken. Mögen die Einwände auch noch so absurd sein. Als „gute Behörde“ kann sie stets „Bürgernähe“ demonstrieren, da die Kosten durch andere getragen werden müssen, aber immer den eigenen Stellenkegel vergrößern. Dieses System gerät erst in letzter Zeit in das Licht der Öffentlichkeit, nachdem man erstaunt feststellt, um wieviel billiger und schneller beispielsweise in China gebaut werden kann. Nur mit geringeren Löhnen, läßt sich das jedenfalls nicht allein erklären.

Die „Massenproduktion“ von SMR erfordert völlig neue Sicherheitskonzepte. Auf die technischen Unterschiede wird in den weiteren Teilen noch ausführlich eingegangen werden. Die Frage ist eher, welches Niveau man als Bezugswert setzt. Einem überzeugten „Atomkraftgegner“ wird nie ein Kraftwerk sicher genug sein! Im Gegenteil ist die ständige Kostentreiberei ein zentrales „Kampfmittel“. Allerdings wird durch die Erfolge von China und Korea das Märchen von der „ach so teuren Atomkraft“ immer schwerer verkaufbar. Selbst in einem tiefgläubigen Land wie Deutschland, muß man daher immer mehr auf andere Strategien (z. B. angeblich ungelöste „Entsorgung“) ausweichen. Sollte man jedoch das heute erreichte Sicherheitsniveau als Grenzwert setzen, lassen sich bei den meisten SMR-Konzepten bedeutende Kostenvorteile erreichen. Es ist nicht auszuschließen, daß das – außerhalb Deutschlands – so gesehen wird. Andererseits kann man durch zusätzliche Sicherheitsmaßnahmen die Auswirkungen auf das Umfeld auch bei schwersten Störfällen so stark begrenzen, daß ein Einsatz innerhalb des Stadtgebiets z. B. zur Fernwärmeversorgung akzeptabel wird. Könnte sogar sein, daß SMR in Städten mit starker Luftverschmutzung hoch willkommen sind.

Es gibt aber durchaus einige offene Fragen. Je mehr Standorte es gibt, um so aufwendiger ist die Organisation eines lückenlosen Überwachung- und Bewachungssystems. Heute hat jedes US-Kernkraftwerk zwischen 400 und 700 Festangestellte. Allein die „eigene Privatarme“ umfaßt durchschnittlich 120 Mann. Für jeden Reaktor gibt es ständig zwei – vom Energieversorger zu bezahlende – NRC-Kontrolleure.

International sind Abkommen zu treffen, die sich über die gegenseitige Anerkennung von Zulassungen und Prüfungen verständigen. Es macht keinen Sinn, wenn jedes Land von neuem das gesamte Genehmigungsverfahren noch einmal wiederholt. Bisher gilt eine NRC-Zulassung international als „gold standard“. Es würde sich lohnen, wenn die Kerntechnik sich hierbei an der internationalen Luftfahrt orientiert. Ebenfalls ein Bereich mit sehr hohen Sicherheitsanforderungen.

Nach allgemeiner Auffassung sollten die Lieferketten in „nuclear“ und „non nuclear“ unterteilt betrachtet werden. Die Lieferketten für alle sicherheitstechnisch bedeutenden Teile (Brennelemente, Dampferzeuger, Kühlmittelpumpen usw.) müssen schon sehr früh in der Genehmigungsphase stehen, da ihre Entwürfe unmittelbar mit der Sicherheit verbunden sind. Die Zulieferer müssen sehr eng mit dem eigentlichen Kraftwerkshersteller verknüpft werden. Es ergibt sich ein ähnliches Geschäftsmodell, wie in der Automobilindustrie. Dort werden die Zulieferer mit ihrem speziellen Wissen und Erfahrungen möglichst früh und eng in den Entwicklungsprozess einbezogen. Diese Lieferketten sollten für die Bauartzulassung (vorübergehend) festgeschrieben werden. Es sollten Bauteile gebaut und eingehend geprüft werden. Während dieses Prozesses sind alle Produktionsschritte und Prüfverfahren genau zu dokumentieren, um den Herstellerkreis später ausweiten zu können. Alle sonstigen Bestandteile des Kraftwerks können im Industriestandard und nach lokalen Gegebenheiten unmittelbar nach der jeweiligen Auftragsvergabe vergeben werden.

Hinweis

Dieser erste Teil beschäftigt sich mehr mit den grundsätzlichen Eigenheiten sog. „Small Modular“ Reaktoren. Die Betonung liegt hier auf der energiewirtschaftlichen Betrachtung. Es folgt ein zweiter Teil, der sich näher mit der Technik von SMR in der Bauweise als Leichtwasserreaktor beschäftigt. Ein dritter Teil wird auf die ebenfalls im Bewerbungsverfahren befindlichen schnellen Reaktoren eingehen.

Indien, das schwarze Loch der Energie?

Indien ist (noch) das zweitbevölkerungsreichste Land der Erde. Jedes Jahr wächst die Bevölkerung um 15 Millionen. Will man die Energieproblematik verstehen, muß man sich diese Zahl in aller Deutlichkeit anschaulich machen: Etwa alle fünf Jahre kommt einmal Deutschland hinzu! Selbst wenn man diese Menschen nur mit dem Existenzminimum (Nahrung, Kleidung, Wohnen) versorgen will, ergibt das mehr, als wir mit Wind und Sonne erzeugen. Das übliche Geschwurbel vom „Energiesparen“ hilft auch nicht weiter, wenn man bereits am Existenzminimum lebt. Viel eher sollte man sich vielleicht mal der eigenen Geschichte erinnern: Nach dem Krieg war eine Schule in einer Baracke besser als gar keine Schule, in den 1960er Jahren eine Turnhalle mit Einfachverglasung ein riesiger Fortschritt und das Gesamtschulzentrum mit Asbest das „Bildungsideal“ des ausgehenden zwanzigsten Jahrhunderts. Die Inder, Chinesen und Afrikaner sollen demgegenüber doch bitte gleich mit „Erneuerbaren“ starten, schließlich geht es doch um unser aller Klima! Die können doch glücklich sein, daß sie unsere „Fehler“ nicht noch einmal machen müssen und gleich die Welt retten dürfen. Es ist schon putzig, wenn man die Töchter der Generation Gesamtschule vom „smart grid“ schwärmen hört, mit dem man doch die Waschmaschine nur bei Wind laufen lassen könnte. In den Ohren einer Inderin aus der (indischen) Mittelschicht, die sich über ihren neuen Kohleherd freut und von heißem Wasser aus der Wand zur Unterstützung der Handwäsche träumt, wahrlich märchenhafte Dinge. Interessant wird nur sein, ob die indischen Frauen nach der Befreiung durch elektrische Haushaltsgeräte auch ihre gewonnene Zeit in irgendwelchen „grün/alternativen“ Seminaren vergeuden werden.

Manch einer mag sich an dieser Stelle fragen, was dies alles mit Kernenergie zu tun hat. Nun, die Antwort findet man sowohl in der eigenen Geschichte („Der Himmel über der Ruhr muß wieder blau werden“, Wahlkampfslogan der SPD aus deren „Kohle und Kernenergie“ Phase) als auch im aktuellen China:

  • Wohlstand und Pro-Kopf-Energieverbrauch sind die zwei Seiten ein und derselben Medaille.
  • Jede Form der Energieumwandlung (auch Wind, Sonne, Biomasse etc.) erzeugt Belastungen für die Umwelt. Man kann diese Belastungen durch den Einsatz von Technik und Kapital sehr stark mildern – niemals aber völlig ausschließen.
  • Durch die Nutzung verschiedener Energieträger kann man deren jeweilige Belastung unterhalb von akzeptablen Grenzwerten halten.
  • Man kann jeden Euro nur einmal ausgeben! Den Gewinn aus „billiger Energie“ kann man für andere Zwecke einsetzen. Umgekehrt gilt aber auch, daß man die Beträge, die man für (vermeintlich) umweltfreundlichere Energieformen aufwendet, nicht noch einmal ausgeben kann. Hier ist eine eigene politische Abwägung in jeder Gesellschaft erforderlich.

Die Rolle der Kohle

Mit dem letzten Punkt, sind wir unmittelbar bei der bevorzugten Nutzung von Kohle in Indien und vergleichbaren Ländern angekommen. Kohle ist relativ gleich verteilt. Anders als Öl und Gas. So gibt es auf dem gesamten indischen Subkontinent reiche Kohlevorkommen in unterschiedlicher Qualität. Sie reichen von Kokskohle im (nordöstlichen) Bundesstaat Jharkhand bis zu Braunkohle im pakistanischen Thar-Gebiet. Alles riesige Vorkommen, relativ dicht unter der Oberfläche. Einerseits ein Vorteil, andererseits ein Fluch für die Umwelt. Kohle läßt sich einfach lagern und transportieren – notfalls auf dem Esel. Sie wird deshalb nicht nur in Kraftwerken verfeuert, sondern überall in Industrie und Haushalt. Gerade diese unzähligen Kleinfeuerstätten verpesten die Luft in unerträglichem Maße. Ganz ähnlich, wie im London der 1950er Jahre. Noch ist in Indien der Entwicklungsstand – in China beginnt diese Phase gerade – nicht erreicht, große Gasnetze aufzubauen und systematisch die Kohleherde aus den Städten zu vertreiben. Die knappen Mittel müssen halt auch für Abwasser- und Trinkwassernetze etc. herhalten!

Bergbau in Indien

Indien liegt nach China und den USA bei der Förderung auf Platz drei. Gleichzeitig aber bei den Importen schon auf Platz vier. Schon diese Tatsache deutet auf einige Probleme hin. Die Probleme der indischen Kohlewirtschaft lassen sich bestens durch die drei Begriffe: Armut, Sozialismus und kriminelle Energie umschreiben. Stellvertretend steht die Entwicklung im Gebiet um Jharia. Einst ein Naturparadies, gleicht es heute eher Dantes Hölle. Hier lagern Milliarden Tonnen leicht abbaubarer Kokskohle (beste Qualität). Seit 1896 wird sie abgebaut. Das Elend begann mit der Verstaatlichung 1971. Ab 1973 begann die Bharat Coking Coal Limited (BCCL) mit einem Raubbau durch großangelegte Tagebaue. Seitdem brennt die Landschaft. Die angeschnittenen Kohlenflöze haben sich entzündet und brennen unterirdisch weiter. (siehe z. B.: http://www.bbc.co.uk/news/world-asia-india-23422068 oder http://www.youtube.com/watch?v=kYNLerVxUiA) Ganze Dörfer, Eisenbahnlinien und Straßen sind inzwischen eingestürzt. Nicht unwillkommen für die Minengesellschaft, da es sich entweder um Staatsbesitz (Eisenbahn) oder ungesicherte Eigentumsverhältnisse (Ureinwohner) handelt. Nach Vertreibung kann man billig baggern. Zusätzlich graben tausende entwurzelter Menschen in dickem Qualm illegal nach Kohle. Diese „dem Staat geklaute“ Kohle wird anschließend von (teilweise staatlichen) Firmen für wenige Cent aufgekauft. Alles unter den Augen und dem Mitverdienst von lokalen Politikern.

Inzwischen sind die Zustände in ganz Indien unhaltbar geworden. Es gibt einen stetig steigenden Bedarf an Kohle zur Stromerzeugung. Der Energieverbrauch pro Kopf ist in Indien einer der geringsten weltweit. Weniger als 60% der Haushalte sind überhaupt an das Stromnetz angeschlossen. Wollte man den pro Kopf Verbrauch in Indien nur auf die Hälfte des Wertes der industrialisierten Ländern anheben, müßte man die Stromproduktion versechsfachen!

Die Rolle der Kernenergie

Die Annahme eines halb so hohen Energieverbrauches, wie in den Industrieländern ist ein realistisches Ziel. Indien wäre dann etwa auf dem heutigen Niveau von seinem Nachbarn China angekommen. Es erscheint kaum vorstellbar, daß die Entwicklung des Wohlstandes in Indien wesentlich hinter dem von China zurückbleiben kann. Eine soziale Explosion wäre die wahrscheinliche Folge. Jede indische Regierung ist gezwungen – wenn sie politisch überleben will – die vorgelebte Entwicklung nachzuvollziehen.

Wenn aber Entwicklung sein muß, woher kann die dafür notwendige Energie kommen? Öl- und Gasvorkommen sind (jedenfalls bis jetzt) kaum vorhanden. Als Hauptenergieträger wird weiterhin die Kohle bleiben. Sie ist durchaus vorhanden, kann aber nur bedingt zur Verstromung eingesetzt werden. Genau, wie vor einem halben Jahrhundert in Europa und heute in China, setzt der Umweltschutz klare Grenzen. Einfache Kohlekraftwerke sind extreme Luftverschmutzer. Baut man sie hingegen auf dem Standard deutscher Kraftwerksneubauten (Rauchgaswäsche, Entstickung, Ascheverwertung, Abwasseraufbereitung, etc.) bewegt man sich mit den Investitionskosten rasch in die Nähe von (indischen) Kernkraftwerken, bei wesentlich höheren Betriebskosten. Entscheidend ist jedoch, daß man die Kohle, die man in Kraftwerken verbrennt, nicht noch einmal in der Industrie verwenden kann. Dies mag sich trivial anhören, ist aber die Haupttriebfeder für das chinesische Ausbauprogramm. So ist in China beispielsweise der gesamte Transportsektor durch die Energietransporte ständig überlastet. Kernkraftwerke können an den Verbrauchsschwerpunkten gebaut werden und benötigen praktisch keine Transportkapazitäten. Die „freiwerdende“ Kohle soll nahe der Gruben vergast werden und das Gas über Pipelines in die Industriegebiete verteilt werden. Auch Indien wird kaum ein anderer Weg bleiben.

Bisher hat Indien 20 Kernkraftwerke mit einer Nettoleistung von 4385 MWe in Betrieb (Produktion in 2012 rund 30 TWh) und sieben weitere mit 4890 MWe in Bau. Geplant ist ein Ausbau auf 60 GWe bis 2032.

Das Uranproblem

Indien verfügt (bisher) nur über geringe Uranvorkommen. Es setzt daher konsequent auf die Entwicklung schneller Brüter. Die Entwicklung erfolgt in enger Zusammenarbeit mit Rußland.

Indien besitzt aber gigantische Vorkommen an Thorium. Diese sind teilweise sehr leicht abbaubar (Monazidsande). Es setzt daher in den letzten Jahren auch auf Entwicklungen zur Verwendung von Thorium als Brennstoff. Indien besitzt große Erfahrungen mit Schwerwasserreaktoren. Ursprünglich in Lizenz gebaut, gibt es inzwischen eine eigene Weiterentwicklung. Man beschreitet daher konsequenterweise eine weltweit einzigartige Entwicklungsschiene: Die Nutzung von Thorium in Schwerwasserreaktoren.

Man sollte die Fähigkeiten Indiens auf dem Gebiet der Kerntechnik nicht unterschätzen. Schließlich hat es ein umfangreiches nukleares Rüstungsprogramm, von der Bombe bis zum Atom-U-Boot. Wegen seiner Rüstungspolitik, war es bisher als internationaler Partner nicht besonders geschätzt. Dies scheint sich aber in den letzten Jahren massiv zu verändern. Die Ausbauprogramme sind einfach zu verlockend. Das Beispiel China hat gezeigt, wie schnell sich Lizenzgeber, Lieferanten und Kooperationspartner aus aller Welt finden lassen. Wenn überhaupt, dürfte eher der Kapitalbedarf ein Problem darstellen.

Obama ruft zum Kreuzzug

Im Juni 2013 stellte das „Executive Office of the President“ seinen 20-seitigen „THE PRESIDENT’S CLIMATE ACTION PLAN“ vor. Medienwirksam hielt der Präsident am 25. Juni einen Vortrag an der Georgetown-Universität in Washington. Alle „Betroffenheitsorganisationen“ von Greenpeace bis WWF waren pflichtschuldigst mit Lob zur Stelle. Das Strommagazin, als Zentralorgan der Sonnenmännchen Deutschlands titelte:

„Die USA machen endlich Ernst beim Klimaschutz. Nach Jahren des Stillstands und der Blockade gibt es endlich ermutigende Signale von der größten Volkswirtschaft der Welt.“

Wieder einmal, war es dem „Ankündigungspräsidenten“ gelungen, der Linken weltweit etwas Zucker zu geben und für sich selbst ein Thema zu finden, mit dem er hofft in positiver Erinnerung zu bleiben.

Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher „Rechter Militärs“ die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2.-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des „Shale-Gas“ und „Shale-Oil“-boom eingefahren – ganz entgegen dem über 60 Jahre andauernden Gefasel von „Peak-Oil“. Deswegen mußte „Greenpeace-Klimaexperte Martin Kaiser“ auch sofort anmerken:

…dass Obama aber auch auf „Risikotechnologien“ wie Fracking oder Atomkraft setze, sei ein falsches Signal…“.

Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur „Ölkrise“ in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die „Freisetzung“ fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der „Systemveränderer“, gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein „Marktversagen“ durch politische Eingriffe erzeugen kann, läßt sich dem Zombie „Planwirtschaft“ wieder neues Leben einhauchen.

Die „Shale-Gas Revolution“

Das sogenannte „Fracking“ ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode „horizontaler Bohrungen“, die in den letzten Jahrzehnten eine bemerkenswerte technische – und vor allem wirtschaftliche – Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das „Erdgasnetz“ gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer „Schweinezyklus“ beginnt.

Der wichtigste „swinging user“ in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2.-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche „Energiewende“. Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen „Gutmenschen“, die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2. wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des „Klimakillers“ (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2 – Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden „CO2 – frei“ (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll und das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose „Guantanamo-Schließung“ auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung „CO2 – frei“.

Wie tödlich ist ihre kWh?

Diese makaber anmutende Frage stellte das Forbes-Magazin seinen Lesern schon vor geraumer Zeit (http://www.forbes.com/sites/jamesconca/2012/06/10/energys-deathprint-a-price-always-paid/) und fügte folgende Tabelle hin zu:

Energiequelle Tote pro Billion kWh Anteil an der Stromerzeugung
Kohle (weltweit) 170.000 50% weltweit
Kohle (China) 280.000 75% in China
Kohle (USA) 15.000 44% in USA
Öl 36.000 36% Energie, 8% Elektro
Erdgas 4.000 20% weltweit
Biomasse 24.000 21% Energie weltweit
Solar (PV) 440 1% weltweit
Wind 150 1% weltweit
Wasserkraft 1.400 15% weltweit
Kernenergie 90 17% weltweit

Die Redaktion hat diese Tabelle aus verschiedenen Quellen, wie z. B. der WHO zusammengetragen. Es lohnt nicht, die Zahlen im einzelnen diskutieren zu wollen. Man versinkt zu schnell in dem Sumpf der Statistik: Unterschiedliche Zugänglichkeit von Daten (z. B. China oder USA) und unterschiedliche Ansichten über Langzeitwirkungen. Besonders deutlich wird dies z. B. an den Opfern der Kernenergie. Hier wurden die Schätzungen von potentiellen Krebsopfern infolge der Reaktorunglücke in Tschernobyl und Fukushima eingearbeitet. Tatsache ist jedoch, in Fukushima ist bisher kein Opfer und in Tschernobyl sind zwischen 20 und 200 – je nach Zählweise – Strahlentote zu verzeichnen. Die Zukunft wird zeigen, welche Zahlen realistisch sind.

Trotzdem ist eine solche Tabelle als Denkanstoß (aber bitte nicht mehr!) sinnvoll. Sie macht auf den ersten Blick klar: Es gibt keine Energieerzeugung ohne Opfer. Energiegewinnung fordert wie alle anderen menschlichen Tätigkeiten immer auch Todesopfer. Wir gehen individuell völlig selbstverständlich mit einer Risiko/Nutzen – Abwägung um. Jeder, der in den Urlaubsflieger steigt, tut dies in vollem Bewußtsein, daß es sein absolut letzter Flug sein könnte. Nur bei der Energieversorgung kommt es plötzlich zu völlig irrationalen Reaktionen. Es wird nur noch das (vermeintliche) Risiko gesehen. Der Nutzen wird völlig verdrängt. Kann es sein, daß dies maßgeblich auf eine politisch gewollte und geförderte Sichtweise zurückzuführen ist? Der gesunde Menschenverstand reagiert anders. Würde man eine Umfrage unter Hausfrauen und Hausmännern machen, ob sie sich einen Haushalt ohne jeden elektrischen Strom vorstellen könnten, wäre das Ergebnis wohl eindeutig: Die Waschmaschine und der Staubsauger erscheinen nicht nur als unentbehrlich.

Selbstverständlich wünschen wir uns alle eine Energieversorgung, die möglichst wenige Opfer fordert. Wir sollten jedoch nie vergessen, daß auch immer Dachdecker bei der Installation eines Sonnenkollektors vom Dach fallen werden, genauso wie es Unfälle in Kernkraftwerken geben wird. Wer jetzt gleich wieder in seinen Reflex verfällt, „aber Atomkraftwerke haben ein Restrisiko von Millionen Toten und zehntausende Jahre unbewohnbaren Landstrichen“ sollte einfach zur Kenntnis nehmen, daß das nichts weiter als schlechte Propaganda ist. Die Betonung liegt dabei auf „schlecht“, wie die Reaktorunfälle von Tschernobyl und Fukushima gezeigt haben. Parallel zum Reaktorunglück in Fukushima brannte zwei Wochen lang in der Bucht von Tokio eine Raffinerie. Bei den Löscharbeiten sind mehr als ein Dutzend Feuerwehrleute getötet worden und eine riesige Umweltverschmutzung ergoss sich über das Meer. Das hält aber bis heute, keinen der „Berufenen“ davon ab, der Bevölkerung immer wieder etwas von den „tollen Gaskraftwerken“ als Alternative zur bösen Kernenergie ins Ohr zu säuseln. Erst recht wird nicht hinterfragt, wie viele Menschenleben man pro Jahr mit den Milliarden Mehrkosten für fossile Brennstoffe in Japan (infolge der vorübergehenden Reaktorstilllegungen) retten könnte. Plötzlich sind all die Kreise, die stets mit ein paar Milliarden mehr für Bildung, Gesundheit und „soziales“, alles Elend der Welt glauben beseitigen zu können, ganz still.

Die Tabelle gibt uns aber noch einen weiteren wertvollen Hinweis: Den Zusammenhang zwischen Wohlstandsniveau und Arbeitssicherheit und Umweltschutz. Es ist kein Zufall, daß die Anzahl der Opfer pro Einheit Energie in China höher, als in den USA ist. Es gibt in China (noch nicht) einen vergleichbaren Arbeitsschutz, wie in den Bergwerken der USA. Auch die Rauchgasreinigung ist in China (noch nicht) auf dem gleichen Niveau, wie z. B. in Deutschland. Folgerichtig sind die Atemwegserkrankungen durch Abgase entsprechend höher. Und nicht zuletzt hat in diesem Zusammenhang auch der massive und konsequente Ausbau der Kernenergie in China seine Begründung. Es ist nicht abwegig, wenn andere Entwicklungsländer diesen Weg als vorbildlich ansehen. Vor allem, wenn die Konsequenzen der Deindustriealisierung im „energiegewendeten“ Deutschland erst voll sichtbar werden.