Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Kohle, Gas, Öl, Kernenergie? – Teil 2

Neben den fossilen Energieträgern wird auch in der Zukunft weltweit die Kernenergie einen steigenden Anteil übernehmen. Wem das als eine gewagte Aussage erscheint, sollte dringend weiterlesen, damit er nicht eines Tages überrascht wird.

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von „Energieeffizienz“ ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein „Gutmensch“ in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen „VW-Käfer“ auf den Motor mit Katalysator, vom „hohen Schornstein“ auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.

Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an „Strahlengefahr“ denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der „Atomstromverbraucher“ wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.

Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. „Red book“, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

  • Wieviel Kernkraftwerke sind in Betrieb,
  • welche Reaktortypen werden eingesetzt,
  • welche Anreicherungsverfahren zu welchen Betriebskosten und
  • wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im „Red book“ geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?

Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über U235 einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel. pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen U235 und U238 wird die Konzentration von U235 im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von U235erhöht hat, hat er sich natürlich im „Abfallstrom“ entsprechend verringert. Das „tails assay“, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% U235.. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).

Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine „Wiederanreicherung“ könnte man fast 500.000 to „Natururan“ erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% U235 etwa 420.000 to künstlich hergestelltes „Natururan“ und einen neuen „Abfallstrom“ von 1.080.000 to tails assay mit 0,14% U235.. Man sieht also, der Begriff „Abfall“ ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement „abgebrannt“ ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.

Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen „Endlager“ (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium „erbrütet“. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das „abgebrannte Uran“ immer noch einen etwas höheren Gehalt (rund 0,9%) an U235.als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.

Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.

Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat „Atommüll“ – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig „weniger gefährlich“ zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von über 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.

Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael. aus (siehe oben), die ein Leichtwasserreaktor „statistisch“ verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, „Schnelle Brüter“ etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.

Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die „besseren Modelle“ auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.

Energie als Druckmittel

In den letzten Tagen spitzt sich in den Medien immer mehr die Diskussion um ein „Wirtschaftsembargo“ gegen Russland zu. Neben der grundsätzlichen Frage zum Sinn von Wirtschaftsblockaden ist dabei der Zentrale Punkt die „Energieabhängigkeit“. Es lohnt sich daher, sich etwas näher mit dieser Frage zu beschäftigen. Mag es für manchen nützlich sein, um die wahrscheinlichen Maßnahmen und deren Konsequenzen besser abschätzen zu können.

Energie als Handelsware

Prinzipiell sind alle Energieträger ganz normale Handelsgüter. Sie liegen in unterschiedlichen Formen vor: Als Rohstoffe (Erdöl, Kohle, Uran usw.), als Halbfertigprodukte (Diesel, Benzin, „Erdgas“ etc.) und als spezielle Endprodukte (Wechselstrom 50 Hz, Super Benzin, usw.). Analog z. B. zu Kupferbarren, Kupferdraht und einer Spule. Die simple Tatsache, daß Energieträger nicht gleich Energieträger ist, ist bereits eine sehr wichtige Erkenntnis. Je spezieller der Stoff ist, je schwieriger ist er zu ersetzen und je enger werden die möglichen Bezugsquellen. Ein Motor, der für Dieselkraftstoff gebaut ist, braucht auch Dieselkraftstoff. Selbst wenn Benzin im Überfluß vorhanden ist, nützt dies dem Betreiber gar nichts. Anders sieht es z. B. in der Elektrizitätswirtschaft aus. Besitzt man – wie in Deutschland – noch einen Kraftwerkspark aus Steinkohle-, Braunkohle- Gas- und Kernkraftwerken etc., sieht die Lage völlig anders aus. Selbst wenn ein Brennstoff nahezu vollständig ausfällt, muß dies noch lange nicht zu Einschränkung führen. Geht man noch eine Ebene höher, ergibt sich noch mehr Flexibilität. Verringert sich z. B. das Angebot an Erdgas, kann man bewußt den Verbrauch in Kraftwerken einstellen um genug Heizgas zur Verfügung zu haben. Ein ganz normaler Vorgang, wie er jeden Winter üblich ist. Es gibt sogar Kraftwerke, die für mehrere Brennstoffe geeignet sind. Da der Anteil vom Erdgas am Primärenergieverbrauch in Deutschland nur rund 21 % beträgt und allein der Lagervorrat etwa 1/6 des Jahresverbrauches beträgt, braucht keine Panik vor einem „Erdgasboykott“ zu bestehen. Da Russland ohnehin nur etwa ⅓ des Verbrauches liefert, könnten sie gern ihre Lieferungen vollständig einstellen. Deswegen würde hier keine Wohnung kalt bleiben oder eine Fabrik stillstehen. Selbst die Auswirkungen auf die Erdgaspreise dürften gering bleiben, weil viele Verbraucher (vor allem Kraftwerke) auf andere Energieträger ausweichen könnten bzw. andere Lieferanten gern die russischen Marktanteile übernehmen würden.

Der Faktor Zeit

Die Frage, ob man einen Energieträger durch einen anderen ersetzen kann, ist nicht so entscheidend, wie die Zeitdauer die hierfür erforderlich ist. Wobei die Zeitdauer weniger technisch bedingt, als eine Frage der Kosten ist. Besonders unflexibel sind Gaspipelines. Bis man neue Leitungen verlegt hat oder einen angeschlossenen Verbraucher umgestellt hat, können Jahre vergehen. Geht man auf die volkswirtschaftliche Ebene, wird man eher in Jahrzehnten denken müssen. Ein Beispiel hierfür, ist der massive Ausbau der Kernkraftwerke als Ersatz für Ölkraftwerke infolge der sog. Ölkriesen (1973 und 1976).

Für kurzfristige Versorgungslücken ist die Lagerung von Brennstoff ein probates Mittel. Auch hier ist Erdgas die technisch schwierigste und damit kostspieligste Lösung. Brennstäbe für Kernkraftwerke nehmen nur wenig Platz ein und ein Kernkraftwerk läuft ohnehin viele Monate, bis eine Nachladung nötig wird. Steinkohle hat auch eine recht hohe Energiedichte und ist relativ einfach zu lagern. Es war nicht zufällig im alten West-Berlin der Brennstoff der Wahl zur Absicherung gegen „Berlin-Blockaden“.

Ein weiterer wichtiger Aspekt sind Transportwege und Transportmittel. Öltanker und Massengutfrachter kann man noch auf hoher See umleiten. Bei der heute weltweiten Verteilung von Öl und Kohle ist der Lieferboykott eines Landes oder einer Gruppe von Ländern (OPEC) ein völlig stumpfes Schwert. Im Gegenteil, man weitet diesen Zustand auch immer weiter auf Erdgas aus. Überall auf der Welt entstehen Anlagen zur Verflüssigung und Rückvergasung von Erdgas. Der neuste Trend dabei ist, solche Anlagen komplett auf Spezialschiffen zu installieren, die gegebenenfalls auch noch flexibel verlagert werden können. Nicht zuletzt Russland, hat diesen Trend schon vor der aktuellen Krise durch seine Preispolitik und seine Lieferunterbrechungen an die Ukraine enorm beschleunigt. Nur Deutschland hat konsequent auf Pipelines nach Russland gesetzt. All unsere Nachbarn haben bereits Flüssiggasterminals in Betrieb oder im Bau. Es geht halt nichts über wahre Männerfreundschaften, nicht wahr, Gerhard und Vladimir?

Der Faktor Geographie

Energieträger sind – mit Ausnahme von Uran und Thorium – Massengüter. Transportmittel der Wahl, ist deshalb das Schiff. Pipelinenetze lohnen sich wegen der enormen Kapitalkosten nur in Verbrauchsschwerpunkten oder bei sehr großen Feldern. Zumindest übergangsweise, dient auch die Eisenbahn als Transportmittel. Rußland ist zur Zeit (noch) der größte Ölproduzent vor den USA und Saudi Arabien. Anders als diese beiden, verfügt es aber über keine bedeutenden Häfen. Die längste Zeit des Jahres liegen seine Küsten und Flüsse unter einem Eispanzer. Für Rußland sind seine Pipelines in den Westen lebenswichtige Adern. Selbst mit seinem Eisenbahnnetz (Breitspur) hat es sich bewußt vom Rest der Welt abgegrenzt. Verglichen z. B. mit dem Iran, eine fatale Situation bei einem Abnahmeboykott.

Der Faktor Wirtschaft

Russland ist kein Industrieland, sondern spielt eher in der Liga von Nigeria, Venezuela etc. Geschätzt zwischen 70 bis 90 % aller Staatseinnahmen stammen aus dem Export von Öl und Gas. Es gibt praktisch keine russischen Produkte, die auf dem Weltmarkt verkäuflich sind. Die Situation ist noch desolater, als in der ehemaligen „DDR“. Die konnte wenigstens einen Teil ihrer Erzeugnisse über Dumpingpreise auf dem Weltmarkt verschleudern um an Devisen zu gelangen. Selbst der einstige Exportschlager Waffen, ist wegen seiner erwiesenen schlechten Qualität, immer unverkäuflicher. Klassische Importeure sind entweder bereits untergegangen (Irak, Lybien, etc.) oder wenden sich mit grausen ab (Indien, Vietnam usw.).

Rußland hat seine „fetten Jahre“ vergeudet. Während im kommunistischen Bruderland China eine Auto-, Computer- und Mobilfunkfabrik nach der nächsten gebaut wurde, hat man sich in der „Putinkratie“ lieber Fußballvereine im Ausland gekauft. Die Angst vor und die Verachtung für das eigene Volk, scheint unvergleichlich höher. Selbst in den Staaten der Arabischen Halbinsel hat man schon vor Jahrzehnten realisiert, daß die Öleinnahmen mal nicht mehr so sprudeln werden und man deshalb einen Sprung in die industriealisierte Welt schaffen muß. Gerade, wenn man die dort – praktisch in wenigen Jahrzehnten aus dem Wüstensand heraus – geschaffene Infrastruktur und Industrie betrachtet, kann man die ganze Erbärmlichkeit der russischen Oberschicht ermessen.

Was dies für die internationalen Energiemärkte bedeuten könnte

Die Selbstisolation durch militärische Bedrohung der Nachbarn, erinnert an das Verhalten von Potentaten in Entwicklungsländern kurz vor deren Untergang. Wenn Putin nicht einlenkt, wird man ihn stoppen müssen. Er täuscht sich gewaltig, wenn er glaubt, er könne Teile Europas in den gleichen Abgrund, wie Syrien stürzen. Gerade sein Syrienabenteuer wird ihm in der nächsten Zeit auf die Füße fallen. Er hat sich bei allen Staaten – die zufällig zu den größten Gas- und Ölproduzenten zählen – äußerst unbeliebt gemacht. Für die dürfte es alles andere als ein Zufall sein, daß gerade die muslimischen Tataren auf der Krim am meisten unter seiner „Ukrainepolitik“ leiden. Es könnte sein, daß dies der berühmte Tropfen ist, der das Fass zum überlaufen bringt. Zumindest in Saudi Arabien ist die Erinnerung an die „brüderliche Waffenhilfe der Sowjets“ in Afghanistan und Putins Vorgehen in Tschetschenien noch sehr lebendig.

Wenn Putin nicht einlenkt, wird man ihn wirtschaftlich unter Druck setzen (müssen). Das kann sehr schnell und sehr schmerzhaft geschehen, ohne daß man überhaupt wirtschaftliche Sanktionen beschließen muß. Man muß nur die russischen Preise für Energieträger unterbieten. Jeder Kontrakt, der Rußland vollkommen verloren geht, reißt ein tiefes Loch, jeder gesenkte Preis, ein etwas kleineres Loch, in die Kassen des Kreml. Jeder Verfall des Rubel verteuert darüber hinaus die lebenswichtigen Importe. Ein faktisches Entwicklungsland wie Rußland, hat dem nichts entgegen zu setzen. Eigentlich sollte gerade Rußland aus dem Kollaps des Sowjetreichs seine Lehren gezogen haben: Als es glaubte, die Welt mit Waffengewalt beherrschen zu können (Einmarsch in das sozialistische Bruderland Afghanistan) nahm Ronald Reagen die Herausforderung an und erschuf den „Krieg der Sterne“. Putin mag als guter Schachspieler gelten, aber die USA sind immer noch die Nation der Poker-Spieler. Putin wird noch lernen müssen, wenn man kein gutes Blatt in den Händen hält und nichts in der Tasche hat, sollte man besser nicht, die wirklich großen Jungs reizen.

Kohle

Die russische Kohleindustrie ist durch und durch marode. Das gilt auch und gerade für das Revier im Osten der Ukraine. Die Produktionskosten sind teilweise so hoch, daß jetzt schon mit Verlusten produziert wird. Demgegenüber hat allein die USA schier unerschöpfliche Kohlenmengen verfügbar. Dies betrifft sogar die Transport- und Hafenkapazitäten. Es ist ein leichtes, den Vertrieb zu intensivieren und sich um jeden russischen Kunden zu bemühen. Man muß nur jeweils etwas unter den russischen Preisen anbieten. Dies wird nicht einmal an den Weltmärkten zu Verwerfungen führen. Der Exportanteil Russlands ist einfach zu gering. Für Russland andererseits, ist jede nicht verkaufte Schiffsladung ein Problem.

Öl

Russland, USA und Saudi Arabien sind die drei größten Ölförderländer. Die USA werden in den nächsten Jahren zur absoluten Nummer eins aufsteigen. Schon jetzt liegen die Preise in den USA (WTI) rund zehn Dollar unter den Preisen in Europa (Brent). Es schwelt schon lange ein Konflikt um die Aufhebung des Exportverbotes. Ein denkbarer Kompromiß, wäre eine Aufhebung für „befreundete Nationen“ in Europa. Geschieht das, rächt sich die Vernachlässigung der russischen Transportkapazitäten. Die USA können zusammen mit Saudi Arabien die Ölpreise in den klassischen Abnehmerländern Russlands in beliebige Tiefen treiben. Dies gilt vor allem für die hochwertigen Rohöl-Qualitäten. Zusätzlich noch ein bischen Konjunkturabschwächung in China und der russische Staatshaushalt gerät aus den Fugen.

Erdgas

Russland besitzt nach wie vor die größten konventionellen Erdgasreserven. Danach folgen Qatar und Iran. Alle drei sind tief im Syrienkonflikt verstrickt. Alle drei aus dem gleichen Grund, wenn auch auf verschiedenen Seiten. Syrien ist das potentielle Transitland für Erdgas aus dem Golf-Gebiet. Rußland schürt mit allen Mitteln den Krieg, um einen geplanten Ausbau des Pipelinenetzes aus Süd-Irak zu verhindern. Ist das Gas erstmal im Irak angekommen, ist der Anschluß an die südeuropäischen Netze nicht mehr weit. Qatar kann die gemeinsamen Gasfelder mit Iran weiterhin günstig ausbeuten, solange dem Iran mangels Transportkapazität der Absatzmarkt fehlt. Iran verfügt genauso wenig wie Russland über die Technologie für eine LNG-Kette. Iran bekommt keine Unterstützung solange es an einer Atombombe bastelt. Russland kann sich (noch) mit Importen der Anlagentechnik aus dem Westen im bescheidenen Maße behelfen.

Allein in den USA befinden sich zwanzig Anlagen zur Verflüssigung und anschließendem Export in der Genehmigung. Der Weltmarkt für Erdgas wird sich in den nächsten Jahren völlig verändern. Deutliches Zeichen sind die Verwerfungen in den Preisen. In Europa sind die Preise derzeit etwa doppelt so hoch, wie in den USA. In Asien sogar drei bis vier mal so hoch. Hauptursache in Asien sind die enormen Importe durch Japan als Ersatz für die abgeschalteten Kernkraftwerke. Sobald Japan wieder seine Kernkraftwerke in Betrieb nimmt – was technisch innerhalb weniger Wochen möglich wäre – werden die Erdgaspreise in Asien mangels Nachfrage deutlich sinken. Es bietet sich dann an, diese Ströme nach Europa umzuleiten. Ausgerechnet die Golfstaaten verfügen über die größten Verflüssigungsanlagen und Transportflotten. Ganz schlecht für Putin, wenn er weiterhin den Krieg in Syrien schüren will und die muslimischen Krim-Tataren erneut vertreiben will. Putin wird sich mit den Gaspreisen zufrieden geben müssen, die ihm die USA und die arabische Welt zugestehen werden. Ein Ausweichen auf andere Kunden ist praktisch nicht möglich. Pipelines lassen sich im Gegensatz zu Tankerflotten zwar abschalten, nicht aber umleiten.

Fazit

Energie ist immer auch Politik. Eine Tatsache, die nach den Erfahrungen der 1970er Jahre mit den sog. „Ölkrisen“ gern wieder verdrängt wurde. In den vergangenen Jahrzehnten gehörte es für jeden Linken (Schröder, Fischer etc.) zu den festen Glaubensgrundsätzen, daß die USA nur „Kriege wegen Öl“ führen. Stets von Schule bis Medien in diesem Glauben geschult, hat man in Deutschland einfach nicht wahrnehmen wollen, welche Veränderungen (gerade) durch Präsident Bush in den USA stattgefunden haben. In einer gigantischen Kraftanstrengung wurde das gesamte Öl- und Gasgeschäft praktisch neu erfunden.

Heute, gilt mehr denn je, der „Fluch der Rohstoffe“. Länder, die über billige Energievorkommen verfügen, aber nicht verstehen, etwas vernünftiges mit den daraus resultierenden Devisenströmen an zu fangen, drohen durch zu viel Geld weiter zu verarmen. Nigeria, Venezuela und Russland sind hierfür typische Beispiele.

Länder, die durchaus energieautark sein könnten (Deutschland z. B. gehört zu den zehn Ländern mit den größten Kohlevorkommen weltweit), können es sich erlauben, „hochwertige Waren“ gegen „billigere Energie“ (volkswirtschaftlich) gewinnbringend zu tauschen. Man – meint zumindest – sogar auf neuere Fördermethoden verzichten zu können (sog. Fracking-Verbot in Deutschland und Frankreich).

Stellvertretend für die Energieversorgung (im Sinne von Energiepolitik) des 21. Jahrhunderts ist die Kernenergie: Der Brennstoff Uran ist überall, preiswert und in beliebigen Mengen erhältlich. Er ist einfach zu lagern. Kernkraftwerke können über Jahre mit einer Brennstoffladung betrieben werden. Die „Kunst“ besteht in der Beherrschung der Technik. Die Ersatzteile, das Fachpersonal und der allgemeine industrielle Hintergrund bestimmen die Versorgungssicherheit. Insofern dürfte sich Rußland durch seine Abenteuer in der Ukraine auch aus diesem Geschäftsbereich selbst herauskatapultiert haben.

Wende der „Energiewende“?

Die „Energiewende“ scheint unwiederbringlich ihren Zenit überschritten zu haben. Um so hektischer und peinlicher werden die Rettungsvorschläge. Immer heftiger wird der „Ausstieg aus dem Ausstieg“ dementiert.

Der dreidimensionale Schraubstock der Strompreise

Langsam dämmert es immer mehr Menschen in Deutschland, daß sie durch die ständig steigenden Strompreise mehrfach ausgequetscht werden:

  1. Jedes mal, wenn die Stromrechnung wieder etwas höher ausgefallen ist, geht ein Stück vom Kuchen des eigenen Einkommens verloren. Den Euro, den man an seinen Energieversorger bezahlt hat, kann man nicht noch einmal ausgeben. Nicht für Urlaub usw. – nein, auch nicht für die Anschaffung eines neuen Kühlschrankes mit Energie-Spar-Aufkleber! Mag das Stück vom Kuchen manchem auch klein erscheinen, so ist das sehr relativ: Bei Rentnern, Studenten, Arbeitslosen etc., ist der Kuchen des Familieneinkommens meist recht klein. Strompreise sind sozialpolitisch die Brotpreise von heute! Last euch das gesagt sein, liebe Genossinnen und Genossen von der SPD!
  2. Jedes Unternehmen benötigt elektrische Energie! Die Ausgaben für „Strom“ sind genau so Kosten, wie Material und Löhne und müssen damit über die Preise an die Kunden weiter gegeben werden. Hier zahlen wir zum zweiten Mal! Selbst „ökologisch wertvolle Betriebe“ sind davon nicht ausgenommen: So macht allein die „EEG-Abgabe“ bei den Berliner Verkehrsbetrieben 20 Millionen Euro pro Jahr – Kosten oder Nicht-Kosten – aus. Wie war das doch noch mal, liebe Grün-Alternativen? Sollten wir nicht mehr mit der Bahn fahren? Wegen „Klima“ und so?
  3. Kosten sind Kosten. Steigen die Energiekosten, müssen andere Ausgaben gesenkt werden. Das werdet ihr spätestens bei den nächsten Tarifverhandlungen noch lernen, liebe Gewerkschaftsfunktionäre. Vielleicht auch nicht mehr, weil eure Betriebe bereits dicht gemacht haben. Die Goldader, die jedes Unternehmen angeblich im Keller hat, von der ihr nur ein größeres Stück abschlagen müsst, war nur ein Märchen. Sonst hättet ihr das ja auch schon längst gemacht, gelle?

Um es noch einmal klar und deutlich in einem Satz zu sagen: Steigende Energiepreise bedeuten höhere Ausgaben bei steigenden Preisen und sinkenden Einkommen. Wer das Gegenteil behauptet, lügt! Mögen die Lügen auch in noch so wohlklingende Worte verpackt sein.

Der klassische Verlauf

Es ist immer der gleiche Ablauf, wenn sich Politiker anmaßen, die Gesellschaft zu verändern. Egal, ob über „Bauherrenmodelle“, „Filmfonds“, „Abschreibungsmodelle für Containerschiffe“ oder eben das „EEG“. Am Anfang steht eine Vision von einem angeblichen Mangel. Flugs nimmt die Politik einen Haufen fremdes Geld – besser gesagt unser aller Geld – in die Hand und verteilt dieses um. Am unbeliebtesten ist dabei der Einsatz von Haushaltsmitteln – schließlich hat man ja noch eine Menge anderer toller Ideen. Früher waren sog. „Sonderabschreibungen“ ein probates Mittel die Gier zu befriedigen. Leider wurde von den Investoren meist übersehen, daß der Staat nur Steuern stundet, nicht aber verschenkt. Das ökosozialistische Ei des Kolumbus war die Schaffung eines Schattenhaushaltes in der Form des „EEG“ durch „Rot/Grün“. Allen Modellen gemeinsam, ist die Gier und Unwissenheit potentieller Investoren.

Aus letzterem Grund ist der zeitliche Ablauf immer gleich: Sobald das Gesetz verabschiedet ist, schlagen die Profis aus den Banken etc. zu. Sie machen tatsächlich Gewinne. Nach einer gewissen Zeit jedoch, sind die besten Grundstücke usw. vergeben. Gleichzeitig steigen durch die erhöhte Nachfrage die Preise der Hersteller. Jetzt schlägt die Stunde des (halbseidenen) Vertriebs. Profis, wie Banken, steigen aus und verscherbeln ihre Investitionen mit Gewinn an die Kleinanleger. Jetzt werden die Laien skalpiert. Selbst diese Phase geht bei Wind, Sonne und Bioenergie langsam zu Ende. Der letzte Akt beginnt.

Unternehmen, die sich die Sache in ihrer Gier bedenkenlos schön gerechnet haben, gehen Pleite. Die Investoren verlieren nicht nur ihr Geld, sondern leiten eine Abwärtsspirale ein: Ihre Objekte kommen nun auf den Markt und erzielen nur noch reale Preise, die meist deutlich unter den Herstellungskosten liegen. Die Verwerter stehen bereit. Wie schnell die Preise bei Zwangsversteigerungen purzeln, kennt man z. B. von den „Bauherrenmodellen“ nach der Wende. Dies betrifft aber nicht nur diese gescheiterten Investoren. Plötzlich machen neue Preise die Runde. Über Nacht ist kein Investor mehr bereit, die überhöhten Preise zu bezahlen. Es entsteht schlagartig ein enormer Kostendruck auf der Herstellerseite. Der größte Teil der Hersteller wird in den nächsten Jahren vom Markt verschwinden. Ganz so, wie die aufgeblähte Bauindustrie nach der Wende.

Interessant ist, wie die eigentlichen Täter, die Politiker reagieren. Sie schreien unverzüglich: Haltet den Dieb! Nicht etwa die „Energiewende“ ist schuld, sondern es müssen schärfere Kapitalmarktkontrollen zum Schutz der Anleger her. Man erblödet sich nicht, Jahrzehnte alte Finanzinstrumente (Genußscheine) in Verruf zu bringen. Ganz so, als würde sich ein Schnapsfabrikant hinstellen und die Flaschenhersteller dafür verantwortlich machen, daß sie an den bedauernswerten Alkoholikern schuld tragen.

Die Milderung des Anstiegs oder die Quadratur des Kreises

Eigentlich ist die Sache ganz einfach: Entweder man gibt die Menge elektrischer Energie zu einem bestimmten Zeitpunkt vor und kann sich dann die erforderliche Anzahl Apparaturen und die dafür notwendigen finanziellen Mittel ausrechnen oder man gibt den Zahlungsstrom vor und kann sich ausrechnen, wieviel Strom man dafür erhält. Beides gleichzeitig geht nicht, weil beides streng voneinander abhängt. Soll keiner nachher wieder sagen, man hätte ja nichts davon gewusst oder eigentlich wäre eine „Energiewende“ ja ne tolle Sache gewesen.

Der neuerdings propagierte sanfte Ausbau, hat allerdings seine Logik. Es ist die Logik des Machterhalts. Würde man eingestehen, daß die „Energiewende“ Unsinn ist, würde man die „systemrelevante“ Frage nach der Allwissenheit der Politik stellen. Wenn man einmal zugibt, daß der Kaiser nackend ist, ist die Nomenklatura am Ende. Deshalb muß weiter gelten: Die Partei hat immer recht. Jedenfalls so lange, bis die Mehrheit des Volkes nicht mehr bereit ist, dieses Spiel mit zu spielen. Dann ist wieder einmal „Wendezeit“.

Mancher Politiker bekommt langsam Ohrensausen. Wer noch einen Rest von „Kontakt zum Volk“ hat, merkt den wachsenden Zorn über steigende Strompreise. Wenn jetzt auch noch die Angst vor dem Verlust des Arbeitsplatzes hinzukommt, könnte die Sache eng werden.

Der Popanz von den bösen Kapitalisten, die ihren Anteil an der „Ökostromumlage“ nicht zahlen wollen, kann nur bei besonders einfältigen oder gläubigen Menschen verfangen. Menschen, die etwas aus der Geschichte gelernt haben, sehen die Gefahr der „Ulbrichtfalle“ aufziehen: Je mehr Unternehmen ihre Standorte ins Ausland verlagern, um so mehr lukrative Arbeitsplätze gehen verloren. Den Unternehmen werden wieder die Menschen in Richtung Freiheit und Wohlstand folgen. Wie soll der Ökosozialismus reagieren? Mauer und Schießbefehl im Internetzeitalter?

Wie panisch die Reaktion der Politiker wird, zeigt der Plan, auch auf die sog. Eigenstromerzeugung die „EEG-Umlage“ zu erheben. Bisher war doch die Kraft-Wärme-Kopplung ein Bestandteil der „Energiewende“. Unternehmen, die „energieeffizient“ waren, haben sich solche Anlagen gebaut. Oft genug, am Rande der Wirtschaftlichkeit. Jetzt sollen sie mit der „EEG-Umlage“ dafür bestraft werden. Natürlich mit einem etwas geringeren Satz. Hier wird wieder einmal unverhohlen gezeigt, daß es gar nicht um Umweltschutz geht, sondern nur darum, „die Belastbarkeit der Unternehmen zu testen“. Klassenkampf in Reinkultur. Die gleichen Funktionäre, die immer von dem notwendigen Investitionsschutz säuseln (wenn es um die Photovoltaik auf dem Dach der eigenen Klientel geht), gehen mit Eigentumsrechten bei Kraftwerken locker um – egal ob es sich um Kernkraftwerke oder fossile Anlagen handelt. Langsam, aber sicher, entwickelt sich Deutschland in der Eigentumsfrage immer mehr zur Bananenrepublik. Das Kapital ist aber bekanntermaßen scheu und ängstlich. Deshalb verfällt man immer mehr auf eine „Bürgerbeteiligung“. Zu was es führt, wenn sich Banken wegen des unvertretbar hohen Risikos zurückziehen (müssen), sieht man gerade am Fall Prokon.

Die Bedeutung von Leistung und Energie

Leistung (kW) ist leider nicht gleich Energie (kWh). Entscheidend bei der Berechnung der erzeugten Energie aus der Nennleistung einer Anlage (kW) ist die Zeitdauer (h), in der die Leistung des Typenschilds wirksam ist. In Deutschland beträgt diese Zeitspanne bei Photovoltaik deutlich unter 1000 Stunden pro Jahr und bei Windmühlen deutlich unter 3000 Stunden pro Jahr. Will man nun eine bestimmte Menge elektrischer Energie (z. B. 50 % oder gar 100 % des gesamten Stromverbrauches in einem bestimmten Jahr) erzeugen, muß man diesen Wert (kWh/a) durch die „Vollbenutzungsstunden“ (h/a) des entsprechenden Verfahrens teilen. Man erhält die Leistung (kW), die mindestens installiert werden muß. Da z. B. die Sonne nur recht selten scheint (nachts ist es dunkel, an vielen Tagen trübe) erhält man sehr große (rechnerische) Leistungen die installiert werden müssen. Dieser Zusammenhang ist trivial, aber ausschlaggebend für das zwingende Scheitern einer Energieversorgung ausschließlich durch „Erneuerbare Energien“. Die Sache hat nämlich zwei Harken:

  1. Wenn die Natur keine, dem momentanen Bedarf entsprechende Erzeugung (Nacht, Flaute etc.) zuläßt, muß die elektrische Leistung über konventionelle Kraftwerke bereitgestellt werden. Hierzu zählen auch alle großtechnischen Speichersysteme, da dort die Rückwandlung immer über konventionelle Verfahren führen muß (Wasserkraft, Turbinen etc.).
  2. Wenn der Wind mal richtig weht oder ein strahlend blauer Himmel vorhanden ist, ist die erzeugte Leistung sehr schnell und sehr oft größer als die gerade im Netz verbrauchte Leistung. Physikalisch gibt es nur drei Möglichkeiten, dem entgegen zu treten: Man schaltet (teilweise) Windmühlen oder Sonnenkollektoren ab, entsorgt den Überschuß in benachbarte Netze oder erhöht künstlich den Verbrauch (Speicher). Es lohnt sich, diese drei Möglichkeiten etwas näher zu hinterfragen.

Immer, wenn man gezwungen ist, Anlagen wegen Überproduktion abzuschalten, wird das für den Stromkunden sehr teuer. Die entsprechende Anlage produziert noch weniger Strom und muß diesen deshalb noch teurer verkaufen um ihre Investitions- und Betriebskosten abdecken zu können. Deshalb hat die Politik den Abnahmezwang eingeführt. Die Kosten werden bewußt auf die Verbraucher abgewälzt, um die Produzenten zu schonen. Man könnte auch sagen, weil sich die „Vollbenutzungsstunden“ (h/a) verringern, muß man zusätzliche „Schattenanlagen“ errichten, um die angestrebte Energieausbeute zu erreichen. Physikalisch betrachtet funktioniert das nicht einmal, da man zu jedem Zeitpunkt Produktion und Verbrauch im Gleichgewicht halten muß! Aus diesem Grund hat sich die Politik für den zweiten Weg entschieden. Wenn man etwas nicht gebrauchen kann, nennt man es Abfall. Um Abfall zu entsorgen, muß man immer eine Gebühr entrichten. Dies geschieht an der Strombörse: Die gewaltsame Abnahme geschieht über den Preis. Der Strompreis für den „Alternativstrom“ wird stets so niedrig angesetzt, daß er gerade noch einen Käufer findet. Ist die Energie für niemanden mehr etwas wert, muß die Entsorgung sogar bezahlt werden (negative Strompreise an der Börse). Ganz genau so, wie bei der Müllverbrennungsanlage, wo man für die Dienstleistung der Abfallbeseitigung auch eine Gebühr entrichten muß. Der dritte Weg ist uns dadurch bisher erspart geblieben: Man baut zusätzliche Stromverbraucher (z. B. zur Erzeugung von synthetischem Erdgas) und produziert damit sehr teuer ein Produkt, welches ohnehin im Überfluß vorhanden und billig zu kaufen ist. Jedenfalls erheblich billiger, als elektrische Energie! Dieses System verkauft man als „Speichertechnologie“, weil man anschließend dieses Erdgas wiederum unter erheblichen Verlusten in Gaskraftwerken verfeuert, die man dringend für die Zeiten der Flaute und Dunkelheit benötigt. Hat es je in der Menschheitsgeschichte eine einfältigere Idee gegeben? Wenn das jemanden an etwas erinnert; richtig, an die Fleischversorgung durch Kleintierhaltung mittels der Verfütterung von subventioniertem Brot im (realexistierenden) Sozialismus.

Wenn man etwas unter den Gestehungskosten verkauft, nennt man das gemeinhin Dumping. Genau das, geschieht täglich an der Strombörse. Es ist nur eine Frage der Zeit, wie lange sich das unsere europäischen Nachbarn noch gefallen lassen. Mit jeder Windmühle und jedem Sonnenkollektor, die zusätzlich in Betrieb gehen, wird dieses Dumping größer. Die Differenz zwischen Erzeugungskosten und erzielbarem Preis nennt man „EEG-Umlage“. Die ungekrönte Königin der Schlangenölverkäufer Frau Professor Claudia Kemfert sieht das natürlich ganz anders. In einem Interview vom 27.1.14 in der Zeitschrift Cicero antwortet sie auf die Frage nach einer Umstellung der Ökostrom-Umlage in ihrem Sinne:

„Die EEG-Umlage hat sich bewährt. Schon jetzt sinken die Erzeugungskosten für erneuerbare Energien. Trotzdem sollte man die Ausnahmen für energieintensive Industrien endlich auf ein vernünftiges Maß vermindern – allerdings nur für Unternehmen, die wirklich energieintensiv sind und im internationalen Wettbewerb stehen. Im Gegenzug sollte man die Umlage an Gegenmaßnahmen koppeln, wie die Verbesserung der Energieeffizienz. Außerdem muss der Börsenpreis stabilisiert werden: Würde nämlich der niedrigere Börsenpreis für die Erneuerbaren an die Verbraucher weitergegeben, könnte der Strompreis schon heute stabil bleiben, wenn nicht sogar sinken. Dazu könnte man überschüssige Stromkapazitäten aus dem Markt nehmen und den CO2-Preis deutlich erhöhen.“

Selten dürfte es einem Professor gelungen sein, soviel Unsinn in nur einem Absatz von sich zu geben. Selbst wenn die Erzeugungskosten (Ausgaben für Kredite, Personal, Wartung, Betriebsmittel etc.) sinken – was sich erst noch zeigen muß – hat das keinen Einfluß auf den Preis. Ein Preis bildet sich aus dem Zusammenspiel von Angebot und Nachfrage. Immer, wenn mehr angeboten wird als gebraucht wird, sinkt im Handel der Preis. Wenn man sein verderbliches Gemüse überhaupt nicht an den Mann bringen kann, muß man für die Beseitigung auch noch Entsorgungskosten bezahlen – an der Strombörse „negative Preise“ genannt. Die Differenz zwischen den Gestehungskosten und dem (erzielbaren) Preis am Markt, nennt man Verlust. Die Verluste müssen aber irgendwie abgedeckt werden, da sonst die Windmüller und Sonnensammler in wenigen Wochen pleite wären. Damit genau das nicht passiert, wurde die „EEG-Umlage“ geschaffen: Sie legt diese Verluste auf die Verbraucher um. Die Strombörse ist ein hervorragender Anzeiger für das jeweilige Verhältnis von Stromproduktion zu Stromnachfrage – ausgedrückt in der Einheit Euro pro MWh. Nicht mehr, aber auch nicht weniger. Je weiter der Börsenpreis unter den Erzeugungskosten liegt, um so größer ist das Überangebot zu diesem Zeitpunkt. Es gibt überhaupt nichts weiter zu geben. Das System ist ja gerade für gleiche Strompreise geschaffen worden: Die tatsächlich erzielten Börsenpreise werden durch die „EEG-Umlage“ auf den Cent genau zu den staatlich garantierten Kosten ergänzt. Bisher mußten nur die konventionellen Kraftwerke ihre Verluste selbst tragen. Sie stellen deshalb (einer, nach dem anderen) einen Antrag auf Stilllegung. Die zuständige Behörde stellt dann ihre „Systemrelevanz“ fest (irgendeiner muß ja auch Strom bei Dunkelheit und Flaute liefern) und sie bekommen ihre Verluste ebenfalls durch eine (neue) Umlage für die Stromverbraucher ersetzt. Frau Kemfert wäre aber nicht Frau Kemfert, wenn sie nicht ein Interview mit etwas Klassenkampf aufpeppen würde und für „vernünftige“ Belastungen der Industrie plädieren würde. Ein richtig rausgehängter Klassenstandpunkt konnte in Deutschland schon immer mangelnde Fachkenntnisse kompensieren. Ist die Deutsche Bahn mit ihren ICE nun „wirklich energieintensiv“? Dafür steht sie aber nicht so „im internationalen Wettbewerb“, wie die Friseurmeisterin in Berlin (70 km von der polnischen Grenze, mit regem Busverkehr zum Polenmarkt mit billigen Zigaretten, billigerem Sprit und allerlei sonstigen Dienstleistungen). Dafür könnte die Bahn wieder durch die „Verbesserung der Energieeffizienz“ punkten, sie müßte einfach nur etwas langsamer fahren oder die Zugfolge ausdünnen. Im letzten Satz scheint sie doch noch die Kurve zu kriegen: „könnte man überschüssige Stromkapazitäten aus dem Markt nehmen“. Genau richtig, mit jeder Windmühle und jedem Sonnenkollektor die man verschrottet, senkt man sofort und unmittelbar den Strompreis für die Verbraucher!

Das Märchen von der immer billiger werdenden „Erneuerbaren Energie“

Der Slogan: „Die Sonne schickt keine Rechnung“ war nichts weiter, als ein Werbespruch für besonders schlichte Gemüter. Natürlich schickt die Sonne keine Rechnung. Genau so wenig, wie ein Kohlenflöz oder eine Ölquelle. Aber die Gerätschaften zum Einsammeln und Umformen kosten bei allen Energiearten Geld. Nicht der Wind, sondern die Windmühle verursacht die Kosten. Da aber, jede technische Anlage ständig repariert und einst auch erneuert werden muß, wird auch der Strom aus Wind und Sonne nie umsonst sein.

Weil von Anfang an die Herstellung elektrischer Energie aus Wind und Sonne sehr viel teurer war, hat man den Mythos irgendwelcher Lernkurven gepflegt. Selbstverständlich gibt es Lernkurven. Nur sind die – bei Windmühlen ganz offensichtlich – extrem flach. Windmühlen gibt es nämlich schon seit über 2000 Jahren. Ganz anders, als z. B. Computer.

Blieb noch die Möglichkeit, mit dem stets kleiner werdenden Abstand zu argumentieren, da ja die anderen Energieträger immer teurer würden. Warum sollten die aber immer teuerer werden, wenn es doch Lernkurven gibt? Logisch, weil die doch endlich sind. Ganz neben bei, ist die Lebensdauer unserer Sonne auch endlich. Eine solche Aussage ist also ohne die Angabe einer konkreten Lebensdauer völlig sinnlos. Flugs, ward die Theorie von peakcoal und später peakoil erschaffen. Man setzt einfach die bekannten Vorkommen als einzig und endlich an und kann damit ausrechnen, daß diese schon in „nächster Zeit“ erschöpft sind oder doch wenigstens deren Preise explodieren. Wäre vielleicht so gewesen, wenn es nicht den menschlichen Erfindergeist und den Kapitalismus geben würde. Wir haben heute die größten Vorkommen an Öl, Erdgas, Kohle, Uran usw. in der Menschheitsgeschichte, bei gleichzeitig größtem Verbrauch aller Zeiten. Die Primärenergiepreise (zumindest als Relativpreise) werden deshalb eher wieder sinken als steigen. Jedenfalls haben wir auf der Basis des heutigen Verbrauches und heutiger Relativpreise Vorräte für Jahrtausende.

Den Anhängern der Planwirtschaft blieb nichts anderes übrig, als ein neues „Marktversagen“ zu konstruieren: Die Klimakatastrophe durch die Freisetzung von CO2 war geboren. Gut und schön, man hätte unbestreitbar sehr viele fossile Energieträger, könnte die aber gar nicht nutzen, da man sonst das Klima kaputt machen würde. Es müßte daher – möglichst sofort – eine CO2.-freie Stromerzeugung her und da der Markt so etwas ja gar nicht regeln könne, muß der Staat lenkend eingreifen. Als wenn jemals die Planwirtschaft etwas anderes als Armut und Elend erzeugt hätte!

Es wird aber trotzdem für die Schlangenölverkäufer der Wind- und Sonnenindustrie immer schwieriger, den Leuten das Märchen von den billiger werdenden „Erneuerbaren“ zu verkaufen. Immer mehr Menschen erinnern sich daran, daß es nachts dunkel ist und manchmal tagelang der Wind kaum weht. Es muß also ein komplettes Backupsystem für diese Zeiten her. Egal ob mit Kohle, Erdgas, Kernenergie oder „Biomasse“ betrieben oder als Speicher bezeichnet. Zwei Systeme sind aber immer teurer, als nur ein System. Immer mehr (denkende) Menschen stellen sich daher die Frage, warum man krampfhaft versucht, unserem funktionierenden und (ehemals) kostengünstigen Stromversorgungssystem ein zweites – zu dem mit äußerst zweifelhafter Umweltbilanz – über zu stülpen.

Was hat das alles mit Kernenergie zu tun?

Erinnern wir uns an die Zeit unmittelbar nach dem Unglück in Fukushima. Die Kanzlerin wollte einen neuen Koalitionspartner. Nun, den hat sie inzwischen gefunden. Die FDP wollte die Grünen noch links überholen und warf all ihre Wahlversprechen über Bord. Nun, der Wähler hat das demokratisch gewürdigt und sie aus dem Bundestag gewählt. Alle deutschen „Qualitätsmedien“ haben gierig die Fieberträume der „Atomkraftgegner“ von „Millionen Toten und zehntausende Jahre unbewohnbar“ nachgeplappert. Nun, es hat immer noch keinen einzigen Toten durch die Strahlung gegeben. Die Aufräumarbeiten schreiten zielstrebig voran und die „Vertriebenen“ kehren langsam in ihre alte Wohngegend zurück. Kurz gesagt, das Unglück hat viel von seinem Schrecken verloren, den es für manche tatsächlich gehabt haben mag.

Deutschland ist das einzige Land auf der Welt, das aus der Kernenergie aussteigen will. Inzwischen sind zahlreiche Neubauten beschlossen. Wohlgemerkt nach Fukushima, hat Großbritannien den Neubau einer ganzen Flotte Kernkraftwerke beschlossen. Selbst Schweden – das Ausstiegsvorbild schlechthin – hat vor wenigen Wochen ein über zehn Jahre angelegtes Verfahren zur Bürgerbeteiligung zum Neubau neuer Kernkraftwerke eingeleitet. Nach Deutschland geh voran, wir folgen dir, sieht das alles gar nicht aus.

Wie ist nun die aktuelle Situation in Deutschland? Abgeschaltet wurden die älteren und kleineren Kernkraftwerke. Die Frage der Entschädigung für diese Enteignungen ist noch lange nicht durch. Die Streitsumme wird allgemein auf 15 Milliarden Euro geschätzt. Einmal Mütterrente, so zu sagen. Mögen sich deutsche Politiker auch auf ihre Kombinatsleiter und deren Stillhaltung verlassen: Vattenfall ist ein schwedischer Konzern und geht von Anfang an den Weg über die internationale Handelsgerichtsbarkeit. Die Konsequenzen einer internationalen Verurteilung wegen einer unrechtmäßigen, entschädigungslosen Enteignung, übersteigt offensichtlich das Vorstellungsvermögen deutscher Provinzpolitiker bei weitem.

Oder, man geht die Sache anders an. Erst in den nächsten Jahren wird der „Atomausstieg“ zu einem echten Problem, wenn nämlich die großen Blöcke in Süddeutschland vom Netz gehen sollen. Dann erst, werden die Strompreise richtig explodieren. Einerseits, weil die immer noch beträchtlichen Mengen „billigen Atomstroms“ aus der Mischkalkulation fallen und andererseits noch sehr kostspielige Maßnahmen für Netz und Regelung nötig sind. Gnade dem Unternehmen in Süddeutschland, dessen Lieferverträge in den nächsten Jahren erneuert werden müssen. Die immer wieder gern propagierten 5,6 bis 6,6 Cent pro kWh für Industriestrom sind nämlich nur die halbe Wahrheit. Hinzu kommt noch der Leistungspreis für die Bereitstellung. Grob gerechnet, ist der Anteil für Leistung und Energie jeweils die Hälfte der Stromrechnung. Die Eigenversorgung soll ja bald auch kein Ausweg mehr sein. Es wird jedenfalls spannend werden, einen SPD-Energieminister zwischen den Stühlen der Gewerkschaftsfunktionäre und dem linken Flügel seiner Partei schwitzen zu sehen.

 

 

Erdgas oder Kernenergie

oder Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

  1. Welche Brennstoffe oder sonstige „Rohstoffe“ (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?
  2. Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?
  3. Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die „Energiewende“ eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese „Erstanwender“ finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese durch die sog. „Ölpreisbindung“ im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine „Gasblase“, die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen – wie z. B. in Rußland und dem Iran – kann das Jahrzehnte andauern ohne daß die Fördermenge merklich absinkt. Weit aus größer sind jedoch die Vorkommen von sog. „unkonventionellem Gas“. Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der „Shale Gas Revolution“ wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer wie in den USA. Preisunterschiede – sofern sie hoch genug sind und längerfristig erscheinen – werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das „neue Gas“ unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an dem lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran – aus den vorgenannten Gründen – nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis – wie in Teilen der USA – wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis – wie in Deutschland und den Niederlanden – werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen „Träumen vom Elektromobil“.

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die „Verwerter“ kommen auf den Plan. Typische „Verwerter“ sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen wie z. B. in der Schifffahrt.

Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage – insbesondere nach sauberen Energieträgern – weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Indien, das schwarze Loch der Energie?

Indien ist (noch) das zweitbevölkerungsreichste Land der Erde. Jedes Jahr wächst die Bevölkerung um 15 Millionen. Will man die Energieproblematik verstehen, muß man sich diese Zahl in aller Deutlichkeit anschaulich machen: Etwa alle fünf Jahre kommt einmal Deutschland hinzu! Selbst wenn man diese Menschen nur mit dem Existenzminimum (Nahrung, Kleidung, Wohnen) versorgen will, ergibt das mehr, als wir mit Wind und Sonne erzeugen. Das übliche Geschwurbel vom „Energiesparen“ hilft auch nicht weiter, wenn man bereits am Existenzminimum lebt. Viel eher sollte man sich vielleicht mal der eigenen Geschichte erinnern: Nach dem Krieg war eine Schule in einer Baracke besser als gar keine Schule, in den 1960er Jahren eine Turnhalle mit Einfachverglasung ein riesiger Fortschritt und das Gesamtschulzentrum mit Asbest das „Bildungsideal“ des ausgehenden zwanzigsten Jahrhunderts. Die Inder, Chinesen und Afrikaner sollen demgegenüber doch bitte gleich mit „Erneuerbaren“ starten, schließlich geht es doch um unser aller Klima! Die können doch glücklich sein, daß sie unsere „Fehler“ nicht noch einmal machen müssen und gleich die Welt retten dürfen. Es ist schon putzig, wenn man die Töchter der Generation Gesamtschule vom „smart grid“ schwärmen hört, mit dem man doch die Waschmaschine nur bei Wind laufen lassen könnte. In den Ohren einer Inderin aus der (indischen) Mittelschicht, die sich über ihren neuen Kohleherd freut und von heißem Wasser aus der Wand zur Unterstützung der Handwäsche träumt, wahrlich märchenhafte Dinge. Interessant wird nur sein, ob die indischen Frauen nach der Befreiung durch elektrische Haushaltsgeräte auch ihre gewonnene Zeit in irgendwelchen „grün/alternativen“ Seminaren vergeuden werden.

Manch einer mag sich an dieser Stelle fragen, was dies alles mit Kernenergie zu tun hat. Nun, die Antwort findet man sowohl in der eigenen Geschichte („Der Himmel über der Ruhr muß wieder blau werden“, Wahlkampfslogan der SPD aus deren „Kohle und Kernenergie“ Phase) als auch im aktuellen China:

  • Wohlstand und Pro-Kopf-Energieverbrauch sind die zwei Seiten ein und derselben Medaille.
  • Jede Form der Energieumwandlung (auch Wind, Sonne, Biomasse etc.) erzeugt Belastungen für die Umwelt. Man kann diese Belastungen durch den Einsatz von Technik und Kapital sehr stark mildern – niemals aber völlig ausschließen.
  • Durch die Nutzung verschiedener Energieträger kann man deren jeweilige Belastung unterhalb von akzeptablen Grenzwerten halten.
  • Man kann jeden Euro nur einmal ausgeben! Den Gewinn aus „billiger Energie“ kann man für andere Zwecke einsetzen. Umgekehrt gilt aber auch, daß man die Beträge, die man für (vermeintlich) umweltfreundlichere Energieformen aufwendet, nicht noch einmal ausgeben kann. Hier ist eine eigene politische Abwägung in jeder Gesellschaft erforderlich.

Die Rolle der Kohle

Mit dem letzten Punkt, sind wir unmittelbar bei der bevorzugten Nutzung von Kohle in Indien und vergleichbaren Ländern angekommen. Kohle ist relativ gleich verteilt. Anders als Öl und Gas. So gibt es auf dem gesamten indischen Subkontinent reiche Kohlevorkommen in unterschiedlicher Qualität. Sie reichen von Kokskohle im (nordöstlichen) Bundesstaat Jharkhand bis zu Braunkohle im pakistanischen Thar-Gebiet. Alles riesige Vorkommen, relativ dicht unter der Oberfläche. Einerseits ein Vorteil, andererseits ein Fluch für die Umwelt. Kohle läßt sich einfach lagern und transportieren – notfalls auf dem Esel. Sie wird deshalb nicht nur in Kraftwerken verfeuert, sondern überall in Industrie und Haushalt. Gerade diese unzähligen Kleinfeuerstätten verpesten die Luft in unerträglichem Maße. Ganz ähnlich, wie im London der 1950er Jahre. Noch ist in Indien der Entwicklungsstand – in China beginnt diese Phase gerade – nicht erreicht, große Gasnetze aufzubauen und systematisch die Kohleherde aus den Städten zu vertreiben. Die knappen Mittel müssen halt auch für Abwasser- und Trinkwassernetze etc. herhalten!

Bergbau in Indien

Indien liegt nach China und den USA bei der Förderung auf Platz drei. Gleichzeitig aber bei den Importen schon auf Platz vier. Schon diese Tatsache deutet auf einige Probleme hin. Die Probleme der indischen Kohlewirtschaft lassen sich bestens durch die drei Begriffe: Armut, Sozialismus und kriminelle Energie umschreiben. Stellvertretend steht die Entwicklung im Gebiet um Jharia. Einst ein Naturparadies, gleicht es heute eher Dantes Hölle. Hier lagern Milliarden Tonnen leicht abbaubarer Kokskohle (beste Qualität). Seit 1896 wird sie abgebaut. Das Elend begann mit der Verstaatlichung 1971. Ab 1973 begann die Bharat Coking Coal Limited (BCCL) mit einem Raubbau durch großangelegte Tagebaue. Seitdem brennt die Landschaft. Die angeschnittenen Kohlenflöze haben sich entzündet und brennen unterirdisch weiter. (siehe z. B.: http://www.bbc.co.uk/news/world-asia-india-23422068 oder http://www.youtube.com/watch?v=kYNLerVxUiA) Ganze Dörfer, Eisenbahnlinien und Straßen sind inzwischen eingestürzt. Nicht unwillkommen für die Minengesellschaft, da es sich entweder um Staatsbesitz (Eisenbahn) oder ungesicherte Eigentumsverhältnisse (Ureinwohner) handelt. Nach Vertreibung kann man billig baggern. Zusätzlich graben tausende entwurzelter Menschen in dickem Qualm illegal nach Kohle. Diese „dem Staat geklaute“ Kohle wird anschließend von (teilweise staatlichen) Firmen für wenige Cent aufgekauft. Alles unter den Augen und dem Mitverdienst von lokalen Politikern.

Inzwischen sind die Zustände in ganz Indien unhaltbar geworden. Es gibt einen stetig steigenden Bedarf an Kohle zur Stromerzeugung. Der Energieverbrauch pro Kopf ist in Indien einer der geringsten weltweit. Weniger als 60% der Haushalte sind überhaupt an das Stromnetz angeschlossen. Wollte man den pro Kopf Verbrauch in Indien nur auf die Hälfte des Wertes der industrialisierten Ländern anheben, müßte man die Stromproduktion versechsfachen!

Die Rolle der Kernenergie

Die Annahme eines halb so hohen Energieverbrauches, wie in den Industrieländern ist ein realistisches Ziel. Indien wäre dann etwa auf dem heutigen Niveau von seinem Nachbarn China angekommen. Es erscheint kaum vorstellbar, daß die Entwicklung des Wohlstandes in Indien wesentlich hinter dem von China zurückbleiben kann. Eine soziale Explosion wäre die wahrscheinliche Folge. Jede indische Regierung ist gezwungen – wenn sie politisch überleben will – die vorgelebte Entwicklung nachzuvollziehen.

Wenn aber Entwicklung sein muß, woher kann die dafür notwendige Energie kommen? Öl- und Gasvorkommen sind (jedenfalls bis jetzt) kaum vorhanden. Als Hauptenergieträger wird weiterhin die Kohle bleiben. Sie ist durchaus vorhanden, kann aber nur bedingt zur Verstromung eingesetzt werden. Genau, wie vor einem halben Jahrhundert in Europa und heute in China, setzt der Umweltschutz klare Grenzen. Einfache Kohlekraftwerke sind extreme Luftverschmutzer. Baut man sie hingegen auf dem Standard deutscher Kraftwerksneubauten (Rauchgaswäsche, Entstickung, Ascheverwertung, Abwasseraufbereitung, etc.) bewegt man sich mit den Investitionskosten rasch in die Nähe von (indischen) Kernkraftwerken, bei wesentlich höheren Betriebskosten. Entscheidend ist jedoch, daß man die Kohle, die man in Kraftwerken verbrennt, nicht noch einmal in der Industrie verwenden kann. Dies mag sich trivial anhören, ist aber die Haupttriebfeder für das chinesische Ausbauprogramm. So ist in China beispielsweise der gesamte Transportsektor durch die Energietransporte ständig überlastet. Kernkraftwerke können an den Verbrauchsschwerpunkten gebaut werden und benötigen praktisch keine Transportkapazitäten. Die „freiwerdende“ Kohle soll nahe der Gruben vergast werden und das Gas über Pipelines in die Industriegebiete verteilt werden. Auch Indien wird kaum ein anderer Weg bleiben.

Bisher hat Indien 20 Kernkraftwerke mit einer Nettoleistung von 4385 MWe in Betrieb (Produktion in 2012 rund 30 TWh) und sieben weitere mit 4890 MWe in Bau. Geplant ist ein Ausbau auf 60 GWe bis 2032.

Das Uranproblem

Indien verfügt (bisher) nur über geringe Uranvorkommen. Es setzt daher konsequent auf die Entwicklung schneller Brüter. Die Entwicklung erfolgt in enger Zusammenarbeit mit Rußland.

Indien besitzt aber gigantische Vorkommen an Thorium. Diese sind teilweise sehr leicht abbaubar (Monazidsande). Es setzt daher in den letzten Jahren auch auf Entwicklungen zur Verwendung von Thorium als Brennstoff. Indien besitzt große Erfahrungen mit Schwerwasserreaktoren. Ursprünglich in Lizenz gebaut, gibt es inzwischen eine eigene Weiterentwicklung. Man beschreitet daher konsequenterweise eine weltweit einzigartige Entwicklungsschiene: Die Nutzung von Thorium in Schwerwasserreaktoren.

Man sollte die Fähigkeiten Indiens auf dem Gebiet der Kerntechnik nicht unterschätzen. Schließlich hat es ein umfangreiches nukleares Rüstungsprogramm, von der Bombe bis zum Atom-U-Boot. Wegen seiner Rüstungspolitik, war es bisher als internationaler Partner nicht besonders geschätzt. Dies scheint sich aber in den letzten Jahren massiv zu verändern. Die Ausbauprogramme sind einfach zu verlockend. Das Beispiel China hat gezeigt, wie schnell sich Lizenzgeber, Lieferanten und Kooperationspartner aus aller Welt finden lassen. Wenn überhaupt, dürfte eher der Kapitalbedarf ein Problem darstellen.

Die Versicherung von Kernkraftwerken

In den letzten Wochen taucht wieder vermehrt die Lüge von der „Nicht-Versicherbarkeit von Atomkraftwerken“ auf. Man sollte meinen, daß eine solch schwachsinnige Aussage längst aus dem Repertoire der „Atomkraftgegner“ verschwunden wäre; kann sie doch schon durch eine einfache Eingabe in google widerlegt werden. Vielleicht gilt aber tatsächlich auch im Internetzeitalter noch immer der alte Grundsatz der Diktatoren: Es ist egal ob eine Behauptung falsch oder wahr ist, Hauptsache ist, sie wird ständig wiederholt. Andererseits könnte man daraus auch ableiten, welch armseliges Menschenbild diese „Atomkraftgegner“ vertreten.

Neuerdings erscheint – besonders in deutschen „Qualitätsmedien“ – eine etwas geschicktere Variante: Man behauptet, das Risiko sei nur zu 0,0….x Prozent versichert. Die Angabe einer Zahl, soll wohl die Überprüfbarkeit erschweren und ein Hintertürchen offen lassen. Fragt man nach, bekommt man völlig absurde Schadenshöhen genannt. Es ist der alte Wein von „Millionen Tote und für zehntausende Jahre unbewohnbar“ in neuen Schläuchen. Fragt man nach den entstandenen Kosten von Harrisburg, Tschernobyl und Fukushima, wird einem zumeist im Brustton der Überzeugung entgegengehalten, daß diese erst in zig Generationen (Krebs und genetische Schäden) meßbar werden. Was soll man da noch sagen? Es empfiehlt sich, spätestens hier die Diskussion abzubrechen, denn man berührt zentrale Fragen des Glaubens. Es ist so, als ob man mit einem tiefgläubigem Katholiken die unbefleckte Empfängnis der Jungfrau Maria auf der Ebene biologischer Tatsachen diskutieren wollte.

Zur Geschichte

Im Gegensatz zur Behauptung, hat man vom Anbeginn der zivilen Nutzung der Kerntechnik, eine Versicherungspflicht eingeführt. Bereits 1957 wurde in USA der Price-Anderson Act verabschiedet. Er ist bis heute gültig und dient als internationales Vorbild. Er machte das damals große Risiko durch eine mehrstufige Aufteilung handhabbar. Das Risiko war damals nur schwer erfaßbar, weil es sich um eine neue Technologie handelte. Man war vollständig auf theoretische Abschätzungen angewiesen und es gab bei den Versicherungen noch kein Fachpersonal. Man führte eine erst- und zweitrangige Versicherungspflicht ein. Jedes Kraftwerk muß eine eigene Haftpflicht über aktuell 300 Millionen Dollar (Anpassung alle 5 Jahre vorgeschrieben) nachweisen. Wird in einem Schadensfall diese Summe überschritten, tritt die zweitrangige Versicherung in Haftung. Sie wird aus der Gruppe aller Kraftwerke gebildet und haftet aktuell mit über $10 Milliarden Dollar. Finanziert wird sie durch zusätzliche Zwangsbeiträge aller Kraftwerke. Diese Zweiteilung macht Sinn, da es sich um unterschiedliche Energieversorger, mit unterschiedlichen Reaktortypen handelt. Das unterschiedliche „Gefährdungspotential“ kann durch unterschiedliche Prämien für die erstrangige Versicherung nachgebildet werden. Sollte dieser Betrag immer noch nicht reichen, beschließt der Kongress über die weitere Vorgehensweise zur Finanzierung des restlichen Schadens. Damit ist keineswegs eine Kostenübernahme gemeint, wie dies von „Atomkraftgegnern“ immer wieder behauptet wird, sondern lediglich ein Vorschuß. Wie das Geld wieder von den Verursachern eingetrieben wird (einmalige Sonderumlage, erhöhte Prämien etc.), bleibt bewußt offen und soll gegebenenfalls von der Politik diskutiert und entschieden werden. Diese zeitlich gestaffelte Vorgehensweise bewährt sich gerade beim Unglück von Fukushima. Sie erlaubt sogar die Abwicklung eines Großschadens mit mehreren Reaktoren gleichzeitig und davon allein vier Reaktoren mit Totalschaden an einem Standort.

Wie eine Versicherung funktioniert

Eine Versicherung haftet für den finanziellen Schaden eines definierten Risikos. Von entscheidender Bedeutung ist der Begriff Risiko: Risiko ist Schaden mal Eintrittswahrscheinlichkeit. Bei häufig auftretenden Ereignissen (Auto-, Lebens-, Krankenversicherungen etc.) sind die entsprechenden Werte einfach und zuverlässig durch Statistiken zu ermitteln. Je seltener die Versicherungsfälle sind (z. B. Beine eines Filmstars), je aufwendiger gestaltet sich die Abschätzung des Risikos. Die „Versicherung“ kommt einer Wette im umgangssprachlichen Sinne immer näher. Sowohl für die Bemessung der Prämie, wie auch für die erforderlichen Sicherheiten, ist diese Bandbreite von ausschlaggebender Bedeutung.

Das Risiko ist per Definition ein Produkt aus Schaden und Eintrittswahrscheinlichkeit. Es kann sich also durchaus das gleiche Risiko ergeben, wenn ein großer Schaden selten eintrifft (Kernkraftwerk) oder viele kleine Schäden häufiger (Kfz-Versicherung). Im ersten Fall, muß man die Versicherungssumme über längere Zeit „ansparen“ und vorhalten, während man im zweiten Fall einen Großteil der (laufenden) Schäden aus den jährlich zufließenden Prämien direkt abdecken kann. Es ist (statistisch) nur für die Schwankungen ein Puffer anzulegen.

Eine Versicherung, die im Schadensfall nicht zahlen kann, ist völlig wertlos. Deshalb werden alle Versicherungsgesellschaften streng überwacht. Sie dürfen nur bestimmte Risiken im Verhältnis zu ihrem Vermögen eingehen. Hierdurch ergibt sich eine grundsätzliche Schwierigkeit des „Versicherungswesens“: Die volkswirtschaftliche Bereitstellung von Sicherheiten. Beispielsweise haben allein die deutschen Versicherungen ein „sicherheitstechnisch gebundenes“ Vermögen von fast 1400 Milliarden Euro. Dieses Vermögen muß nicht nur sicher sein, sondern im Ernstfall auch kurzfristig „verflüssigbar“. Aus diesem Grunde besteht es zu über 80% aus Rentenpapieren. Ganz neben bei, liegt hierin auch eine Antwort auf die oft gestellte Frage, wer eigentlich von der „Staatsverschuldung“ profitiert. Andersherum würden bei einem Staatsbankrott weniger „die Reichen“, als wir alle haften. Schließlich ist jeder von uns durch zahlreiche Zwangsversicherungen zumindest indirekt (z.B. Gebäudeversicherung => Miete) beteiligt.

Letztendlich kann man Großschäden nur durch die Verteilung auf viele Versicherungen und international gestreut absichern.

Versicherung versus Staatshaftung

Grundsätzlich kann man Risiken sowohl privatwirtschaftlich (z. B. Autohaftpflicht) wie auch ausschließlich öffentlich (z. B. Eigenversicherung einer Schule) abdecken. Eine privatwirtschaftliche Lösung ist immer zu bevorzugen, wenn eine maximale Kostentransparenz gewünscht ist. Die Eigenversicherung ist hingegen stets billiger: Die Schule wird gar nicht versichert und wenn sie abbrennt, wird sie aus Steuermitteln wieder aufgebaut. Volkswirtschaftlich sind beide Ansätze durch die Bereitstellung von Sicherheiten gar nicht so weit auseinander. Letztendlich haftet immer die gesamte Gesellschaft: Entweder nachher (Kosten im Schadensfall) oder ständig über höhere Preise (Kosten der Versicherungsprämie). Ein Mischsystem aus erstrangiger Privathaftpflicht und nachrangiger Staatshaftung ist oft optimal. Aus diesem Gedanken ergibt sich die maximale Begrenzung der Haftung bei vielen Versicherungen (Auto, Flugzeug etc.). Dies hat erstmal nichts mit der Abwälzung von Kosten auf die Allgemeinheit zu tun, denn die zumeist uneingeschränkte Haftung des Schadensverursachers ist dadurch nicht berührt. Jedenfalls, so lange der Haftende über genügend verwertbares Vermögen verfügt. Abschreckendes Beispiel hierfür, ist die „Asbest-Geschichte“, die sogar zum Konkurs ganzer Konzerne (Combustion Engineering etc.) geführt hat. Ein ähnliches Schicksal dürfte den japanischen Energieversorger TEPCO – und damit seine Aktionäre – ereilen. Im Gegensatz hierzu, steht lediglich das sozialistische Gesellschaftssystem, in dem Verantwortungslosigkeit und nicht vorhandenes Eigentum die Grundprinzipien sind: Für den Schaden in Tschernobyl müssen alle Betroffenen selbst aufkommen, da ja der Staat per Definition „nur gut“ ist und ein solches Unglück deshalb wie eine Naturkatastrophe hereinbricht. Schadensersatzansprüche lassen sich mangels vorhandenem Eigentum auch nicht einklagen. Der Reaktor ist kaputt und der Staat sorgt im „üblichen Rahmen“ für die Geschädigten. Außerdem gibt es im Sozialismus auch gar nichts zu entschädigen, weil es ja kein Eigentum gibt (z. B. vertriebene Bauern). Wahrscheinlich ist hierin die wesentliche Ursache für den laxen Umgang mit Arbeits- und Umweltschutz in den einschlägigen Ländern zu suchen.

Nuklearversicherung als Politikum

Kerntechnische Anlagen sind die einzigen Energieerzeugungsanlagen, für die eine umfassende Versicherungspflicht besteht. Sonst geht die Bandbreite von gar keine Versicherung (Öffentliche Staudämme), über die Minimalbegrenzung von Umweltschäden (Ölverseuchung des Meeres durch Bohrunglücke) zu ewigen Lasten des Bergbaues (das Ruhrgebiet als See). Entscheidend hierbei ist die Wettbewerbsverzerrung. Würde man die fossilen Energieträger durch adäquate Versicherungen (laufend) belasten, wären sie noch weniger konkurrenzfähig. Wenn „Atomkraftgegner“ diese Tatsache in das Gegenteil verdrehen, ist das zwar dreist, aber offensichtlich erfolgreich.

Das Kernenergie die kostengünstigste Form der Erzeugung elektrischer Energie in der Grundlast ist, ist heute Allgemeinwissen. Nach Fukushima kann man das durch die unmittelbar gestiegenen Strompreise sogar sehr genau beziffern. In Japan haben durch die zeitweilige Abschaltung der Kernkraftwerke die zusätzlichen Importkosten für Brennstoffe zweistellige Milliardenbeträge jährlich erreicht. In Deutschland verursacht die „Energiewende“ inzwischen höhere Abgaben für die Subventionierungen des Abfallstromes, als der Strom in den meisten Ländern überhaupt kostet. Bei der Erfindung fiktiver Kosten, stoßen die „Atomkraftgegner“ immer mehr an die Grenzen der Glaubwürdigkeit. Die Vorgehensweise folgt immer der gleichen, simplen Masche: Man erfindet Kosten, damit die Stromerzeugung aus Kernenergie mindestens so teuer, wie der geliebte „Sonnenstrom“ wird (obwohl die Sonne doch gar keine Rechnung schickt!). Alles sehr widersprüchlich und nur für schlichte Gemüter geeignet.

Hat sich eigentlich mal jemand überlegt, was geschehen würde, wenn man mehrere Cent Versicherungsprämie auf die erzeugten Kilowattstunden aufschlagen würde? Es würde sich binnen weniger Jahre ein Kapitalstock gigantischen Ausmaßes bilden. In welche Sicherheiten sollte der denn angelegt werden? Er würde sich vielmehr, wie Krebs über die Finanzmärkte ausbreiten. Vielleicht ist das aber bereits ein neuer Plan von Schwarz-Rot-Grün die Staatsverschuldung wieder „finanzierbar“ zu machen. Eine Versicherung, in die immer nur einbezahlt wird, erscheint wie das Ei des Kolumbus der Staatswirtschaft. Fast so genial, wie eine Rentenversicherung als „Generationenvertrag“.

Die praktischen Erfahrungen

Die private Versicherungswirtschaft hat inzwischen rund 60 Jahre Erfahrung mit der Versicherung kerntechnischer Anlagen. Seit 1956 (UK) auch mit der Bildung von nationalen und internationalen Pools. Es hat sich zu einem sehr lukrativen Geschäft entwickelt. Zu der Haftpflicht kommen heute noch Versicherungen gegen Produktionsausfall, Dekontaminierung nach Störfällen, Kosten zur Beschaffung von Ersatzstrom etc. Solche Versicherungen für interne Schäden, belaufen sich üblicherweise auf mehr als 2 Milliarden Euro pro Reaktor.

Der größte Schadensfall ist bisher das Unglück in Harrisburg (über Fukushima liegen noch keine belastbaren Zahlen vor) mit über 200 Millionen Dollar. Bereits drei Tage nach dem Störfall wurde von der Versicherung vor Ort ein Büro eröffnet, in dem täglich bis zu 160.000 Dollar in bar für Unterbringungskosten, Verdienstausfall etc. ausgezahlt wurden. Letztendlich wurden über 25 Millionen Dollar für die Entschädigung wirtschaftlicher Einbußen an Betroffene ausgezahlt und 70 Millionen Dollar für erlittene medizinische Behandlungen etc. Eine so hohe Summe für einen Versicherungsfall, bei dem zumindest keiner getötet wurde, ist schon außergewöhnlich. Dies liegt an dem extrem eng gefassten Begriff der Haftung im Gesetz, der einer Umkehrung der Beweislast gleichkommt. Alles Tatsachen, die „Atomkraftgegner“ und die einschlägige Angstindustrie gerne leugnen.

Die Krebsgeschwulst der Energiewirtschaft

Es begann alles mit den Subventionen für Wind- und Sonnenenergie. Manche tiefgläubige Politiker halten die zwangsweise Einspeisung von elektrischer Energie zu staatlich festgelegten und garantierten Preisen immer noch für einen ideologischen Exportschlager. Eher ist es so, daß sich die „EEG-Philosophie“ wie Krebs über Europa ausgebreitet hat. Inzwischen ist man schon bei der Förderung neuer Kernkraftwerke (z. B. Großbritannien) und fossilen Kraftwerken als „Kaltreserve“ (z. B. Deutschland) angekommen. Es ist, wie es immer war und sein wird: Einige Politiker wollen mit ihrem Halbwissen in einen Markt eingreifen, um ihn zu verbessern. Zwangsläufig führen ihre Eingriffe zu Störungen an anderen Stellen, die flugs durch weitere Eingriffe beseitigt werden sollen. Eine Kettenreaktion kommt in Gang, an deren Ende meist der Zusammenbruch des gesamten Systems steht. Es scheint also durchaus sinnvoll, sich mit der unterschiedlichen „Rangehensweise“ in Europa auseinanderzusetzen.

Einer oder besser viele?

Historisch gewachsen ist das Modell „integrierter Konzern mit Gebietsmonopol“. In einem geographisch (was meist mit Ländergrenzen gleichzusetzen ist) begrenztem Gebiet hat eine Gesellschaft die Versorgung aller Kunden übernommen. Diese Gesellschaft hat dafür ein Leitungsnetz aufgebaut und betrieben und sich einen passenden Kraftwerkspark zugelegt. Dies geschah in eigener Regie und Verantwortung. In der guten, alten Zeit beschränkten sich die Politiker auf die Forderungen „sichere Versorgung zu günstigen Preisen“, „anständige Dividende“ und „Einhaltung der Gesetze und Vorschriften“. Entscheidend war, daß diese „Stromkonzerne“ wie Kaufhäuser geführt wurden: Alles unter einem Dach. Am Jahresende zählte nur das Gesamtergebnis. Wieviel, welche Abteilung dazu beigetragen hat, war höchstens Insidern bekannt. In der Tat, eine etwas undurchsichtige Angelegenheit. Allerdings weit aus weniger, als Laien (und Politiker sind fast immer Laien!) vielleicht meinen. Sind die internen Zahlen bekannt, sind sie immer auch vergleichbar mit ähnlichen Bereichen in anderen Branchen. Vorteil einer solchen Konstruktion sind die Optimierungsmöglichkeiten und die gegenseitigen Synergien, sowie die günstige Finanzstruktur. Letztendlich läuft alles immer auf die eine Frage hinaus: Was kostet am Ende der Strom? In diesem Sinne, ist z. B. ein Vergleich zwischen Deutschland und Frankreich eindeutig: Die französischen Strompreise bewegen sich im unteren Drittel, Deutschland ist auf dem Weg zur absoluten Spitze.

Das vermeintliche Gegenmodell zum „Staatskonzern a la EDF“ ist die deutsche „Strommarktliberalisierung“. Schon dieser Begriff war einer der dreistesten Neusprech-Schöpfungen in der Geschichte.

  • Man zerschlug gnadenlos bestehende Unternehmensstrukturen: Die regionalen Energieversorger BEWAG (Berlin) und HEW (Hamburg) wurden beispielsweise an den sozialdemokratischen, schwedischen Staatskonzern Vattenfall verschachert. Heute rennen die gleichen Rot/Grünen-Strategen durch die Straßen von Berlin und Hamburg und sammeln Unterschriften zur „Rekommunalisierung“. Aus den einst florierenden Aktiengesellschaften im Landesbesitz sollen über den Zwischenschritt „ausländischer Konzern“ Energiekombinate unter der Leitung von Politkommissaren gemacht werden. Elektrische Energie als neue Kopfsteuer und Zwangsabgabe zur Verwirklichung politischer Ziele – vorbei an Parlamenten und ohne lästige Haushaltsdebatten.
  • Man wandelte die Preisfindung einer Marktwirtschaft in eine reine Planwirtschaft um: Durch das „EEG“ werden nicht nur die Erzeugerpreise staatlich vorgeschrieben, sondern auch die Abnahme der Produktion zwangsweise garantiert. Bei dem Einheitsverkaufspreis (EVP) der zusammengebrochenen DDR handelte es sich noch um ein aufwendiges und strikt reglementiertes Kalkulationsverfahren. Schwarz/Gelb hat daraus die Festlegung der „Einspeisevergütung“ als eine Hinterzimmerveranstaltung unter Politikern gemacht. Der Rahmen eines „Fünf-Jahr-Plan“ wurde durch das Korsett des Abnahmezwanges ersetzt. Damit wurde den Kombinatsleitern der Stromwirtschaft sogar noch die Wahl des Produktionsstandortes entzogen. So viel Staatswirtschaft gab es noch nie auf deutschem Boden.
  • Rot/Grün erschufen die „Strombörse“ als Karikatur einer Börse, in der die eine Abteilung eines Konzerns den Strom an die andere Abteilung des gleichen Konzerns „verkauft“. Gerne benutzen Grüne Politstars diese Art der „Preisfindung“ auch noch als Beweis, daß böse Kapitalisten die „ständig sinkenden Preise an der Strombörse für Wind- und Sonnenenergie“ nicht an die Stromverbraucher weitergeben.
  • Man ist stolz darauf, daß man Ein-Mann-Finanzspekulanten (Photovoltaik auf dem Dach) und Bauernkollektive („Bürgerwindparks“) als neue deutsche Energieversorgungsunternehmen in die Schlacht gegen internationale Milliardenkonzerne geschickt hat. Mal abwarten, wie viele Privatinsolvenzen die Energiewende hinterlassen wird. Bisher haben ja nur super schlaue Stadtwerkedirektoren Millionen in spanische „Sonnenfarmen“ versenkt. Macht ja nichts, werden zum Ausgleich eben die Müllgebühren etwas erhöht.
  • Die Krönung der Volksverdummung war die Idee, haftendes (!) Eigenkapital mit einer Verzinsung von bis zu 5% (!) zur Finanzierung von Hochspannungsleitungen ein zu werben. So dämlich ist nicht einmal unser Michel: Er finanziert Hochspannungsmasten vor seinem Fenster, die niemand braucht und die voraussichtlich auch nie benutzt werden. Weil weder die bestehenden Kraftwerke im Süden abgeschaltet werden, noch die Windparks im Meer im geträumten Umfang gebaut werden. Unter Finanzhaien nennt man das skalpieren. Hauptsache, der Vertrieb hat seine Provision kassiert. Die „Hausfrauen-Hausse“ ist längst gestartet: Deutsche Bank und Co haben längst ihre Aktien in Wind und Sonne an Privatanleger mit Gewinn weiterverkauft. Jetzt können die „Zukunftstechnologien“ getrost pleite gehen und die Arbeitnehmer „frei gestellt“ werden. Es soll ja ohnehin Fachkräftemangel herrschen.

Auswirkungen auf Europa

Bisher konnten Deutschland und Dänemark ihren Stromabfall aus Wind und Sonne problemlos in ihren Nachbarländern entsorgen. Wenn auch nur über direkte oder indirekte Subventionen. Der Strompreis wird so weit runter subventioniert, bis er konventionelle Kraftwerke aus dem Markt drückt. Im Grunde genommen, ist dieses Modell ein Abklatsch alter europäischer Agrarsubventionen. Damals (Milchseen, Butterberge etc.) wie heute, führt es solange zu einer Überproduktion, bis die Subventionen über alle Maßen steigen und politisch nicht mehr zu verkaufen sind. Die Betonung liegt dabei auf „politisch ertragbar“, denn die Schmerzgrenze und die entstehenden Schäden sind in unterschiedlichen Ländern verschieden. Als erste, scherten unsere Nachbarn Polen und Tschechien aus: Die volkswirtschaftlichen Schäden durch deutschen Stromabfall nahmen solche Ausmaße an, daß sie nicht mehr durch den vermeintlich günstigen Preis aufgewogen werden. Sie machen die Grenzen dicht. Übrigens mit vollem Recht: Der Verkauf von Produkten unter Gestehungspreis wird gemeinhin als Dumping bezeichnet und verstößt gegen alle internationalen Handelsabkommen. Eine Trumpfkarte, die unsere Nachbarn gegenüber Deutschland weiter in der Hinterhand halten, solange, bis der „EEG-Wahnsinn“ gestoppt wird.

Es gibt aber noch eine Reihe indirekter Wirkungen auf andere Energiemärkte. Eindeutige Untergrenze für die Strompreise an der Europäischen Strombörse ist seit längerem der Brennstoffpreis für Kohle. Kohle und Kernenergie bilden das Rückrat der Stromerzeugung. Die von allen Sonnenmännchen und Flackerströmern heiß geliebten Gaskraftwerke müssen bereits aus dem Markt ausscheiden. Ihre Brennstoffkosten liegen deutlich über den erzielbaren Strompreisen. Dadurch entsteht eine Todesspirale: Durch die immer geringer werdende Ausnutzung (Vollaststunden) explodieren die Fixkosten. Der Zeitpunkt der vollständigen Stilllegung naht. Neuerdings werden sogar Neubauten unmittelbar nach der ersten Inbetriebsetzung gleich wieder eingemottet. Das grüne Märchen von den unflexiblen Kohle- und Kernkraftwerken, hat sich inzwischen längst als schlechte Propaganda enttarnt. Nur die Politkommissare in den nahestehenden Stadtwerken sind dem aufgesessen und haben kräftig in Gaskraftwerke (fehl)investiert. Manch ein Stadtkämmerer wird noch schlaflose Nächte bekommen: Aus den vermeintlich profitablen „Kraft-Wärme-Kopplungs-Projekten“ – gedacht zur Quersubventionierung von städtischen Hallenbädern, Busbetrieben etc. – werden Investitionsruinen werden.

Genau aus dieser Ecke weht der verzweifelte Schrei nach „Kapazitätsmärkten“. Man benötigt dringend Subventionen um seine Fehlinvestitionen zu vertuschen. Da kaum einer etwas mit diesem Begriff anfangen kann, er aber um so bereitwilliger nachgeplappert wird, hier eine Übertragung in die Alltagswelt. Betriebswirtschaftlich ist es das klassische Problem einer Eisdiele. Der Betreiber einer Eisdiele ist extrem vom Wetter abhängig. Er muß praktisch an den wenigen Tagen mit schönem Wetter den wesentlichen Teil seines Jahresumsatzes machen. All sein Bestreben ist darauf ausgerichtet. Er muß den Preis für sein Eis so kalkulieren, daß er die unzähligen flauen Tage überbrücken kann. Gemeinhin nennt man das unternehmerisches Risiko. Hätte er die Idee vom „Kapazitätsmarkt“ schon gekannt, wäre er zur Gemeinde gegangen und hätte sich jeden Monat einen festen Betrag von der Allgemeinheit bezahlen lassen, um seine Kosten für Miete, Personal etc. abdecken zu können. Als Gegenleistung hätte er sich selbstverständlich verpflichtet, seine Eisdiele an warmen und schönen Sommertagen zu öffnen. Absurd? Wieso, er stellt doch die gesellschaftlich wichtige Aufgabe der Eisversorgung an heißen Tagen bereit. Wenn es immer noch keiner merkt, wir sind mit Volldampf in eine Gesellschaft unterwegs, gegen die der Real-Existierende-Sozialismus ein Freiraum für unternehmerische Tätigkeiten war.

Die Zukunft

Solange es kein wesentliches Wachstum im Stromabsatz gibt, kann man sich eine ganze Zeit durchwursteln. Gleichwohl altert der Kraftwerkspark jeden Tag weiter. Hat man einmal mit der Planwirtschaft angefangen, kann man nicht mehr erwarten, daß das unkalkulierbare – weil politische – Risiko von irgendwelchen verantwortungsbewussten Investoren getragen wird. An diesem Punkt ist man heute bereits in Großbritannien angekommen.

Das englische Modell

Im Vereinigten Königreich hat man eine Reihe alter gasgekühlter Kernkraftwerke. Diese werden nach einem festen Fahrplan außer Betrieb gesetzt. Hinzu kommen eine Reihe alter Kohlekraftwerke, die zumindest nachgerüstet werden müßten, um die europäischen Umweltschutzstandards zu erfüllen. Ferner hat man sich auf das kostspielige Abenteuer der Windenergie aus dem Meer eingelassen. Nach jahrelangen Diskussionen ist man zum Ergebnis gekommen, daß man mindestens 18.000 MWe neue Kernkraftwerke bauen muß und das möglichst schnell. Nur, wer soll das finanzieren? Man hat alle britischen Stromversorger längst privatisiert. Die alten Kernkraftwerke werden beispielsweise von der französischen EDF betrieben. Die würde auch gerne neue bauen und betreiben, aber bitte nur mit eingeschränktem Risiko.

Die britische Lösung den Fehler der Subventionierung der Windenergie zu heilen, heißt „CO2 – freier-Strom“. Man dreht den „Ökospieß“ um. Auch Kernenergie ist „CO2.frei“, hat also folglich auch Subventionsansprüche zum Wohle des Klimas zu stellen. Man handelt für jedes Projekt (Wind auf Land, Wind auf Meer, Biomasse, Kernenergie etc.) mit dem Investor einen Mindestpreis für einen bestimmten Zeitraum aus. Der Antrieb der Verhandlungen ist, einen Preis zu finden, mit dem der Betreiber leben kann ohne pleite zu gehen. Kann dieser Preis nicht am Markt erzielt werden, gibt es die Differenz aus einem Fond oben drauf. Wird umgekehrt am Markt ein höherer Preis erzielt, wird aus der positiven Differenz die angehäufte Schuld getilgt. Erst wenn der Fond auf Null gesetzt ist, kann der Kraftwerksbetreiber den vollen Preis einstreichen. Lange Diskussionen werden immer noch über die Frage der Haftung für diese Fonds geführt: Gibt es eine direkte Bürgschaft durch den englischen Staat oder durch das Kollektiv der Stromverbraucher. Diese Frage ist von zentraler Bedeutung, da sie auf den Garantiepreis zurück koppelt. Bürgt der Staat, hat die gesamte Finanzierung des Projektes die Wertigkeit – und damit geringe Zinssätze – einer britischen Staatsanleihe. Tritt lediglich das Kollektiv der Stromverbraucher als Rückversicherer auf, hat die Finanzierung den Stellenwert einer Unternehmensanleihe. An dieser Stelle ergibt sich deshalb ein möglicher Konflikt mit dem EU-Recht wegen (vermeintlich) unerlaubter Subventionen.

Die Lösung des NIMBY-Problems?

Alle Großprojekte der Energietechnik, vom Windpark bis zum Kernkraftwerk, leiden heute am NIMBY („Aber nicht hinter meinem Haus“) Syndrom: Man erkennt die volkswirtschaftliche Notwendigkeit an, ist aber nicht bereit, persönliche Nachteile zu tragen. Die Briten wollen dieses Dilemma nun marktwirtschaftlich lösen. Die Gemeinden, die solche Projekte bei sich gestatten – vielleicht zukünftig sich sogar darum bewerben – bekommen einen hälftigen Anteil an den Unternehmenssteuern. Man geht für ein Kernkraftwerk von mindestens 193 Millionen Pfund in einem Zeitraum von 40 Jahren aus. Wer das (gefühlte) Risiko eines Kernkraftwerkes in seiner Gemeinde auf sich nimmt, wird mit zusätzlichen Freibädern, Kindergärten und was sonst noch alles, „entschädigt“. Es wird interessant sein, wie die Angstindustrie darauf reagieren wird. Greenpeace und Co. zukünftig nicht mehr in der Rolle der guten „Naturschützer“, sondern eher als Verhinderer von besser ausgestatteten Schulen und Kindergärten. Ganz neu ist dieses Erfolgsmodell nicht. Wyoming hat die am besten ausgestatteten öffentlichen Schulen in den USA (jedem Kind ein kostenloser Laptop). Finanziert durch Abgaben der Kohleindustrie. In solchen Gemeinden fällt das Hetzen gegen die als „guter Nachbar“ empfundene Kohlegrube, schwer. Im fernen Washington ist das Schwadronieren über Klimakatastrophen mit Staatsbediensten wesentlich angenehmer.

Es gibt noch einen weiteren Ansatz, der auch für Windparks und Shale Gas (1000 Pfund pro Bohrstelle + 1% vom Umsatz) gelten soll: Die Gemeinde bekommt 1000 Pfund im Jahr pro MW installierter Leistung (Ziel: Je größer das Kraftwerk, je mehr Einnahmen für die Gemeinde) begrenzt bis zum Jahr 2060 (Ziel: Je schneller gebaut wird, um so mehr Einnahmen.)

Die Rolle der EU-Kommission

Man könnte fast Schadenfreude empfinden: Über Jahrzehnte ist der Popanz „Klimakiller CO2.“ von allen möglichen Schlangenölverkäufern und Systemveränderern aufgebaut worden. Nun braucht die Wettbewerbskommission nur noch betonen, daß Kernenergie auch „kohlenstoffarm“ ist und all die schönen „Ausnahmetatbestände“ gelten auch für die Kernenergie. Oder man macht generell Schluß mit den Subventionen in der europäischen Energiewirtschaft – dann aber, ist die Kernenergie als preiswerteste Methode der Stromerzeugung (in der Grundlast) strahlender Sieger. Ein Ausbauprogramm von chinesischem Ausmaß wäre die Folge.

Es wird interessant zu beobachten sein, wie ein Heulen durch die politischen Parteien und Energiekombinate in Deutschland gehen wird. Hat nicht vor all zu langer Zeit beispielsweise die Kombinatsleitung von E.ON Energie AG in vorauseilendem Gehorsam ihre fertig entwickelten Standorte in England an die Japaner verkauft? Wollte man das erhaltene Geld nicht in die „Zukunftstechnologie Windkraft auf Hoher See“ investieren (versenken)? Mal sehen, wie die Analysten an der Börse reagieren. Das gleiche gilt für Siemens und ein halbes Dutzend Firmen in der zweiten Reihe. Wenn man jemals Manager für Arbeitsplatzvernichtung verantwortlich machen kann, dann sicherlich diese „Energiewender“. Hoffentlich gibt’s noch ne schöne Abfindung.

Niemand wird in der EU Mitleid für „Madame No“ haben, die sich selbst in diese Zwickmühle laviert hat. Ihr überhasteter „Ausstiegsbeschluss“ wird ihr vielleicht in wenigen Wochen eine Koalition mit den Grünen ermöglichen, aber der Machterhalt über Tagespolitik ist erfahrungsgemäß nicht von langer Dauer. Man schaue sich nur Spanien an: Dort sind Milliarden in der spanischen Wüste für Sonnenenergie verbrannt worden. Richtige Konsequenz aus der „Euro-Krise“: Sofortiger Schluß mit dem Unsinn der „Solarförderung“. Entgegen dem Werbeslogan eines bekannten Sozialdemokraten hat die Sonne nun doch brutal eine Rechnung geschrieben. Die politische Frage der nächsten Jahre wird sein, wie lange die (jugendlichen) Arbeitslosen in Europa bereit sind, solche alten Deckel aus der „Grünen Periode“ abzustottern. Wie lange der „Kleinrentner“ über seine Stromrechnung bereit ist, dem Schlangenölverkäufer sein durch „Solarenergie“erworbenes Schloss weiter zu erhalten. Vielleicht wird ja noch ein deutsches Energiemodell zum Exportschlager: Entschädigungslose Enteignung! Es muß ja nicht gleich ein Tsunami in Japan zur Begründung herhalten, vielleicht reicht auch eine umgeblasene Windmühle in der Nordsee.

Obama ruft zum Kreuzzug

Im Juni 2013 stellte das „Executive Office of the President“ seinen 20-seitigen „THE PRESIDENT’S CLIMATE ACTION PLAN“ vor. Medienwirksam hielt der Präsident am 25. Juni einen Vortrag an der Georgetown-Universität in Washington. Alle „Betroffenheitsorganisationen“ von Greenpeace bis WWF waren pflichtschuldigst mit Lob zur Stelle. Das Strommagazin, als Zentralorgan der Sonnenmännchen Deutschlands titelte:

„Die USA machen endlich Ernst beim Klimaschutz. Nach Jahren des Stillstands und der Blockade gibt es endlich ermutigende Signale von der größten Volkswirtschaft der Welt.“

Wieder einmal, war es dem „Ankündigungspräsidenten“ gelungen, der Linken weltweit etwas Zucker zu geben und für sich selbst ein Thema zu finden, mit dem er hofft in positiver Erinnerung zu bleiben.

Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher „Rechter Militärs“ die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2.-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des „Shale-Gas“ und „Shale-Oil“-boom eingefahren – ganz entgegen dem über 60 Jahre andauernden Gefasel von „Peak-Oil“. Deswegen mußte „Greenpeace-Klimaexperte Martin Kaiser“ auch sofort anmerken:

…dass Obama aber auch auf „Risikotechnologien“ wie Fracking oder Atomkraft setze, sei ein falsches Signal…“.

Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur „Ölkrise“ in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die „Freisetzung“ fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der „Systemveränderer“, gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein „Marktversagen“ durch politische Eingriffe erzeugen kann, läßt sich dem Zombie „Planwirtschaft“ wieder neues Leben einhauchen.

Die „Shale-Gas Revolution“

Das sogenannte „Fracking“ ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode „horizontaler Bohrungen“, die in den letzten Jahrzehnten eine bemerkenswerte technische – und vor allem wirtschaftliche – Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das „Erdgasnetz“ gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer „Schweinezyklus“ beginnt.

Der wichtigste „swinging user“ in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2.-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche „Energiewende“. Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen „Gutmenschen“, die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2. wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des „Klimakillers“ (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2 – Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden „CO2 – frei“ (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll und das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose „Guantanamo-Schließung“ auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung „CO2 – frei“.