Robuste Kraftwerke für robuste Netze

Für eine robuste Stromversorgung („Grid Resilience“) unter den erschwerten Bedingungen von Wind- und Sonnenenergie ergeben sich auch besondere Anforderungen an die Kraftwerke. Wind und Sonneneinstrahlung sind Wetterphänomene und damit nicht vom Menschen beeinflußbar. Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

Robuste Lastfolge

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

Abwehr äußerer Einflüsse

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

Sicherer Inselbetrieb

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

Unendliche Notkühlung

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

Schwarzstartfähigkeit

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Nukleare Fernwärme

Neuerdings rückt die Kerntechnik wieder in den Zusammenhang mit „Luftverbesserung“. Besonders in China wird über den Ersatz von Kohle nachgedacht.

Der Raumwärmebedarf

Die Heizung bzw. Kühlung von Gebäuden wird oft unterschätzt. Alle reden von Verkehr und Stromerzeugung. In Wirklichkeit werden aber ein Viertel bis ein Drittel des gesamten Energieverbrauches für unsere Gebäude benötigt. Unter dem Gesichtspunkt von Luftschadstoffen (z. B. Stickoxide, Feinstaub etc.) ist besonders problematisch, daß die Energiewandlung unmittelbar in unseren Städten stattfindet und das auch noch in unzähligen Einzelfeuerstätten (hiermit sind auch die „Zentralheizungen“ gemeint). Die einzelnen Heizkessel – oder gar Holzöfen – können keine kontrollierte Verbrennung gewährleisten oder gar eine Rauchgaswäsche benutzen. Zudem werden ihre Abgase in geringer Höhe flächig abgegeben. Eine hohe Luftbelastung gerade in Ballungsgebieten ist die Folge. Eine Erkenntnis, die schon unsere Urgroßväter hatten. Man begann deshalb schon Ende des 19. Jahrhunderts mit dem Bau zentraler Heizwerke.

Das Wärmenetz

Die angestrebte Raumtemperatur liegt bei etwa 20 °C. Es ist also ausgesprochene „Niedertemperaturwärme“. Hinzu kommt noch ein ganzjähriger Brauchwasserbedarf mit etwa 60 °C (Legionellen). Will man auch Kaltwasser für Klimaanlagen damit erzeugen, ist eine Temperatur von 130°C (Absorptions-Kälteanlagen) zu empfehlen. Damit ergeben sich schon die Randbedingungen für ein Rohrleitungsnetz.

Die Strömungsgeschwindigkeit ist begrenzt. Somit hängt die transportierbare Wärmeleistung von dem verwendeten Rohrdurchmesser und der Temperaturspreizung zwischen Vor- und Rücklauf ab. Alles eine Kostenfrage. Hat man sehr hohe Leistungen pro Grundstück (z. B. Hochhäuser in Manhattan) und dazu noch beengte Straßenverhältnisse, bleibt sogar nur Dampf als Transportmedium übrig. Zumindest in Deutschland hat sich eine maximale Vorlauftemperatur im Netz von 130 °C bis 150 °C als optimal erwiesen. Die Vorlauftemperatur im Netz wird proportional zur Außentemperatur geregelt. In manchen Regionen hat man noch ein drittes Rohr als „Konstantleiter“, an dem die Brauchwasserbereiter und die Klimaanlagen angeschlossen sind. Dadurch kann man im Sommer den Heizungsvorlauf komplett abstellen. Alles eine Frage der vorhandenen Bausubstanz.

Heizwerk oder Kraftwärmekopplung

Das Problem ist, daß das gesamte System für die maximale Leistung (kältester Tag in einer Region) ausgelegt sein muß. Diese tritt aber nur an wenigen Tagen auf. Die ohnehin hohen Kapitalkosten führen zu hohen Fixkosten, die wegen der geringen Anzahl von Vollbenutzungsstunden zu vergleichsweise hohen spezifischen Heizkosten führen. Als einzige Stellschraube bleiben die Brennstoffkosten.

Man ist deshalb schon frühzeitig auf die Idee gekommen, Kraftwerke mitten in den Städten zu bauen, um die Leitungskosten (Strom und Wärme) gering zu halten. Die Kraftwerke liefen auch als Kraftwerke und haben das ganze Jahr über elektrische Energie erzeugt. Sie haben ihre Kosten über die Stromproduktion eingespielt. Zusätzlich zu den normalen Kondensatoren hat man noch „Heizkondensatoren“ als Quelle für das Fernwärmenetz eingebaut. In diesen Heizkondensatoren wurde ein Teil des Dampfes (in Abhängigkeit von der Außentemperatur) zur Beheizung niedergeschlagen. Da dieser Dampf nicht mehr vollständig seine Arbeit in der Turbine verrichten konnte, ging die Stromproduktion etwas zurück. Dieser Rückgang wurde dem Kraftwerk vom Fernwärmenetzbetreiber vergütet. Es war quasi dessen „Brennstoffpreis“.

Zusätzlich hatte man auch immer schon reine Heizwerke, die nur Wärme für die Fernwärme erzeugt haben. Die geringen Kapitalkosten eines solchen „Warmwasserkessels“ lohnten sich schon immer als Reserve oder zur Spitzenlasterzeugung an wenigen Tagen eines Jahres.

Die nukleare Heizung

Soweit zur Fernwärme im Allgemeinen. Jetzt zu der Frage, was eine Umstellung auf Kernspaltung bringen kann. Der Brennstoffpreis des Urans ist konkurrenzlos gering. Geringer noch als Kohle. Es gibt fast keine Belastung durch Transporte (Kohle, Asche, Heizöl etc.). Es gibt keine Luftbelastung durch Abgase. Es besteht eine enorm hohe Versorgungssicherheit und Preisstabilität (Heizkosten als „zweite Miete“). Dagegen spricht eigentlich nur „die Angst vor dem Atom“. Diese ist aber zum Glück unterschiedlich ausgeprägt. Man kann sie sogar noch beträchtlich verringern. Um die notwendigen technischen Aspekte wird es im Weiteren gehen.

Kernkraftwerke als Wärmequelle

Technisch gesehen, besteht kein Unterschied zwischen einem Kernkraftwerk und einem fossilen Kraftwerk. Man könnte problemlos z. B. ein Kohlekraftwerke durch ein Kernkraftwerk ersetzen. Es gibt aber ein juristisches Hindernis: Das Genehmigungsverfahren. Bisher muß man immer noch davon ausgehen, daß es schwere Störfälle gibt (z. B. Fukushima), die einen Teil der Radioaktivität austreten läßt und somit die unmittelbare Umgebung belasten könnte. Dafür ist der Nachweis von Evakuierungszonen und Plänen notwendig. Spätestens seit Fukushima weiß man zwar, daß die Annahmen über Freisetzungsraten viel zu konservativ waren, aber das tut der Argumentation der Angstindustrie keinen Abbruch. Die jahrzehntelange Gehirnwäsche „Millionen-Tote, zehntausend-Jahre-unbewohnbar“ hat sich zumindest in den Industrieländern festgesetzt.

Will man Kernkraftwerke in Ballungsgebieten bauen, müssen neue Reaktortypen her, die als „inhärent sicher“ betrachtet werden. Außerdem empfiehlt es sich, kleinere Reaktoren (SMR) zu bauen, um zu lange Rohrleitungen (Kosten und Wärmeverluste) zu vermeiden. Gerade in den letzten Wochen wurde in diesem Sinne ein Durchbruch erzielt: Die US-Genehmigungsbehörde hat dem Reaktor der Firma NuScale bescheinigt, daß er ohne elektrische Hilfsenergie auch bei schwersten Störfällen auskommt. Es handelt sich um einen kleinen (50 MWel) Reaktor, der selbst in einem wassergefüllten Becken steht. Er ist also stets von ausreichend Kühlwasser umgeben. Alle Einbauten (Druckhaltung, Dampferzeuger etc.) befinden sich im Druckgefäß (keine Rohrleitungen), das von einem Containment nach dem Prinzip einer Thermosflasche umgeben ist. Er benötigt keine Pumpen zur „Notkühlung“, da er schon im Normalbetrieb ausschließlich im Naturumlauf (warmes Wasser steigt auf und sinkt nach der Abkühlung wieder in den Reaktorkern zurück) funktioniert. Ein solches Kernkraftwerk bietet ein geringeres Risiko für seine Nachbarn, als jedes Gas- oder Ölkraftwerk. Genau solche Kraftwerke befinden sich aber zahlreich mitten in deutschen Großstädten. Seit Jahrzehnten lebt ihre Nachbarschaft relativ angstfrei damit – Geräusche und Abgase inbegriffen.

Den deutschen „Grün-Wähler“ wird das alles nicht überzeugen. Er ist unerschütterlich in seinem Öko-Glauben. Warum auch nicht? Man diskutiert ja auch nicht mit einem Katholiken über die unbefleckte Empfängnis der Jungfrau Maria oder mit einem Hindu über die Heiligkeit von Kühen. In den Weiten Sibiriens wird die Kernenergie schon heute positiv bewertet. In ähnlichen Regionen Kanadas und den USA wird sie aus gleichen Gründen (Versorgungssicherheit auch bei -40 °C) ernsthaft in Erwägung gezogen. In den bevölkerungsreichen Metropolen Chinas steht die Luftverschmutzung im Vordergrund. Die reale Gefahr von Lungenkrebs und Herz- Kreislauferkrankungen durch Smog wird dort gegen die eingebildete „Strahlengefahr“ abgewogen. Selbst im Großraum Helsinki prüft man den Ersatz der fossilen Fernheizwerke durch Kernenergie. Sonne geht gar nicht und Wind nur sehr eingeschränkt in diesen nördlichen Breiten.

Nukleare Heizwerke

Seit Anbeginn der Kernkraftnutzung gab es die Idee von reinen Heizwerken. Die reine Wärmeproduktion kann einige Vorteile haben: Schließlich verbrennt man ja auch Gas in einem einfachen Heizkessel und setzt nicht alles Gas in „rotierenden Öfen“ (Blockheizkraftwerk) zur gleichzeitigen Stromerzeugung ein. Schon nach den „Ölkrisen“ der 1970er Jahre, setzte sich z. B. der Schweizer Professor Seifritz für ein solches Konzept ein. Er ging damals von der Verwendung erprobter Komponenten aus Kernkraftwerken (Druckbehälter, Brennelemente etc.) zum Bau eines abgespeckten Heizreaktors aus. Durch die „Überdimensionierung“ erhoffte er sich einen zusätzlichen Sicherheitsgewinn, der zu einer Akzeptanz bei der Politik führen würde. Die Grundüberlegung ist noch heute so gültig, wie vor nunmehr 50 Jahren: Ersatz fossiler Brennstoffe durch Uran. Damals wie heute, standen der Ölpreis und die Luftverschmutzung in den Städten im Vordergrund.

Um den Ansatz von Professor Seifritz zu verstehen, ist etwas Physik notwendig. Ein typischer Druckwasserreaktor eines Kernkraftwerks hat eine Wärmeleistung von etwa 4000 MWth. Viel zu viel für ein Fernheizwerk. Geht man aber mit der Leistung um mehr als eine Größenordnung runter – läßt den Reaktor quasi nur im Leerlauf laufen – hat man einen entsprechenden Sicherheitsgewinn in allen Parametern. Bis überhaupt die Betriebszustände eines – zigfach erprobten – Druckwasserreaktors erreicht werden, müßte eine Menge schief gehen. Man hätte genug Zeit den Reaktor abzustellen.

Bei einer so geringen Leistung, könnte man handelsübliche Brennelemente viel länger im Reaktor belassen bis sie „abgebrannt“ wären (Versorgungssicherheit, Preisstabilität etc.).

Ein Druckwasserreaktor in einem Kernkraftwerk arbeitet mit einem Betriebsdruck von etwa 155 bar und einer Wassertemperatur von etwa 325 °C. Beides recht ordentliche Werte. Wie sehe es bei einem Heizreaktor aus? Gehen wir von einer Vorlauftemperatur im Netz von 150 °C aus (Einsatz von Absorptionsanlagen zur Klimatisierung um das Netz auch im Sommer besser auszulasten). Damit das Wasser noch flüssig bleibt und nicht verdampft ist ein Betriebsdruck von mindestens 5 bar nötig. Geben wir noch mal 30 °C als treibende Temperaturdifferenz für die Wärmeübertrager im Heizreaktor drauf, kommen wir auf eine Betriebstemperatur von 180 °C. Dafür ist ein Betriebsdruck von mindestens 10 bar nötig. Ein beträchtlicher Sicherheitsgewinn.. Vor allen Dingen entfallen alle Hochdruck-Sicherheitseinrichtungen: Was man nicht hat, kann auch nicht kaputt gehen.

Noch eleganter erscheint ein Heizreaktor auf der Basis eines Siedewasserreaktors. Man bräuchte – da keine Turbine vorhanden ist – auch keinerlei Einbauten zur Dampftrocknung und keine Umwälzpumpen. Einfacher und sicherer geht nicht.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

In diesem Zusammenhang erscheinen Meldungen zu einem geplanten Einsatz von Schwimmbadreaktoren zur Fernheizung wohl eher als „Fake News“. Schwimmbadreaktoren sind – wie der Name schon andeutet – oben offen. Sie ähneln eher einem Brennelemente-Lagerbecken. Sie könnten deshalb nur warmes Wasser mit deutlich unter 100 °C liefern. Für eine Fernheizung völlig ungeeignet.

Nachbemerkung

Fernheizungsnetze erfordern sehr hohe Investitionen, haben dafür kaum Betriebskosten und halten Jahrzehnte. Sie sind somit anderen Infrastrukturen, wie Trinkwasser- und Abwassernetzen sehr ähnlich. Gleichwohl gibt es schon heute weltweit unzählige Fernwärmenetze, die kontinuierlich erweitert werden. Der Markt für Wärmeerzeuger ist somit gewaltig. Auch die in Deutschland so beliebte „Plastikverpackung“ von Neubauten tut dem keinen Abbruch. Was braucht man also, um eine solche Entwicklung zu fördern?

  • Man benötigt möglichst kleine Heizreaktoren. Die Netzkosten fressen sonst sehr schnell etwaige Kosteneinsparungen bei den Reaktoren auf.
  • Die Reaktoren müssen sehr einfach und robust sein. Sie müssen standardisiert sein und in großen Stückzahlen in Fabriken hergestellt werden.
  • Es sollte weitgehend auf genehmigte Verfahren und Bauteile aus der Kernkraftwerkstechnik zurückgegriffen werden. Nur so kann man die kostspieligen und langwierigen Genehmigungsverfahren in den Griff bekommen.
  • Die Reaktoren müssen inhärent sicher sein und vollautomatisch betrieben werden können.
  • Sie müssen komplett und ständig fernüberwacht werden.
  • Die Anforderungen an Umgebung und Personal müssen vor Beginn des ersten Projekts neu definiert, öffentlich diskutiert und rechtssicher verabschiedet sein.
  • Bei jedem Standort müssen die Anwohner frühzeitig einbezogen werden. Nur durch Aufklärung kann man die einschlägige Angstindustrie und ihre Kumpane aus der Politik abwehren. Skandinavien und Frankreich bieten hierfür zahlreiche Beispiele und erprobte Vorgehensweisen.

Manchem mag das alles phantastisch vorkommen. Nur, ist die Diskussion nicht nur in China losgetreten worden. Sie läuft bereits auch in Osteuropa und Skandinavien. Es mag in Deutschland noch ein paar Jahre dauern, aber dann wird die Mehrheit der Bevölkerung erkennen, wie sie systematisch von Politikern und Schlangenölverkäufern mit der „Energiewende“ betrogen worden ist. Ist dieser Punkt erst erreicht, wird das Pendel ruckartig in seine alte Lage zurückkehren.

SMR, aktualisierter Stand

In der letzten Zeit kommt erneut Bewegung in die Entwicklung „kleiner“ Reaktoren. Anlass für eine Aktualisierung.

Was genau, soll ein SMR sein?

Die Definition eines „SMR“ (Small Modular Reactor) ist etwas vage. In den USA beruht sie auf dem ENERGY POLICY ACT von 2015. Im Abschnitt 608 „Treatment of Modular Reactors“ ist sie wie folgend definiert: Ein Kraftwerk mit höchstens 1300 MWel Gesamtleistung, welches aus mindestens zwei Blöcken mit einer elektrischen Leistung von 100 bis 300 MWel besteht. Dies ist eine etwas sehr geschraubte Definition, aber Politiker und Juristen brauchen wohl so etwas. Wenigstens wird nichts über die anzuwendende Technik vorgeschrieben. Inzwischen gibt es SMR-Entwürfe mit den Kühlmitteln Wasser, Edelgas, Salzschmelze und Flüssigmetall in der Entwicklung.

Zu welchen technischen Verrenkungen solche politischen Akte dann führen, sieht man am Projekt von NuScale Power: Dort werden zwei Reaktoren mit einer äquivalenten Leistung von je 50 MWel auf eine gemeinsame Turbine vorgeschlagen. Förderkriterium erfüllt. Es gibt aber zahlreiche Anwendungen, wo durchaus eine kleinere (thermische) Leistung sinnvoller ist: Kleine Städte in abgelegenen Regionen (Sibirien), Militärische Stützpunkte auf Inseln (China), Ölförderung und Minen (Kanada) etc. Wie es ausschaut, sind genau hier die ersten Anwendungen zu erwarten.

Weltmarkt

Im Jahr 2016 bestand der weltweite Primärenergieverbrauch zu 85% aus fossilen Energieträgern (33% Öl, 28% Kohle und 24% Erdgas). Demgegenüber ist die Kernenergie mit 5% geradezu vernachlässigbar. Sie wurde (nahezu) ausschließlich in der Stromversorgung eingesetzt. Dies hat sie übrigens mit den wetterabhängigen Energieformen Wasserkraft (7%) und „Renewables“ (3%) gemeinsam.

Der Bedarf an elektrischer Energie wird weltweit weiter ansteigen. Nach Schätzungen gibt es derzeit 1,2 Milliarden Menschen, die über keinen Stromanschluss verfügen und fast 3 Milliarden Menschen, die nicht einmal einen Kochherd besitzen. Alles Menschen, die alles dafür geben ihren mittelalterlichen Verhältnissen zu entfliehen – ganz im Gegenteil zu gewissen übersättigten Kreisen bei uns, deren falsches Ideal genau diesem Leben im vorindustriellen Zeitalter entspricht.

Will man in den Weiten Afrikas, Indiens usw. Kernenergie nutzbar machen, sind kleine Reaktoren der einzig gangbare Weg. Mit der heutigen Standardgröße von 1000+ MWel ist sonst der jahrzehntelange Weg über fossile Kraftwerke und großflächige Netze nötig. Um es an dieser Stelle deutlich zu sagen, wer das nicht will, muß unserer Erde noch zweimal Europa oder noch einmal China mit seinen fossilen Kraftwerken zusätzlich zumuten. Ob nun in Deutschland 40 Kohlekraftwerke geschlossen werden oder nicht, ist dafür nur der berühmte Tropfen auf den heißen Stein. Ganz nebenbei ist diese Frage auch der Lackmustest für alle „Klimaschützer“: Geht es wirklich um „Klimaschutz“ oder doch nur um „Gesellschaftsveränderung“?

Letztendlich wird der Preis pro installiertem Megawatt entscheiden. Er dürfte grundsätzlich höher sein, als bei fossilen Kraftwerken. Jedenfalls solange, wie man die bürokratischen Anforderungen aufrecht erhält. Allerdings muß man neben den höheren Brennstoffpreisen auch die notwendige Infrastruktur berücksichtigen: Ein Gaskraftwerk ist nur dann günstiger, wenn bereits eine geeignete Gasversorgung vorhanden ist. Für ein Kohlekraftwerk muß eine Eisenbahnlinie vorhanden sein. Hier kann ein SMR seinen Vorteil des geringen Kernbrennstoffverbrauchs – gerade in flächigen Ländern mit schlechter Infrastruktur – voll ausspielen.

Der wirtschaftliche Blickwinkel

Üblicherweise werden bei Kraftwerken die spezifischen Produktionskosten mit zunehmender Leistung kleiner. Dies betrifft sowohl die spezifischen Investitionskosten (EUR/MW), wie auch die Betriebskosten (EUR/MWh). Bei Kernkraftwerken ergibt sich aber eine Besonderheit: Hohe Finanzierungskosten (Investition) bei nahezu vernachlässigbaren Brennstoffkosten. Eine wesentliche Ursache für die hohen Finanzierungskosten ist die lange Projektdauer. Vom ersten Beschluss ein Kraftwerk zu bauen, bis zur ersten Stromproduktion vergehen oft Jahrzehnte. In dieser langen Zeit summieren sich die Zinsen und Zinseszinsen zu beträchtlichen Schuldenbergen.

Wichtig dabei ist, daß die „Bauzeit“ weniger von der Größe abhängt, als von der Stückzahl. Wenn man nahezu baugleiche Kraftwerke in Serie baut – wie einst in USA und Frankreich und heute in China – kann man auch Großkraftwerke in wenigen Jahren erstellen. Es kommt viel mehr auf die Organisation und das Vorhandensein von erfahrenen Fachkräften an. Negativbeispiele sind hierfür die Projekte von Areva in Finnland und Frankreich und die Baustellen des AP-1000 in den USA. Immer, wenn man mit unerfahrenem Personal „neue“ Typen baut, geht alles schief, was nur schief gehen kann – und darüber hinaus. Es ist deshalb nicht verwunderlich, daß beide Modelle in China – obwohl wesentlich später begonnen – als erste fertig werden.

Genau diesen Umstand versucht man durch eine industrielle Serienproduktion bei den SMR zu umschiffen. Allerdings liegt darin auch die größte Schwierigkeit. Für ein so komplexes Gebilde wie ein Kernkraftwerk, gibt es nur Parallelen im Flugzeugbau. Hier wie dort, kostet es Milliarden, bis ein neues Modell bis zur Serienreife entwickelt ist. Der Weltmarkt für Verkehrsflugzeuge reduziert sich daher nahezu auf zwei Konzerne.

Momentan sind hierzu nur die USA in der Lage. Nur sie verfügen über das notwendige Kapital und die fachliche Infrastruktur. Wohl gemerkt, es geht nicht darum mal einen kleinen Reaktor zu bauen, sondern eine ganz neue Industrie zu erschaffen.

Die nationale Sicherheit

Letztendlich ist der Erfolg von SMR eine rein politische Frage. Will man oder will man nicht. Bemerkenswert in diesem Zusammenhang sind die Diskussionen in Großbritannien. Dort will man immer stärker, nachdem man bereits schmerzlich erfahren hat, was Deindustrialisierung für Folgen hat. Man ist sich aber darüber im Klaren, daß es ohne einen (finanziell) starken Partner nicht geht. Eine europäische Lösung erscheint immer unwahrscheinlicher – nicht nur wegen des Brexit. Die Chinesen klopfen bereits an der Tür. Wahrscheinlich bleibt nur die atlantische Verbindung übrig.

In den USA spielt die SMR-Lobby nun verstärkt die Karte der „Nationalen Sicherheit“ aus. Dafür gibt es zwei gewichtige Argumente. Eins ist die bereits im Verborgenen existierende Industrie für Schiffsreaktoren. Sie baut bereits in Kleinserien erfolgreich „SMR“. Seit der Diskussion über die Kostenexplosion bei der neusten Trägergeneration ist man einer Öffnung in Richtung ziviler Technik nicht mehr so abgeneigt. Die andere Argumentationsschiene betrifft die Weiterverbreitung von Kernwaffen. Durch ihre technologische Führung konnte die USA die Trennung von ziviler und militärischer Technik bei der Lieferung von Kernkraftwerken erfolgreich steuern. Heute gibt es aber mit Rußland (in Iran) und China (in Pakistan) zwei Spieler, die wesentlich lockerer mit diesem Problem umgehen. Wollen die USA weiterhin Einfluß ausüben, müssen sie schnellstens etwas neues bringen. Besonders für Staaten, die noch gar keine friedliche Nutzung der Kernenergie haben.

Die Förderung

Kein (privates) Energieversorgungsunternehmen kauft heute noch ein völlig neues Modell. Das wirtschaftliche Risiko ist einfach zu groß. Dies gilt um so mehr in einer Welt, in der aus ideologischen Gründen bestimmte Energieformen besonders bevorzugt und subventioniert werden. Planwirtschaft wuchert wie Krebs in einer Volkswirtschaft und verdrängt systematisch technische und wirtschaftliche Kriterien. Am Ende steht der erlebte Zusammenbruch solcher Systeme.

In der realen Welt hofft man deshalb die politischen Fehlentscheidungen durch Forschungsförderung, Risikoübernahme, Subventionen etc. wieder zu heilen. Die SMR-Entwicklung ist dafür ein Paradebeispiel. Erst hat man ein bürokratisches und unkalkulierbares Genehmigungsverfahren erschaffen, welches man nun durch den Einsatz weiterer Steuergelder zu heilen versucht. In den USA hat man ein spezielles Förderprogramm für die Genehmigung von SMR als Leichtwasserreaktoren aufgelegt. Alle anderen Typen werden noch auf der Ebene von Forschungsreaktoren behandelt – Realisierung, wenn überhaupt, erst in Jahrzehnten zu erwarten.

Wenn man dann ein genehmigtes Modell hat, ist es trotzdem immer noch ein „Papierreaktor. Man muß dann noch jemanden finden, der auch einen gebaut haben will. Das ist der wesentliche Unterschied zwischen Kerntechnik und z. B. Flugzeugbau. Selbst wenn man einen Prototyp hat, kann man noch keine Bestellungen einsammeln, da auch für die Kunden nahezu unkalkulierbare politische Hürden existieren. Um es kurz zu machen, wenn Politik und Gesellschaft nicht radikal neu über das notwendige Eingehen von Risiken (Kern-, Gentechnik, Digitalisierung usw.) nachdenken, wird man generell keine Neuentwicklungen in den sog. Demokratien durchführen können – mit der Konsequenz, daß sich diese Gesellschaftsform durch Stagnation selbst abschafft. Vielleicht ist aber genau das, das wahre Ziel der „Großen Transformation“.

Im Moment sieht es so aus, daß man sich dessen zumindest in den USA und GB bewußt ist und deshalb die Frage der Energieversorgung auf die Ebene der „nationalen Sicherheit“ hievt, was nichts anderes heißt, daß der Staat für seine selbst geschaffenen Regularien auch die finanzielle Verantwortung übernehmen muß. Zahlen muß sowieso immer die Gesellschaft. Die Ebene der Steuermittel mit vorausgehenden Haushaltsberatungen und politischen Abwägungen der Einsatzzwecke ist jedoch wesentlich demokratischer, als das deutsche Modell der Zwangsgebühren, die nichts weiter als Schattenhaushalte sind.

So ist man in den USA auf gehandelt 20 Milliarden Dollar an bereitzustellenden Haushaltsmitteln für die „neue Kerntechnik“ angekommen. Wer Sicherheit will, muß dafür Geld bereitstellen. Anders als bei Rüstungsausgaben kann man allerdings von höheren Rückflüssen ausgehen.

Die internationale Situation

Jedenfalls ist die Kerntechnik weltweit alles andere als tot. Interessant ist die Liste der unterschiedlichen SMR-Projekte im Jahr 2017 in alphabetischer Reihenfolge der Länder: Argentinien (1), China (4), Dänemark (1), Frankreich (1), Indien (1), Japan (5), Kanada (2), Korea (1), Rußland (15), Südafrika (2), UK (1), USA (11).

Bereits im Bau befinden sich der CAREM-2S in Argentinien, der KLT-40S in Rußland und der HTR-PM in China.

Weit fortgeschritten im Genehmigungsverfahren bzw. der Konstruktion und damit kurzfristig baubar wären: SMART in Korea, RITM-200, BREST300-OD, SVBR und ABV-6M in Rußland, PRISM, NuScale, und mPower in den USA, PBMR-400 in Südafrika, 4S und GTHTR300 in Japan, ACP100 in China.

Bei den bereits im Bau befindlichen Reaktoren handelt es sich um erprobte Konzepte: Leichtwasserreaktoren und Kugelhaufenreaktor. Bei den kurzfristig realisierbaren Reaktoren kommen noch Reaktoren mit Natrium und Blei als Kühlmittel hinzu. Beides ebenfalls erprobte Konzepte mit teilweise Jahrzehnten Betriebserfahrungen zumindest als Prototypen.

Als einziger Reaktor mit kurzfristigem Potential für die Großserie scheint sich der Entwurf von NuScale Power heraus zu kristallisieren. Hoch modular, da nur eine Leistung von 50 MWel pro Reaktor. Voll integrierte Bauweise mit Dampferzeugern, Druckhaltung usw. in einem Behälter, daher komplett zu transportieren nach vollständigem Test in der Fabrik. Neuartiges Sicherheitskonzept als „Thermosflasche im Wasserbad“, bei dem der Austritt von Radioaktivität auch nach schwersten Störfällen ausgeschlossen ist. Wann und von wem wird die Fabrik dafür gebaut?

Kapazitätsmärkte – Markt- oder Planwirtschaft?

Ab 2015 soll in Großbritannien ein Kapazitätsmarkt für Kraftwerke starten. Ähnliche Überlegungen gibt es bereits für Belgien, Frankreich und Deutschland. Es ist also höchste Zeit, sich mit dem Thema etwas näher zu beschäftigen.

Das Besondere des Strommarktes

Die Gewinnung und Verteilung elektrischer Energie ist außergewöhnlich kapitalintensiv. Kraftwerke und Stromnetze kosten Milliarden. Sie sind anschließend für Jahrzehnte nutzbar. Nur durch die Verteilung der Kosten auf viele Jahre, ist das Produkt elektrische Energie überhaupt zu geringen Preisen lieferbar. Doch genau darin besteht das außerordentliche betriebswirtschaftliche Risiko: Niemand kann den genauen Bedarf in Jahrzehnten voraussagen.

Zu Beginn der Elektrifizierung ist man deshalb sehr schnell zu staatlich regulierten Monopolen übergegangen. Besonders bei der Verteilung (Leitungsnetze) erscheint es noch heute sinnvoll, an jedem Ort nur ein Netz zu betreiben. Dies ist ein echtes Alleinstellungsmerkmal. In wie weit dieses Gebietsmonopol wirklich natürlich oder eher politisch gewollt ist, sei dahingestellt. So geht z. B. in der Telekommunikation der Trend durchaus zu (zumindest auf Teilstrecken) parallelen Leitungen oder bei Erdgas zu parallelen Systemen (Pipeline und LNG). In der Stromwirtschaft dagegen, wird jede Diversifizierung sofort im Keim erstickt. Jüngstes Beispiel ist die nachträgliche Belastung von Eigenerzeugung mit staatlichen Abgaben.

Seit je her, hat man versucht das Dilemma zwischen hohen Fixkosten und (teilweise) sehr geringen variablen Kosten durch Leistungs- und Energiepreise abzubilden. Einzige Ausnahme waren die Kleinverbraucher (Haushalte), bei denen Aufwand und Nutzen in keinem Verhältnis zueinander standen. Der Leistungspreis deckte dabei einen erheblichen Anteil der Fixkosten bei Erzeugung und Verteilung ab. Er genügte folgenden Anforderungen:

  • Als spezifischer Preis – Leistung (kW), die in einem Abrechnungszeitraum bezogen wird – bot er dem Verbraucher einen unmittelbaren Anreiz, seine gezogene Leistung möglichst klein zu halten und zu vergleichmäßigen. Früher nannte man so etwas Spitzenstromoptimierung, heute wird der alte Wein neudeutsch als „smart grid“ verkauft. Wichtig war die unmittelbare Verknüpfung von Leistung mit Kosten: Wer verschwenderisch mit den volkswirtschaftlichen Investitionen fürs Netz umging, mußte unmittelbar entsprechend mehr bezahlen. Eine sehr wirksame Methode, da der Leistungsanteil im Normalfall etwa die Hälfte der Stromrechnung betrug.
  • Das Investitionsrisiko wurde zwischen Kunde und Lieferant aufgeteilt: Wurde nur selten die geforderte Leistung vom Kunden bezogen, stieg der Leistungsanteil an seiner Stromrechnung merklich an. Ein Leben auf Kosten der Allgemeinheit – wie es heute gern von Besitzern von Photovoltaikanlagen propagiert wird – war in diesem System nicht vorgesehen. Wer nur für wenige Stunden seine elektrische Energie aus dem öffentlichen Netz bezieht, muß indirekt über seinen Leistungspreis für seine Kilowattstunden einen Preis von mehreren Euro bezahlen. Die Propaganda von der bald erreichten „Netzparität“ stellt sich als genauso hohler Werbeslogan wie „Die Sonne schickt keine Rechnung“ heraus. Wenn Netzparität, dann aber bitte nur mit Leistungspreis (auch Bereitstellungspreis genant) oder eigener Batterieanlage für Dunkelheit.
  • Der Leistungspreis war bezüglich des Netzes verursachergerecht. Wer nur das Hochspannungsnetz bzw. Mittelspannungsnetz nutzte, hatte auch unterschiedliche Preise zu entrichten. Dafür mußte er die Transformatorenanlage selbst anschaffen und betreiben. Auch diese volkswirtschaftlich sehr sinnvolle Maßnahme wird immer gern für Propaganda missbraucht: Es wird gern von billigem Strom für die Industrie gefaselt, weil man nur die Arbeitspreise (kWh) für Haushalte und „Großverbraucher“ in Relation zueinander setzt.

Wie das Elend begann

In der guten alten Zeit, mußten sich die Energieversorger alle Preise vorher von dem zuständigen Regulierer genehmigen lassen. Dazu war es nötig, alle Kosten für Erzeugung, Vertrieb und Netznutzung offen zu legen. In wie weit so etwas überhaupt möglich ist, sei dahingestellt. Als Gegenwert erhielten sie das jeweilige Monopol.

Mit der Erschaffung der „Marktliberalisierung“ – ironischerweise gerade durch Kräfte, die der Marktwirtschaft eher kritisch gegenüberstehen – mußte das System umgestellt werden. Man glaubte die Erzeugung (Kraftwerke) und das Netz problemlos voneinander trennen zu können. Warner, die vor der Problematik der Frequenzregelung und der Rosinenpickerei bei den Standorten warnten, wurden als Vertreter der „Monopolkräfte“ abgebürstet. Man wollte politisch eine Strombörse durchsetzen. Man glaubte, einen Markt künstlich erschaffen zu können. Zu diesem Zweck erschuf man die Konstruktion von an einer Börse in Leipzig miteinander handelnden Erzeugern (Kraftwerke, Windparks etc.) und „Großverbrauchern“ (industrielle Kunden, Vertriebsfirmen). Alle sonstigen Schwierigkeiten wurden dem „Netzbetreiber“ auferlegt. Dieser sollte staatlich reguliert werden und würde sich als der Hort der Planwirtschaft erweisen. Er ist die Spielwiese der Politiker, das Ausführungsorgan der Planwirtschaft. Anders als im „real existierenden Sozialismus“ konnten sich aber die Architekten der Planwirtschaft stets hinter den „bösen Kräften des Marktes“ verstecken.

Sollte man nur noch Energie (kWh) handeln, mußten zukünftig alle Kosten durch den Energiepreis (€/MWh) abgedeckt werden. Bei der Unterteilung in „Marktanteil“ und „Plananteil“ war das nur über Zuschläge (Netzentgeld, EEG-Umlage etc.) möglich. Eine Systemumstellung mit fatalen Konsequenzen: Durch die faktische Abschaffung des Leistungspreises wurde das Verursacherprinzip bei den Kapitalkosten ausgehebelt. Zu allem Überdruss wurden aber teilweise Leistungspreise weiter erhoben, was zumindest in der Industrie zu völligen Fehlallokationen führt. Man hat – gewollt oder ungewollt – eine gewaltige Spielwiese für Schlangenölverkäufer aus allen gesellschaftlichen Bereichen geschaffen.

Die zwei Geburtsfehler der Strombörse

Eine Börse ist ein Marktplatz. Zwar ist im Internet-Zeitalter keine Präsenz der Händler mehr auf dem Parkett nötig, aber es gibt einen genau definierten Erfüllungsort. Für die Ölkontrakte über WTI (West Texas Intermediate) ist dies nach wie vor Cushing in Oklahoma USA. Egal wer, wo auf der Welt WTI-Kontrakte handelt, weiß, daß er noch die Transportkosten von seinem Verkaufspreis abziehen bzw. seinem Kaufpreis hinzurechnen muß. Natürlich wird keine physische Ware erst von Rotterdam nach Cushing transportiert und von dort wieder nach Frankfurt. Vielmehr zieht der Verkäufer in Rotterdam die Transportkosten vom Cushing-Preis ab und der Abnehmer in Frankfurt rechnet seine Transportkosten hinzu. Üblich ist nun, daß man sich die Differenz teilt und mit den tatsächlichen Transportkosten von Rotterdam nach Frankfurt verrechnet. Hört sich kompliziert an, ist aber in der Praxis hoch effektiv, weil erst dadurch neue Transportwege entdeckt oder geschaffen werden. Als Beispiel mag nur die Verflüssigung von Erdgas als Alternative zum Rohrleitungstransport dienen. Bei der Strombörse meinte man nun mit „virtuellen Handelsräumen“ arbeiten zu können. Inzwischen spricht es sich aber herum, daß auch neue Stromtrassen Milliarden kosten. Es ist eben keinesfalls egal, wann und wo eine Lieferung vollzogen wird. In Deutschland war man aus politischen Gründen ausdrücklich für eine „Briefmarkenlösung“. Es sollte kein Unterschied bei den Transportkosten geben – egal ob der Strom für München aus dem Kernkraftwerk in der Nähe oder aus dem Windpark bei Helgoland stammt. Wo ein politischer Wille ist, soll auch eine Stromtrasse gebaut sein. Die Kosten dafür, zahlt ja die Allgemeinheit über die „Netzumlage“. Jeder Kohlenhändler würde nur ungläubig mit dem Kopf schütteln, wenn man ihm erzählen wollte, es sei gleich teuer, ob die Kohle aus Ibbenbüren oder Südafrika geliefert wird. Aber darin unterscheiden sich eben reale Märkte von politischen Kopfgeburten.

Der zweite Geburtsfehler war die Zusammenfassung zweier völlig verschiedener Produkte zu einem Handelsprodukt. Konventioneller Strom – egal ob aus Kernkraft-, Kohle oder Gaskraftwerken – ist zu jedem Zeitpunkt ein physikalisch darstellbares Produkt, „Flackerstrom“ aus Wind- und Sonnenenergie hingegen, ist bestenfalls über den Wetterbericht abschätzbar – so, als würde man Schweinehälften mit Roulett zu einem Handelsprodukt vereinen. Die garantierte Lieferbarkeit ist aber die Grundfeste einer jeden Börse. Wie hat man nun das Problem für die Strombörse gelöst? Immer wenn Produktion und Abnahme nicht genau im Gleichgewicht sind, ändert sich die Netzfrequenz. Für die Einhaltung der Frequenz ist aber der Netzbetreiber zuständig. Mit anderen Worten: Jedes mal, wenn ein Verkäufer (Windpark) seine Ware gar nicht liefern kann, muß der Netzbetreiber einspringen. Er muß nun sehr teuer, weil kurzfristig, die fehlende Leistung besorgen. Die Kosten hierfür, darf er über die Netzentgelte auf die Allgemeinheit abwälzen. Wie lange würde wohl eine reale Börse existieren, wenn ständig gar nicht geliefert werden könnte? Entweder würden sich die Handelsteilnehmer frustriert zurückziehen oder die Versicherungsprämien für Lieferausfälle würden jeden Handel ad absurdum führen. Wie weit die Strombörse von realen Börsen entfernt ist, ist schon jedem Laien durch die negativen Preise ersichtlich.

Merit Order

Die Kosten der Erzeugung elektrischer Energie lassen sich als Fixkosten (Kapitalkosten, Personalkosten etc.) und variable Kosten (praktisch nur Brennstoffkosten) darstellen. Trägt man die Brennstoffkosten in einem Diagramm auf, ergibt sich eine Kurve, die im Nullpunkt beginnt (Wind und Sonne), erst sehr flach ansteigt (Kernenergie), dann immer steiler wird (von Braunkohle über Steinkohle), um dann sehr steil (Erdgas) zu enden. Ob ein Kraftwerk nun läuft oder nicht, die Fixkosten (insbesondere sind das die Kapitalkosten) bleiben immer gleich. Ob man es in Betrieb setzt, hängt also vom Verhältnis des momentan erzielbaren Strompreises zu den eigenen Brennstoffkosten ab.

Ein Beispiel mag dies verdeutlichen: Beträgt der Strompreis an der Börse 32 €/MWh ergibt sich für ein Gaskraftwerk mit einem Wirkungsgrad von 50% Grenzkosten bei einem Erdgaspreis von 16 €/MWh. Bei diesem Strompreis und Erdgaspreis könnte es gerade seine Brennstoffkosten wieder einfahren. Ist der erzielbare Strompreis geringer oder der Gaspreis höher, lohnt es sich, das Kraftwerk außer Betrieb zu setzen um weitere Verluste zu vermeiden.

Der erzielbare Strompreis gilt aber nun für alle Kraftwerke. Jedes Kraftwerk muß nun seine Brennstoffkosten ermitteln. Man kann jetzt die Kraftwerke in einer Liste mit steigenden Brennstoffkosten sortieren. Das muß täglich geschehen, da die Brennstoffpreise schwanken. Eine solche Liste bezeichnet man als „merit order“. Alle Kraftwerke, die mit ihren individuellen Brennstoffkosten oberhalb des Grenzwertes (entsprechend dem Börsenpreis für Strom) liegen, würden mit jeder produzierten Kilowattstunde zusätzliche Verluste machen, aber alle Kraftwerke unterhalb des Grenzwertes würden nicht nur ihre Brennstoffkosten voll abdecken, sondern würden auch noch zusätzliche Einnahmen zur Abdeckung ihrer Fixkosten erzielen.

Aus diesem Zusammenhang ergibt sich auch eindeutig, warum in diesem System mit steigendem Anteil an „Erneuerbaren“ auch ständig der Anteil an Strom aus Braunkohle größer werden wird. Momentan gilt der Einspeisevorrang für „Erneuerbare“. Je nach dem, wie stark der Wind weht und die Sonne scheint, ist damit ein entsprechender Anteil an der insgesamt benötigten Strommenge vergeben. Lediglich der Rest bleibt für die anderen Kraftwerke übrig. Das ist politisch so gewollt. Die Strompreise an der Börse purzeln durch das Überangebot bis hin zu absurden negativen Preisen (Entsorgungsgebühren). Ausgerechnet Kernkraftwerke (die aber aus politischen Gründen abgeschaltet werden sollen) und moderne Braunkohlekraftwerke haben die mit Abstand geringsten Brennstoffkosten. Lange vorher, müssen (heute schon) auch modernste Erdgaskraftwerke und bald auch modernste Steinkohlekraftwerke abstellen.

Nicht zu unterschätzen ist in diesem Zusammenhang der Faktor Zeit. Jeden Tag, an dem ein Kraftwerk nicht laufen darf, schreibt es dunkelrote Zahlen. Andererseits können die Kraftwerke mit geringen Brennstoffkosten ihre Kredite weiter abbauen. Hat in diesem Sinne schon jemals ein Politiker oder Konzernlenker über die Konsequenzen nachgedacht, wenn demnächst die Brot-und-Butter-Kraftwerke zwangsweise abgeschaltet werden müssen. Der „Atomausstieg“ wird noch richtig heiter werden.

Interessant sind auch die Auswirkungen auf Neuinvestitionen. Alle reden von einem Boom bei Gaskraftwerken. Sicherlich erfordern Gaskraftwerke die mit Abstand geringsten Investitionen. Insofern erscheint das betriebswirtschaftliche Risiko gering. Allerdings gilt das nur für niedrige Gaspreise (Putin läßt grüßen!) bei gleichzeitig hohen Strompreisen. Wer garantiert aber, daß die Strompreise an der Börse bald stark steigen? Was ist, wenn die Absatzmenge in Deutschland durch eine beschleunigte Deindustrialisierung schneller rückläufig ist, als allgemein erwartet wird? Was, wenn unsere Nachbarn mit billigem Strom – beispielsweise aus Kernkraftwerken – auf den deutschen Markt drängen?

Warum es keine Kapazitätsmärkte gibt

Die Grundvoraussetzung für einen Markt ist das aufeinandertreffen von Angebot und Nachfrage. Wo es gar keine Nachfrage gibt, kann auch kein Markt entstehen. Insofern ist der naturgegebene Markt, der Markt für elektrische Energie. Genauso wie es Märkte und Börsen für Diesel und Benzin gibt, aber keine Börse für Raffinerien. Alle politischen Kopfgeburten leiden an einem systembedingten „Nicht-funktionieren-können“. Der Begriff Markt ist oft nur eine Verballhornung der Planwirtschaft. Typischer Vertreter dieser politischen Kategorie ist der Handel mit CO2.-Zertifikaten“.

Entweder man ist für freie Märkte (nur Energie in €/kWh) oder man entscheidet sich wieder zur Rückkehr zum regulierten Markt (Bereitstellungspreis in €/kW und Energie in €/kWh nach individuellen Umständen). Jedes der beiden Systeme hat Vor- und Nachteile.

Zu Märkten gehören untrennbar Unternehmer und unternehmerisches Risiko. In diesem Sinne kann sich ein Kraftwerk nicht von einer Eisdiele unterscheiden. Mit beiden kann man Geld verdienen. Aber für beide kann die falsche Einschätzung des Wetter-Risikos tödlich sein. Eine Eisdiele muß ihr Geld verdienen, wenn der Kunde Eis essen möchte. Nicht anders, kann es bei einem Kraftwerk sein. Der Spruch: „Man zahlt ja auch nicht nur für die Feuerwehr, wenn es brennt“, ist die Denkweise eines Kombinatsleiters und nicht eines Unternehmers.

Es ist kein Zufall, daß ausgerechnet die „Stadtwerke“, die massiv in Gaskraftwerke investiert haben, nun lautstark „Kapazitätsmärkte“ fordern. Es ist der bekannte Ruf nach Subventionen. Ihr Problem, wenn sie irgendwann angefangen haben, an die eigene Propaganda von den „flexiblen“ und „umweltfreundlichen“ Gaskraftwerken zu glauben. Es ist in diesem Land scheinbar zum Volkssport für gewisse politische Kreise geworden, die Verbraucher immer weiter mit Abgaben zu belasten. Früher war man wenigstens so ehrlich, die eigenen politischen Wünsche aus den öffentlichen Haushalten – und damit über Steuern – abzudecken. Eine weitere „Kapazitätsabgabe“ wird mit Sicherheit die Strompreise nicht senken.

Man sollte dem Markt endlich freien Lauf gewähren und unrentable Kraftwerke pleite gehen lassen. Es wird sich schon ein Käufer finden. Der kann dann anschließend auch billiger anbieten. Die Damen und Herren, die ignoriert haben, daß Kernbrennstoff und Kohle billiger als Erdgas sind, müssen sich halt einen neuen Job suchen. Auch das Warten auf höhere „CO2-Preise“ wird sie nicht mehr retten können. Wenn man CO2. zu einem Schadstoff erklären will, wird man um Grenzwerte nicht umhin kommen. Präsident Obama macht es gerade vor.

„Kapazitätsmärkte“ können die Randbedingungen nicht verändern:

  • Je mehr Wind und Sonne in den Markt gedrückt wird, um so mehr wird Angebot und Nachfrage auseinandergehen. Die unvermeidliche Folge sind immer stärker schwankende Strompreise.
  • Je stärker die Preise schwanken, um so höher muß der Risikoaufschlag werden. Das Niveau der Strompreise (in Deutschland) wird dadurch weiter steigen.
  • Je höher die Preise steigen, um so mehr setzen Ausweichbewegungen ein. Eine massive Abwanderung der Industrie ins Ausland wird stattfinden. Sollte das der heimliche politische Wunsch sein, dann weiter so.
  • Das Ausland wird dem deutschen Vorbild auf keinen Fall folgen. Man wird gerne die Arbeitsplätze übernehmen und wird auch gerne billigen Strom liefern. Schließlich schafft auch der Bau und Betrieb von Kraftwerken Arbeitsplätze.
  • Solange man das Prinzip der Grenzkosten (merit order) beibehält, ist die Schwankung (Volatilität) der Energiepreise immer größer als bei einem regulierten System mit Leistungs- und Energiepreisen. Ein „Kapazitätsmarkt“ kann daran nichts ändern.
  • Ein „Kapazitätsmarkt“, d. h. die Bezahlung für das reine Bereithalten eines Kraftwerks, ist eine Subvention. Es entsteht ein reiner Mitnahmeeffekt, der keine Senkung der Energiepreise zur Folge hat.
  • Eine Lösung ist nur auf europäischer Ebene unter Beachtung europäischen Rechts möglich. Ein weiterer Alleingang Deutschlands wird nicht toleriert werden. Dies gilt um so mehr das Netz durch zusätzliche Grenzkopplungen verstärkt wird.
  • Die Volatilität wird durch den weiteren Ausbau der „Regenerativen“ immer weiter zunehmen. Ein „Kapazitätsmarkt“ kann ohnehin nur einen etwaigen Mangel an Leistung, nicht aber den Überschuß (wenn der Wind mal kräftig weht oder die Sonne großräumig scheint) beeinflussen.
  • Eine Kaltreserve war immer schon üblich. Was geschieht mit dem „Kapazitätsmarkt“, wenn die Gaspreise einmal (relativ) sinken sollten? Werden dann die erhaltenen Subventionen an die Verbraucher zurückgezahlt?
  • Je länger man das Eingeständnis, daß die „Energiewende“ ein Fehler ist, hinauszögert, um so mehr Zwangsabgaben sind nötig: Es begann mit der EEG-Umlage, dann folgte die Netzumlage und jetzt ist eine Kapazitätsabgabe im Gespräch. Planwirtschaft wuchert wie eine Krebsgeschwulst.
  • Nur ein ausgewogener Kraftwerkspark ist die beste Garantie für Preisstabilität. „100% Erneuerbare“ ist eine gefährliche Utopie.

 

Erdgas oder Kernenergie

oder Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

  1. Welche Brennstoffe oder sonstige „Rohstoffe“ (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?
  2. Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?
  3. Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die „Energiewende“ eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese „Erstanwender“ finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese durch die sog. „Ölpreisbindung“ im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine „Gasblase“, die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen – wie z. B. in Rußland und dem Iran – kann das Jahrzehnte andauern ohne daß die Fördermenge merklich absinkt. Weit aus größer sind jedoch die Vorkommen von sog. „unkonventionellem Gas“. Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der „Shale Gas Revolution“ wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer wie in den USA. Preisunterschiede – sofern sie hoch genug sind und längerfristig erscheinen – werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das „neue Gas“ unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an dem lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran – aus den vorgenannten Gründen – nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis – wie in Teilen der USA – wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis – wie in Deutschland und den Niederlanden – werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen „Träumen vom Elektromobil“.

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die „Verwerter“ kommen auf den Plan. Typische „Verwerter“ sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen wie z. B. in der Schifffahrt.

Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage – insbesondere nach sauberen Energieträgern – weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….