Reaktortypen in Europa – Teil2, EPR

EPR ist eine Warenmarke des französischen Herstellers Areva für einen Druckwasserreaktor der dritten Generation. Interessant ist schon die unterschiedliche Herleitung der drei Buchstaben EPR: European oder Evolutionary Pressurized Water Reactor. Beides ist angebracht.

Die Geschichte

Inzwischen sind von diesem Typ vier Reaktoren in Bau: Olkiluoto 3 in Finnland (seit Oktober 2005), Flamanville 3 in Frankreich (seit Dezember 2007) und Taishan 1 und 2 in China (seit Oktober 2009). Wahrscheinlich wird in den nächsten Jahren mit dem Bau zweier weiterer Reaktoren in Hinkley Point in Großbritannien begonnen werden.

Auf den ersten Blick eine Erfolgsbilanz. Wie kam es dazu? Ende der 1990er Jahre kam in Deutschland die Rot/Grüne-Koalition an die Macht. Die Kombinatsleitung von Siemens läutete in gewohnter Staatstreue den sofortigen und umfassenden Ausstieg aus der Kernenergie ein. Eine unternehmerische Fehlentscheidung. Heute sind die ganzen Staatsaufträge an Telefonen, Eisenbahnzügen etc. zu „besonders auskömmlichen Preisen“ längst Geschichte. Noch kann man ein paar Windmühlen nach altem Muster „an den Mann bringen“. Aber die einzige Zukunftstechnologie, in der Siemens wirklich einmal zur Weltspitze gehörte, ist unwiederbringlich und ohne Not „abgewickelt“ worden. Siemens fand in Framatome (Vorläufer von Areva) einen dankbaren Abnehmer. Die Franzosen konnten nach ihrem beispielhaften Ausbauprogramm von 57 Reaktoren ihre Kapazitäten nur durch den Ausbau des Auslandsgeschäftes aufrecht erhalten. Ein „Made in Germany“ kam ihnen dabei sicherlich nicht ungelegen. Siemens reichte der Einfuß von 34% der Aktien an dem neuen Gemeinschaftsunternehmen. Kernenergie war ja nicht mehr politisch korrekt und man wollte seinen (damals) lukrativen Kunden – die Öffentliche Hand – nicht verärgern. Man glaubte damals wohl auch noch, seinen überlegenen Turbinenbau allein weiter führen zu können. So als ob Daimler sein Autogeschäft verkaufen würde um zukünftig nur noch mit dem Reifengeschäft zu überleben. Jedenfalls ist Olkiluoto wohl das letzte Kernkraftwerk mit einer deutschen Turbine. Alle weiteren EPR haben natürlich französische Turbosätze der Marke Arabella. Dies gilt selbstverständlich auch für alle weiteren Geschäfte mit China. Ob die Kombinatsleitung den Chinesen ersatzweise politisch korrekte Windmühlen angeboten hat, weiß man nicht. Es gab ja mal eine Zeit lang in bildungsfernen Kreisen den festen Glauben, Deutschland würde „vorweg gehen“ mit seiner Energiepolitik.

Die Mitarbeiter in Frankreich und Deutschland waren jedenfalls redlich bemüht, das beste aus beiden Welten zu erschaffen. Grundlage des EPR sind die französische Baureihe N4 (Kraftwerke Chooz 1+2, Civaux 1+2) und die deutsche Konvoi Baureihe (Neckar 2, Emsland, Isar 2). Es war von Anfang an eine evolutionäre und ausdrücklich keine revolutionäre Entwicklung geplant. Außerdem nahm man nicht nur die Genehmigungsbehörden in beiden Ländern mit ins Boot, sondern auch 12 europäische Energieversorgungsunternehmen. Es sollte ein Reaktor entstehen, der europaweit genehmigungsfähig war. Heute ist er auch in China und USA geprüft und grundsätzlich zugelassen worden.

Das Problem der Größe

Jedes elektrische Netz kann nur eine gewisse Blockgröße vertragen. Über den Daumen gilt immer noch die Regel von maximal zehn Prozent der Leistung, die im Netz anliegt. Ist der Reaktor zu groß, scheiden weltweit eine Menge Netze aus. Das ist ein Problem bei der Vermarktung des EPR. Areva hat bereits schon länger die Problematik erkannt und bietet nun in Kooperation mit Mitsubishi auch einen kleineren Druckwasserreaktor (ATMEA mit ca. 1100 MWel) an. Wahrscheinlich werden die ersten Anlagen in der Türkei errichtet. Demgegenüber sollen die vier EPR von Olkiluoto bis Taishan eine Leistung zwischen 1600 und 1660 MWel erreichen. Die Vorläufer – z. B. das größte deutsche Kernkraftwerk Isar 2 – hatten eine Leistung von etwa 1400 MWel..

Bei Kraftwerken gibt es eine bedeutende Kostendegression. Je mehr man einen gegebenen Entwurf vergrößert, um so kleiner werden die spezifischen Investitions- und Betriebskosten. Man wollte ja ausdrücklich eine evolutionäre Entwicklung. Jetzt steckt man dafür in einer Größenfalle – und was fast noch schlimmer ist – die Kosten sind trotzdem viel zu hoch. Der EPR ist in diesem Sinne kein glücklicher Entwurf.

Die grünen Phantasien

Besonders von den deutschen Genehmigungsbehörden wurden die beiden Sicherheitsanforderungen „Absturz eines Jumbo“ und das „China Syndrom“ aus Hollywood eingebracht. Man glaubte in Deutschland lange genug, man müsste nur über jedes Stöckchen springen, das einem „Atomkraftgegner“ hin halten und dann würden sie auch irgendwann Kernkraftwerke ganz toll finden. Die simple Strategie, die Kosten durch immer neue Ideen immer weiter in die Höhe zu treiben, wurde nicht erkannt. Jetzt steht man mit einer millionenteuren doppelten Sicherheitshülle aus Beton und dem Gimmick eines „core catcher“ da und die „Atomkraftgegner“ lieben den EPR immer noch nicht.

Der Flugzeugabsturz

Solange es Kernkraftwerke gibt, hat man sich über „Einwirkungen von außen (EVA)“ Gedanken gemacht. Schon immer gehörte ein Flugzeugabsturz dazu. Frühzeitig bekamen deshalb die Reaktoren eine entsprechende Betonhülle als Schutz. Die vier Unglücksreaktoren in Fukushima hatten noch keine – mit den bekannten Konsequenzen. Bei ihnen war nur der unmittelbare Bereich um das Reaktordruckgefäß durch dicke Betonabschirmungen geschützt. Von Anfang an stellte sich die Frage, wie dick eine Betonhülle als Bunker sein müßte. In Deutschland ging man vom Absturz eines Militärjets vom Typ Phantom F4 aus. Eine heute noch sinnvolle Annahme – selbst nach den Ereignissen des 11. September. Die Phantom ist bis heute das Flugzeug mit der „größten Dichte“. Ein Militärjet noch aus dem „Stahlzeitalter“. Die Triebwerke einer im Tiefflug dahin rasenden Phantom, würden wie Rammböcke auf die Schutzhülle eines Reaktors wirken. Dahingegen entspricht die Wirkung einer abstürzenden A380 oder eines Jumbojets eher einer Bierdose. Die Terrorflieger des 11. September konnten selbst ein filigranes Hochhaus bzw. das Pentagon nur zum Wackeln bringen. Etwas anderes ist die ungeheure Brandlast eines voll betankten Großraumflugzeuges, aber gegen die hilft Beton nur bedingt.

Jedenfalls steht der EPR heute mit einer doppelten Betonhülle dar. Der innere Teil – das Containment – besteht aus ca. 1,3 m dickem Spannbeton und die äußere Schutzhülle aus einer weiteren ca. 1,8 m dicken Betonhülle. Zusätzlich verschwinden alle nuklearen Komponenten (Dampferzeuger, Reaktordruckgefäß usw.) hinter weiteren Betonmauern, die als Abschirmung gegen Strahlung dienen. Dieses „Bunkersystem“ ist mit Sicherheit stark genug, um jedem Flugzeugabsturz oder einem Terroranschlag zu widerstehen. Wir erinnern uns: Tschernobyl hatte nicht einmal ein Containment und in Fukushima waren nur die Reaktoren geschützt. Das Brennelementebecken stand in einer normalen Industriehalle. Anders als beim ERP, bei dem sogar das Lagergebäude für die Brennelemente und diverse Sicherheitsanlagen mit einer Betonhülle verbunkert sind.

Beton kann nicht schaden, er ist nur sehr teuer. Erschwerend kommt beim EPR die lohnintensive und zeitraubende Ausführung als Ortbeton hinzu. Dies wurde zumindest in Olkiluoto völlig unterschätzt.

Grundsätzlich ist die Konstruktion aus zwei Hüllen mit Zwischenraum sicherheitstechnisch zu begrüßen. Wird das Containment durch eine Explosion (Fukushima) oder was auch immer beschädigt, kann die äußere Hülle ihre Funktion wenigstens zum Teil übernehmen. Der Zwischenraum wird ständig abgesaugt und in leichtem Unterdruck gehalten. Die „radioaktiv belastete Luft“ wird vor der Abgabe über den Kamin gefiltert. Durch eine solche Maßnahme kann selbst, wenn die gasförmigen Spaltprodukte im Reaktor freigesetzt werden sollten, der größte Teil zurück gehalten bzw. auf ein erträgliches Maß verdünnt werden.

Der core catcher

Dank Hollywood ist jeder „Atomkraftgegner“ mit dem „China Syndrom“ vertraut: Eine einmal eingetretene Kernschmelze soll endlos andauern. Selbst die unfreiwilligen Großversuche von Harrisburg, Tschernobyl und Fukushima können einen rechtgläubigen „Atomkraftgegner“ nicht von diesem Irrglauben abbringen.

Fangen wir mal mit dem Schlimmsten an:

  • Der Reaktor in Tschernobyl stand in einer einfachen Industriehalle. Nachdem eine Kernschmelze stattgefunden hatte, verabschiedete sich der Reaktor durch eine physikalische Explosion. Er spie wie ein Vulkan den größten Teil seines radioaktiven Inhalts in die Umwelt aus. Dies ist der schlimmste – überhaupt vorstellbare – Unfall.
  • In Fukushima trat in mehreren Reaktoren (zumindest teilweise) eine Kernschmelze ein. Ursache war hierfür der zeitweise Ausfall der Stromversorgung und dadurch ein Mangel an Kühlwasser. Die Nachzerfallswärme konnte die Brennelemente (teilweise) schmelzen lassen. Die Nachzerfallswärme nimmt aber sehr schnell ab und die Kühlung konnte – wenn auch verspätet – wieder aufgenommen werden. Wieviel Corium sich tatsächlich durch die Reaktorgefäße gefressen hat, wird erst eine genaue Untersuchung zeigen können. Jedenfalls hat die Menge nicht einmal gereicht, um den Betonboden der Reaktorgrube zu durchschmelzen. Ursache für die Freisetzung von Radioaktivität sind schlicht weg Konstruktionsfehler: Die Wasserstoffexplosion und die „Untertunnelung“ des Kraftwerks.
  • Bei dem TMI-Reaktor in Harrisburg hatte man wenigstens alles grundsätzlich richtig konstruiert, obwohl dann später alles schief lief. Maßgeblich durch Bedienungsfehler fiel ein Teil des Kerns unbemerkt trocken. Es entstand Wasserstoff, welcher aber nicht zu einer heftigen Explosion führte. Das Reaktordruckgefäß blieb ganz und in ihm sammelten sich Bruchstücke und Schmelze. Es gelangte praktisch keine unzulässig hohe Radioaktivität in die Umwelt.

Anstatt durch Aufklärung entgegen zu wirken, versuchte man den Segen der „Atomkraftgegner“ durch die Erfindung des core catcher zu erlangen. Ein von Anfang an sinnloses Unterfangen. Die Strategie der „Atomkraftgegner“ ging vielmehr auf: Die Kosten wurden weiter in die Höhe getrieben um mit einer vorgeblich „unwirtschaftlichen Atomkraft“ argumentieren zu können.

Wie sieht dieses Ding nun beim EPR aus? Man pflastert den Boden unterhalb des Reaktordruckgefäßes mit Steinen aus einer feuerfesten Keramik. Gemäß den Vorstellungen aus Hollywood frisst sich das Corium als glühende Schmelze durch das Reaktordruckgefäß und sammelt sich in der feuerfesten Wanne. In der Realität nimmt die Nachzerfallswärme zwar exponentiell ab, nach Drehbuch natürlich nicht, sondern der Boden der Wanne aus einem Spezialbeton schmilzt langsam auf und die Schmelze rinnt anschließend über eine Schräge in eine großflächige Vertiefung. Diese soll dauerhaft und automatisch durch Wasser gekühlt werden. Dort soll die Schmelze dann dauerhaft erstarren. Man könnte dieses Konzept auch mit: „Richtige Antworten auf falsche Fragestellungen umschreiben.“ Jedenfalls kostet allein der umbaute Raum für diese technische Glanzleistung zig Millionen.

Die magische Zahl vier

Der EPR hat vier Primärkreise: Um das Druckgefäß im Zentrum stehen kreisförmig angeordnet vier Dampferzeuger. Zwischen ihnen stehen die vier Hauptkühlmittelpumpen für die Umwälzung des Wassers durch den Reaktorkern und die Wärmeübertrager. All diese Komponenten stehen in Betonkammern, die der Abschirmung der Strahlung dienen. Damit ist der Sicherheitsbehälter auch während des Betriebes begehbar.

Dieser Grundanordnung folgend, gibt es auch vier vollständige Sicherheitseinrichtungen, deren Komponenten in vier voneinander völlig getrennten Gebäuden um den Sicherheitsbehälter angeordnet sind. Diese vier Sicherheitsabschnitte, sowie die Bedienungszentrale und das Gebäude für die Brennelemente, sind ebenfalls (wie das zylindrische Reaktorgebäude) gegen Flugzeugabstürze verbunkert.

Etwas abseits liegen zwei Gebäude, die die Notstromversorgung enthalten. Sie befinden sich jeweils in Deckung durch den eigentlichen Reaktorbau. Da sie ebenfalls vollständig redundant sind, geht man nur von höchstens einem Schaden bei einem Flugzeugabsturz aus. Die Gebäude sind mit wasserdichten Türen verschlossen. Ein Auslöschen durch eine Flutwelle (Fukushima) wäre ausgeschlossen.

Jedes, der vier Notkühlsysteme, kann allein die gesamte Wärme abführen (4 x 100%). In erster Linie dient das zur Verbesserung der Verfügbarkeit. Da alle vier Züge völlig voneinander unabhängig sind, kann man Wartungsarbeiten im laufenden Betrieb ausführen. Wenn ein System gewartet wird, stehen immer noch drei zur Verfügung.

Die Nachzerfallswärme

Bei einem Störfall wird das Kernkraftwerk durch eine Unterbrechung der Kettenreaktion abgeschaltet. Das Einfahren der Steuerstäbe entspricht z. B. dem Ausschalten der Feuerung bei einem konventionellen Kraftwerk. Bei beiden muß nun noch die im System gespeicherte Wärme abgeführt werden. Es gibt bei einem Kernkraftwerk aber zusätzlich den physikalischen Effekt der Nachzerfallswärme: Der radioaktive Zerfall der Spaltprodukte läßt sich durch nichts aufhalten. Es wird also auch nach der Abschaltung noch Wärme produziert! Die freiwerdende Wärme hängt von verschiedenen Umständen ab. In den ersten Sekunden können es über 5% der thermischen Leistung sein. Die Nachzerfallswärme nimmt sehr schnell ab und es sind nach einer Stunde nur noch rund 1%. Gleichwohl handelt es sich um gewaltige Leistungen. Ist ein EPR längere Zeit mit Höchstlast im Netz gewesen, sind das entsprechend 225 MW bzw. noch 45 MW nach einer Stunde. Diese Wärme muß auf jeden Fall – auch bei widrigsten äußeren Umständen (Fukushima) – abgeführt werden, da sonst der Kern schmilzt.

Praktisch ist die einzige Möglichkeit solche Leistungen sicher abzuführen, die Verdampfung. Ist die äußere Wärmesenke (Fluß, Meer oder Kühlturm) nicht mehr nutzbar, muß dies ausschließlich über die Notkühlung möglich sein. Zuerst baut man über Ventile am Druckhalter den Druck im Primärkreis ab. Schon durch dieses „auskochen“ tritt eine merklich Kühlung ein. Allerdings muß die abgelassene Wassermenge möglichst schnell ersetzt werden, da sonst das Reaktordruckgefäß ausdampft und der Kern (teilweise, wie in Harrisburg) trocken fällt. Ist der Druck auf ein gewisses Niveau abgefallen (ungefähr 100 bar) setzt eine Nachspeisung von Kühlwasser ein. Für den Antrieb der Pumpen ist aber elektrische Energie nötig. Würde die Notstromversorgung – wie in Fukushima – versagen, würde die Überhitzung des Kerns eher noch schneller eintreten. Das Reaktormodell aus den 1960er Jahren hatte bereits eine pfiffigere Idee: Der abgelassene Dampf wurde vor der Kondensation in der wassergefüllten Ringkammer über eine kleine Turbine geleitet. Diese Turbine treibt eine kleine Speisepumpe, die Wasser aus dem Ringraum zurück in das Druckgefäß speist. Dies funktioniert bis zu einem gewissen Temperaturausgleich recht gut. Eine Notmaßnahme, die zumindest in den ersten Minuten ohne jede Hilfsenergie sehr gut funktioniert hat.

Gegenüber seinen Vorläufern hat der EPR durch das Wasserbecken am Boden einen Sicherheitsgewinn: Das Wasser dient nicht nur zur Noteinspeisung, sondern stellt auch eine Wärmesenke innerhalb des Sicherheitsbehälters dar. Das Wasser kann durch Wärmeübertrager gepumpt werden, um es „kühl“ zu erhalten. Die Lagerung am Boden kommt der statischen Belastung bei Erdbeben entgegen, vergibt aber die Chance einer passiven Nachspeisung durch Schwerkraft.

Bei dem EPR ergibt sich kein grundsätzlicher Sicherheitsgewinn gegenüber seinen Vorgängern des Konvoi. Er arbeitet nach den gleichen Prinzipien: Lediglich die Stückzahl und Aufstellung der Sicherheitseinrichtungen wurde erhöht: Je zwei Notstromdiesel in zwei verschiedenen Gebäuden (2 x 2 x 8 MW Redundanz) und je ein Notstromaggregat zusätzlich im Gebäude (2 x 1 MW Diversität). Es bleibt aber das alte Problem aktiver Sicherheitssysteme: Strom weg, Wasser weg! Die vorgeblich um den Faktor zehn erhöhte Sicherheit, ergibt sich rechnerisch hauptsächlich aus dem Core Catcher.

Der Zugewinn an Lebensdauer

Beim EPR ist die konstruktive Nutzungsdauer von 40 auf 60 Jahre erhöht. Dies ist durch eine konsequente Überarbeitung aller Bauteile geschehen. So ist man z. B. beim Druckgefäß und den Hauptkühlmittelleitungen auf den Werkstoff Alloy 690 (59,5% Nickel, 30% Chrom, 9,2% Eisen etc.) übergegangen. Er besitzt bessere Korrosionsbeständigkeit und bildet nicht soviel „Atommüll“ durch Neutroneneinfang. Zusätzlich hat man das Druckgefäß mit einem Reflektor aus Stahl ausgestattet. Durch das Zurückstreuen von Neutronen in den Kern kann man den Brennstoff besser ausnutzen und gleichzeitig den Druckbehälter weniger belasten (Versprödung durch Neutronen).

Sicherheit und Wartung stehen in enger Beziehung. Schweißnähte weisen immer Fehler auf, die in regelmäßigen Abständen überprüft werden müssen. Solche Wiederholungsprüfungen sind zeitaufwendig (Verfügbarkeit) und kostspielig. Je weniger Schweißnähte, desto besser. Wenn schon Schweißnähte, dann an gut zugänglichen Stellen. Man hat deshalb beim EPR wesentlich komplizierter geschmiedete Formstücke (hohe Investitionskosten) für die Hauptkühlmittelleitungen verwendet bzw. durch Aushalsungen beim Druckbehälter die Anschlüsse vorverlegt.

Schlusswort

Ohne jede Frage hat man in hunderten von Betriebsjahren eine Menge Erfahrungen gesammelt. Hinzu kamen die realen „Großversuche“ aus Harrisburg und Fukushima. Insofern ist der EPR nicht mehr mit den ersten Druckwasserreaktoren vergleichbar. Als Ersatz für gasgekühlte Reaktoren (Hinkley Point) oder als Zubau (Olkiluoto, Taishan) ist er sicherlich eine gute Lösung. Aber ist der Sicherheitsgewinn beispielsweise gegenüber einer Konvoi-Anlage so viel höher, daß ein Ersatz durch einen EPR zu rechtfertigen wäre? Zumal man mit wenigen Nachrüstungen bzw. Ersatzteilen (z. B. Dampferzeuger) sehr kostengünstig eine Betriebsdauer von 80 und mehr Jahren erreichen könnte. Genug Zeit jedenfalls, um auf fortschrittlichere Konzepte umzusteigen.

Im nächsten Teil geht es um den APR-1000 von Westinghouse, der in Moore Side (und anderswo) geplant ist.

Hinkley Point C

Der Aufreger der Woche, ist der geplante Neubau zweier Reaktoren als Ersatz für das Kernkraftwerk Hinkley Point. Für die einen ist es der lang ersehnte Neubeginn, für andere ein Sündenfall der europäischen Subventionswirtschaft. Vor allem ist es jedoch ein hoch komplexer Vorgang, für den man etwas mehr Zeit benötigt als in den „Qualitätsmedien“ zur Verfügung steht.

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. „Strom-Markt-Liberalisierung“ in Europa. Traditionell gab es Gebietsmonopole, in denen „Energieversorger“ tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der „Liberalisierung“ sollte elektrische Energie – wie andere Wirtschaftsgüter auch – zwischen Erzeugern und Verbrauchern gehandelt werden. Eine „Strombörse“ sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles „Marktversagen“ in der Form einer von Menschen verursachen „Klimakatastrophe“ konstruiert. Früher gab es eine „Aufsichtsbehörde“ mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der „Gesellschaftsveränderer“ magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen „Anti-Atomkraft-Bewegung“ vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine „Gesellschaftsveränderung“. Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der „Strom-Markt-Liberalisierung“ heraus zu halten. Letztendlich wurde auch er „privatisiert“. Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die „Alternativenergien“ massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die „Klimakatastrophe“ erschaffen. Der einst erträumte Weg über „flexible und umweltfreundliche Gaskraftwerke“ ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem „Einspeisevorrang“ für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen – wenn der Wind einmal zufällig kräftig weht – wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das „Kapazitätsmärkte“, in GB „Contracts for Difference CfD“. Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den „Erneuerbaren“ abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der „Energiewende“ über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein „Kapazitätsmarkt“ wäre nicht notwendig oder würde sich von selbst ergeben – ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum „relevanten Anschlußpunkt“ den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie „Netzparität“, sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die „Über-Nacht-Kosten“. Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 34 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für „Atommüll“ und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten „strike price“ von 92,50 Pfund pro MWh sind.

Es ging hier um ein „Beihilfeverfahren“, in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen „Subventionskürzung“ bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren – weil staatlich verursachten – Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß – wie immer – der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine – freilich rein theoretische – Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal „Kapazitätsmärkte“ können dagegen etwas ausrichten.

Beim „strike price“ wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht „beihilfekonform“ und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will – eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei „Spitzenlast“ in der Dunkel-Flaute voll mitnehmen. „Kapazitätsmärkte“ lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser „freie Handel“ nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist – klassisch, wie eine Preisgleitklausel – mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der „strike price“ angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die „hauseigene Gewerkschaft der EDF“ wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel – und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark London Array – Paradebeispiel deutscher Energieversorger – hat eine Grundfläche von etwa 100 km2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.