Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil3, AP1000

AP1000 ist die Warenmarke eines Druckwasserreaktors der Generation III+ des Herstellers Westinghouse. Westinghouse ist die Mutter aller Druckwasserreaktoren. Sie erschuf 1954 unter Hyman G. Rickover und Alvin M. Weinberg diesen Reaktortyp für den Antrieb des ersten Atom-U-Boots USS Nautilus (SSN-571).

Geschichte

Der AP1000 entwickelt sich zum „Golf“ der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.

Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:

  • Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,
  • Übergang von aktiven auf passive Sicherheitssysteme,
  • modularer Aufbau und
  • parallele Errichtung von Bau und Anlagentechnik.

Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.

Durch die „geringe“ Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes „weglassen“ ergibt sich der Druckwasserreaktor mit dem geringsten Beton- und Stahleinsatz pro MWel.

Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.

Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter „Passiver Sicherheit“ versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.

Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann „Sicherheit“ oder „Verteidigung“ in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel „nuclear grade“ tragen. Oft sind solche Teile völlig identisch mit dem „Industriestandard“ – unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.

Man kann die Sicherheit – bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt – noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen – ohne Freisetzung nennenswerter Radioaktivität in die Umwelt – muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.

Seit Fukushima ist der „station blackout“ ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:

Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmeübertrager (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters „regnen“ und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Beregnung.

Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU – irgendein Leck im Primärkreis – eingetreten wäre. Damit ein zeitweiliges „trocken fallen“ der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.

Ist der Druck – egal ob durch ein Leck oder Abkühlung – bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung – aus welchen Gründen auch immer – versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2 x 100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen wie in Fukushima.

Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage. Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den „Atomkraftgegnern“ ihr stärkstes Argument von dem „unkalkulierbaren Restrisiko“ bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen „Millionen-Tote-für-10000-Jahre-unbewohnbar“. Es ist also kein Zufall, daß sich die „Bewegung“ nun auf angeblich „zu teuer“, konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:

  • Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.
  • Bürokratismus: „Nuclear grade“ erfordert einen – teilweise absurden – bürokratischen Aufwand. Oft kostet das gleiche Bauteil als „nuclear grade“ geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen – als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.
  • Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.
  • Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.
  • Serien: Jeder „first of a kind“ ist teurer als die Nachfolgemodelle. Hat man erst einmal die „Konstruktionsfehler“ behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.

Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das „Sektionsbauweise“. Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.

Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.

Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.

Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte „nukleare Insel“ steht. Schon die sich anschließende „Reaktorgrube“ ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.

Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das „notwendige Eisen“, was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun – wie auf einer Werft – vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt werden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.

Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.

Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer – irgendwo auf der Welt – kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana – der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war – war mit diesen „Gepflogenheiten der Kerntechnik“ nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.

Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute – wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.

Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.

 

Reaktortypen in Europa – Teil2, EPR

EPR ist eine Warenmarke des französischen Herstellers Areva für einen Druckwasserreaktor der dritten Generation. Interessant ist schon die unterschiedliche Herleitung der drei Buchstaben EPR: European oder Evolutionary Pressurized Water Reactor. Beides ist angebracht.

Die Geschichte

Inzwischen sind von diesem Typ vier Reaktoren in Bau: Olkiluoto 3 in Finnland (seit Oktober 2005), Flamanville 3 in Frankreich (seit Dezember 2007) und Taishan 1 und 2 in China (seit Oktober 2009). Wahrscheinlich wird in den nächsten Jahren mit dem Bau zweier weiterer Reaktoren in Hinkley Point in Großbritannien begonnen werden.

Auf den ersten Blick eine Erfolgsbilanz. Wie kam es dazu? Ende der 1990er Jahre kam in Deutschland die Rot/Grüne-Koalition an die Macht. Die Kombinatsleitung von Siemens läutete in gewohnter Staatstreue den sofortigen und umfassenden Ausstieg aus der Kernenergie ein. Eine unternehmerische Fehlentscheidung. Heute sind die ganzen Staatsaufträge an Telefonen, Eisenbahnzügen etc. zu „besonders auskömmlichen Preisen“ längst Geschichte. Noch kann man ein paar Windmühlen nach altem Muster „an den Mann bringen“. Aber die einzige Zukunftstechnologie, in der Siemens wirklich einmal zur Weltspitze gehörte, ist unwiederbringlich und ohne Not „abgewickelt“ worden. Siemens fand in Framatome (Vorläufer von Areva) einen dankbaren Abnehmer. Die Franzosen konnten nach ihrem beispielhaften Ausbauprogramm von 57 Reaktoren ihre Kapazitäten nur durch den Ausbau des Auslandsgeschäftes aufrecht erhalten. Ein „Made in Germany“ kam ihnen dabei sicherlich nicht ungelegen. Siemens reichte der Einfuß von 34% der Aktien an dem neuen Gemeinschaftsunternehmen. Kernenergie war ja nicht mehr politisch korrekt und man wollte seinen (damals) lukrativen Kunden – die Öffentliche Hand – nicht verärgern. Man glaubte damals wohl auch noch, seinen überlegenen Turbinenbau allein weiter führen zu können. So als ob Daimler sein Autogeschäft verkaufen würde um zukünftig nur noch mit dem Reifengeschäft zu überleben. Jedenfalls ist Olkiluoto wohl das letzte Kernkraftwerk mit einer deutschen Turbine. Alle weiteren EPR haben natürlich französische Turbosätze der Marke Arabella. Dies gilt selbstverständlich auch für alle weiteren Geschäfte mit China. Ob die Kombinatsleitung den Chinesen ersatzweise politisch korrekte Windmühlen angeboten hat, weiß man nicht. Es gab ja mal eine Zeit lang in bildungsfernen Kreisen den festen Glauben, Deutschland würde „vorweg gehen“ mit seiner Energiepolitik.

Die Mitarbeiter in Frankreich und Deutschland waren jedenfalls redlich bemüht, das beste aus beiden Welten zu erschaffen. Grundlage des EPR sind die französische Baureihe N4 (Kraftwerke Chooz 1+2, Civaux 1+2) und die deutsche Konvoi Baureihe (Neckar 2, Emsland, Isar 2). Es war von Anfang an eine evolutionäre und ausdrücklich keine revolutionäre Entwicklung geplant. Außerdem nahm man nicht nur die Genehmigungsbehörden in beiden Ländern mit ins Boot, sondern auch 12 europäische Energieversorgungsunternehmen. Es sollte ein Reaktor entstehen, der europaweit genehmigungsfähig war. Heute ist er auch in China und USA geprüft und grundsätzlich zugelassen worden.

Das Problem der Größe

Jedes elektrische Netz kann nur eine gewisse Blockgröße vertragen. Über den Daumen gilt immer noch die Regel von maximal zehn Prozent der Leistung, die im Netz anliegt. Ist der Reaktor zu groß, scheiden weltweit eine Menge Netze aus. Das ist ein Problem bei der Vermarktung des EPR. Areva hat bereits schon länger die Problematik erkannt und bietet nun in Kooperation mit Mitsubishi auch einen kleineren Druckwasserreaktor (ATMEA mit ca. 1100 MWel) an. Wahrscheinlich werden die ersten Anlagen in der Türkei errichtet. Demgegenüber sollen die vier EPR von Olkiluoto bis Taishan eine Leistung zwischen 1600 und 1660 MWel erreichen. Die Vorläufer – z. B. das größte deutsche Kernkraftwerk Isar 2 – hatten eine Leistung von etwa 1400 MWel..

Bei Kraftwerken gibt es eine bedeutende Kostendegression. Je mehr man einen gegebenen Entwurf vergrößert, um so kleiner werden die spezifischen Investitions- und Betriebskosten. Man wollte ja ausdrücklich eine evolutionäre Entwicklung. Jetzt steckt man dafür in einer Größenfalle – und was fast noch schlimmer ist – die Kosten sind trotzdem viel zu hoch. Der EPR ist in diesem Sinne kein glücklicher Entwurf.

Die grünen Phantasien

Besonders von den deutschen Genehmigungsbehörden wurden die beiden Sicherheitsanforderungen „Absturz eines Jumbo“ und das „China Syndrom“ aus Hollywood eingebracht. Man glaubte in Deutschland lange genug, man müsste nur über jedes Stöckchen springen, das einem „Atomkraftgegner“ hin halten und dann würden sie auch irgendwann Kernkraftwerke ganz toll finden. Die simple Strategie, die Kosten durch immer neue Ideen immer weiter in die Höhe zu treiben, wurde nicht erkannt. Jetzt steht man mit einer millionenteuren doppelten Sicherheitshülle aus Beton und dem Gimmick eines „core catcher“ da und die „Atomkraftgegner“ lieben den EPR immer noch nicht.

Der Flugzeugabsturz

Solange es Kernkraftwerke gibt, hat man sich über „Einwirkungen von außen (EVA)“ Gedanken gemacht. Schon immer gehörte ein Flugzeugabsturz dazu. Frühzeitig bekamen deshalb die Reaktoren eine entsprechende Betonhülle als Schutz. Die vier Unglücksreaktoren in Fukushima hatten noch keine – mit den bekannten Konsequenzen. Bei ihnen war nur der unmittelbare Bereich um das Reaktordruckgefäß durch dicke Betonabschirmungen geschützt. Von Anfang an stellte sich die Frage, wie dick eine Betonhülle als Bunker sein müßte. In Deutschland ging man vom Absturz eines Militärjets vom Typ Phantom F4 aus. Eine heute noch sinnvolle Annahme – selbst nach den Ereignissen des 11. September. Die Phantom ist bis heute das Flugzeug mit der „größten Dichte“. Ein Militärjet noch aus dem „Stahlzeitalter“. Die Triebwerke einer im Tiefflug dahin rasenden Phantom, würden wie Rammböcke auf die Schutzhülle eines Reaktors wirken. Dahingegen entspricht die Wirkung einer abstürzenden A380 oder eines Jumbojets eher einer Bierdose. Die Terrorflieger des 11. September konnten selbst ein filigranes Hochhaus bzw. das Pentagon nur zum Wackeln bringen. Etwas anderes ist die ungeheure Brandlast eines voll betankten Großraumflugzeuges, aber gegen die hilft Beton nur bedingt.

Jedenfalls steht der EPR heute mit einer doppelten Betonhülle dar. Der innere Teil – das Containment – besteht aus ca. 1,3 m dickem Spannbeton und die äußere Schutzhülle aus einer weiteren ca. 1,8 m dicken Betonhülle. Zusätzlich verschwinden alle nuklearen Komponenten (Dampferzeuger, Reaktordruckgefäß usw.) hinter weiteren Betonmauern, die als Abschirmung gegen Strahlung dienen. Dieses „Bunkersystem“ ist mit Sicherheit stark genug, um jedem Flugzeugabsturz oder einem Terroranschlag zu widerstehen. Wir erinnern uns: Tschernobyl hatte nicht einmal ein Containment und in Fukushima waren nur die Reaktoren geschützt. Das Brennelementebecken stand in einer normalen Industriehalle. Anders als beim ERP, bei dem sogar das Lagergebäude für die Brennelemente und diverse Sicherheitsanlagen mit einer Betonhülle verbunkert sind.

Beton kann nicht schaden, er ist nur sehr teuer. Erschwerend kommt beim EPR die lohnintensive und zeitraubende Ausführung als Ortbeton hinzu. Dies wurde zumindest in Olkiluoto völlig unterschätzt.

Grundsätzlich ist die Konstruktion aus zwei Hüllen mit Zwischenraum sicherheitstechnisch zu begrüßen. Wird das Containment durch eine Explosion (Fukushima) oder was auch immer beschädigt, kann die äußere Hülle ihre Funktion wenigstens zum Teil übernehmen. Der Zwischenraum wird ständig abgesaugt und in leichtem Unterdruck gehalten. Die „radioaktiv belastete Luft“ wird vor der Abgabe über den Kamin gefiltert. Durch eine solche Maßnahme kann selbst, wenn die gasförmigen Spaltprodukte im Reaktor freigesetzt werden sollten, der größte Teil zurück gehalten bzw. auf ein erträgliches Maß verdünnt werden.

Der core catcher

Dank Hollywood ist jeder „Atomkraftgegner“ mit dem „China Syndrom“ vertraut: Eine einmal eingetretene Kernschmelze soll endlos andauern. Selbst die unfreiwilligen Großversuche von Harrisburg, Tschernobyl und Fukushima können einen rechtgläubigen „Atomkraftgegner“ nicht von diesem Irrglauben abbringen.

Fangen wir mal mit dem Schlimmsten an:

  • Der Reaktor in Tschernobyl stand in einer einfachen Industriehalle. Nachdem eine Kernschmelze stattgefunden hatte, verabschiedete sich der Reaktor durch eine physikalische Explosion. Er spie wie ein Vulkan den größten Teil seines radioaktiven Inhalts in die Umwelt aus. Dies ist der schlimmste – überhaupt vorstellbare – Unfall.
  • In Fukushima trat in mehreren Reaktoren (zumindest teilweise) eine Kernschmelze ein. Ursache war hierfür der zeitweise Ausfall der Stromversorgung und dadurch ein Mangel an Kühlwasser. Die Nachzerfallswärme konnte die Brennelemente (teilweise) schmelzen lassen. Die Nachzerfallswärme nimmt aber sehr schnell ab und die Kühlung konnte – wenn auch verspätet – wieder aufgenommen werden. Wieviel Corium sich tatsächlich durch die Reaktorgefäße gefressen hat, wird erst eine genaue Untersuchung zeigen können. Jedenfalls hat die Menge nicht einmal gereicht, um den Betonboden der Reaktorgrube zu durchschmelzen. Ursache für die Freisetzung von Radioaktivität sind schlicht weg Konstruktionsfehler: Die Wasserstoffexplosion und die „Untertunnelung“ des Kraftwerks.
  • Bei dem TMI-Reaktor in Harrisburg hatte man wenigstens alles grundsätzlich richtig konstruiert, obwohl dann später alles schief lief. Maßgeblich durch Bedienungsfehler fiel ein Teil des Kerns unbemerkt trocken. Es entstand Wasserstoff, welcher aber nicht zu einer heftigen Explosion führte. Das Reaktordruckgefäß blieb ganz und in ihm sammelten sich Bruchstücke und Schmelze. Es gelangte praktisch keine unzulässig hohe Radioaktivität in die Umwelt.

Anstatt durch Aufklärung entgegen zu wirken, versuchte man den Segen der „Atomkraftgegner“ durch die Erfindung des core catcher zu erlangen. Ein von Anfang an sinnloses Unterfangen. Die Strategie der „Atomkraftgegner“ ging vielmehr auf: Die Kosten wurden weiter in die Höhe getrieben um mit einer vorgeblich „unwirtschaftlichen Atomkraft“ argumentieren zu können.

Wie sieht dieses Ding nun beim EPR aus? Man pflastert den Boden unterhalb des Reaktordruckgefäßes mit Steinen aus einer feuerfesten Keramik. Gemäß den Vorstellungen aus Hollywood frisst sich das Corium als glühende Schmelze durch das Reaktordruckgefäß und sammelt sich in der feuerfesten Wanne. In der Realität nimmt die Nachzerfallswärme zwar exponentiell ab, nach Drehbuch natürlich nicht, sondern der Boden der Wanne aus einem Spezialbeton schmilzt langsam auf und die Schmelze rinnt anschließend über eine Schräge in eine großflächige Vertiefung. Diese soll dauerhaft und automatisch durch Wasser gekühlt werden. Dort soll die Schmelze dann dauerhaft erstarren. Man könnte dieses Konzept auch mit: „Richtige Antworten auf falsche Fragestellungen umschreiben.“ Jedenfalls kostet allein der umbaute Raum für diese technische Glanzleistung zig Millionen.

Die magische Zahl vier

Der EPR hat vier Primärkreise: Um das Druckgefäß im Zentrum stehen kreisförmig angeordnet vier Dampferzeuger. Zwischen ihnen stehen die vier Hauptkühlmittelpumpen für die Umwälzung des Wassers durch den Reaktorkern und die Wärmeübertrager. All diese Komponenten stehen in Betonkammern, die der Abschirmung der Strahlung dienen. Damit ist der Sicherheitsbehälter auch während des Betriebes begehbar.

Dieser Grundanordnung folgend, gibt es auch vier vollständige Sicherheitseinrichtungen, deren Komponenten in vier voneinander völlig getrennten Gebäuden um den Sicherheitsbehälter angeordnet sind. Diese vier Sicherheitsabschnitte, sowie die Bedienungszentrale und das Gebäude für die Brennelemente, sind ebenfalls (wie das zylindrische Reaktorgebäude) gegen Flugzeugabstürze verbunkert.

Etwas abseits liegen zwei Gebäude, die die Notstromversorgung enthalten. Sie befinden sich jeweils in Deckung durch den eigentlichen Reaktorbau. Da sie ebenfalls vollständig redundant sind, geht man nur von höchstens einem Schaden bei einem Flugzeugabsturz aus. Die Gebäude sind mit wasserdichten Türen verschlossen. Ein Auslöschen durch eine Flutwelle (Fukushima) wäre ausgeschlossen.

Jedes, der vier Notkühlsysteme, kann allein die gesamte Wärme abführen (4 x 100%). In erster Linie dient das zur Verbesserung der Verfügbarkeit. Da alle vier Züge völlig voneinander unabhängig sind, kann man Wartungsarbeiten im laufenden Betrieb ausführen. Wenn ein System gewartet wird, stehen immer noch drei zur Verfügung.

Die Nachzerfallswärme

Bei einem Störfall wird das Kernkraftwerk durch eine Unterbrechung der Kettenreaktion abgeschaltet. Das Einfahren der Steuerstäbe entspricht z. B. dem Ausschalten der Feuerung bei einem konventionellen Kraftwerk. Bei beiden muß nun noch die im System gespeicherte Wärme abgeführt werden. Es gibt bei einem Kernkraftwerk aber zusätzlich den physikalischen Effekt der Nachzerfallswärme: Der radioaktive Zerfall der Spaltprodukte läßt sich durch nichts aufhalten. Es wird also auch nach der Abschaltung noch Wärme produziert! Die freiwerdende Wärme hängt von verschiedenen Umständen ab. In den ersten Sekunden können es über 5% der thermischen Leistung sein. Die Nachzerfallswärme nimmt sehr schnell ab und es sind nach einer Stunde nur noch rund 1%. Gleichwohl handelt es sich um gewaltige Leistungen. Ist ein EPR längere Zeit mit Höchstlast im Netz gewesen, sind das entsprechend 225 MW bzw. noch 45 MW nach einer Stunde. Diese Wärme muß auf jeden Fall – auch bei widrigsten äußeren Umständen (Fukushima) – abgeführt werden, da sonst der Kern schmilzt.

Praktisch ist die einzige Möglichkeit solche Leistungen sicher abzuführen, die Verdampfung. Ist die äußere Wärmesenke (Fluß, Meer oder Kühlturm) nicht mehr nutzbar, muß dies ausschließlich über die Notkühlung möglich sein. Zuerst baut man über Ventile am Druckhalter den Druck im Primärkreis ab. Schon durch dieses „auskochen“ tritt eine merklich Kühlung ein. Allerdings muß die abgelassene Wassermenge möglichst schnell ersetzt werden, da sonst das Reaktordruckgefäß ausdampft und der Kern (teilweise, wie in Harrisburg) trocken fällt. Ist der Druck auf ein gewisses Niveau abgefallen (ungefähr 100 bar) setzt eine Nachspeisung von Kühlwasser ein. Für den Antrieb der Pumpen ist aber elektrische Energie nötig. Würde die Notstromversorgung – wie in Fukushima – versagen, würde die Überhitzung des Kerns eher noch schneller eintreten. Das Reaktormodell aus den 1960er Jahren hatte bereits eine pfiffigere Idee: Der abgelassene Dampf wurde vor der Kondensation in der wassergefüllten Ringkammer über eine kleine Turbine geleitet. Diese Turbine treibt eine kleine Speisepumpe, die Wasser aus dem Ringraum zurück in das Druckgefäß speist. Dies funktioniert bis zu einem gewissen Temperaturausgleich recht gut. Eine Notmaßnahme, die zumindest in den ersten Minuten ohne jede Hilfsenergie sehr gut funktioniert hat.

Gegenüber seinen Vorläufern hat der EPR durch das Wasserbecken am Boden einen Sicherheitsgewinn: Das Wasser dient nicht nur zur Noteinspeisung, sondern stellt auch eine Wärmesenke innerhalb des Sicherheitsbehälters dar. Das Wasser kann durch Wärmeübertrager gepumpt werden, um es „kühl“ zu erhalten. Die Lagerung am Boden kommt der statischen Belastung bei Erdbeben entgegen, vergibt aber die Chance einer passiven Nachspeisung durch Schwerkraft.

Bei dem EPR ergibt sich kein grundsätzlicher Sicherheitsgewinn gegenüber seinen Vorgängern des Konvoi. Er arbeitet nach den gleichen Prinzipien: Lediglich die Stückzahl und Aufstellung der Sicherheitseinrichtungen wurde erhöht: Je zwei Notstromdiesel in zwei verschiedenen Gebäuden (2 x 2 x 8 MW Redundanz) und je ein Notstromaggregat zusätzlich im Gebäude (2 x 1 MW Diversität). Es bleibt aber das alte Problem aktiver Sicherheitssysteme: Strom weg, Wasser weg! Die vorgeblich um den Faktor zehn erhöhte Sicherheit, ergibt sich rechnerisch hauptsächlich aus dem Core Catcher.

Der Zugewinn an Lebensdauer

Beim EPR ist die konstruktive Nutzungsdauer von 40 auf 60 Jahre erhöht. Dies ist durch eine konsequente Überarbeitung aller Bauteile geschehen. So ist man z. B. beim Druckgefäß und den Hauptkühlmittelleitungen auf den Werkstoff Alloy 690 (59,5% Nickel, 30% Chrom, 9,2% Eisen etc.) übergegangen. Er besitzt bessere Korrosionsbeständigkeit und bildet nicht soviel „Atommüll“ durch Neutroneneinfang. Zusätzlich hat man das Druckgefäß mit einem Reflektor aus Stahl ausgestattet. Durch das Zurückstreuen von Neutronen in den Kern kann man den Brennstoff besser ausnutzen und gleichzeitig den Druckbehälter weniger belasten (Versprödung durch Neutronen).

Sicherheit und Wartung stehen in enger Beziehung. Schweißnähte weisen immer Fehler auf, die in regelmäßigen Abständen überprüft werden müssen. Solche Wiederholungsprüfungen sind zeitaufwendig (Verfügbarkeit) und kostspielig. Je weniger Schweißnähte, desto besser. Wenn schon Schweißnähte, dann an gut zugänglichen Stellen. Man hat deshalb beim EPR wesentlich komplizierter geschmiedete Formstücke (hohe Investitionskosten) für die Hauptkühlmittelleitungen verwendet bzw. durch Aushalsungen beim Druckbehälter die Anschlüsse vorverlegt.

Schlusswort

Ohne jede Frage hat man in hunderten von Betriebsjahren eine Menge Erfahrungen gesammelt. Hinzu kamen die realen „Großversuche“ aus Harrisburg und Fukushima. Insofern ist der EPR nicht mehr mit den ersten Druckwasserreaktoren vergleichbar. Als Ersatz für gasgekühlte Reaktoren (Hinkley Point) oder als Zubau (Olkiluoto, Taishan) ist er sicherlich eine gute Lösung. Aber ist der Sicherheitsgewinn beispielsweise gegenüber einer Konvoi-Anlage so viel höher, daß ein Ersatz durch einen EPR zu rechtfertigen wäre? Zumal man mit wenigen Nachrüstungen bzw. Ersatzteilen (z. B. Dampferzeuger) sehr kostengünstig eine Betriebsdauer von 80 und mehr Jahren erreichen könnte. Genug Zeit jedenfalls, um auf fortschrittlichere Konzepte umzusteigen.

Im nächsten Teil geht es um den APR-1000 von Westinghouse, der in Moore Side (und anderswo) geplant ist.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

Hinkley Point C

Der Aufreger der Woche, ist der geplante Neubau zweier Reaktoren als Ersatz für das Kernkraftwerk Hinkley Point. Für die einen ist es der lang ersehnte Neubeginn, für andere ein Sündenfall der europäischen Subventionswirtschaft. Vor allem ist es jedoch ein hoch komplexer Vorgang, für den man etwas mehr Zeit benötigt als in den „Qualitätsmedien“ zur Verfügung steht.

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. „Strom-Markt-Liberalisierung“ in Europa. Traditionell gab es Gebietsmonopole, in denen „Energieversorger“ tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der „Liberalisierung“ sollte elektrische Energie – wie andere Wirtschaftsgüter auch – zwischen Erzeugern und Verbrauchern gehandelt werden. Eine „Strombörse“ sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles „Marktversagen“ in der Form einer von Menschen verursachen „Klimakatastrophe“ konstruiert. Früher gab es eine „Aufsichtsbehörde“ mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der „Gesellschaftsveränderer“ magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen „Anti-Atomkraft-Bewegung“ vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine „Gesellschaftsveränderung“. Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der „Strom-Markt-Liberalisierung“ heraus zu halten. Letztendlich wurde auch er „privatisiert“. Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die „Alternativenergien“ massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die „Klimakatastrophe“ erschaffen. Der einst erträumte Weg über „flexible und umweltfreundliche Gaskraftwerke“ ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem „Einspeisevorrang“ für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen – wenn der Wind einmal zufällig kräftig weht – wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das „Kapazitätsmärkte“, in GB „Contracts for Difference CfD“. Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den „Erneuerbaren“ abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der „Energiewende“ über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein „Kapazitätsmarkt“ wäre nicht notwendig oder würde sich von selbst ergeben – ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum „relevanten Anschlußpunkt“ den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie „Netzparität“, sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die „Über-Nacht-Kosten“. Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 34 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für „Atommüll“ und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten „strike price“ von 92,50 Pfund pro MWh sind.

Es ging hier um ein „Beihilfeverfahren“, in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen „Subventionskürzung“ bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren – weil staatlich verursachten – Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß – wie immer – der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine – freilich rein theoretische – Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal „Kapazitätsmärkte“ können dagegen etwas ausrichten.

Beim „strike price“ wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht „beihilfekonform“ und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will – eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei „Spitzenlast“ in der Dunkel-Flaute voll mitnehmen. „Kapazitätsmärkte“ lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser „freie Handel“ nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist – klassisch, wie eine Preisgleitklausel – mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der „strike price“ angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die „hauseigene Gewerkschaft der EDF“ wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel – und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark London Array – Paradebeispiel deutscher Energieversorger – hat eine Grundfläche von etwa 100 km2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Wende der „Energiewende“?

Die „Energiewende“ scheint unwiederbringlich ihren Zenit überschritten zu haben. Um so hektischer und peinlicher werden die Rettungsvorschläge. Immer heftiger wird der „Ausstieg aus dem Ausstieg“ dementiert.

Der dreidimensionale Schraubstock der Strompreise

Langsam dämmert es immer mehr Menschen in Deutschland, daß sie durch die ständig steigenden Strompreise mehrfach ausgequetscht werden:

  1. Jedes mal, wenn die Stromrechnung wieder etwas höher ausgefallen ist, geht ein Stück vom Kuchen des eigenen Einkommens verloren. Den Euro, den man an seinen Energieversorger bezahlt hat, kann man nicht noch einmal ausgeben. Nicht für Urlaub usw. – nein, auch nicht für die Anschaffung eines neuen Kühlschrankes mit Energie-Spar-Aufkleber! Mag das Stück vom Kuchen manchem auch klein erscheinen, so ist das sehr relativ: Bei Rentnern, Studenten, Arbeitslosen etc., ist der Kuchen des Familieneinkommens meist recht klein. Strompreise sind sozialpolitisch die Brotpreise von heute! Last euch das gesagt sein, liebe Genossinnen und Genossen von der SPD!
  2. Jedes Unternehmen benötigt elektrische Energie! Die Ausgaben für „Strom“ sind genau so Kosten, wie Material und Löhne und müssen damit über die Preise an die Kunden weiter gegeben werden. Hier zahlen wir zum zweiten Mal! Selbst „ökologisch wertvolle Betriebe“ sind davon nicht ausgenommen: So macht allein die „EEG-Abgabe“ bei den Berliner Verkehrsbetrieben 20 Millionen Euro pro Jahr – Kosten oder Nicht-Kosten – aus. Wie war das doch noch mal, liebe Grün-Alternativen? Sollten wir nicht mehr mit der Bahn fahren? Wegen „Klima“ und so?
  3. Kosten sind Kosten. Steigen die Energiekosten, müssen andere Ausgaben gesenkt werden. Das werdet ihr spätestens bei den nächsten Tarifverhandlungen noch lernen, liebe Gewerkschaftsfunktionäre. Vielleicht auch nicht mehr, weil eure Betriebe bereits dicht gemacht haben. Die Goldader, die jedes Unternehmen angeblich im Keller hat, von der ihr nur ein größeres Stück abschlagen müsst, war nur ein Märchen. Sonst hättet ihr das ja auch schon längst gemacht, gelle?

Um es noch einmal klar und deutlich in einem Satz zu sagen: Steigende Energiepreise bedeuten höhere Ausgaben bei steigenden Preisen und sinkenden Einkommen. Wer das Gegenteil behauptet, lügt! Mögen die Lügen auch in noch so wohlklingende Worte verpackt sein.

Der klassische Verlauf

Es ist immer der gleiche Ablauf, wenn sich Politiker anmaßen, die Gesellschaft zu verändern. Egal, ob über „Bauherrenmodelle“, „Filmfonds“, „Abschreibungsmodelle für Containerschiffe“ oder eben das „EEG“. Am Anfang steht eine Vision von einem angeblichen Mangel. Flugs nimmt die Politik einen Haufen fremdes Geld – besser gesagt unser aller Geld – in die Hand und verteilt dieses um. Am unbeliebtesten ist dabei der Einsatz von Haushaltsmitteln – schließlich hat man ja noch eine Menge anderer toller Ideen. Früher waren sog. „Sonderabschreibungen“ ein probates Mittel die Gier zu befriedigen. Leider wurde von den Investoren meist übersehen, daß der Staat nur Steuern stundet, nicht aber verschenkt. Das ökosozialistische Ei des Kolumbus war die Schaffung eines Schattenhaushaltes in der Form des „EEG“ durch „Rot/Grün“. Allen Modellen gemeinsam, ist die Gier und Unwissenheit potentieller Investoren.

Aus letzterem Grund ist der zeitliche Ablauf immer gleich: Sobald das Gesetz verabschiedet ist, schlagen die Profis aus den Banken etc. zu. Sie machen tatsächlich Gewinne. Nach einer gewissen Zeit jedoch, sind die besten Grundstücke usw. vergeben. Gleichzeitig steigen durch die erhöhte Nachfrage die Preise der Hersteller. Jetzt schlägt die Stunde des (halbseidenen) Vertriebs. Profis, wie Banken, steigen aus und verscherbeln ihre Investitionen mit Gewinn an die Kleinanleger. Jetzt werden die Laien skalpiert. Selbst diese Phase geht bei Wind, Sonne und Bioenergie langsam zu Ende. Der letzte Akt beginnt.

Unternehmen, die sich die Sache in ihrer Gier bedenkenlos schön gerechnet haben, gehen Pleite. Die Investoren verlieren nicht nur ihr Geld, sondern leiten eine Abwärtsspirale ein: Ihre Objekte kommen nun auf den Markt und erzielen nur noch reale Preise, die meist deutlich unter den Herstellungskosten liegen. Die Verwerter stehen bereit. Wie schnell die Preise bei Zwangsversteigerungen purzeln, kennt man z. B. von den „Bauherrenmodellen“ nach der Wende. Dies betrifft aber nicht nur diese gescheiterten Investoren. Plötzlich machen neue Preise die Runde. Über Nacht ist kein Investor mehr bereit, die überhöhten Preise zu bezahlen. Es entsteht schlagartig ein enormer Kostendruck auf der Herstellerseite. Der größte Teil der Hersteller wird in den nächsten Jahren vom Markt verschwinden. Ganz so, wie die aufgeblähte Bauindustrie nach der Wende.

Interessant ist, wie die eigentlichen Täter, die Politiker reagieren. Sie schreien unverzüglich: Haltet den Dieb! Nicht etwa die „Energiewende“ ist schuld, sondern es müssen schärfere Kapitalmarktkontrollen zum Schutz der Anleger her. Man erblödet sich nicht, Jahrzehnte alte Finanzinstrumente (Genußscheine) in Verruf zu bringen. Ganz so, als würde sich ein Schnapsfabrikant hinstellen und die Flaschenhersteller dafür verantwortlich machen, daß sie an den bedauernswerten Alkoholikern schuld tragen.

Die Milderung des Anstiegs oder die Quadratur des Kreises

Eigentlich ist die Sache ganz einfach: Entweder man gibt die Menge elektrischer Energie zu einem bestimmten Zeitpunkt vor und kann sich dann die erforderliche Anzahl Apparaturen und die dafür notwendigen finanziellen Mittel ausrechnen oder man gibt den Zahlungsstrom vor und kann sich ausrechnen, wieviel Strom man dafür erhält. Beides gleichzeitig geht nicht, weil beides streng voneinander abhängt. Soll keiner nachher wieder sagen, man hätte ja nichts davon gewusst oder eigentlich wäre eine „Energiewende“ ja ne tolle Sache gewesen.

Der neuerdings propagierte sanfte Ausbau, hat allerdings seine Logik. Es ist die Logik des Machterhalts. Würde man eingestehen, daß die „Energiewende“ Unsinn ist, würde man die „systemrelevante“ Frage nach der Allwissenheit der Politik stellen. Wenn man einmal zugibt, daß der Kaiser nackend ist, ist die Nomenklatura am Ende. Deshalb muß weiter gelten: Die Partei hat immer recht. Jedenfalls so lange, bis die Mehrheit des Volkes nicht mehr bereit ist, dieses Spiel mit zu spielen. Dann ist wieder einmal „Wendezeit“.

Mancher Politiker bekommt langsam Ohrensausen. Wer noch einen Rest von „Kontakt zum Volk“ hat, merkt den wachsenden Zorn über steigende Strompreise. Wenn jetzt auch noch die Angst vor dem Verlust des Arbeitsplatzes hinzukommt, könnte die Sache eng werden.

Der Popanz von den bösen Kapitalisten, die ihren Anteil an der „Ökostromumlage“ nicht zahlen wollen, kann nur bei besonders einfältigen oder gläubigen Menschen verfangen. Menschen, die etwas aus der Geschichte gelernt haben, sehen die Gefahr der „Ulbrichtfalle“ aufziehen: Je mehr Unternehmen ihre Standorte ins Ausland verlagern, um so mehr lukrative Arbeitsplätze gehen verloren. Den Unternehmen werden wieder die Menschen in Richtung Freiheit und Wohlstand folgen. Wie soll der Ökosozialismus reagieren? Mauer und Schießbefehl im Internetzeitalter?

Wie panisch die Reaktion der Politiker wird, zeigt der Plan, auch auf die sog. Eigenstromerzeugung die „EEG-Umlage“ zu erheben. Bisher war doch die Kraft-Wärme-Kopplung ein Bestandteil der „Energiewende“. Unternehmen, die „energieeffizient“ waren, haben sich solche Anlagen gebaut. Oft genug, am Rande der Wirtschaftlichkeit. Jetzt sollen sie mit der „EEG-Umlage“ dafür bestraft werden. Natürlich mit einem etwas geringeren Satz. Hier wird wieder einmal unverhohlen gezeigt, daß es gar nicht um Umweltschutz geht, sondern nur darum, „die Belastbarkeit der Unternehmen zu testen“. Klassenkampf in Reinkultur. Die gleichen Funktionäre, die immer von dem notwendigen Investitionsschutz säuseln (wenn es um die Photovoltaik auf dem Dach der eigenen Klientel geht), gehen mit Eigentumsrechten bei Kraftwerken locker um – egal ob es sich um Kernkraftwerke oder fossile Anlagen handelt. Langsam, aber sicher, entwickelt sich Deutschland in der Eigentumsfrage immer mehr zur Bananenrepublik. Das Kapital ist aber bekanntermaßen scheu und ängstlich. Deshalb verfällt man immer mehr auf eine „Bürgerbeteiligung“. Zu was es führt, wenn sich Banken wegen des unvertretbar hohen Risikos zurückziehen (müssen), sieht man gerade am Fall Prokon.

Die Bedeutung von Leistung und Energie

Leistung (kW) ist leider nicht gleich Energie (kWh). Entscheidend bei der Berechnung der erzeugten Energie aus der Nennleistung einer Anlage (kW) ist die Zeitdauer (h), in der die Leistung des Typenschilds wirksam ist. In Deutschland beträgt diese Zeitspanne bei Photovoltaik deutlich unter 1000 Stunden pro Jahr und bei Windmühlen deutlich unter 3000 Stunden pro Jahr. Will man nun eine bestimmte Menge elektrischer Energie (z. B. 50 % oder gar 100 % des gesamten Stromverbrauches in einem bestimmten Jahr) erzeugen, muß man diesen Wert (kWh/a) durch die „Vollbenutzungsstunden“ (h/a) des entsprechenden Verfahrens teilen. Man erhält die Leistung (kW), die mindestens installiert werden muß. Da z. B. die Sonne nur recht selten scheint (nachts ist es dunkel, an vielen Tagen trübe) erhält man sehr große (rechnerische) Leistungen die installiert werden müssen. Dieser Zusammenhang ist trivial, aber ausschlaggebend für das zwingende Scheitern einer Energieversorgung ausschließlich durch „Erneuerbare Energien“. Die Sache hat nämlich zwei Harken:

  1. Wenn die Natur keine, dem momentanen Bedarf entsprechende Erzeugung (Nacht, Flaute etc.) zuläßt, muß die elektrische Leistung über konventionelle Kraftwerke bereitgestellt werden. Hierzu zählen auch alle großtechnischen Speichersysteme, da dort die Rückwandlung immer über konventionelle Verfahren führen muß (Wasserkraft, Turbinen etc.).
  2. Wenn der Wind mal richtig weht oder ein strahlend blauer Himmel vorhanden ist, ist die erzeugte Leistung sehr schnell und sehr oft größer als die gerade im Netz verbrauchte Leistung. Physikalisch gibt es nur drei Möglichkeiten, dem entgegen zu treten: Man schaltet (teilweise) Windmühlen oder Sonnenkollektoren ab, entsorgt den Überschuß in benachbarte Netze oder erhöht künstlich den Verbrauch (Speicher). Es lohnt sich, diese drei Möglichkeiten etwas näher zu hinterfragen.

Immer, wenn man gezwungen ist, Anlagen wegen Überproduktion abzuschalten, wird das für den Stromkunden sehr teuer. Die entsprechende Anlage produziert noch weniger Strom und muß diesen deshalb noch teurer verkaufen um ihre Investitions- und Betriebskosten abdecken zu können. Deshalb hat die Politik den Abnahmezwang eingeführt. Die Kosten werden bewußt auf die Verbraucher abgewälzt, um die Produzenten zu schonen. Man könnte auch sagen, weil sich die „Vollbenutzungsstunden“ (h/a) verringern, muß man zusätzliche „Schattenanlagen“ errichten, um die angestrebte Energieausbeute zu erreichen. Physikalisch betrachtet funktioniert das nicht einmal, da man zu jedem Zeitpunkt Produktion und Verbrauch im Gleichgewicht halten muß! Aus diesem Grund hat sich die Politik für den zweiten Weg entschieden. Wenn man etwas nicht gebrauchen kann, nennt man es Abfall. Um Abfall zu entsorgen, muß man immer eine Gebühr entrichten. Dies geschieht an der Strombörse: Die gewaltsame Abnahme geschieht über den Preis. Der Strompreis für den „Alternativstrom“ wird stets so niedrig angesetzt, daß er gerade noch einen Käufer findet. Ist die Energie für niemanden mehr etwas wert, muß die Entsorgung sogar bezahlt werden (negative Strompreise an der Börse). Ganz genau so, wie bei der Müllverbrennungsanlage, wo man für die Dienstleistung der Abfallbeseitigung auch eine Gebühr entrichten muß. Der dritte Weg ist uns dadurch bisher erspart geblieben: Man baut zusätzliche Stromverbraucher (z. B. zur Erzeugung von synthetischem Erdgas) und produziert damit sehr teuer ein Produkt, welches ohnehin im Überfluß vorhanden und billig zu kaufen ist. Jedenfalls erheblich billiger, als elektrische Energie! Dieses System verkauft man als „Speichertechnologie“, weil man anschließend dieses Erdgas wiederum unter erheblichen Verlusten in Gaskraftwerken verfeuert, die man dringend für die Zeiten der Flaute und Dunkelheit benötigt. Hat es je in der Menschheitsgeschichte eine einfältigere Idee gegeben? Wenn das jemanden an etwas erinnert; richtig, an die Fleischversorgung durch Kleintierhaltung mittels der Verfütterung von subventioniertem Brot im (realexistierenden) Sozialismus.

Wenn man etwas unter den Gestehungskosten verkauft, nennt man das gemeinhin Dumping. Genau das, geschieht täglich an der Strombörse. Es ist nur eine Frage der Zeit, wie lange sich das unsere europäischen Nachbarn noch gefallen lassen. Mit jeder Windmühle und jedem Sonnenkollektor, die zusätzlich in Betrieb gehen, wird dieses Dumping größer. Die Differenz zwischen Erzeugungskosten und erzielbarem Preis nennt man „EEG-Umlage“. Die ungekrönte Königin der Schlangenölverkäufer Frau Professor Claudia Kemfert sieht das natürlich ganz anders. In einem Interview vom 27.1.14 in der Zeitschrift Cicero antwortet sie auf die Frage nach einer Umstellung der Ökostrom-Umlage in ihrem Sinne:

„Die EEG-Umlage hat sich bewährt. Schon jetzt sinken die Erzeugungskosten für erneuerbare Energien. Trotzdem sollte man die Ausnahmen für energieintensive Industrien endlich auf ein vernünftiges Maß vermindern – allerdings nur für Unternehmen, die wirklich energieintensiv sind und im internationalen Wettbewerb stehen. Im Gegenzug sollte man die Umlage an Gegenmaßnahmen koppeln, wie die Verbesserung der Energieeffizienz. Außerdem muss der Börsenpreis stabilisiert werden: Würde nämlich der niedrigere Börsenpreis für die Erneuerbaren an die Verbraucher weitergegeben, könnte der Strompreis schon heute stabil bleiben, wenn nicht sogar sinken. Dazu könnte man überschüssige Stromkapazitäten aus dem Markt nehmen und den CO2-Preis deutlich erhöhen.“

Selten dürfte es einem Professor gelungen sein, soviel Unsinn in nur einem Absatz von sich zu geben. Selbst wenn die Erzeugungskosten (Ausgaben für Kredite, Personal, Wartung, Betriebsmittel etc.) sinken – was sich erst noch zeigen muß – hat das keinen Einfluß auf den Preis. Ein Preis bildet sich aus dem Zusammenspiel von Angebot und Nachfrage. Immer, wenn mehr angeboten wird als gebraucht wird, sinkt im Handel der Preis. Wenn man sein verderbliches Gemüse überhaupt nicht an den Mann bringen kann, muß man für die Beseitigung auch noch Entsorgungskosten bezahlen – an der Strombörse „negative Preise“ genannt. Die Differenz zwischen den Gestehungskosten und dem (erzielbaren) Preis am Markt, nennt man Verlust. Die Verluste müssen aber irgendwie abgedeckt werden, da sonst die Windmüller und Sonnensammler in wenigen Wochen pleite wären. Damit genau das nicht passiert, wurde die „EEG-Umlage“ geschaffen: Sie legt diese Verluste auf die Verbraucher um. Die Strombörse ist ein hervorragender Anzeiger für das jeweilige Verhältnis von Stromproduktion zu Stromnachfrage – ausgedrückt in der Einheit Euro pro MWh. Nicht mehr, aber auch nicht weniger. Je weiter der Börsenpreis unter den Erzeugungskosten liegt, um so größer ist das Überangebot zu diesem Zeitpunkt. Es gibt überhaupt nichts weiter zu geben. Das System ist ja gerade für gleiche Strompreise geschaffen worden: Die tatsächlich erzielten Börsenpreise werden durch die „EEG-Umlage“ auf den Cent genau zu den staatlich garantierten Kosten ergänzt. Bisher mußten nur die konventionellen Kraftwerke ihre Verluste selbst tragen. Sie stellen deshalb (einer, nach dem anderen) einen Antrag auf Stilllegung. Die zuständige Behörde stellt dann ihre „Systemrelevanz“ fest (irgendeiner muß ja auch Strom bei Dunkelheit und Flaute liefern) und sie bekommen ihre Verluste ebenfalls durch eine (neue) Umlage für die Stromverbraucher ersetzt. Frau Kemfert wäre aber nicht Frau Kemfert, wenn sie nicht ein Interview mit etwas Klassenkampf aufpeppen würde und für „vernünftige“ Belastungen der Industrie plädieren würde. Ein richtig rausgehängter Klassenstandpunkt konnte in Deutschland schon immer mangelnde Fachkenntnisse kompensieren. Ist die Deutsche Bahn mit ihren ICE nun „wirklich energieintensiv“? Dafür steht sie aber nicht so „im internationalen Wettbewerb“, wie die Friseurmeisterin in Berlin (70 km von der polnischen Grenze, mit regem Busverkehr zum Polenmarkt mit billigen Zigaretten, billigerem Sprit und allerlei sonstigen Dienstleistungen). Dafür könnte die Bahn wieder durch die „Verbesserung der Energieeffizienz“ punkten, sie müßte einfach nur etwas langsamer fahren oder die Zugfolge ausdünnen. Im letzten Satz scheint sie doch noch die Kurve zu kriegen: „könnte man überschüssige Stromkapazitäten aus dem Markt nehmen“. Genau richtig, mit jeder Windmühle und jedem Sonnenkollektor die man verschrottet, senkt man sofort und unmittelbar den Strompreis für die Verbraucher!

Das Märchen von der immer billiger werdenden „Erneuerbaren Energie“

Der Slogan: „Die Sonne schickt keine Rechnung“ war nichts weiter, als ein Werbespruch für besonders schlichte Gemüter. Natürlich schickt die Sonne keine Rechnung. Genau so wenig, wie ein Kohlenflöz oder eine Ölquelle. Aber die Gerätschaften zum Einsammeln und Umformen kosten bei allen Energiearten Geld. Nicht der Wind, sondern die Windmühle verursacht die Kosten. Da aber, jede technische Anlage ständig repariert und einst auch erneuert werden muß, wird auch der Strom aus Wind und Sonne nie umsonst sein.

Weil von Anfang an die Herstellung elektrischer Energie aus Wind und Sonne sehr viel teurer war, hat man den Mythos irgendwelcher Lernkurven gepflegt. Selbstverständlich gibt es Lernkurven. Nur sind die – bei Windmühlen ganz offensichtlich – extrem flach. Windmühlen gibt es nämlich schon seit über 2000 Jahren. Ganz anders, als z. B. Computer.

Blieb noch die Möglichkeit, mit dem stets kleiner werdenden Abstand zu argumentieren, da ja die anderen Energieträger immer teurer würden. Warum sollten die aber immer teuerer werden, wenn es doch Lernkurven gibt? Logisch, weil die doch endlich sind. Ganz neben bei, ist die Lebensdauer unserer Sonne auch endlich. Eine solche Aussage ist also ohne die Angabe einer konkreten Lebensdauer völlig sinnlos. Flugs, ward die Theorie von peakcoal und später peakoil erschaffen. Man setzt einfach die bekannten Vorkommen als einzig und endlich an und kann damit ausrechnen, daß diese schon in „nächster Zeit“ erschöpft sind oder doch wenigstens deren Preise explodieren. Wäre vielleicht so gewesen, wenn es nicht den menschlichen Erfindergeist und den Kapitalismus geben würde. Wir haben heute die größten Vorkommen an Öl, Erdgas, Kohle, Uran usw. in der Menschheitsgeschichte, bei gleichzeitig größtem Verbrauch aller Zeiten. Die Primärenergiepreise (zumindest als Relativpreise) werden deshalb eher wieder sinken als steigen. Jedenfalls haben wir auf der Basis des heutigen Verbrauches und heutiger Relativpreise Vorräte für Jahrtausende.

Den Anhängern der Planwirtschaft blieb nichts anderes übrig, als ein neues „Marktversagen“ zu konstruieren: Die Klimakatastrophe durch die Freisetzung von CO2 war geboren. Gut und schön, man hätte unbestreitbar sehr viele fossile Energieträger, könnte die aber gar nicht nutzen, da man sonst das Klima kaputt machen würde. Es müßte daher – möglichst sofort – eine CO2.-freie Stromerzeugung her und da der Markt so etwas ja gar nicht regeln könne, muß der Staat lenkend eingreifen. Als wenn jemals die Planwirtschaft etwas anderes als Armut und Elend erzeugt hätte!

Es wird aber trotzdem für die Schlangenölverkäufer der Wind- und Sonnenindustrie immer schwieriger, den Leuten das Märchen von den billiger werdenden „Erneuerbaren“ zu verkaufen. Immer mehr Menschen erinnern sich daran, daß es nachts dunkel ist und manchmal tagelang der Wind kaum weht. Es muß also ein komplettes Backupsystem für diese Zeiten her. Egal ob mit Kohle, Erdgas, Kernenergie oder „Biomasse“ betrieben oder als Speicher bezeichnet. Zwei Systeme sind aber immer teurer, als nur ein System. Immer mehr (denkende) Menschen stellen sich daher die Frage, warum man krampfhaft versucht, unserem funktionierenden und (ehemals) kostengünstigen Stromversorgungssystem ein zweites – zu dem mit äußerst zweifelhafter Umweltbilanz – über zu stülpen.

Was hat das alles mit Kernenergie zu tun?

Erinnern wir uns an die Zeit unmittelbar nach dem Unglück in Fukushima. Die Kanzlerin wollte einen neuen Koalitionspartner. Nun, den hat sie inzwischen gefunden. Die FDP wollte die Grünen noch links überholen und warf all ihre Wahlversprechen über Bord. Nun, der Wähler hat das demokratisch gewürdigt und sie aus dem Bundestag gewählt. Alle deutschen „Qualitätsmedien“ haben gierig die Fieberträume der „Atomkraftgegner“ von „Millionen Toten und zehntausende Jahre unbewohnbar“ nachgeplappert. Nun, es hat immer noch keinen einzigen Toten durch die Strahlung gegeben. Die Aufräumarbeiten schreiten zielstrebig voran und die „Vertriebenen“ kehren langsam in ihre alte Wohngegend zurück. Kurz gesagt, das Unglück hat viel von seinem Schrecken verloren, den es für manche tatsächlich gehabt haben mag.

Deutschland ist das einzige Land auf der Welt, das aus der Kernenergie aussteigen will. Inzwischen sind zahlreiche Neubauten beschlossen. Wohlgemerkt nach Fukushima, hat Großbritannien den Neubau einer ganzen Flotte Kernkraftwerke beschlossen. Selbst Schweden – das Ausstiegsvorbild schlechthin – hat vor wenigen Wochen ein über zehn Jahre angelegtes Verfahren zur Bürgerbeteiligung zum Neubau neuer Kernkraftwerke eingeleitet. Nach Deutschland geh voran, wir folgen dir, sieht das alles gar nicht aus.

Wie ist nun die aktuelle Situation in Deutschland? Abgeschaltet wurden die älteren und kleineren Kernkraftwerke. Die Frage der Entschädigung für diese Enteignungen ist noch lange nicht durch. Die Streitsumme wird allgemein auf 15 Milliarden Euro geschätzt. Einmal Mütterrente, so zu sagen. Mögen sich deutsche Politiker auch auf ihre Kombinatsleiter und deren Stillhaltung verlassen: Vattenfall ist ein schwedischer Konzern und geht von Anfang an den Weg über die internationale Handelsgerichtsbarkeit. Die Konsequenzen einer internationalen Verurteilung wegen einer unrechtmäßigen, entschädigungslosen Enteignung, übersteigt offensichtlich das Vorstellungsvermögen deutscher Provinzpolitiker bei weitem.

Oder, man geht die Sache anders an. Erst in den nächsten Jahren wird der „Atomausstieg“ zu einem echten Problem, wenn nämlich die großen Blöcke in Süddeutschland vom Netz gehen sollen. Dann erst, werden die Strompreise richtig explodieren. Einerseits, weil die immer noch beträchtlichen Mengen „billigen Atomstroms“ aus der Mischkalkulation fallen und andererseits noch sehr kostspielige Maßnahmen für Netz und Regelung nötig sind. Gnade dem Unternehmen in Süddeutschland, dessen Lieferverträge in den nächsten Jahren erneuert werden müssen. Die immer wieder gern propagierten 5,6 bis 6,6 Cent pro kWh für Industriestrom sind nämlich nur die halbe Wahrheit. Hinzu kommt noch der Leistungspreis für die Bereitstellung. Grob gerechnet, ist der Anteil für Leistung und Energie jeweils die Hälfte der Stromrechnung. Die Eigenversorgung soll ja bald auch kein Ausweg mehr sein. Es wird jedenfalls spannend werden, einen SPD-Energieminister zwischen den Stühlen der Gewerkschaftsfunktionäre und dem linken Flügel seiner Partei schwitzen zu sehen.

 

 

SMR Teil 2 – Leichtwasserreaktoren

Leichtwasserreaktoren haben in den letzten zwanzig Jahren täglich mehr Energie produziert, als Saudi Arabien Öl fördert. Sie sind die Arbeitspferde der Energieversorger. Kein anders Reaktorkonzept konnte bisher dagegen antreten.

Sieger der ersten Runde des Förderungsprogramm des Department of Energy (DoE) war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Sicherlich kein Zufall, sind doch (fast) alle kommerziellen Reaktoren Leichtwasserreaktoren und B&W ist der Hoflieferant der US-Navy – hat also jahrzehntelange Erfahrung im Bau kleiner Druckwasserreaktoren.

Die Gruppe der kleinen Druckwasserreaktoren

Bei konventionellen Druckwasserreaktoren sind um das „nukleare Herz“, dem Reaktordruckgefäß, die Dampferzeuger (2 bis 4 Stück), der Druckhalter und die Hauptkühlmittelpumpen in einer Ebene gruppiert. Diese Baugruppen sind alle mit dem eigentlichen Reaktor durch dicke und kompliziert geformte Rohrleitungen verbunden. Eine solche Konstruktion erfordert langwierige und kostspielige Montagearbeiten unter den erschwerten Bedingungen einer Baustelle. Die vielen Rohrleitungen bleiben für die gesamte Lebensdauer des Kraftwerks „Schwachstellen“, die regelmäßig gewartet und geprüft werden müssen. Der gesamte Raum muß in einem Containment (Stahlbehälter aus zentimeterdicken Platten) und einer Stahlbetonhülle (meterdick, z. B. gegen Flugzeugabstürze) eingeschlossen werden.

Bei einem Small Modular Reaktor (SMR) stapelt man alle erforderlichen Komponenten vertikal übereinander und packt sie alle zusammen in einen Druckbehälter. Dadurch entfallen die vielen Rohrleitungen und Ventile zu ihrer Verbindung. Was es gar nicht gibt, kann auch nicht kaputt gehen. Der „größte – im Sinne eines Auslegungskriteriums – anzunehmende Unfall“ (GAU, oft zitiert und kaum verstanden), der Verlust des Kühlmittels, wird weniger wahrscheinlich und läßt sich einfacher bekämpfen. Allerdings sind bei dieser „integrierten Bauweise“ die Größen der einzelnen Komponenten begrenzt, will man noch eine transportierbare Gesamteinheit haben. Will man ein Kraftwerk mit heute üblicher Leistung bauen, muß man daher mehrere solcher Einheiten „modular“ an einem Standort errichten.

Geht man von diesem Konstruktionsprinzip aus, erhält man ein röhrenförmiges (kleiner Durchmesser, große Länge) Gebilde. Die Länge – als Bauhöhe umgesetzt – läßt sich hervorragend für passive Sicherheitskonzepte nutzen. Die schlanke Bauweise erlaubt es, den kompletten Reaktor in eine Grube zu versenken: Durch die unterirdische Bauweise hat man einen hervorragenden Schutz gegen alle Einwirkungen von außen (EVA) gewonnen.

Das Grundprinzip der Anordnung übereinander, eint diese Gruppe. Gleichwohl, sind im Detail eine Menge Variationen möglich und vielleicht sogar nötig. So meldete allein nuSkale diesen Monat voller Stolz, daß sie über 100 verschiedene Patente in 17 Ländern für ihren Reaktor angemeldet haben. Inzwischen dürften die SMR-Patente in die Tausende gehen. Nach einer sterbenden Industrie sieht das jedenfalls nicht aus.

Das mPower Konzept

Das „Nuclear Steam Supply System“ (NSSS) von Babcock & Wilcox (B&W) ist besonders schlank geraten: Es hat eine Höhe von über 25 m bei einem Durchmesser von 4 m und wiegt 570 (ohne Brennstoff) bzw. 650 to (mit Brennstoff). Damit soll es in den USA noch auf dem Schienenweg transportierbar sein. Seine Wärmeleistung beträgt 530 MWth und seine elektrische Leistung 155 MWel (mit Luftkondensator) oder 180 MWel bei Wasserkühlung. Ein komplettes Kraftwerk mit zwei Blöcken und allen erforderlichen Hilfs- und Nebenanlagen (300 – 360 MWel) soll einen Flächenbedarf von etwa 16 ha haben. Damit ist die Hauptstoßrichtung klar: Der Ersatz bestehender, alter Kohlekraftwerke.

Das Core besteht aus 69 Brennelementen mit 2413 mm aktiver Länge in klassischer 17 x 17 Anordnung bei einer Anreicherung von weniger als 5 % U235.. Hierbei zielt man auf die kostengünstige Weiterverwendung handelsüblicher Brennelemente für Druckwasserreaktoren ab. Bei diesem kleinen Reaktor kann man damit Laufzeiten von rund 4 Jahren zwischen den Nachladungen erreichen. Durch die Doppelblockbauweise ergibt sich somit eine extrem hohe Arbeitsausnutzung von (erwartet) über 95%. Das integrierte Brennelementelagerbecken kann Brennelemente aus 20 Betriebsjahren aufnehmen.

Die Turmbauweise erlaubt vollständig passive Sicherheitseinrichtungen, wodurch ein Unglück wie in Fukushima (völliger Stromausfall) von vornherein ausgeschlossen ist. Die Brennelemente sitzen ganz unten im Druckbehälter. Darüber kommt die gesamte Steuereinheit (Regelstäbe und ihre Antriebe) und darüber die Dampferzeuger. Ganz oben sitzen die acht Umwälzpumpen und der Druckhalter. Bei einem Stromausfall würden die Regelstäbe sofort und vollautomatisch durch die Schwerkraft in den Reaktorkern fallen und diesen abschalten. Die – im ersten Moment noch sehr hohe – Nachzerfallswärme erwärmt das Kühlwasser weiter und treibt durch den entstehenden Dichteunterschied das Kühlwasser durch den inneren Kamin nach oben. In den höher gelegenen Dampferzeugern kühlt es sich ab und sinkt im Außenraum des Reaktorbehälters wieder nach unten: Ein Naturumlauf entsteht, der für die sichere und automatische Abfuhr der Restwärme sorgt.

Als „Notstrom“ werden nur entsprechende Batterien für die Instrumentierung und Beleuchtung etc. vorgehalten. Große Notstromaggregate mit Schalt- und Hilfsanlagen werden nicht benötigt. Auch hier gilt wieder: Was es gar nicht gibt, kann im Ernstfall auch nicht versagen!

Westinghouse SMR (NextStart Alliance)

Westinghouse hat den ersten Druckwasserreaktor überhaupt entwickelt (Nautilus Atom-U-Boot 1954), das erste kommerzielle Kernkraftwerk (Shippingport 1957) gebaut und ist bei fast allen (westlichen) Druckwasserreaktoren Lizenzgeber. Es ist also nicht überraschend, wenn der Marktführer auch in diesem Segment dabei ist. Die NextStart SMR Alliance ist ein Zusammenschluss mehrerer Energieversorger und Gemeinden, die bis zu fünf Reaktoren im Ameren Missouri’s Callaway Energy Center errichten will.

Der Westinghouse SMR soll eine Leistung von 800 MWth und mindestens 225 MWel haben. Er unterscheidet sich von seinem Konstruktionsprinzip nicht wesentlich vom vorher beschriebenen B&W „Kleinreaktor“. Seine Zykluszeit soll 24 Monate betragen (bei Verwendung der Brennelemente des AP1000). Seine Lastfolgegeschwindigkeit im Bereich von 20 bis 100% Auslegungsleistung beträgt 5% pro Minute. Der Reaktor kann selbstregelnd Lastsprünge von 10 % mit einer Rate von 2% pro Minute dauerhaft ausregeln. Das alte Propagandamärchen der „Atomkraftgegner“ von den „unflexiblen AKW’s“ trifft auch bei diesen Reaktortypen nicht zu. Im Gegenteil dreht Westinghouse den Spieß werbewirksam um und offeriert diesen Reaktor als (immer notwendiges) Backup für Windkraft- und Solaranlagen zur CO2 – freien Stromversorgung.

Westinghouse integriert in das Containment noch einen zusätzlichen Wasservorrat und bekämpft auch noch passiv einen völligen Verlust des Kühlwasserkreislaufes. Damit dieser Störfall eintreten kann, müßte das Druckgefäß des SMR zerstört worden sein. In diesem Fall könnte das Wasser auslaufen und würde sich im Sumpf des Containment sammeln. Damit jeder Zeit der Kern des Reaktors mit Wasser bedeckt bleibt (und nicht wie in Fukushima und Harrisburg teilweise und zeitweise trocken fallen kann), wird automatisch Wasser aus den Speichern im Containment zusätzlich hinzugefügt. Alle Systeme sind so bemessen, daß sich der Reaktor auch nach einem schweren Unglück selbst in einen sicheren Zustand versetzt und mindestens für die folgenden 7 Tage keines menschlichen Eingriffs bedarf.

Wenn nur der Strom total ausfällt, aber das Reaktordruckgefäß nicht geplatzt ist, funktioniert die passive Notkühlung in drei gestaffelten Ebenen. Solange der normale Kühlkreislauf (Kühlturm oder Kühlwasser) noch Wasser enthält, wird über diesen durch Verdunstung die Nachzerfallswärme abgeführt. Versagt dieser sekundäre Kreislauf des Kraftwerks, tritt die innere Notkühlung in Kraft. Das kalte und borierte Wasser in den Nottanks strömt in den Reaktor. Gleichzeitig kann das heiße Wasser den Reaktor verlassen und in die Notkühlbehälter zurückströmen – es entsteht ein Naturumlauf. Damit das Wasser in den Notkühlbehältern auch weiterhin „kalt“ bleibt, besitzt jeder dieser Behälter im oberen Teil einen Wärmeübertrager. Diese Wärmeübertrager sind außerhalb des Containment mit „offenen Schwimmbecken“ verbunden, die durch Verdunstung die Energie an die Umwelt abgeben können. Bricht auch dieser Kühlkreislauf in sich zusammen, kann die Wärme immer noch durch Verdampfung des Wassers im Sumpf des Containment und durch anschließende Kondensation an der Oberfläche des Containment abgeführt werden.

Ausdrücklich wird der Markt für diesen Reaktortyp auch in der Fernwärmeversorgung und zur Meerwasserentsalzung gesehen. Peking hat z. B. viele Kohleheizwerke, die stark zur unerträglichen Luftverschmutzung beitragen. Es ist also kein Zufall, daß bereits Kooperationsverhandlungen laufen.

NuScale

Diese Variante ist aus einem durch das U.S. Department of Energy (USDOE) geförderten Forschungsprojekt am Idaho National Environment & Engineering Laboratory (INEEL) und der Oregon State University (OSU) hervorgegangen. Im Jahre 2008 hat dieses „Startup“ einen Genehmigungsantrag bei der US Nuclear Regulatory Commission (USNRC) für einen 45 MWel. Reaktor gestellt. Im Jahr 2011 ist das Unternehmen praktisch vollständig von FLUOR übernommen worden. Es besteht zudem eine sehr enge Verbindung mit Rolls-Royce.

Das NuScale Modul hat nur eine thermische Leistung von 160 MWth und eine elektrische Leistung von mindestens 45 MWel.. Bei einem Durchmesser von 4,5 m, einer Höhe von 24 m und einem Gewicht von 650 to ist es aber fast genau so groß, wie die beiden schon vorgestellten SMR. Die geringe Energiedichte führt zu einer starken Vereinfachung. Das Unternehmen gibt die spezifischen Investitionskosten mit weniger als 5.000 $/kW an.

Bei dem Konzept handelt es sich um einen Zwitter aus Siedewasser- und Druckwasserreaktor. So etwas ähnliches gab es auch schon in Deutschland, unter der Bezeichnung FDR, als Antrieb der Otto Hahn. Dieses Konzept hat sich schon damals als sehr robust und gutmütig erwiesen. Der NuSkale SMR kommt völlig ohne Umwälzpumpen aus. Man nimmt im Reaktorkern einen etwas höheren (als bei einem reinen Druckwasserreaktor üblichen) Dampfanteil in Kauf, bekommt dafür aber einen großen Dichteunterschied (bezogen auf das „kalte“ Eintrittswasser), der hervorragend einen Naturumlauf anregt. Allerdings erzeugt man keinen Dampf, den man direkt auf die Turbine gibt (wie bei einem Siedewasserreaktor), sondern „beheizt“ damit nur die zwei in dem Reaktordruckgefäß integrierten Dampferzeuger. Man hat also wie bei einem konventionellen Druckwasserreaktor einen physikalisch voneinander getrennten Primär- (durch den Reaktorkern) und Sekundärkreislauf (über die Turbine).

Das NuScale-Konzept bricht radikal mit einigen Gewohnheiten:

  • Man geht von bis zu zwölf Reaktoren aus, die zu einem Kraftwerk mit dann mindestens 540 MWel. zusammengefaßt werden Sie sollen in zwei Reihen zu sechs Reaktoren in einem „unterirdischen Schwimmbecken“ angeordnet werden. Bei einem Ladezyklus von 24 Monaten, könnte somit alle zwei Monate ein Brennelementewechsel erfolgen. Bei einem zusätzlichen „Reservemodul“ könnte das Kraftwerk nahezu mit 100 % Arbeitsausnutzung durchlaufen. Die „Auszeit“ eines konventionellen Kernkraftwerk entfällt. Ebenso wird die Personalspitze(üblicherweise mehr als 1000 Leute beim Brennelementewechsel) vermieden. Der Brennelementewechsel mit seinen Wiederholungsprüfungen wird zu einem stetigen „Wartungsprozess“ umgestaltet. Dies kann zu beträchtlichen Kosteneinsparungen führen.
  • Durch den Verzicht von Umwälzpumpen wird die Konstruktion noch einmal stark vereinfacht.
  • Durch die Aufstellung in einem „großen Schwimmbecken“ sind die Reaktoren vor Erdbeben und Druckwellen praktisch vollkommen geschützt. Überflutungen (Fukushima) sind kein Sicherheitsrisiko mehr, da ja die Reaktoren ohnehin ständig im Wasser stehen.
  • Die Reaktoren verzichten vollständig auf Wechselstrom (Fukushima) und benutzen lediglich passive Sicherheits- und Kühlsysteme. Elektrische Energie ist nur für die Instrumentierung und Beleuchtung notwendig. Relativ kleine Batterien sind hierfür ausreichend. Der Batterie- und Kontrollraum befindet sich im unterirdischen Teil des Kraftwerks.
  • Selbst wenn es zu einer Beschädigung des Reaktorkerns kommen würde (Fukushima), würden radioaktive Stoffe im Schwimmbecken und Reaktorgebäude zurückgehalten werden. Außerdem beträgt das radioaktive Inventar in jedem Modul weniger als 5% eines konventionellen Reaktors. Somit ist auch die bei einem Unfall abzuführende Restwärme entsprechend klein.
  • Im Containment herrscht Vakuum. Eine Bildung explosiver Gase (Fukushima) ist somit ausgeschlossen. Es wirkt wie eine Thermosflasche. Zusätzliche Isolierungen sind nicht erforderlich. Andererseits würde es bei einer Zerstörung des eigentlichen Druckbehälters, den entweichenden Dampf aufnehmen und eine „Wärmebrücke“ zum umgebenden Wasser herstellen.

Die überragende sicherheitstechnische Philosophie dieses Konzeptes ist, daß sich auch nach schwersten Zerstörungen (z. B. Tsunami in Fukushima) der Reaktor ohne menschliche Eingriffe selbsttätig in einen sicheren Zustand überführt und dort ohne jeden (nötigen) Eingriff ewig verbleibt! Dies mag noch einmal an der „Notkühlung“ verdeutlicht werden: Wenn die äußere Wärmesenke entfällt (Ausfall der Kühlwasserpumpen in Fukushima durch den Tsunami), alle Stromquellen ausfallen (Zerstörung der Schaltanlagen und Notstromaggregate durch die Flutwelle in Fukushima), dient das „Schwimmbecken“ zur Aufnahme der Nachzerfallswärme. Es ist so bemessen, daß sein Wasserinhalt durch Erwärmung und Verdunstung den Reaktorkern sicher kühlt. Selbst, wenn man kein Wasser nachfüllen würde, wäre es erst nach etwa einem Monat leer. Dann aber, ist die Nachzerfallswärme bereits so stark abgeklungen (< 400 kW pro Modul), daß die „Luftkühlung“ in dem nun leeren Wasserbecken, sicher ausreichen würde.

Das Brennelementelagerbecken ist zur Aufnahme von 15 Betriebsjahren ausgelegt. Es befindet sich ebenfalls im unterirdischen Teil und kann für mindestens 30 Tage ohne zusätzliches Wasser auskommen (Fukushima). Es besteht aus einem Edelstahlbecken in einer Stahlbetonwanne. Stahlbecken und Betonwanne sind seismisch von einander isoliert, sodaß auch schwerste Erdbeben praktisch wirkungslos für die gelagerten Brennelemente sind.

Die NuScale Konstruktion ist ein schönes Beispiel, wie man Jahrzehnte alte Entwürfe der Leichtwasserreaktoren noch einmal ganz neu durchdenken kann. Es ist der radikalste Ansatz unter den zur Genehmigung eingereichten Konzepten. Die Wahrscheinlichkeit für eine schwere Beschädigung des Reaktorkerns mit teilweiser Kernschmelze – wie in Harrisburg und Fukushima geschehen – verringert sich auf unter ein Ereignis in zehn Millionen Betriebsjahren. Selbst wenn es eintreten würde, wären die Auswirkungen auf die Umwelt noch geringer. Es wird bereits diskutiert, ob bei diesem Reaktortyp überhaupt noch eine „Sicherheitszone“ mit potentieller Evakuierung der Anwohner, erforderlich ist. Jedenfalls gibt es in USA bereits ein reges Interesse zahlreicher Gemeinden und Städte zur dezentralen, kostengünstigen, umweltschonenden und krisensicheren (Wirbelstürme, Tornados, etc.) Versorgung mit Strom und Fernwärme.

Holtec international

Einem klassischen Reaktor noch am ähnlichsten, ist das von Holtec im Jahre 2012 eingereichte Konzept des „Holtec Inherently-Safe Modular Reactor“ (HI-SMUR) mit einer geplanten Leistung von 145 MWel.. Er besteht aus den klassischen drei Baugruppen: Reaktor, Dampferzeuger und Druckhalter. Der Druckbehälter ist ein fast 32 m langes Gebilde, welches in einer brunnenförmigen Grube versenkt ist. Es ist mit den Dampferzeugern entweder durch ein „Rohrstück“ (senkrechte Variante) verbunden oder die waagerechten Dampferzeuger sind direkt angeschweißt. Liegende Dampferzeuger sind nur bei russischen Konstruktionen gebräuchlich. Werden stehende Dampferzeuger verwendet, baut dieser Typ oberirdisch noch einmal 28 m hoch.

Der Entwurf ist sehr eigenwillig. Man hat ursprünglich waagerechte Dampferzeuger mit separater Überhitzung vorgesehen. Angeblich kann man durch eine angestrebte Überhitzung auf handelsübliche Industrieturbinen zurückgreifen. Man verzichtet auf Umwälzpumpen, bei gleichzeitig großem Abstand vom Siedezustand. Man ist deshalb auf eine sehr große Temperaturspreizung (TE = 177 °C und TA = 302 °C bei p = 155 bar) angewiesen. Eine regenerative Speisewasservorwärmung ist praktisch ausgeschlossen. Das ganze ähnelt eher einer Dampflokomotive, als einem modernen Kraftwerk.

Das Brennstoffkonzept ist auch etwas ungewöhnlich. Es ist keine Borierung zur Kompensation der Überschußreaktivität vorgesehen. Das heißt, es muß alles über abbrennbare Gifte (Gd und Er) geschehen. Der gesamte Brennstoff soll sich in einer Kartusche aus nur 32 Brennelementen befinden. Bei einem so kleinen Core dürfte der Neutronenfluß nur sehr schwer in den Griff zu bekommen sein bzw. jeder Brennstab müßte eine individuelle Anreicherung erhalten. Man will die Kassette nach 100 h (Nachzerfallswärme) in einem Stück auswechseln. Ein Brennelementewechsel soll so weniger als eine Woche dauern. Gleichwohl, soll die Zykluszeit 42 Monate betragen. Wenn sich nicht einige revolutionäre Erfindungen dahinter verbergen, die bisher noch nicht öffentlich zugänglich sind, dürfte eher der Wunsch der Vater sein.

Bisher kooperiert Holtec mit Shaw und Areva. Ein Prototyp wäre auf der Savannah River Site des DoE’s geplant. Die Bauzeit wird mit nur 2 Jahren, bei Kosten von nur 675 Millionen US-Dollar angegeben. Man wird sehen.

Carem

Anfang Dezember 2013 wurde der Auftrag für das Reaktordruckgefäß des „Central Argentina de Elementos Modulares“ CAREM-Reaktor erteilt. Es handelt sich dabei um ein 200 to schweres, 11 m hohes Gefäß mit einem Durchmesser von 3,5 m. Es ist für den Prototyp eines argentinischen SMR mit einer Leistung von 25 MWel gedacht. Später soll dieser Reaktor eine Leistung von 100 bis 200 MWel. erreichen. Es handelt sich ebenfalls um eine voll integrierte Bauweise, mit ausschließlich passiven Sicherheitseinrichtungen.

Schwimmender SMR aus Russland

Der staatliche russische Hersteller Rosenergoatom baut in Petersburg eine Barge mit zwei Reaktoren, die nach Chukotka in Sibirien geschleppt werden soll, um dort Bergwerke mit Energie zu versorgen. Die Reaktoren sind eine zivile Abwandlung der KLT-40S Baureihe für Eisbrecher, mit einer Leistung von 35 MWel. Vorteil dieses „Kraftwerks“ ist, daß es auf einer seit Jahren erprobten Technik basiert. Die russische Eisbrecherflotte versieht zuverlässig ihren Dienst im nördlichen Eismeer. Ein nicht zu unterschätzender Vorteil bei der Versorgung entlegener Gegenden.

Sehr Interessant ist das Geschäftsmodell. Eine solche barge wird fix und fertig zum Einsatzort geschleppt. Der Kunde braucht nur für den Stromanschluss an Land zu sorgen. Weitere Investitionen oder Unterhaltskosten fallen für ihn nicht an. Nach drei Jahren wird die barge für einen Brennelementewechsel und notwendige Wiederholungsprüfungen abgeschleppt und durch eine andere barge ersetzt. Da bei einem Kernkraftwerk die Brennstoffkosten ohnehin eine untergeordnete Rolle spielen, kann der Kunde das Kraftwerk für eine pauschale Jahresgebühr mieten. Ob und wieviel Strom er verbraucht, braucht ihn nicht mehr zu kümmern. Eine feste Kalkulationsgrundlage, die für Öl- und Minengesellschaften höchst verlockend ist. Als einzige Hürde in westlichen Regionen erscheint lediglich (noch) das „Made in Russia“. Jedenfalls hat er keine Vorauszahlungen zu leisten, hat keinerlei Reparaturkosten und braucht sich nicht um die Entsorgung des „Atommülls“ zu kümmern. Russland kann seinen „Heimvorteil“ des geschlossenen Brennstoffkreislaufs voll ausspielen.

Parallel hat Russland noch ein größeres Modell mit 300 MWel auf der Basis des VBER-300 PWR Druckwasserreaktors in der Entwicklung.

Abschließender Hinweis

Dieser Artikel kann und soll nur einen Überblick über den Stand der internationalen Entwicklung geben. Wer bis hierhin nicht durch so viel Technik abgeschreckt worden ist, dem empfehle ich, einfach mal die Typen und Hersteller zu googeln. Besonders die Seiten der Hersteller verfügen über zahlreiche Zeichnungen und Animationen. Zwar ausnahmslos in Englisch, aber mit der Grundlage dieses Artikels lassen sie sich hoffentlich auch für nicht Techniker verstehen.

 

ACP-1000, Chinas erster richtiger Export

Im August 2013 hat sich China zum ersten mal als Exporteur „richtiger“ Kernkraftwerke auf dem Weltmarkt gezeigt: China hat mit Pakistan einen Vertrag zur Lieferung eines Kraftwerks mit zwei ACP-1000 Reaktoren abgeschlossen. Die Angelegenheit erscheint gleich aus mehreren Gründen bemerkenswert: Es handelt sich bei den Reaktoren um eine Eigenentwicklung von Reaktoren der sog. III. Generation und den besonderen politischen Umständen. Mit Argentinien steht man angeblich vor einem weiteren Abschluss. China scheint also sehr viel schneller auf dem Weltmarkt zu erscheinen, als manch einer sich „im Westen“ hat vorstellen können. Betrachtet man den günstigen Preis von 9,6 Milliarden US-Dollar – was umgerechnet etwa 3300 €/kW entspricht – kann man erwarten, daß China den internationalen Kraftwerksmarkt ähnlich wie bei Mobiltelefonen, Kopierern und Unterhaltungselektronik aufmischen wird. Dies war zwar schon lange angekündigt, aber nicht so schnell zu erwarten gewesen. China will auf dem Kraftwerkssektor unbedingt Weltmarktführer werden. Wird ihm das gelingen, wird sich das für das alte Europa noch zu einem industriellen Albtraum entwickeln. Insofern kann man schon heute allen Politikern und sonstigen Vertretern der „Sozialindustrie und Bio-Bauern-Republik“ zu ihrem Erfolg gratulieren.

Der politische Hintergrund

China demonstriert mit seinem Export von Kernkraftwerken nach Pakistan einmal mehr Stärke und imperiales Gehabe im asiatischen Raum. Für China sind internationale Verträge nur so lange gültig, wie sie dem eigen Vorteil dienen. Sieht China auch nur eigene Interessen berührt – siehe die Haltung zum Giftgaseinsatz in Syrien – sind sie nicht das Papier wert, auf dem sie geschrieben stehen. Eine chinesische Grundeinstellung, für die sie bei allen asiatischen Nachbarn bekannt und gefürchtet sind. Eigentlich, verstößt China nicht nur gegen seine Verpflichtungen aus seiner Mitgliedschaft in der IAEA (International Atomic Energy Agency), sondern auch gegen die erst 2005 abgeschlossenen NSG (Nuclear Suppliers Group) Verträge. Dort hat sich China verpflichtet, keine weiteren Reaktoren (Chashma im Punjab mit 2 x 300 MWe) mehr an Pakistan zu liefern. Der Grund dieses Abkommens ist, daß Pakistan selbst ein Atomwaffenstaat ist und sich beharrlich weigert, den internationalen Abkommen zur Nicht-Weiterverbreitung beizutreten. Es hat durch den nachgewiesenen Handel mit „Atomwaffentechnik“ wiederholt unter Beweis gestellt, daß es eine ausgesprochene Außenseiterrolle einnimmt. Insbesondere sein Nachbar Indien fürchtet die zunehmende Islamisierung des Landes und weitere Übergriffe und Anschläge. China behauptet in seiner ihm eigen Art, daß es sich keinesfalls um den Bruch internationaler Abkommen, sondern lediglich um die Fortsetzung des Chashma-Projekts (Entfernung über 700 km) handelt. Man kann also davon ausgehen, daß China sich als der bevorzugte Lieferant für Kerntechnik für alle zweifelhaften Regime etablieren wird.

Die Energiepolitik in China

Zur Zeit hat China 15 Reaktoren in Betrieb und 30 im Bau. Weitere 51 Reaktoren befinden sich im fortgeschrittenen Planungsstadium und 120 in der Vorstudie. Die Ereignisse in Fukushima führten zu einer zwanzig Monate dauernden Bedenkzeit, in der erstmal keine weiteren Projekte in Angriff genommen wurden. Als Folge dieser Verzögerung wurde das Ausbauziel für 2020 von 80 GWe auf 58 GWe gesenkt. Gleichwohl wurde das Ausbauziel für 2030 mit 200 GWe unverändert gelassen. China hätte damit rund doppelt so viele Reaktoren wie die USA und etwa vier mal so viele, wie Frankreich. Wer solche Planzahlen vorgibt, ist dazu genötigt, eine kerntechnische Industrie von bisher nicht gekannter Größenordnung aufzubauen. Selbst wenn China gewillt und finanziell in der Lage wäre, diese Stückzahl zu importieren, wäre der Weltmarkt dazu gar nicht in der Lage – jedenfalls nicht ohne eine Preisexplosion.

Bisher erscheint das kerntechnische Programm sehr verzettelt. Man hat sich alle verfügbaren Reaktortypen am Weltmarkt zusammengekauft und entsprechende Kooperations- und Lizenzabkommen geschlossen. Andererseits war dies mit einer enormen Lernkurve verbunden. Vorbild war und ist jedoch Frankreich: Man möchte sich möglichst auf einen Reaktortyp beschränken und dadurch die vollen Skalenvorteile nutzen. Dies betrifft vor allem den Betrieb. Anders als in Deutschland, ist das oberste Staatsziel, möglichst viel elektrische Energie, zu möglichst geringen Preisen bereit zu stellen. Dies wird als notwendiges Fundament einer modernen Wohlstandsgesellschaft gesehen.

Der ursprüngliche Plan sah die konsequente Nationalisierung des ursprünglich von Frankreich importierten 910 MWe Reaktors M310+ vor. Er gipfelte in dem als CPR-1000 bezeichneten Reaktortyp, der faktisch ein Nachbau der 34 in Frankreich gebauten Reaktoren mit je 157 Brennelementen war. Von diesem Typ sollten 60 Stück in Serie gebaut werden. Doch Fukushima veränderte die Lage grundlegend. Man kam zum Schluß, in Zukunft nur noch Reaktoren der III. Generation zu bauen und die im Bau befindlichen Reaktoren der II. Generation nach Möglichkeit zu ertüchtigen. Durch diesen Beschluss wurde das Ausbauprogramm etwas durcheinander gewirbelt: Bisher sind nur zwei Typen der III. Generation (AP-1000 von Westinghouse und EPR von Areva) im Bau. Bis zur endgültigen Entscheidung, welcher Reaktor in Großserie gebaut wird, sollen noch erste Betriebsergebnisse abgewartet werden. Neben dem engen Zeitplan ergeben sich auch noch juristische Probleme in Bezug auf die Lizenzabkommen. Wahrscheinlicher Sieger dürfte der in Modulbauweise zu errichtende AP-1000 sein. Allerdings hat man mit Westinghouse erst eine gemeinsame Vergrößerung auf mindestens 1400 MWe (CAP-1400) beschlossen. Diese Neuentwicklung ist bereits vollumfänglich für den Export durch China freigegeben.

Der ACP-1000

Hier kommt nun der ACP-1000 ins Spiel: Wie ein Kaninchen aus dem Zylinder, erscheint ein vollständig selbstständig entwickelter und vollständig durch eigene Rechte abgesicherter chinesischer Reaktor der 1000 MWe Klasse auf der (politischen) Bildfläche. Unverhohlen läßt man damit drohen, daß mindestens 60 % der ausländischen Firmen ihre chinesischen Aufträge ab 2020 verlieren könnten, wenn China den Weg dieser Eigenentwicklung beschreiten würde. Im Moment könnte man bereits 85% des Reaktors mit eigenen Produkten – ohne Lizenzgebühren – produzieren. Durch den hohen Eigenanteil, könnte man bereits heute 10 % günstiger als der Rest der Welt anbieten. Alles etwas vollmundig. Die zwei ersten Reaktoren überhaupt, sollen als Block 5 und 6 im Kernkraftwerk Fuqing in der Fujien Provinz errichtet werden. Baubeginn soll noch dieses Jahr sein. Im Zusammenhang mit einer angeblich vollständigen Eigenentwicklung ist dies etwas dubios. Bisher braucht in China, jedes als „Nuclear Grade“ deklarierte Bauteil (damit sind alle Komponenten gemeint, die für einen sicheren Betrieb ausschlaggebend sind), eine spezielle Zulassung der Genehmigungsbehörde. Um diese Zulassung zu erlangen, muß nachgewiesen werden, daß der Betrieb diese Komponente seit mindestens fünf Jahren produziert und sie in einem Kernkraftwerk erfolgreich eingesetzt wird. Letzteres muß durch den Verwender schriftlich bestätigt werden. Erstes bezieht sich sogar auf Fertigungsstätten ausländischer Firmen in China. Namhafte deutsche Hersteller sind an dieser Klausel gescheitert.

Bisher weiß man über den ACP-1000 nicht sehr viel. Es soll sich um eine Weiterentwicklung der französischen Standardbauweise mit drei Sekundärkreisläufen handeln. Seine Leistung soll 1100 MWe bei 3060 MWth betragen. Der Reaktorkern ist eine angeblich vollständige Eigenentwicklung mit 177 Brennelementen von 3,66 m Länge (Lizenzfrage?). Er ist für ein Wechselintervall von 18 Monaten bei einem Abbrand von 45000 MWd/tU ausgelegt. Ausdrücklich wird die hohe Lastfolgefähigkeit durch eine voll digitale Regelung erwähnt. Durch den Einsatz „passiver Elemente“ bei „modernster aktiver Sicherheit“ soll es sich angeblich um einen Reaktor der III+. Generation handeln. Einen vollständigen Einblick wird man erst erhalten, wenn dieser Reaktor durch eine westliche Genehmigungsbehörde zertifiziert wird. Angeblich, ist dies demnächst vorgesehen.

Konsequenzen

Die Träume vieler europäischer Konzerne, vom großartigen chinesischen Markt dürften ausgeträumt sein. Die deutsche Krabbelgruppenmentalität vom „solidarischen Umgang miteinander“ ist für chinesische Maßstäbe völlig widernatürlich. Im chinesischen Geschäftsleben gilt ausschließlich das Recht des Stärkeren. Wer nicht stets besser ist, hat nicht einmal ein Recht auf Anerkennung. China hat sich alle Reaktormodelle bauen und erklären lassen. Jetzt kommt die Phase der gnadenlosen Verwertung des erlernten. Wer jetzt noch etwas verkaufen will, müßte schon wieder besser sein. Das unendlich langsame Europa kann dieses Tempo nicht mithalten. Ein radikales Umdenken wäre erforderlich. Dafür fehlt es aber (bisher) am erforderlichen politischen Willen. Für die chinesische Führung sind Rüstungsindustrie, Nahrungsmittel- und Energieversorgung die drei zentralen Staatsbereiche. Zumindest in Deutschland, ist Energieverbrauch inzwischen etwas ganz böses und jede Energietechnik, die über den Stand des Mittelalters hinausgeht, eine beängstigende Vorstellung. Träum schön weiter, Michel!