Lückenpresse oder doch mehr?

Am Montag dem 23.7.2018 um 20.00 Ortszeit brach der fast fertiggestellte Staudamm Xepian-Xe Nam Noy in Laos. 5 Milliarden Kubikmeter Schlamm und Wassermassen ergossen sich über mehrere Dörfer. Offizielle Bilanz: (angeblich nur) 27 Tote, aber Hunderte vermisste Personen — zumeist Kinder — und fast 7000 Obdachlose. Eine schreckliche Tragödie. Solche Unglücke im Zusammenhang mit der Gewinnung elektrischer Energie und Naturereignissen — hier außergewöhnliche Regenfälle — wird es immer wieder geben. Nur Laien glauben an „gute“ und „böse“ Arten von Energie. Es soll hier nicht um die technischen Aspekte gehen, sondern das Warum steht hier im Vordergrund und die (zweifelhafte) Reaktion der Medien in Deutschland.

Die Demokratische Volksrepublik Laos ist einer der ärmsten Länder in Asien. Ein vom Kommunismus gebeuteltes Land. Mehr als 23% der Bevölkerung haben weniger als 2 US$ pro Tag zur Verfügung. Von einschlägigen Kreisen wird es wegen seiner Topographie gern als „Batterie Südostasiens“ bezeichnet. Der Mekong durchfließt das Land auf rund 2000 km Länge. Zahlreiche laotische Flüsse münden in ihm. Besonders diese Nebenflüsse werden mit Stauseen zur Stromerzeugung gepflastert. Geld hierfür fließt zur Zeit in Strömen — nicht nur aus China — denn Staudämme sind wie Windräder gut für das Klima. Besonders all die Anleger, die aus der „bösen Kohle“ aussteigen, brauchen dringend neue profitable Geldanlagen. Der gerade zusammengebrochene Xepian-Damm hat bereits über eine Milliarde US$ verschlungen. Er sollte eine Leistung von 410 MWel haben und 1860 GWh pro Jahr liefern. Dies ergibt aufschlußreiche Zahlen: Die spezifischen Investitionskosten betragen somit etwa 2400 US$ pro KWel. Aber halt, da ist ja noch eine zweite Zahl: Geplante Produktion 1860 GWh pro Jahr. Hoppla, das sind ja gerade 4536 Vollbenutzungsstunden. So ist das halt mit den wetterabhängigen Umweltenergien. Ein Kernkraftwerk läuft mindestens 7885 Vollaststunden pro Jahr, also fast doppelt so lange. Und dies immer dann, wenn man den Strom braucht und nicht wenn der Wettergott Lust hat. Somit dürften die gleichwertigen Investitionskosten also rund 4200 US$ pro kWel betragen. Das ist die Antwort, warum ganz Asien Kernkraftwerke (nahezu keine Brennstoffkosten, aber entsprechende Infrastruktur erforderlich) oder Kohlekraftwerke baut.

Hinzu kommt noch ein anderes Problem: Konventionelle Kraftwerke sind nahezu standortunabhängig und benötigen nur wenig Fläche. Wasserkraftwerke können praktisch nur noch in Diktaturen gebaut werden: In diesem Fall mußten sechs Dörfer mit ihren Einwohnern verschwinden. Entschädigung? Es handelte sich um eine Minderheit von Bergstämmen. Wer bekommt den Strom? Die „Eingeborenen“ wären gar nicht in der Lage die elektrische Energie zu bezahlen. Deshalb sollen 90% der Stromproduktion nach Thailand exportiert werden. Langfristige Verträge über 27 Jahre sichern den Banken ihren Rückfluß des eingesetzten Kapitals — plus einer netten Rendite. Umweltbelastung? Bei einem Wasserkraftwerk kommt zwar kein „böses CO2“ aus dem Schornstein, aber jeder Staudamm belastet das „Ökosystem Fluß“. Wenn man dutzende miteinander verbundene Wasserkraftwerke baut, wird das einen erheblichen Einfluß auf Flora und Fauna haben. Der Mekong ist aber die Lebensader für die Flußanrainer von China bis Vietnam.

Die Berichterstattung in unserem Lande

Erinnern sie sich noch an Fukushima? Von morgens bis abends gab es kein anderes Thema. Nun ist Laos auch nicht weiter als Japan. In beiden Fällen war die Ursache ein Naturereignis. In Laos ein Tropensturm mit außergewöhnlichen Niederschlägen und in Japan ein Tsunami. Die immerwährenden Wasserschäden halt. Naturgewalt wird man nie ausschließen können, lediglich sich dagegen durch viel Technik wappnen können. In beiden Fällen entstand erheblicher Sachschaden. Nicht nur für die Anlagenbetreiber, sondern auch für viele völlig unbeteiligte Personen in weiterer Entfernung. In einem Fall wahrscheinlich hunderte Tote durch die direkte Einwirkung der Anlage, im anderen Fall sind keine Menschenleben zu beklagen. Was macht nun den Unterschied in der Wahrnehmung beider Ereignisse aus?

In der Wahrnehmung „normaler Menschen“ gibt es kaum einen Unterschied. Im Gegenteil dürfte das Mitfühlen für die Angehörigen der Todesopfer (überwiegend Kinder) in Laos eher größer sein. Man erinnere sich nur an die Kinder-Fußballmannschaft in Thailand. Weltweit wurde tagelang mit den in der Höhle eingeschlossenen mitgefiebert. Aus aller Welt traf Unterstützung ein. Warum also, reagierten die Medien in Deutschland — das muß ausdrücklich betont werden — so desinteressiert? Es ist ja nicht so, daß kein Bildmaterial oder Hintergrundinformationen vorhanden sind. Es liegt alles vor für eine „Enthüllungs-Geschichte“ a la „Panama-Papers“ etc.: Diktatoren, Indigene Minderheiten, Ausbeutung der „3. Welt“, Banken, internationale Konzerne, großräumige Umweltzerstörung usw. Kurz, alles was einen Linken elektrisiert. Ne richtige „Spiegel Story“ so zu sagen.

Man könnte die Antwort in einem Satz geben: Was nicht sein darf, findet auch nicht statt. Die totale Realitätsverweigerung. Wie einst in der DDR. Tschernobyl hielt erst mit tagelanger Verzögerung Einzug in die Aktuelle Kamera. So funktionieren halt staatliche Medien. Nur mit dem Unterschied, daß die DDR sich selbst gegenüber so ehrlich war, ihre Medien direkt aus dem Staatshaushalt und nicht über eine Zwangsabgabe für Wohnungen zu finanzieren. Die Wirkung ist die gleiche: Von den Regierenden mit üppigen Mitteln und unzähligen Privilegien ausgestattet, weiß man auch ohne direkte Anweisung, was zu tun ist.

Die Vorgabe ist einfach und auch von „Nachrichten-Vorlesern“ mit geringer Bildung auszuführen: Die Energiewende ist um jeden Preis zu verteidigen. Kernenergie und Kohle sind beides Teufelszeug, müssen daher mit allen Mitteln — besser gesagt Gruselgeschichten — madig gemacht werden. Einzig selig machend ist Wind- und Sonnenenergie mit (noch zu erfindenden) Speichern und deshalb darf der Bruch eines Staudammes nicht stattfinden. Höchsten als Randnotiz, sonst könnte der Bürger noch auf abwegige Gedanken kommen.

Das „GEZ-Fernsehen“ ist schon länger auf dem Niveau der Prawda angekommen: Immer mal rein schauen, damit man weiß, was einem die Regierung zum Thema Energie mitteilen will. Aber als Informationsmedium absolut unbrauchbar. Wer glaubt, was einem dort verkauft wird, macht sich selbst und freiwillig zum Deppen.

Wer Informationen sucht, muß sich notgedrungen im kapitalistischen Ausland umschauen. Dort sind Nachrichten immer noch eine Ware und keine ideologischen Verlautbarungen zur Volksertüchtigung. Deshalb war in wenigen Stunden das Staudammunglück verbreitet — samt Hintergrundinformationen: Wer hat den Damm gebaut, wer hat die Finanzierung gemacht, wie haben sich deren Aktienkurse entwickelt usw. Im Internetzeitalter alles was man braucht, um seinen eigenen Ansprüchen entsprechend weiter zu recherchieren. Genau die journalistische Arbeit, die im Deutschen Fernsehen immer mehr verweigert wird — ob schlicht aus Faulheit oder aus Boshaftigkeit sei dahingestellt. Überdeutlich wird dies immer wieder im Zusammenhang mit Donald Trump: Bevor man sich seine Rede selbst anhört, verwendet man lieber einen Beitrag eines klassenbewußten „Experten“ darüber, was der Präsident angeblich gesagt haben soll. Sicher ist sicher, wie bei der Energiewende. Wenn man mit den Wölfen heult und immer nur das nach quatscht, was die einschlägigen „Größten Denker“ vorgekaut haben, ist man immer auf der richtigen Seite. Schlimmstenfalls haben sich halt alle anderen auch geirrt. Die üppige Pension ist damit, gemäß deutscher Tradition, auf jeden Fall gesichert. Später sagt man einfach, wenn man das gewußt hätte….

Ölsand, die nächste Ölquelle in den USA?

In diesem Jahr hat die Ölförderung in den USA erstmalig seit 1970 wieder 10 Millionen Faß pro Tag erreicht.

Peak Oil

Kann sich noch jemand erinnern, wie vor einigen Jahren die Anhänger der Mangelwirtschaft das baldige Ende des Ölzeitalters vorausgesagt haben? Man glaubte endlich ein Marktversagen gefunden zu haben, was die Wiedereinführung der Planwirtschaft ermöglichte. Ein seit nunmehr 200 Jahren anhaltender Irrtum. Wieder einmal hat ein Mangel – ausgedrückt in steigenden Preisen – den menschlichen Erfindergeist frei gesetzt. In diesem Fall war es die Entwicklung des „fracking“, die erst gigantische Mengen Erdgas und anschließend Erdöl zugänglich machte.

Ganz nebenbei kann man an dieser Entwicklung auch die unterschiedliche Gesellschaftsauffassung sehen: In den USA ist Erfinden und Tüfteln immer noch eine angesehene Tätigkeit. Solange man nicht gegen Gesetze verstößt, kann man seiner Phantasie freien Lauf lassen. Man findet auch relativ leicht Geldgeber, weil „Profit machen“ nichts anrüchiges ist, sondern im Gegenteil ein verbrieftes Recht für den, der wirtschaftliche Risiken eingeht. Niemand erwartet dabei eine Erfolgsgarantie, weil Chance und Risiko des Misserfolges immer die zwei Seiten derselben Medaille sind.

Ganz anders in Deutschland: Kaum war der Ruf „fracking“ als neu erschlossene Energiequelle erschallt, haben sich sofort die einschlägigen Kostgänger dieser Gesellschaft aus Politik und Medien zusammengerottet. In altbekannter Manier wurden jegliche Chancen sofort vehement geleugnet und dafür apokalyptische Gefahren beschworen. Die willfährigen Volksbeglücker aller etablierten Parteien haben sofort jede Entwicklung per Gesetz im Keim zu ersticken verstanden. Die gleichen Pharisäer, die – wenn es um ihre eigene Klientel geht – schamlos Wälder roden lassen und jeglichen Artenschutz leugnen, damit ihre Reichskrafttürme wie Pilze aus dem Boden schießen können.

Wurde Präsident Trump hier politisch korrekt belächelt wenn er davon sprach, er wolle die Industriearbeitsplätze zurückholen, dämmert es mittlerweile auch jedem GEZ-Nachrichtenvorleser wo die Reise hingeht: Erst billige Energie im Überfluß, anschließend drastische Steuersenkungen und nun auch noch die Forderung nach „fairem Handel – von jedem wirtschaftsunkundigen gern als Protektionismus verunglimpft. Bald können deutsche Politiker sicherlich wieder die Schließung eines Stahlwerks oder die Verlagerung von Dieselmotoren etc. bejubeln – ist doch toll für den „Klimaschutz“.

Die Ölsände der USA

Wer so naiv war zu glauben, die USA hätten bald ihr Pulver verschossen, steht nun vor der nächsten Phase: Nach unkonventionellem Gas und Öl kommen jetzt die Ölsände hinzu. Die USA verfügen über mindestens 30 Milliarden Faß Öläquivalent. Davon befinden sich rund 50% im Uinta-Basin im nordöstlichen Utah. Leicht abbaubar, weil oberflächennah und dazu noch sehr schwefelarm. Im Dreieck von Utah, Colorado und Wyoming liegen wohl 1200 Milliarden Faß Rohöläquivalent.

Was sind Ölsände?

Ölsände – auch Teersände genannt – sind natürliche Umweltkatastrophen in grauer Vorzeit. Irgendwann sind Öllagerstätten bis an die Oberfläche durchgebrochen. Die leicht flüchtigen Bestandteile des Erdöls sind verdunstet und es ist Bitumen zurückgeblieben. Man unterscheidet zwei Typen: „water wet“ und „oil wet“. Der erste Typ ist von den kanadischen Ölsand Lagerstätten in Alberta bekannt. Bei ihm sind die Sandkörner von einer dünnen Wasserschicht umgeben auf der wiederum der Bitumen sitzt. Das Gewinnungsverfahren ist seit den 1920er Jahren bekannt: Der Sand wird in 80 °C heißem Wasser gewaschen, wodurch sich das Bitumen vom Sand ablöst. Durch einblasen von Luft bildet sich ein ölhaltiger Schaum, der aufschwimmt. Dieser Schaum ist das Rohprodukt. Es besteht zu etwa 60% aus Öl, 30% Wasser und 10% Feststoffen. Nach dessen Aufbereitung geht das Abwasser mit allen Chemikalien und Feststoffen in riesige Absetzbecken. Eine ziemliche Umweltbelastung. Anschließend muß das Bitumen noch zu synthetischem Rohöl verarbeitet werden, bis es auf dem Ölmarkt zu verkaufen ist. Eine ziemlich energieaufwendige Angelegenheit. Das ganze erfordert gigantische Anlagen mit einem immensen Kapitalaufwand.

Die Ölsände in Utah sind vom Typ „oil wet“, der sich nicht mit dem vor beschriebenen Verfahren verarbeiten läßt. Die Sandkörner sind direkt vom Öl umkleidet. Deshalb ist das Bitumen nicht mit Wasser abwaschbar. Es mußte ein geeignetes Lösungsmittel gefunden werden. Auch hier haben wieder mittelständische Unternehmen – nicht die großen Ölkonzerne – jahrzehntelang getüftelt und entwickelt. Es wurden (patentierte) Lösungen auf der Basis von Diesel, Propan und Gas-Kondensaten gefunden. Der Trick dabei ist, daß es sich um azeotrope (gleiche Zusammensetzung in der flüssigen und dampfförmigen Phase) Gemische handelt, die sich bei geringer Temperatur von 70 bis 75 °C durch einfache Destillation wieder von dem aufgelösten Bitumen trennen lassen. So erhält man einerseits ein reines Produkt und kann 99,9% des Lösungsmittels im Kreislauf laufen lassen (keine Abwasser-Seen!). Der Ölsand wird bei etwa 60 °C mit dem Lösungsmittel gewaschen. Der Sand ist anschließend so „sauber“, daß er problemlos auf Halde gelagert oder sogar als Baustoff verkauft werden kann. Ein energiesparendes und umweltfreundliche Verfahren.

Die Produktionskosten werden mit lediglich 22 $/barrel angegeben. Man muß etwa 1 to Ölsand zur Gewinnung eines barrel Öl verarbeiten. Das ist bei den geologischen Verhältnissen in Utah kein Problem. Das Lösungsmittel ist zwar recht teuer (ca. 35 $ pro barrel), hängt aber ganz unmittelbar von den jeweils aktuellen Ölpreisen ab: Billiges Rohöl, billiger Einstandspreis für das Lösungsmittel und umgekehrt. Das macht die Produktionskosten (anders als beim „fracking“) sehr stabil gegenüber Ölpreisschwankungen. Die Ölsände lagern in einem alten Ölfördergebiet, d. h. die Infrastruktur für Transport und Verarbeitung ist bereits vorhanden. Das Öl ist mit 14 API-Graden zwar sehr zäh (schwimmt kaum noch auf dem Wasser), aber „süß“ (geringer Schwefelgehalt und damit mit geringem Energieaufwand zu verarbeiten). Gut in lokalen und Schweröl-Raffinerien an der Golfküste zu verarbeiten, was weitere Ölmengen (z. B. Leichtöle aus Texas) für den Export freistellt.

Der entscheidende Antrieb für eine schnelle Umsetzung dürften aber die geringen Kapitalkosten sein. Inzwischen ist man bei einer Anlagengröße von 5000 Faß pro Tag angekommen. Eine solche Anlage kostet angeblich nur 70 Millionen Dollar. Für die Ölindustrie ein Trinkgeld.

Die politischen Konsequenzen

Seit Trump die Hindernisse für eine gesteigerte Produktion an fossilen Energien systematisch aus dem Weg räumt, explodiert die Öl- und Gasförderung. Für sich genommen, schon ein enormer Wohlstandsgewinn in der Form von (gut bezahlten) Arbeitsplätzen und steigenden Staatseinnahmen (trotz oder gerade wegen der Steuersenkung).

Hinter den neuen Produktionsverfahren verbergen sich eine Menge neuer Technologien. Unkonventionelle Öl- und Gasvorkommen gibt es aber überall auf der Welt. Die Schätze warten nur darauf, gehoben zu werden. Die amerikanische Zulieferindustrie wird weiterhin wachsen und international marktbeherrschend bleiben.

Preiswerte Energie ist der Lebenssaft einer jeden Volkswirtschaft. In den USA treffen billige Rohstoffe auf eine hochentwickelte Industrie.. Eine einzigartige Kombination in der Weltwirtschaft. Ein Narr, wer glaubte, Trump wolle die Niedriglohngruppen aus China und Mexiko zurückholen. Die Stahlwerke und Aluminiumhütten die sich Trump vorstellt, sind nicht die Museumsbetriebe aus den Hinterhöfen Chinas, Indiens oder Russlands. Die internationalen Investoren sind ausdrücklich aufgerufen in den USA modernste Anlagen zu bauen. In der (hier ebenfalls ungeliebten) Chemieindustrie ist die Verlagerung bereits im Gange. Da bedurfte es noch nicht einmal Zölle und Steuersenkungen als Impuls.

Öl- und Gasexporte sind nicht nur volkswirtschaftlich sinnvoll: Ein Produkt mit weltweiter Nachfrage, welches gewaltige Summen in die eigenen Kassen spülen kann. Darüberhinaus besitzt es auch eine außerordentliche geostrategische Qualität.. Man kann „wohlgesonnene Nationen“ mit ausreichend und billiger Energie versorgen. Gleichzeitig kann man „unfreundlichen Nationen“ die Deviseneinnahmen beschneiden und damit deren Aufrüstung zurechtstutzen. Besonders die „Alt-68er“ in Deutschland werden umdenken müssen: Wenn die USA angeblich nur wegen Öl Krieg geführt haben, droht ziemlich schnell ein böses Erwachen. Trump hat schon in seinem Wahlkampf immer gesagt (auch da hat offensichtlich niemand zugehört!), die USA haben nur zwei Interessen im Mittleren Osten: Terrorbekämpfung und Beistand von Israel. Alles andere sei Aufgabe der Europäer. Ob da wohl noch die Verteidigungsausgaben ausreichen werden? Deutschland schlittert schon heute sehenden Auges immer tiefer in den Sumpf des Irak und Nordafrikas hinein.

Die Chinesen sind gelandet

Bisher etwas unbeachtet, beginnen die Chinesen den europäischen Markt für Kernkraftwerke zu erobern. Der erste Schritt ist mit dem Genehmigungsverfahren in Großbritannien eingeleitet.

Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/mgegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

SMR, aktualisierter Stand

In der letzten Zeit kommt erneut Bewegung in die Entwicklung „kleiner“ Reaktoren. Anlass für eine Aktualisierung.

Was genau, soll ein SMR sein?

Die Definition eines „SMR“ (Small Modular Reactor) ist etwas vage. In den USA beruht sie auf dem ENERGY POLICY ACT von 2015. Im Abschnitt 608 „Treatment of Modular Reactors“ ist sie wie folgend definiert: Ein Kraftwerk mit höchstens 1300 MWel Gesamtleistung, welches aus mindestens zwei Blöcken mit einer elektrischen Leistung von 100 bis 300 MWel besteht. Dies ist eine etwas sehr geschraubte Definition, aber Politiker und Juristen brauchen wohl so etwas. Wenigstens wird nichts über die anzuwendende Technik vorgeschrieben. Inzwischen gibt es SMR-Entwürfe mit den Kühlmitteln Wasser, Edelgas, Salzschmelze und Flüssigmetall in der Entwicklung.

Zu welchen technischen Verrenkungen solche politischen Akte dann führen, sieht man am Projekt von NuScale Power: Dort werden zwei Reaktoren mit einer äquivalenten Leistung von je 50 MWel auf eine gemeinsame Turbine vorgeschlagen. Förderkriterium erfüllt. Es gibt aber zahlreiche Anwendungen, wo durchaus eine kleinere (thermische) Leistung sinnvoller ist: Kleine Städte in abgelegenen Regionen (Sibirien), Militärische Stützpunkte auf Inseln (China), Ölförderung und Minen (Kanada) etc. Wie es ausschaut, sind genau hier die ersten Anwendungen zu erwarten.

Weltmarkt

Im Jahr 2016 bestand der weltweite Primärenergieverbrauch zu 85% aus fossilen Energieträgern (33% Öl, 28% Kohle und 24% Erdgas). Demgegenüber ist die Kernenergie mit 5% geradezu vernachlässigbar. Sie wurde (nahezu) ausschließlich in der Stromversorgung eingesetzt. Dies hat sie übrigens mit den wetterabhängigen Energieformen Wasserkraft (7%) und „Renewables“ (3%) gemeinsam.

Der Bedarf an elektrischer Energie wird weltweit weiter ansteigen. Nach Schätzungen gibt es derzeit 1,2 Milliarden Menschen, die über keinen Stromanschluss verfügen und fast 3 Milliarden Menschen, die nicht einmal einen Kochherd besitzen. Alles Menschen, die alles dafür geben ihren mittelalterlichen Verhältnissen zu entfliehen – ganz im Gegenteil zu gewissen übersättigten Kreisen bei uns, deren falsches Ideal genau diesem Leben im vorindustriellen Zeitalter entspricht.

Will man in den Weiten Afrikas, Indiens usw. Kernenergie nutzbar machen, sind kleine Reaktoren der einzig gangbare Weg. Mit der heutigen Standardgröße von 1000+ MWel ist sonst der jahrzehntelange Weg über fossile Kraftwerke und großflächige Netze nötig. Um es an dieser Stelle deutlich zu sagen, wer das nicht will, muß unserer Erde noch zweimal Europa oder noch einmal China mit seinen fossilen Kraftwerken zusätzlich zumuten. Ob nun in Deutschland 40 Kohlekraftwerke geschlossen werden oder nicht, ist dafür nur der berühmte Tropfen auf den heißen Stein. Ganz nebenbei ist diese Frage auch der Lackmustest für alle „Klimaschützer“: Geht es wirklich um „Klimaschutz“ oder doch nur um „Gesellschaftsveränderung“?

Letztendlich wird der Preis pro installiertem Megawatt entscheiden. Er dürfte grundsätzlich höher sein, als bei fossilen Kraftwerken. Jedenfalls solange, wie man die bürokratischen Anforderungen aufrecht erhält. Allerdings muß man neben den höheren Brennstoffpreisen auch die notwendige Infrastruktur berücksichtigen: Ein Gaskraftwerk ist nur dann günstiger, wenn bereits eine geeignete Gasversorgung vorhanden ist. Für ein Kohlekraftwerk muß eine Eisenbahnlinie vorhanden sein. Hier kann ein SMR seinen Vorteil des geringen Kernbrennstoffverbrauchs – gerade in flächigen Ländern mit schlechter Infrastruktur – voll ausspielen.

Der wirtschaftliche Blickwinkel

Üblicherweise werden bei Kraftwerken die spezifischen Produktionskosten mit zunehmender Leistung kleiner. Dies betrifft sowohl die spezifischen Investitionskosten (EUR/MW), wie auch die Betriebskosten (EUR/MWh). Bei Kernkraftwerken ergibt sich aber eine Besonderheit: Hohe Finanzierungskosten (Investition) bei nahezu vernachlässigbaren Brennstoffkosten. Eine wesentliche Ursache für die hohen Finanzierungskosten ist die lange Projektdauer. Vom ersten Beschluss ein Kraftwerk zu bauen, bis zur ersten Stromproduktion vergehen oft Jahrzehnte. In dieser langen Zeit summieren sich die Zinsen und Zinseszinsen zu beträchtlichen Schuldenbergen.

Wichtig dabei ist, daß die „Bauzeit“ weniger von der Größe abhängt, als von der Stückzahl. Wenn man nahezu baugleiche Kraftwerke in Serie baut – wie einst in USA und Frankreich und heute in China – kann man auch Großkraftwerke in wenigen Jahren erstellen. Es kommt viel mehr auf die Organisation und das Vorhandensein von erfahrenen Fachkräften an. Negativbeispiele sind hierfür die Projekte von Areva in Finnland und Frankreich und die Baustellen des AP-1000 in den USA. Immer, wenn man mit unerfahrenem Personal „neue“ Typen baut, geht alles schief, was nur schief gehen kann – und darüber hinaus. Es ist deshalb nicht verwunderlich, daß beide Modelle in China – obwohl wesentlich später begonnen – als erste fertig werden.

Genau diesen Umstand versucht man durch eine industrielle Serienproduktion bei den SMR zu umschiffen. Allerdings liegt darin auch die größte Schwierigkeit. Für ein so komplexes Gebilde wie ein Kernkraftwerk, gibt es nur Parallelen im Flugzeugbau. Hier wie dort, kostet es Milliarden, bis ein neues Modell bis zur Serienreife entwickelt ist. Der Weltmarkt für Verkehrsflugzeuge reduziert sich daher nahezu auf zwei Konzerne.

Momentan sind hierzu nur die USA in der Lage. Nur sie verfügen über das notwendige Kapital und die fachliche Infrastruktur. Wohl gemerkt, es geht nicht darum mal einen kleinen Reaktor zu bauen, sondern eine ganz neue Industrie zu erschaffen.

Die nationale Sicherheit

Letztendlich ist der Erfolg von SMR eine rein politische Frage. Will man oder will man nicht. Bemerkenswert in diesem Zusammenhang sind die Diskussionen in Großbritannien. Dort will man immer stärker, nachdem man bereits schmerzlich erfahren hat, was Deindustrialisierung für Folgen hat. Man ist sich aber darüber im Klaren, daß es ohne einen (finanziell) starken Partner nicht geht. Eine europäische Lösung erscheint immer unwahrscheinlicher – nicht nur wegen des Brexit. Die Chinesen klopfen bereits an der Tür. Wahrscheinlich bleibt nur die atlantische Verbindung übrig.

In den USA spielt die SMR-Lobby nun verstärkt die Karte der „Nationalen Sicherheit“ aus. Dafür gibt es zwei gewichtige Argumente. Eins ist die bereits im Verborgenen existierende Industrie für Schiffsreaktoren. Sie baut bereits in Kleinserien erfolgreich „SMR“. Seit der Diskussion über die Kostenexplosion bei der neusten Trägergeneration ist man einer Öffnung in Richtung ziviler Technik nicht mehr so abgeneigt. Die andere Argumentationsschiene betrifft die Weiterverbreitung von Kernwaffen. Durch ihre technologische Führung konnte die USA die Trennung von ziviler und militärischer Technik bei der Lieferung von Kernkraftwerken erfolgreich steuern. Heute gibt es aber mit Rußland (in Iran) und China (in Pakistan) zwei Spieler, die wesentlich lockerer mit diesem Problem umgehen. Wollen die USA weiterhin Einfluß ausüben, müssen sie schnellstens etwas neues bringen. Besonders für Staaten, die noch gar keine friedliche Nutzung der Kernenergie haben.

Die Förderung

Kein (privates) Energieversorgungsunternehmen kauft heute noch ein völlig neues Modell. Das wirtschaftliche Risiko ist einfach zu groß. Dies gilt um so mehr in einer Welt, in der aus ideologischen Gründen bestimmte Energieformen besonders bevorzugt und subventioniert werden. Planwirtschaft wuchert wie Krebs in einer Volkswirtschaft und verdrängt systematisch technische und wirtschaftliche Kriterien. Am Ende steht der erlebte Zusammenbruch solcher Systeme.

In der realen Welt hofft man deshalb die politischen Fehlentscheidungen durch Forschungsförderung, Risikoübernahme, Subventionen etc. wieder zu heilen. Die SMR-Entwicklung ist dafür ein Paradebeispiel. Erst hat man ein bürokratisches und unkalkulierbares Genehmigungsverfahren erschaffen, welches man nun durch den Einsatz weiterer Steuergelder zu heilen versucht. In den USA hat man ein spezielles Förderprogramm für die Genehmigung von SMR als Leichtwasserreaktoren aufgelegt. Alle anderen Typen werden noch auf der Ebene von Forschungsreaktoren behandelt – Realisierung, wenn überhaupt, erst in Jahrzehnten zu erwarten.

Wenn man dann ein genehmigtes Modell hat, ist es trotzdem immer noch ein „Papierreaktor. Man muß dann noch jemanden finden, der auch einen gebaut haben will. Das ist der wesentliche Unterschied zwischen Kerntechnik und z. B. Flugzeugbau. Selbst wenn man einen Prototyp hat, kann man noch keine Bestellungen einsammeln, da auch für die Kunden nahezu unkalkulierbare politische Hürden existieren. Um es kurz zu machen, wenn Politik und Gesellschaft nicht radikal neu über das notwendige Eingehen von Risiken (Kern-, Gentechnik, Digitalisierung usw.) nachdenken, wird man generell keine Neuentwicklungen in den sog. Demokratien durchführen können – mit der Konsequenz, daß sich diese Gesellschaftsform durch Stagnation selbst abschafft. Vielleicht ist aber genau das, das wahre Ziel der „Großen Transformation“.

Im Moment sieht es so aus, daß man sich dessen zumindest in den USA und GB bewußt ist und deshalb die Frage der Energieversorgung auf die Ebene der „nationalen Sicherheit“ hievt, was nichts anderes heißt, daß der Staat für seine selbst geschaffenen Regularien auch die finanzielle Verantwortung übernehmen muß. Zahlen muß sowieso immer die Gesellschaft. Die Ebene der Steuermittel mit vorausgehenden Haushaltsberatungen und politischen Abwägungen der Einsatzzwecke ist jedoch wesentlich demokratischer, als das deutsche Modell der Zwangsgebühren, die nichts weiter als Schattenhaushalte sind.

So ist man in den USA auf gehandelt 20 Milliarden Dollar an bereitzustellenden Haushaltsmitteln für die „neue Kerntechnik“ angekommen. Wer Sicherheit will, muß dafür Geld bereitstellen. Anders als bei Rüstungsausgaben kann man allerdings von höheren Rückflüssen ausgehen.

Die internationale Situation

Jedenfalls ist die Kerntechnik weltweit alles andere als tot. Interessant ist die Liste der unterschiedlichen SMR-Projekte im Jahr 2017 in alphabetischer Reihenfolge der Länder: Argentinien (1), China (4), Dänemark (1), Frankreich (1), Indien (1), Japan (5), Kanada (2), Korea (1), Rußland (15), Südafrika (2), UK (1), USA (11).

Bereits im Bau befinden sich der CAREM-2S in Argentinien, der KLT-40S in Rußland und der HTR-PM in China.

Weit fortgeschritten im Genehmigungsverfahren bzw. der Konstruktion und damit kurzfristig baubar wären: SMART in Korea, RITM-200, BREST300-OD, SVBR und ABV-6M in Rußland, PRISM, NuScale, und mPower in den USA, PBMR-400 in Südafrika, 4S und GTHTR300 in Japan, ACP100 in China.

Bei den bereits im Bau befindlichen Reaktoren handelt es sich um erprobte Konzepte: Leichtwasserreaktoren und Kugelhaufenreaktor. Bei den kurzfristig realisierbaren Reaktoren kommen noch Reaktoren mit Natrium und Blei als Kühlmittel hinzu. Beides ebenfalls erprobte Konzepte mit teilweise Jahrzehnten Betriebserfahrungen zumindest als Prototypen.

Als einziger Reaktor mit kurzfristigem Potential für die Großserie scheint sich der Entwurf von NuScale Power heraus zu kristallisieren. Hoch modular, da nur eine Leistung von 50 MWel pro Reaktor. Voll integrierte Bauweise mit Dampferzeugern, Druckhaltung usw. in einem Behälter, daher komplett zu transportieren nach vollständigem Test in der Fabrik. Neuartiges Sicherheitskonzept als „Thermosflasche im Wasserbad“, bei dem der Austritt von Radioaktivität auch nach schwersten Störfällen ausgeschlossen ist. Wann und von wem wird die Fabrik dafür gebaut?

Ende der „Energiewende“ in USA?

Trump arbeitet weiterhin konsequent seine Wahlversprechen ab und startet nach dem „Klimaausstieg“ einen Versuch zur Wiederherstellung eines funktionstüchtigen Stromnetzes. Mehr noch, es wird nebenbei auch noch eine Renaissance der Kernenergie eingeleitet.

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

Resilient Electricity

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil3, AP1000

AP1000 ist die Warenmarke eines Druckwasserreaktors der Generation III+ des Herstellers Westinghouse. Westinghouse ist die Mutter aller Druckwasserreaktoren. Sie erschuf 1954 unter Hyman G. Rickover und Alvin M. Weinberg diesen Reaktortyp für den Antrieb des ersten Atom-U-Boots USS Nautilus (SSN-571).

Geschichte

Der AP1000 entwickelt sich zum „Golf“ der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.

Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:

  • Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,
  • Übergang von aktiven auf passive Sicherheitssysteme,
  • modularer Aufbau und
  • parallele Errichtung von Bau und Anlagentechnik.

Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.

Durch die „geringe“ Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes „weglassen“ ergibt sich der Druckwasserreaktor mit dem geringsten Beton- und Stahleinsatz pro MWel.

Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.

Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter „Passiver Sicherheit“ versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.

Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann „Sicherheit“ oder „Verteidigung“ in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel „nuclear grade“ tragen. Oft sind solche Teile völlig identisch mit dem „Industriestandard“ – unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.

Man kann die Sicherheit – bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt – noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen – ohne Freisetzung nennenswerter Radioaktivität in die Umwelt – muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.

Seit Fukushima ist der „station blackout“ ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:

Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmeübertrager (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters „regnen“ und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Beregnung.

Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU – irgendein Leck im Primärkreis – eingetreten wäre. Damit ein zeitweiliges „trocken fallen“ der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.

Ist der Druck – egal ob durch ein Leck oder Abkühlung – bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung – aus welchen Gründen auch immer – versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2 x 100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen wie in Fukushima.

Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage. Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den „Atomkraftgegnern“ ihr stärkstes Argument von dem „unkalkulierbaren Restrisiko“ bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen „Millionen-Tote-für-10000-Jahre-unbewohnbar“. Es ist also kein Zufall, daß sich die „Bewegung“ nun auf angeblich „zu teuer“, konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:

  • Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.
  • Bürokratismus: „Nuclear grade“ erfordert einen – teilweise absurden – bürokratischen Aufwand. Oft kostet das gleiche Bauteil als „nuclear grade“ geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen – als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.
  • Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.
  • Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.
  • Serien: Jeder „first of a kind“ ist teurer als die Nachfolgemodelle. Hat man erst einmal die „Konstruktionsfehler“ behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.

Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das „Sektionsbauweise“. Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.

Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.

Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.

Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte „nukleare Insel“ steht. Schon die sich anschließende „Reaktorgrube“ ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.

Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das „notwendige Eisen“, was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun – wie auf einer Werft – vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt werden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.

Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.

Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer – irgendwo auf der Welt – kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana – der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war – war mit diesen „Gepflogenheiten der Kerntechnik“ nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.

Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute – wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.

Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.

 

Reaktortypen in Europa – Teil2, EPR

EPR ist eine Warenmarke des französischen Herstellers Areva für einen Druckwasserreaktor der dritten Generation. Interessant ist schon die unterschiedliche Herleitung der drei Buchstaben EPR: European oder Evolutionary Pressurized Water Reactor. Beides ist angebracht.

Die Geschichte

Inzwischen sind von diesem Typ vier Reaktoren in Bau: Olkiluoto 3 in Finnland (seit Oktober 2005), Flamanville 3 in Frankreich (seit Dezember 2007) und Taishan 1 und 2 in China (seit Oktober 2009). Wahrscheinlich wird in den nächsten Jahren mit dem Bau zweier weiterer Reaktoren in Hinkley Point in Großbritannien begonnen werden.

Auf den ersten Blick eine Erfolgsbilanz. Wie kam es dazu? Ende der 1990er Jahre kam in Deutschland die Rot/Grüne-Koalition an die Macht. Die Kombinatsleitung von Siemens läutete in gewohnter Staatstreue den sofortigen und umfassenden Ausstieg aus der Kernenergie ein. Eine unternehmerische Fehlentscheidung. Heute sind die ganzen Staatsaufträge an Telefonen, Eisenbahnzügen etc. zu „besonders auskömmlichen Preisen“ längst Geschichte. Noch kann man ein paar Windmühlen nach altem Muster „an den Mann bringen“. Aber die einzige Zukunftstechnologie, in der Siemens wirklich einmal zur Weltspitze gehörte, ist unwiederbringlich und ohne Not „abgewickelt“ worden. Siemens fand in Framatome (Vorläufer von Areva) einen dankbaren Abnehmer. Die Franzosen konnten nach ihrem beispielhaften Ausbauprogramm von 57 Reaktoren ihre Kapazitäten nur durch den Ausbau des Auslandsgeschäftes aufrecht erhalten. Ein „Made in Germany“ kam ihnen dabei sicherlich nicht ungelegen. Siemens reichte der Einfuß von 34% der Aktien an dem neuen Gemeinschaftsunternehmen. Kernenergie war ja nicht mehr politisch korrekt und man wollte seinen (damals) lukrativen Kunden – die Öffentliche Hand – nicht verärgern. Man glaubte damals wohl auch noch, seinen überlegenen Turbinenbau allein weiter führen zu können. So als ob Daimler sein Autogeschäft verkaufen würde um zukünftig nur noch mit dem Reifengeschäft zu überleben. Jedenfalls ist Olkiluoto wohl das letzte Kernkraftwerk mit einer deutschen Turbine. Alle weiteren EPR haben natürlich französische Turbosätze der Marke Arabella. Dies gilt selbstverständlich auch für alle weiteren Geschäfte mit China. Ob die Kombinatsleitung den Chinesen ersatzweise politisch korrekte Windmühlen angeboten hat, weiß man nicht. Es gab ja mal eine Zeit lang in bildungsfernen Kreisen den festen Glauben, Deutschland würde „vorweg gehen“ mit seiner Energiepolitik.

Die Mitarbeiter in Frankreich und Deutschland waren jedenfalls redlich bemüht, das beste aus beiden Welten zu erschaffen. Grundlage des EPR sind die französische Baureihe N4 (Kraftwerke Chooz 1+2, Civaux 1+2) und die deutsche Konvoi Baureihe (Neckar 2, Emsland, Isar 2). Es war von Anfang an eine evolutionäre und ausdrücklich keine revolutionäre Entwicklung geplant. Außerdem nahm man nicht nur die Genehmigungsbehörden in beiden Ländern mit ins Boot, sondern auch 12 europäische Energieversorgungsunternehmen. Es sollte ein Reaktor entstehen, der europaweit genehmigungsfähig war. Heute ist er auch in China und USA geprüft und grundsätzlich zugelassen worden.

Das Problem der Größe

Jedes elektrische Netz kann nur eine gewisse Blockgröße vertragen. Über den Daumen gilt immer noch die Regel von maximal zehn Prozent der Leistung, die im Netz anliegt. Ist der Reaktor zu groß, scheiden weltweit eine Menge Netze aus. Das ist ein Problem bei der Vermarktung des EPR. Areva hat bereits schon länger die Problematik erkannt und bietet nun in Kooperation mit Mitsubishi auch einen kleineren Druckwasserreaktor (ATMEA mit ca. 1100 MWel) an. Wahrscheinlich werden die ersten Anlagen in der Türkei errichtet. Demgegenüber sollen die vier EPR von Olkiluoto bis Taishan eine Leistung zwischen 1600 und 1660 MWel erreichen. Die Vorläufer – z. B. das größte deutsche Kernkraftwerk Isar 2 – hatten eine Leistung von etwa 1400 MWel..

Bei Kraftwerken gibt es eine bedeutende Kostendegression. Je mehr man einen gegebenen Entwurf vergrößert, um so kleiner werden die spezifischen Investitions- und Betriebskosten. Man wollte ja ausdrücklich eine evolutionäre Entwicklung. Jetzt steckt man dafür in einer Größenfalle – und was fast noch schlimmer ist – die Kosten sind trotzdem viel zu hoch. Der EPR ist in diesem Sinne kein glücklicher Entwurf.

Die grünen Phantasien

Besonders von den deutschen Genehmigungsbehörden wurden die beiden Sicherheitsanforderungen „Absturz eines Jumbo“ und das „China Syndrom“ aus Hollywood eingebracht. Man glaubte in Deutschland lange genug, man müsste nur über jedes Stöckchen springen, das einem „Atomkraftgegner“ hin halten und dann würden sie auch irgendwann Kernkraftwerke ganz toll finden. Die simple Strategie, die Kosten durch immer neue Ideen immer weiter in die Höhe zu treiben, wurde nicht erkannt. Jetzt steht man mit einer millionenteuren doppelten Sicherheitshülle aus Beton und dem Gimmick eines „core catcher“ da und die „Atomkraftgegner“ lieben den EPR immer noch nicht.

Der Flugzeugabsturz

Solange es Kernkraftwerke gibt, hat man sich über „Einwirkungen von außen (EVA)“ Gedanken gemacht. Schon immer gehörte ein Flugzeugabsturz dazu. Frühzeitig bekamen deshalb die Reaktoren eine entsprechende Betonhülle als Schutz. Die vier Unglücksreaktoren in Fukushima hatten noch keine – mit den bekannten Konsequenzen. Bei ihnen war nur der unmittelbare Bereich um das Reaktordruckgefäß durch dicke Betonabschirmungen geschützt. Von Anfang an stellte sich die Frage, wie dick eine Betonhülle als Bunker sein müßte. In Deutschland ging man vom Absturz eines Militärjets vom Typ Phantom F4 aus. Eine heute noch sinnvolle Annahme – selbst nach den Ereignissen des 11. September. Die Phantom ist bis heute das Flugzeug mit der „größten Dichte“. Ein Militärjet noch aus dem „Stahlzeitalter“. Die Triebwerke einer im Tiefflug dahin rasenden Phantom, würden wie Rammböcke auf die Schutzhülle eines Reaktors wirken. Dahingegen entspricht die Wirkung einer abstürzenden A380 oder eines Jumbojets eher einer Bierdose. Die Terrorflieger des 11. September konnten selbst ein filigranes Hochhaus bzw. das Pentagon nur zum Wackeln bringen. Etwas anderes ist die ungeheure Brandlast eines voll betankten Großraumflugzeuges, aber gegen die hilft Beton nur bedingt.

Jedenfalls steht der EPR heute mit einer doppelten Betonhülle dar. Der innere Teil – das Containment – besteht aus ca. 1,3 m dickem Spannbeton und die äußere Schutzhülle aus einer weiteren ca. 1,8 m dicken Betonhülle. Zusätzlich verschwinden alle nuklearen Komponenten (Dampferzeuger, Reaktordruckgefäß usw.) hinter weiteren Betonmauern, die als Abschirmung gegen Strahlung dienen. Dieses „Bunkersystem“ ist mit Sicherheit stark genug, um jedem Flugzeugabsturz oder einem Terroranschlag zu widerstehen. Wir erinnern uns: Tschernobyl hatte nicht einmal ein Containment und in Fukushima waren nur die Reaktoren geschützt. Das Brennelementebecken stand in einer normalen Industriehalle. Anders als beim ERP, bei dem sogar das Lagergebäude für die Brennelemente und diverse Sicherheitsanlagen mit einer Betonhülle verbunkert sind.

Beton kann nicht schaden, er ist nur sehr teuer. Erschwerend kommt beim EPR die lohnintensive und zeitraubende Ausführung als Ortbeton hinzu. Dies wurde zumindest in Olkiluoto völlig unterschätzt.

Grundsätzlich ist die Konstruktion aus zwei Hüllen mit Zwischenraum sicherheitstechnisch zu begrüßen. Wird das Containment durch eine Explosion (Fukushima) oder was auch immer beschädigt, kann die äußere Hülle ihre Funktion wenigstens zum Teil übernehmen. Der Zwischenraum wird ständig abgesaugt und in leichtem Unterdruck gehalten. Die „radioaktiv belastete Luft“ wird vor der Abgabe über den Kamin gefiltert. Durch eine solche Maßnahme kann selbst, wenn die gasförmigen Spaltprodukte im Reaktor freigesetzt werden sollten, der größte Teil zurück gehalten bzw. auf ein erträgliches Maß verdünnt werden.

Der core catcher

Dank Hollywood ist jeder „Atomkraftgegner“ mit dem „China Syndrom“ vertraut: Eine einmal eingetretene Kernschmelze soll endlos andauern. Selbst die unfreiwilligen Großversuche von Harrisburg, Tschernobyl und Fukushima können einen rechtgläubigen „Atomkraftgegner“ nicht von diesem Irrglauben abbringen.

Fangen wir mal mit dem Schlimmsten an:

  • Der Reaktor in Tschernobyl stand in einer einfachen Industriehalle. Nachdem eine Kernschmelze stattgefunden hatte, verabschiedete sich der Reaktor durch eine physikalische Explosion. Er spie wie ein Vulkan den größten Teil seines radioaktiven Inhalts in die Umwelt aus. Dies ist der schlimmste – überhaupt vorstellbare – Unfall.
  • In Fukushima trat in mehreren Reaktoren (zumindest teilweise) eine Kernschmelze ein. Ursache war hierfür der zeitweise Ausfall der Stromversorgung und dadurch ein Mangel an Kühlwasser. Die Nachzerfallswärme konnte die Brennelemente (teilweise) schmelzen lassen. Die Nachzerfallswärme nimmt aber sehr schnell ab und die Kühlung konnte – wenn auch verspätet – wieder aufgenommen werden. Wieviel Corium sich tatsächlich durch die Reaktorgefäße gefressen hat, wird erst eine genaue Untersuchung zeigen können. Jedenfalls hat die Menge nicht einmal gereicht, um den Betonboden der Reaktorgrube zu durchschmelzen. Ursache für die Freisetzung von Radioaktivität sind schlicht weg Konstruktionsfehler: Die Wasserstoffexplosion und die „Untertunnelung“ des Kraftwerks.
  • Bei dem TMI-Reaktor in Harrisburg hatte man wenigstens alles grundsätzlich richtig konstruiert, obwohl dann später alles schief lief. Maßgeblich durch Bedienungsfehler fiel ein Teil des Kerns unbemerkt trocken. Es entstand Wasserstoff, welcher aber nicht zu einer heftigen Explosion führte. Das Reaktordruckgefäß blieb ganz und in ihm sammelten sich Bruchstücke und Schmelze. Es gelangte praktisch keine unzulässig hohe Radioaktivität in die Umwelt.

Anstatt durch Aufklärung entgegen zu wirken, versuchte man den Segen der „Atomkraftgegner“ durch die Erfindung des core catcher zu erlangen. Ein von Anfang an sinnloses Unterfangen. Die Strategie der „Atomkraftgegner“ ging vielmehr auf: Die Kosten wurden weiter in die Höhe getrieben um mit einer vorgeblich „unwirtschaftlichen Atomkraft“ argumentieren zu können.

Wie sieht dieses Ding nun beim EPR aus? Man pflastert den Boden unterhalb des Reaktordruckgefäßes mit Steinen aus einer feuerfesten Keramik. Gemäß den Vorstellungen aus Hollywood frisst sich das Corium als glühende Schmelze durch das Reaktordruckgefäß und sammelt sich in der feuerfesten Wanne. In der Realität nimmt die Nachzerfallswärme zwar exponentiell ab, nach Drehbuch natürlich nicht, sondern der Boden der Wanne aus einem Spezialbeton schmilzt langsam auf und die Schmelze rinnt anschließend über eine Schräge in eine großflächige Vertiefung. Diese soll dauerhaft und automatisch durch Wasser gekühlt werden. Dort soll die Schmelze dann dauerhaft erstarren. Man könnte dieses Konzept auch mit: „Richtige Antworten auf falsche Fragestellungen umschreiben.“ Jedenfalls kostet allein der umbaute Raum für diese technische Glanzleistung zig Millionen.

Die magische Zahl vier

Der EPR hat vier Primärkreise: Um das Druckgefäß im Zentrum stehen kreisförmig angeordnet vier Dampferzeuger. Zwischen ihnen stehen die vier Hauptkühlmittelpumpen für die Umwälzung des Wassers durch den Reaktorkern und die Wärmeübertrager. All diese Komponenten stehen in Betonkammern, die der Abschirmung der Strahlung dienen. Damit ist der Sicherheitsbehälter auch während des Betriebes begehbar.

Dieser Grundanordnung folgend, gibt es auch vier vollständige Sicherheitseinrichtungen, deren Komponenten in vier voneinander völlig getrennten Gebäuden um den Sicherheitsbehälter angeordnet sind. Diese vier Sicherheitsabschnitte, sowie die Bedienungszentrale und das Gebäude für die Brennelemente, sind ebenfalls (wie das zylindrische Reaktorgebäude) gegen Flugzeugabstürze verbunkert.

Etwas abseits liegen zwei Gebäude, die die Notstromversorgung enthalten. Sie befinden sich jeweils in Deckung durch den eigentlichen Reaktorbau. Da sie ebenfalls vollständig redundant sind, geht man nur von höchstens einem Schaden bei einem Flugzeugabsturz aus. Die Gebäude sind mit wasserdichten Türen verschlossen. Ein Auslöschen durch eine Flutwelle (Fukushima) wäre ausgeschlossen.

Jedes, der vier Notkühlsysteme, kann allein die gesamte Wärme abführen (4 x 100%). In erster Linie dient das zur Verbesserung der Verfügbarkeit. Da alle vier Züge völlig voneinander unabhängig sind, kann man Wartungsarbeiten im laufenden Betrieb ausführen. Wenn ein System gewartet wird, stehen immer noch drei zur Verfügung.

Die Nachzerfallswärme

Bei einem Störfall wird das Kernkraftwerk durch eine Unterbrechung der Kettenreaktion abgeschaltet. Das Einfahren der Steuerstäbe entspricht z. B. dem Ausschalten der Feuerung bei einem konventionellen Kraftwerk. Bei beiden muß nun noch die im System gespeicherte Wärme abgeführt werden. Es gibt bei einem Kernkraftwerk aber zusätzlich den physikalischen Effekt der Nachzerfallswärme: Der radioaktive Zerfall der Spaltprodukte läßt sich durch nichts aufhalten. Es wird also auch nach der Abschaltung noch Wärme produziert! Die freiwerdende Wärme hängt von verschiedenen Umständen ab. In den ersten Sekunden können es über 5% der thermischen Leistung sein. Die Nachzerfallswärme nimmt sehr schnell ab und es sind nach einer Stunde nur noch rund 1%. Gleichwohl handelt es sich um gewaltige Leistungen. Ist ein EPR längere Zeit mit Höchstlast im Netz gewesen, sind das entsprechend 225 MW bzw. noch 45 MW nach einer Stunde. Diese Wärme muß auf jeden Fall – auch bei widrigsten äußeren Umständen (Fukushima) – abgeführt werden, da sonst der Kern schmilzt.

Praktisch ist die einzige Möglichkeit solche Leistungen sicher abzuführen, die Verdampfung. Ist die äußere Wärmesenke (Fluß, Meer oder Kühlturm) nicht mehr nutzbar, muß dies ausschließlich über die Notkühlung möglich sein. Zuerst baut man über Ventile am Druckhalter den Druck im Primärkreis ab. Schon durch dieses „auskochen“ tritt eine merklich Kühlung ein. Allerdings muß die abgelassene Wassermenge möglichst schnell ersetzt werden, da sonst das Reaktordruckgefäß ausdampft und der Kern (teilweise, wie in Harrisburg) trocken fällt. Ist der Druck auf ein gewisses Niveau abgefallen (ungefähr 100 bar) setzt eine Nachspeisung von Kühlwasser ein. Für den Antrieb der Pumpen ist aber elektrische Energie nötig. Würde die Notstromversorgung – wie in Fukushima – versagen, würde die Überhitzung des Kerns eher noch schneller eintreten. Das Reaktormodell aus den 1960er Jahren hatte bereits eine pfiffigere Idee: Der abgelassene Dampf wurde vor der Kondensation in der wassergefüllten Ringkammer über eine kleine Turbine geleitet. Diese Turbine treibt eine kleine Speisepumpe, die Wasser aus dem Ringraum zurück in das Druckgefäß speist. Dies funktioniert bis zu einem gewissen Temperaturausgleich recht gut. Eine Notmaßnahme, die zumindest in den ersten Minuten ohne jede Hilfsenergie sehr gut funktioniert hat.

Gegenüber seinen Vorläufern hat der EPR durch das Wasserbecken am Boden einen Sicherheitsgewinn: Das Wasser dient nicht nur zur Noteinspeisung, sondern stellt auch eine Wärmesenke innerhalb des Sicherheitsbehälters dar. Das Wasser kann durch Wärmeübertrager gepumpt werden, um es „kühl“ zu erhalten. Die Lagerung am Boden kommt der statischen Belastung bei Erdbeben entgegen, vergibt aber die Chance einer passiven Nachspeisung durch Schwerkraft.

Bei dem EPR ergibt sich kein grundsätzlicher Sicherheitsgewinn gegenüber seinen Vorgängern des Konvoi. Er arbeitet nach den gleichen Prinzipien: Lediglich die Stückzahl und Aufstellung der Sicherheitseinrichtungen wurde erhöht: Je zwei Notstromdiesel in zwei verschiedenen Gebäuden (2 x 2 x 8 MW Redundanz) und je ein Notstromaggregat zusätzlich im Gebäude (2 x 1 MW Diversität). Es bleibt aber das alte Problem aktiver Sicherheitssysteme: Strom weg, Wasser weg! Die vorgeblich um den Faktor zehn erhöhte Sicherheit, ergibt sich rechnerisch hauptsächlich aus dem Core Catcher.

Der Zugewinn an Lebensdauer

Beim EPR ist die konstruktive Nutzungsdauer von 40 auf 60 Jahre erhöht. Dies ist durch eine konsequente Überarbeitung aller Bauteile geschehen. So ist man z. B. beim Druckgefäß und den Hauptkühlmittelleitungen auf den Werkstoff Alloy 690 (59,5% Nickel, 30% Chrom, 9,2% Eisen etc.) übergegangen. Er besitzt bessere Korrosionsbeständigkeit und bildet nicht soviel „Atommüll“ durch Neutroneneinfang. Zusätzlich hat man das Druckgefäß mit einem Reflektor aus Stahl ausgestattet. Durch das Zurückstreuen von Neutronen in den Kern kann man den Brennstoff besser ausnutzen und gleichzeitig den Druckbehälter weniger belasten (Versprödung durch Neutronen).

Sicherheit und Wartung stehen in enger Beziehung. Schweißnähte weisen immer Fehler auf, die in regelmäßigen Abständen überprüft werden müssen. Solche Wiederholungsprüfungen sind zeitaufwendig (Verfügbarkeit) und kostspielig. Je weniger Schweißnähte, desto besser. Wenn schon Schweißnähte, dann an gut zugänglichen Stellen. Man hat deshalb beim EPR wesentlich komplizierter geschmiedete Formstücke (hohe Investitionskosten) für die Hauptkühlmittelleitungen verwendet bzw. durch Aushalsungen beim Druckbehälter die Anschlüsse vorverlegt.

Schlusswort

Ohne jede Frage hat man in hunderten von Betriebsjahren eine Menge Erfahrungen gesammelt. Hinzu kamen die realen „Großversuche“ aus Harrisburg und Fukushima. Insofern ist der EPR nicht mehr mit den ersten Druckwasserreaktoren vergleichbar. Als Ersatz für gasgekühlte Reaktoren (Hinkley Point) oder als Zubau (Olkiluoto, Taishan) ist er sicherlich eine gute Lösung. Aber ist der Sicherheitsgewinn beispielsweise gegenüber einer Konvoi-Anlage so viel höher, daß ein Ersatz durch einen EPR zu rechtfertigen wäre? Zumal man mit wenigen Nachrüstungen bzw. Ersatzteilen (z. B. Dampferzeuger) sehr kostengünstig eine Betriebsdauer von 80 und mehr Jahren erreichen könnte. Genug Zeit jedenfalls, um auf fortschrittlichere Konzepte umzusteigen.

Im nächsten Teil geht es um den APR-1000 von Westinghouse, der in Moore Side (und anderswo) geplant ist.