Thorcon – neue Reaktoren aus/mit Indonesien?

Das US-Unternehmen Thorcon will Salzbadreaktoren in Indonesien bauen.

Indonesien

Für ein besseres Verständnis, erscheinen ein paar Worte über die Energiesituation in Indonesien angebracht. Indonesien besteht aus über 17000 Inseln und ist mit 253 Millionen Einwohnern (Stand 2014) das viertgrößte Land der Erde. Als Schwellenland hat es einen rasanten Anstieg des Primärenergieverbrauches zu verzeichnen. In der Dekade zwischen 2003 und 2013 um 43%. Die Hauptenergieträger sind Öl, Kohle und Erdgas. Indonesien ist seit 1885 ein Ölförderland. Inzwischen ist die Nachfrage durch Bevölkerungs- und Wirtschaftswachstum so stark gestiegen, daß es seit etwa 2003 Nettoölimporteur ist.

Es besitzt auch große Erdgasvorkommen (Platz 13 in der Weltrangliste, Platz 2 in Asien) und ist immer noch Nettoexporteur. Der Verbrauchsanstieg ist aber so groß, daß es neuerdings sogar Erdgas als LNG aus den USA importiert (20 Jahresvertrag mit Cheniere). Hinzu kommt die ungleiche Verteilung im Inselreich.

Eigentlich ist Indonesien Kohlenland mit über 500 Millionen Tonnen jährlich. Davon werden rund 80% exportiert (weltweit größter Exporteur nach Masse). Trotzdem beträgt der Inlandsverbrauch rund 80 Millionen Tonnen mit stark steigender Tendenz wegen des Zubaues von Kohlekraftwerken.

In Indonesien sind erst 84% der Bevölkerung überhaupt an das Stromnetz angeschlossen. Bei bisher erst 51 GWel installierter Leistung (88% fossil, davon 50% Kohle) ist das Netz chronisch überlastet. Die häufigen Zwangsabschaltungen sind eine enorme Belastung für Bevölkerung und Industrie.

Traurige Berühmtheit erlangte Indonesien durch die Brandrodung des Regenwaldes zur Anpflanzung gigantischer Palmölplantagen. Auch hier wieder ökosozialistische Wahnvorstellungen als entscheidende Triebkraft: Biokraftstoffe und Holzschnitzel zur „Klimarettung“ und gegen „Peakoil“.

Indonesiens Weg in die Kernenergie

Langfristig kommt Indonesien als bevölkerungsreiches Schwellenland – genauso wie China und Indien – nicht ohne eine Nutzung der Kernenergie aus. Man will aber offensichtlich einen etwas anderen Weg gehen: Nicht der schnelle Einstieg durch den Kauf fertiger Kraftwerke steht im Vordergrund, sondern der Aufbau einer eigenen kerntechnischen Industrie. Konsequent setzt man auf die Entwicklung „neuer“ Kernreaktoren. Dies ist zwar mit einem erheblichen Risiko verbunden, erlaubt aber eine konsequente Anpassung an lokale Verhältnisse und vermeidet hohe Lizenzgebühren. Für ein Inselreich bieten sich kleine Reaktoren (SMR) an, bevorzugt als schwimmende Einheiten.

Eine Entwicklungsschiene ist ein gasgekühlter Hochtemperaturreaktor mit Uran als TRISO Kugelhaufen. Der Prototyp RDE (Reaktor Daya Eksperimental) soll eine Leistung von 10 MWel haben, die später auf bis zu 100 MWel erweitert werden soll. Diese SMR (Small Modular Reactor) sind besonders für die „kleineren“ Inseln des Archipels vorgesehen. Noch dieses Jahr soll ein detaillierter Konstruktionsplan durch ein Konsortium aus Universitäten und privaten Unternehmen einer internationalen Kommission der IAEA zur Begutachtung vorgelegt werden. Grundlage für eine endgültige Entscheidung und die Finanzierung.

Schon 2015 hat die US-Firma Martingale (jetzt ThorCon International) mit einem staatlichen indonesischen Konsortium PT Industry Nuklir Indonesia (INUKI) ein Abkommen zum Bau eines Flüssigsalzreaktors abgeschlossen. Angeblich soll schon 2019 mit dem Bau begonnen werden und das erste Kraftwerk 2025 in Betrieb gehen.

Das ThorConIsle-Konzept

Der Guru der Flüssigsalzreaktoren Robert Hargraves verkündet in seinem neuesten Prospekt vollmundig, daß sein Kraftwerk weniger Investitionen als ein Kohlekraftwerk erfordern würde. Allerdings erinnert das schön bebilderte Verkaufsprospekt an einschlägige Exponate von Bauträgern: Alles schön, keine Probleme, super günstig, daher sofort kaufen.

Das Grundkonzept ist von den Russen abgekupfert: Man baut ein Schiff ohne Antrieb um zwei Reaktoren (plus dem nötigem Zubehör) herum. Alles etwas größer und schöner, versteht sich. Nur mit dem Unterschied, daß das russische Modell nach langer Bauzeit endlich schwimmt. Kein Supertanker – nur 2 x 35 MWel anstelle von 2 x 256 MWel – und „nur“ mit auf Eisbrechern erprobten Reaktoren, anstelle von frisch erfundenen Thorium-Flüssigsalz-Reaktoren. Schön wenn ein solches Kraftwerk mal gebaut wird, aber ganz gewiss nicht bis 2025 und dazu noch billiger als ein Kohlekraftwerk.

Die Idee Kernkraftwerke als Schiffe in Serie zu bauen, ist sicherlich für ein Inselreich verlockend. Nur ist eben ein Kernkraftwerk kein Supertanker (Schuhkarton ), sondern randvoll mit Technik. Insofern können die Baukosten nicht einfach übertragen werden.. Ein Schiff bleibt ein Schiff: Die Korrosionsprobleme im tropischen Meer sind gewaltig und erfordern erhöhte Betriebskosten. Ein Schiff kann auch keine „Betonburg“ (Terrorismus, Flugzeugabsturz etc.) sein. Ganz so einfach, wie im Prospekt, dürfte es nicht gehen: Man kippt einfach die Zwischenräume voll Beton und erhält so einen tollen Bunker. Wer z. B. das Genehmigungsverfahren für den AP-1000 (Sandwich aus Stahlplatten und Beton) verfolgt hat, ahnt, wie Genehmigungsbehörden ticken.

Alle Komponenten sollen zwischen 150 und 500 to schwer sein und sich sogar während des Betriebs auswechseln lassen. Auch hier scheint es mehr um Wunschdenken zu gehen.

Der Reaktor

Bei dem Reaktor handelt sich um eine Kanne, in der der eigentliche Reaktorbehälter (gen. Pot), die Umwälzpumpen und die Wärmetauscher untergebracht sind. Die Kanne wiegt knapp 400 to, wovon etwa 43 to auf die Salzfüllung entfallen. Dieses Gebilde soll spätesten nach acht Jahren komplett ausgebaut und mit einem Spezialschiff zur Wiederaufbereitung geschickt werden. Nach acht Jahren ist das Salz so voller Spaltprodukten, daß es nicht mehr weiter im Kraftwerk eingesetzt werden kann. Vor dem Transport soll es vier Jahre lagern, bis die Strahlung auf akzeptable Werte abgeklungen ist. Jeder Block hat deshalb zwei Kannen.

Die Kanne ist das Neuartige an diesem Konzept: Man tauscht nicht regelmäßig Brennstoff aus, sondern der eigentliche Reaktor ist eine „Batterie“, die komplett gewechselt wird. Vorteil dabei ist, daß man erforderliche Inspektionen und Reparaturen in einer Spezialfabrik durchführen kann. Der gesamte nukleare Teil („der strahlt.“) befindet sich in dieser Kanne. Alle anderen Komponenten sind „konventionell“. Mal sehen, was der Genehmigungsbehörde dazu alles einfällt….

Allerdings stellt das Batterieprinzip alle bisher geltenden Lehrmeinungen über Thorium-Reaktoren auf den Kopf:

  • Bisher ging man von einer kontinuierlichen Wiederaufbereitung aus. Man wollte das Spaltproduktinventar stets gering halten. So hätte man es bei einem schweren Störfall automatisch nur mit geringen Mengen zu tun.
  • Je mehr Neutronengifte – und im Sinne einer selbsterhaltenden Kettenreaktion ist schon Thorium selbst ein starker Parasit – vorhanden sind und je länger die Wechselintervalle sein sollen, um so mehr spaltbares Uran muß man am Anfang zugeben. Dieses muß auch noch möglichst hoch angereichert sein (hier geplant 19,7 %).

Das Salz

Als Brennstoff soll ein NaF – BeF2 – ThF4 – UF4 (mit 76 – 12 – 10,2 – 1,8 mol%) Salz verwendet werden. Es soll ganz tolle Lösungseigenschaften haben, die alle „gefährlichen“ Spaltprodukte zurückhalten. An dieser Stelle fällt mir immer der alte Chemikerwitz ein: Ruft der Professor überglücklich, ich habe endlich das ultimative Lösungsmittel gefunden. Antwortet der Laborant trocken, Glückwunsch und wo soll ich es jetzt hinein füllen? Bei einem solchen Salz ist das leider mehr als ein blöder Witz. Zumal hier auch noch mit Temperaturen von über 700 °C gearbeitet werden soll. Mit Schiffbaustahl (Kostenangaben) wird sich da leider gar nichts ausrichten lassen.

Beryllium und auch Berylliumfluorid sind sehr giftig und werden als krebserregend eingestuft. Wenn Beryllium ein Neutron einfängt, bildet es Helium und setzt dabei zwei Neutronen frei. Es wirkt dabei sowohl als Moderator, wie auch als Neutronenvervielfacher. Fluor und Fluorwasserstoff sind gasförmig und sehr giftig. Fluor ist äußerst reaktionsfreudig und geht mit fast allen Elementen stabile chemische Verbindungen ein. Mit Wasserstoff reagiert es letztendlich zu Flußsäure, die sogar Glas ätzt. Jede Kernspaltung zerstört auch die chemische Verbindung und neue chemische Elemente in Form der Spaltprodukte entstehen. Man hat es deshalb stets auch mit elementarem Fluor zu tun, der auch gern mit dem Strukturmaterial reagieren kann. Da Fluoride sehr reaktionsfreudig sind, reagieren sie natürlich auch wieder mit dem größten Teil der Spaltprodukte und binden diese sicher ein. Es gibt aber zwei Ausnahmen: Edelmetalle und Edelgase. Die Edelmetalle lagern sich innerhalb der Anlage ab und führen zu „Verschmutzungen“, die man regelmäßig und aufwendig wird entfernen müssen (Die Batterie doch komplett auf den Müll?). Die Edelgase müssen (eigentlich) durch Helium ständig aus dem Salz herausgespült werden.

Der immer wieder gern gehörte Hinweis aus der Salzbad-Scene auf den legendären MSRE-Reaktor, hilft in diesem Sinne leider auch nicht weiter: Er hat nur 1,5 Voll-Lastjahre (1966 bis 1969) gelaufen.

Das Sicherheitskonzept

Der Reaktor stellt sich immer selbstständig ab, wirbt ThorCon. Zwar ist dies durchaus kein Alleinstellungsmerkmal eines Flüssigsalzreaktors, aber trotzdem eine feine Sache. Locker mit „Walkaway Safe“ umschrieben. Es ist kein Hexenwerk, eine Kettenreaktion durch Überhitzung (Verkleinerung des makroskopischen Einfangquerschnittes) aus sich selbst heraus zusammenbrechen zu lassen, es bleibt aber immer noch die Nachzerfallswärme (Fukushima und Harrisburg): Sie muß entsprechend schnell abgeführt werden, sonst schmilzt der Reaktor. Auch hier gilt natürlich, je mehr Spaltprodukte im Reaktor enthalten sind (Batterie gegen kontinuierliche Aufbereitung), um so größer ist das Problem.

Die Konstrukteure von Flüssigsalzreaktoren gehen nun davon aus, daß das Salz unter allen denkbaren Umständen und überall im Reaktor schön fließfähig bleibt. Im Ernstfall läuft es dann problemlos in einen gekühlten Tank aus. Dazu denkt man sich an geeigneter Stelle einen Pfropfen als Verschluß, der während des Normalbetriebs durch permanente Kühlung erzeugt wird. Unterbricht man im Notfall die Kühlung, schmelzt das flüssige Salz den Pfropfen auf und gibt so den Weg frei. Der Nottank soll aus vielen Röhren bestehen, die über ihre Oberflächen die Wärme gegen eine Kühlwand abstrahlen. Die Wand wird mit Wasser gefüllt, welches verdampfen kann und sich in Kühltürmen auf Deck wieder niederschlägt. Das Kondensat läuft dann in die Hohlwand zurück.

Schlussbetrachtung

Indonesien muß wie jedes andere Schwellenland in die Kerntechnik einsteigen. Nicht nur zur Energiegewinnung, sondern auch um Anschluß an moderne Industriestaaten zu gewinnen. Kerntechnik ist neben Luft- und Raumfahrt die Schlüsseltechnologie schlechthin. In keiner anderen Branche kommen so viele Technologien mit ihren jeweiligen Spitzenleistungen zusammen. Insofern ist es nur konsequent, möglichst frühzeitig in die internationale Entwicklung „neuer“ Reaktortechnologien einzusteigen. Schon die Zusammenarbeit mit Spitzenuniversitäten und Hochtechnologieunternehmen stellt einen unschätzbaren Wert für die eigene Ausbildungslandschaft dar. Selbst wenn diese jungen Ingenieure später nicht in der Kerntechnik tätig werden, werden sie mit Sicherheit zu den gefragten Spitzenkräften in ihrer Heimat zählen. Keine „Entwicklungshilfe“, die „angepasste Technologie“ für die „große Transformation“ verbreiten will, wird auch nur ansatzweise vergleichbares hervorbringen. Technik – und damit die Gesellschaft –entwickelt sich halt immer nur durch machen weiter und nicht in irgendwelchen geisteswissenschaftlichen Seminaren.

Ölsand, die nächste Ölquelle in den USA?

In diesem Jahr hat die Ölförderung in den USA erstmalig seit 1970 wieder 10 Millionen Faß pro Tag erreicht.

Peak Oil

Kann sich noch jemand erinnern, wie vor einigen Jahren die Anhänger der Mangelwirtschaft das baldige Ende des Ölzeitalters vorausgesagt haben? Man glaubte endlich ein Marktversagen gefunden zu haben, was die Wiedereinführung der Planwirtschaft ermöglichte. Ein seit nunmehr 200 Jahren anhaltender Irrtum. Wieder einmal hat ein Mangel – ausgedrückt in steigenden Preisen – den menschlichen Erfindergeist frei gesetzt. In diesem Fall war es die Entwicklung des „fracking“, die erst gigantische Mengen Erdgas und anschließend Erdöl zugänglich machte.

Ganz nebenbei kann man an dieser Entwicklung auch die unterschiedliche Gesellschaftsauffassung sehen: In den USA ist Erfinden und Tüfteln immer noch eine angesehene Tätigkeit. Solange man nicht gegen Gesetze verstößt, kann man seiner Phantasie freien Lauf lassen. Man findet auch relativ leicht Geldgeber, weil „Profit machen“ nichts anrüchiges ist, sondern im Gegenteil ein verbrieftes Recht für den, der wirtschaftliche Risiken eingeht. Niemand erwartet dabei eine Erfolgsgarantie, weil Chance und Risiko des Misserfolges immer die zwei Seiten derselben Medaille sind.

Ganz anders in Deutschland: Kaum war der Ruf „fracking“ als neu erschlossene Energiequelle erschallt, haben sich sofort die einschlägigen Kostgänger dieser Gesellschaft aus Politik und Medien zusammengerottet. In altbekannter Manier wurden jegliche Chancen sofort vehement geleugnet und dafür apokalyptische Gefahren beschworen. Die willfährigen Volksbeglücker aller etablierten Parteien haben sofort jede Entwicklung per Gesetz im Keim zu ersticken verstanden. Die gleichen Pharisäer, die – wenn es um ihre eigene Klientel geht – schamlos Wälder roden lassen und jeglichen Artenschutz leugnen, damit ihre Reichskrafttürme wie Pilze aus dem Boden schießen können.

Wurde Präsident Trump hier politisch korrekt belächelt wenn er davon sprach, er wolle die Industriearbeitsplätze zurückholen, dämmert es mittlerweile auch jedem GEZ-Nachrichtenvorleser wo die Reise hingeht: Erst billige Energie im Überfluß, anschließend drastische Steuersenkungen und nun auch noch die Forderung nach „fairem Handel – von jedem wirtschaftsunkundigen gern als Protektionismus verunglimpft. Bald können deutsche Politiker sicherlich wieder die Schließung eines Stahlwerks oder die Verlagerung von Dieselmotoren etc. bejubeln – ist doch toll für den „Klimaschutz“.

Die Ölsände der USA

Wer so naiv war zu glauben, die USA hätten bald ihr Pulver verschossen, steht nun vor der nächsten Phase: Nach unkonventionellem Gas und Öl kommen jetzt die Ölsände hinzu. Die USA verfügen über mindestens 30 Milliarden Faß Öläquivalent. Davon befinden sich rund 50% im Uinta-Basin im nordöstlichen Utah. Leicht abbaubar, weil oberflächennah und dazu noch sehr schwefelarm. Im Dreieck von Utah, Colorado und Wyoming liegen wohl 1200 Milliarden Faß Rohöläquivalent.

Was sind Ölsände?

Ölsände – auch Teersände genannt – sind natürliche Umweltkatastrophen in grauer Vorzeit. Irgendwann sind Öllagerstätten bis an die Oberfläche durchgebrochen. Die leicht flüchtigen Bestandteile des Erdöls sind verdunstet und es ist Bitumen zurückgeblieben. Man unterscheidet zwei Typen: „water wet“ und „oil wet“. Der erste Typ ist von den kanadischen Ölsand Lagerstätten in Alberta bekannt. Bei ihm sind die Sandkörner von einer dünnen Wasserschicht umgeben auf der wiederum der Bitumen sitzt. Das Gewinnungsverfahren ist seit den 1920er Jahren bekannt: Der Sand wird in 80 °C heißem Wasser gewaschen, wodurch sich das Bitumen vom Sand ablöst. Durch einblasen von Luft bildet sich ein ölhaltiger Schaum, der aufschwimmt. Dieser Schaum ist das Rohprodukt. Es besteht zu etwa 60% aus Öl, 30% Wasser und 10% Feststoffen. Nach dessen Aufbereitung geht das Abwasser mit allen Chemikalien und Feststoffen in riesige Absetzbecken. Eine ziemliche Umweltbelastung. Anschließend muß das Bitumen noch zu synthetischem Rohöl verarbeitet werden, bis es auf dem Ölmarkt zu verkaufen ist. Eine ziemlich energieaufwendige Angelegenheit. Das ganze erfordert gigantische Anlagen mit einem immensen Kapitalaufwand.

Die Ölsände in Utah sind vom Typ „oil wet“, der sich nicht mit dem vor beschriebenen Verfahren verarbeiten läßt. Die Sandkörner sind direkt vom Öl umkleidet. Deshalb ist das Bitumen nicht mit Wasser abwaschbar. Es mußte ein geeignetes Lösungsmittel gefunden werden. Auch hier haben wieder mittelständische Unternehmen – nicht die großen Ölkonzerne – jahrzehntelang getüftelt und entwickelt. Es wurden (patentierte) Lösungen auf der Basis von Diesel, Propan und Gas-Kondensaten gefunden. Der Trick dabei ist, daß es sich um azeotrope (gleiche Zusammensetzung in der flüssigen und dampfförmigen Phase) Gemische handelt, die sich bei geringer Temperatur von 70 bis 75 °C durch einfache Destillation wieder von dem aufgelösten Bitumen trennen lassen. So erhält man einerseits ein reines Produkt und kann 99,9% des Lösungsmittels im Kreislauf laufen lassen (keine Abwasser-Seen!). Der Ölsand wird bei etwa 60 °C mit dem Lösungsmittel gewaschen. Der Sand ist anschließend so „sauber“, daß er problemlos auf Halde gelagert oder sogar als Baustoff verkauft werden kann. Ein energiesparendes und umweltfreundliche Verfahren.

Die Produktionskosten werden mit lediglich 22 $/barrel angegeben. Man muß etwa 1 to Ölsand zur Gewinnung eines barrel Öl verarbeiten. Das ist bei den geologischen Verhältnissen in Utah kein Problem. Das Lösungsmittel ist zwar recht teuer (ca. 35 $ pro barrel), hängt aber ganz unmittelbar von den jeweils aktuellen Ölpreisen ab: Billiges Rohöl, billiger Einstandspreis für das Lösungsmittel und umgekehrt. Das macht die Produktionskosten (anders als beim „fracking“) sehr stabil gegenüber Ölpreisschwankungen. Die Ölsände lagern in einem alten Ölfördergebiet, d. h. die Infrastruktur für Transport und Verarbeitung ist bereits vorhanden. Das Öl ist mit 14 API-Graden zwar sehr zäh (schwimmt kaum noch auf dem Wasser), aber „süß“ (geringer Schwefelgehalt und damit mit geringem Energieaufwand zu verarbeiten). Gut in lokalen und Schweröl-Raffinerien an der Golfküste zu verarbeiten, was weitere Ölmengen (z. B. Leichtöle aus Texas) für den Export freistellt.

Der entscheidende Antrieb für eine schnelle Umsetzung dürften aber die geringen Kapitalkosten sein. Inzwischen ist man bei einer Anlagengröße von 5000 Faß pro Tag angekommen. Eine solche Anlage kostet angeblich nur 70 Millionen Dollar. Für die Ölindustrie ein Trinkgeld.

Die politischen Konsequenzen

Seit Trump die Hindernisse für eine gesteigerte Produktion an fossilen Energien systematisch aus dem Weg räumt, explodiert die Öl- und Gasförderung. Für sich genommen, schon ein enormer Wohlstandsgewinn in der Form von (gut bezahlten) Arbeitsplätzen und steigenden Staatseinnahmen (trotz oder gerade wegen der Steuersenkung).

Hinter den neuen Produktionsverfahren verbergen sich eine Menge neuer Technologien. Unkonventionelle Öl- und Gasvorkommen gibt es aber überall auf der Welt. Die Schätze warten nur darauf, gehoben zu werden. Die amerikanische Zulieferindustrie wird weiterhin wachsen und international marktbeherrschend bleiben.

Preiswerte Energie ist der Lebenssaft einer jeden Volkswirtschaft. In den USA treffen billige Rohstoffe auf eine hochentwickelte Industrie.. Eine einzigartige Kombination in der Weltwirtschaft. Ein Narr, wer glaubte, Trump wolle die Niedriglohngruppen aus China und Mexiko zurückholen. Die Stahlwerke und Aluminiumhütten die sich Trump vorstellt, sind nicht die Museumsbetriebe aus den Hinterhöfen Chinas, Indiens oder Russlands. Die internationalen Investoren sind ausdrücklich aufgerufen in den USA modernste Anlagen zu bauen. In der (hier ebenfalls ungeliebten) Chemieindustrie ist die Verlagerung bereits im Gange. Da bedurfte es noch nicht einmal Zölle und Steuersenkungen als Impuls.

Öl- und Gasexporte sind nicht nur volkswirtschaftlich sinnvoll: Ein Produkt mit weltweiter Nachfrage, welches gewaltige Summen in die eigenen Kassen spülen kann. Darüberhinaus besitzt es auch eine außerordentliche geostrategische Qualität.. Man kann „wohlgesonnene Nationen“ mit ausreichend und billiger Energie versorgen. Gleichzeitig kann man „unfreundlichen Nationen“ die Deviseneinnahmen beschneiden und damit deren Aufrüstung zurechtstutzen. Besonders die „Alt-68er“ in Deutschland werden umdenken müssen: Wenn die USA angeblich nur wegen Öl Krieg geführt haben, droht ziemlich schnell ein böses Erwachen. Trump hat schon in seinem Wahlkampf immer gesagt (auch da hat offensichtlich niemand zugehört!), die USA haben nur zwei Interessen im Mittleren Osten: Terrorbekämpfung und Beistand von Israel. Alles andere sei Aufgabe der Europäer. Ob da wohl noch die Verteidigungsausgaben ausreichen werden? Deutschland schlittert schon heute sehenden Auges immer tiefer in den Sumpf des Irak und Nordafrikas hinein.

Ende der „Energiewende“ in USA?

Trump arbeitet weiterhin konsequent seine Wahlversprechen ab und startet nach dem „Klimaausstieg“ einen Versuch zur Wiederherstellung eines funktionstüchtigen Stromnetzes. Mehr noch, es wird nebenbei auch noch eine Renaissance der Kernenergie eingeleitet.

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

Resilient Electricity

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für „Aktuelle Kamera“ und den „Schwarzen Kanal“ gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer „Unberechenbarkeit des POTUS (President Of The United States)“ geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos „Washington“ ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der „politischen Wissenschaften“. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar „Kulturschaffende“ oder gewalttätige „Antifanten“ könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der „American way of live“ wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der „Baulöwe“ ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen „Experten“ als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die „Energieexperten“ in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach „Wirtschaftswunder“ geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie „Peak Oil“, „Klimakatastrophe“ und dem Försterspruch von der „Nachhaltigkeit“, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom „peak oil“mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als „fracking“ bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen um mehrere hundert Prozent. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch „Klimaschutz“ auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff „clean coal“ benutzt. Darunter versteht man nicht einfach „saubere Kohle“, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum „Klimaschutz“, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den „Feinden Amerikas“ heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit „remember 9/11“ verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole „Make America Great Again“.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das „Reich des Bösen“ dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den „Krieg der Sterne“. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Könnte Deutschland die große Schweiz werden?

Die Bürger der Schweiz haben sich gegen eine vorzeitige Abschaltung ihrer Kernkraftwerke entschieden. Ein Anlass, einmal über die Verhältnisse in Deutschland (neu) nachzudenken.

Der Istzustand

Vielen Menschen in Deutschland ist gar nicht bewußt, daß immer noch acht Blöcke am Netz sind (Isar 2, Brokdorf, Philippsburg 2, Grohnde, Emsland, Neckarwestheim 2, Gundremmingen B und C) und in aller Stille reichlich zur Energieversorgung in Deutschland beitragen. Sie haben immerhin zusammen die stolze Leistung von 10.799 MWel. und produzieren damit durchschnittlich 86.595.052.800 kWh elektrische Energie jährlich. Wohl gemerkt, jedes Jahr, unabhängig davon, wie stark der Wind bläst oder die Sonne scheint. Halt Energie nach den Bedürfnissen der Menschen und nicht „auf Bezugsschein“ irgendwelcher Schlangenölverkäufer mit (meist) öko-sozialistischer Gesinnung. Ganz neben bei, tragen sie durch ihre gewaltigen Generatoren auch noch zur Netzstabilität bei. Wie wichtig und kostenträchtig allein dieser Aspekt ist, werden unsere Laiendarsteller erst merken, wenn diese Kraftwerke endgültig abgeschaltet sind.

Wieviel Volksvermögen vernichtet werden soll

Fangen wir mal mit dem letzten Aspekt an: Die Standorte zukünftiger Windparks und Photovoltaikanlagen können – wegen der geringen Energiedichte von Wind und Sonne – gar nicht den Kernkraftwerken entsprechen. Das vorhandene Stromnetz muß daher komplett umgebaut bzw. erweitert werden. In der Öffentlichkeit wird wohlweislich nur von den neuen „Stromautobahnen“ gesprochen, die den „Windstrom“ von Norddeutschland nach Süddeutschland transportieren sollen. Freilich sind bereits dafür Milliarden erforderlich. Kaum ein Wort über die Frequenzregelung und die Niedervolt Netze zum Einsammeln des flächigen Angebots (z. B. Sonnenkollektoren auf den Dächern).

Wir reden hier nicht von irgendwelchen „Schrottreaktoren“, sondern ausnahmslos von Kernkraftwerken, die erst zwischen 1984 und 1989 ans Netz gegangen sind. Für solche Kraftwerke geht man heute international von einer Betriebszeit von 60 bis 80 Jahren aus. Sie hätten also eine „Restlaufzeit“ bis in die zweite Hälfte dieses Jahrhunderts vor sich – wenn sie nicht in Deutschland, sondern bei unseren Nachbarn stehen würden! Warum nur, fällt mir an dieser Stelle, der alte Witz-über-die-Geisterfahrer ein?

Um es klar und deutlich zu sagen, sie verfügen über Sicherheitseinrichtungen, die heute noch international Spitze sind. Teilweise werden japanische und osteuropäische Kernkraftwerke gerade erst auf dieses Niveau nachgerüstet. Selbst noch im Bau befindliche Reaktoren in China und den Emiraten, sind keinesfalls sicherer. Das alles, obwohl es in Deutschland weder schwere Erdbeben noch Tsunamis gibt.

Wenn man als Wiederbeschaffungswert die Baukosten der koreanischen Reaktoren in den Vereinigten Emiraten ansetzt (4 x 1400 MW für 20 Milliarden US-Dollar), werden hier mal eben rund 35 Milliarden Euro verbrannt. Zugegeben eine grobe Abschätzung, aber wie war das noch mal mit dem Rentenniveau für die kommende Generation? Es ist ja offensichtlich nicht so, als wäre in diesem Land überhaupt kein Kapital mehr vorhanden oder anders: Der Kleinrentner soll auch noch durch überteuerten „Ökostrom“ zusätzlich bluten.

Der energetische Ersatz

Ein beliebter Vergleich der Schlangenölverkäufer ist immer die produzierte Energie. Lassen wir die Zahlen für sich sprechen: Im Jahr 2015 wurden insgesamt 86 TWh Windenergie erzeugt. Dazu waren 27.147 Windmühlen mit einer Gesamtleistung von 44,95 GW notwendig gewesen. Wollte man die acht verbliebenen Kernkraftwerke durch Windmühlen ersetzen, müßte man also noch einmal die gleiche Anzahl zusätzlich bauen. Besser kann man den Irrsinn nicht verdeutlichen. Schon allein unsere Vogelwelt könnte 20.000 zusätzliche Schredderanlagen nicht verkraften. Welche Wälder sollen noch gerodet werden?

Wollte man die gleiche Energie mit Photovoltaik erzeugen, müßte man über 82 GW zusätzlich installieren. Trotzdem wäre es weiterhin des Nachts dunkel.

Die Speicherfrage erübrigt sich, denn allen ökologischen Sturmgeschützen zum Trotz: Es gibt sie wirklich, die Dunkel-Flaute. Jawohl, besonders bei Hochdruck-Wetterlage im Winter weht tagelang kein Wind – auch großflächig nicht.

Andererseits wird es den berühmten Muttertag (8.5.2016) auch immer wieder geben: Sonnenschein mit Starkwind an einem verbrauchsarmen Sonntag, der die Entsorgungskosten an der Strombörse auf -130 EUR/MWh hochgetrieben hat. Wie hoch dürfte die Entsorgungsgebühr wohl sein, wenn der Ausbau noch einmal verdoppelt wird? Sind dann unsere Nachbarn überhaupt noch bereit, unseren „Strommüll“ für uns zu entsorgen? Ich glaube nicht. Zwangsweise Abschaltungen wären die Folge: Die Abwärtsspirale immer schlechter werdender Auslastung für die „Erneuerbaren“ wird immer steiler werden. Das Rennen nach der Fabel von Hase und Igel hat ja bereits längst begonnen. Dies sei allen Traumtänzern gesagt, die von einer Vollversorgung durch Wind und Sonne schwadronieren.

Der notwendige Ersatz

Wie gesagt, es gibt sie wirklich, die Dunkel-Flaute. Speicher in der erforderlichen Größe sind nicht vorhanden. Das seit Jahren erklingende Geraune von der „Wunderwaffe-der-Großspeicher“ wabert konsequenzlos durch die deutschen „Qualitätsmedien“. Physik läßt sich halt nicht durch den richtigen Klassenstandpunkt ersetzen. Es müssen deshalb neue Grundlastkraftwerke gebaut werden. Kurzfristig kann man elektrische Energie aus dem Ausland hinzukaufen – „Atomstrom“ und „Dreckstrom“ aus den östlichen Nachbarländern – bzw. vorhandene Mittellastkraftwerke im Dauerbetrieb verschleißen.

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Will man 11 GWel durch Kombikraftwerke mit Erdgas als Brennstoff ersetzen, sind dafür etwa 20 Blöcke notwendig. Würde man sie an den vorhandenen Standorten der Kernkraftwerke bauen, könnte man zwar die elektrischen Anlagen weiter nutzen, müßte aber neue Erdgaspipelines bauen. Die Mengen können sich sehen lassen: Für 86 TWh braucht man immerhin etwa 15 Milliarden Kubikmeter Erdgas jedes Jahr. Wo die wohl herkommen? Wieviel das Erdgas für die Heizung wohl teurer wird, wenn die Nachfrage derart angekurbelt wird?

Wahrscheinlicher ist der Ersatz durch Steinkohlekraftwerke. Um die 8 noch laufenden Kernkraftwerke zu ersetzen, wären etwa 14 Blöcke vom Typ Hamburg-Moorburg nötig. Die würden etwa 28 Millionen to Steinkohle pro Jahr fressen. Die müssen nicht nur im Ausland gekauft, sondern auch bis zu den Kraftwerken transportiert werden.

Will man wenigstens die Versorgungssicherheit erhalten, bleibt nur die eigene Braunkohle. Man müßte nur etwa 10 neue Braunkohleblöcke vom Typ BoA-Neurath bauen. Die würden allerdings über 84 Millionen to Braunkohle pro Jahr verbrauchen. Unsere Grünen würde das sicherlich freuen, man müßte die Braunkohleförderung nicht einmal um die Hälfte erhöhen. Wieviele schöne „Demos“ gegen neue Tagebaue könnte man veranstalten!

Politik

Das Wahljahr 2017 (Landtagswahl in NRW und Bundestagswahl) kommt immer näher. Zwischen März und Juli soll der geplante Wahnsinn mit der Abschaltung von Gundremmingen beginnen. Da in Deutschland das Regulativ einer Volksabstimmung (über lebenswichtige Fragen) fehlt, bleibt nur die Auseinandersetzung in einer Parteien-Demokratie. Parteitage und Walkämpfe bieten die Möglichkeit Parteien zu zwingen „Farbe zu bekennen“. Dies gelingt aber nur, wenn die Bürger auch (öffentlich und nachdrücklich) Fragen stellen. Gerade in Deutschland neigt man eher zu „Man-hat-doch-nichts-davon-gewußt“ oder „innerlich-war-man-auch-dagegen“. Zumindest der ersten Lebenslüge, soll dieser Artikel entgegenwirken.

Die Forderung an alle Parteien kann nur lauten: Schluß mit der Kapitalvernichtung durch Abschaltung moderner Kernkraftwerke. Bis 2022 ist es weder möglich geeignete Groß-Speicher zu erfinden, das Stromnetz völlig umzukrempeln, noch fossile Kraftwerke in der benötigten Stückzahl als Ersatz zu bauen. Nicht einmal die Verdoppelung der Windenergie in nur vier Jahren ist möglich – jedenfalls nicht ohne bürgerkriegsähnliche Zustände heraufzubeschwören. Parteien, die dies nicht einsehen wollen, sind schlicht nicht wählbar. In einer indirekten Demokratie, in der dem Bürger das Recht auf Entscheidungen – in überlebenswichtigen Fragen — abgesprochen wird, kann sich der Bürger nur an der Wahlurne wehren. Nichts tut den etablierten Parteien mehr weh, als der Mandatsverlust. Dies ist halt die Kehrseite der Allmachtsphantasien der „indirekten Demokraten“.

Kernenergie und Erdgas

In den letzten Jahren hat sich der Weltmarkt für Erdgas dramatisch verändert. Dies betrifft natürlich auch die Kernenergie.

Die Stromerzeugung

Weltweit steigt der Bedarf an elektrischer Energie weiter an. Dies wird auch noch sehr lange so bleiben, selbst wenn die Erdbevölkerung nicht mehr wachsen sollte. Der Stromverbrauch pro Kopf, ist ein unmittelbarer Indikator für den Wohlstand einer Gesellschaft. Insofern wird der Bedarf in Asien (China, Indien) und später auch in Afrika, geradezu explodieren. Die „regenerativen Energien“ – einst hat man sie treffend als „Additive Energien“ bezeichnet – sind schon wegen ihrer Zufälligkeit keine Lösung. Es bleiben nur Kernenergie und fossile Energie (Kohle, Erdgas, Öl).

Gerade in den Schwellenländern wird „king coal“ noch lange der Wachstumsmotor bleiben: Kohle ist ziemlich gleichmäßig auf der Erde verteilt, billig zu gewinnen und leicht zu transportieren und zu lagern. Ist man beim Umweltschutz nicht all zu pingelig, sind Kohlekraftwerke auch einfach, schnell und preiswert zu errichten. Dies galt in den 1950er Jahren bei uns, in China bis heute und in Afrika und Indien noch für lange Zeit. Es dauert einfach seine Zeit, bis der Wohlstandsgewinn durch eine Elektrifizierung vom „smog“ in der Wahrnehmung der Bevölkerung aufgefressen wird.

Das andere Extrem sind Kernkraftwerke: Sie erfordern einen hohen Kapitaleinsatz und eine entsprechende industrielle Infrastruktur. In China kann man die typische Entwicklung wie im Zeitraffer betrachten: Die ersten Kraftwerke wurden praktisch vollständig importiert. Wegen der hohen Stückzahlen war parallel der rasche Aufbau einer eigenen Fertigung möglich. Heute beginnt man bereits als Hersteller auf dem Weltmarkt zu agieren.

Irgendwo dazwischen, liegen Öl- und Gaskraftwerke. Sie erfordern die geringsten Kapitalkosten, haben aber die höchsten Brennstoffkosten. Bei Gaskraftwerken kam bisher noch das Vorhandensein ausreichender Gasmengen hinzu – und genau beim letzten Punkt ergeben sich gewaltige Veränderungen der Randbedingungen.

Die Shale Revolution

Erdgas ist beileibe nicht selten oder bald verbraucht. Bezieht man auch noch die Vorkommen an „Methanhydrat“ ein, so dürfte der Vorrat für Jahrtausende reichen. Man muß das Erdgas nur fördern, aufbereiten und transportieren können. Gerade der Transport stellte dabei das größte Hindernis dar. Für Gas blieb bisher nur die Rohrleitung über, die extrem unflexibel ist. Sie mußte lückenlos vom Gasfeld bis zum Kraftwerk reichen. Noch heute werden gigantische Mengen einfach abgefackelt, weil man sie nicht aufbereiten und transportieren kann.

Wie unter einem Brennglas kann man heute noch die Entwicklung in den USA betrachten. Durch die Entwicklung des „Fracking“ konnte man bis dahin nicht nutzbare Öl- und Gasvorkommen erschließen. Die Förderung ist zwar recht billig, aber das Erdgas leider auch ziemlich wertlos, weil am falschen Ort vorhanden. Mit riesigem Kapitalaufwand ist man immer noch beschäftigt, neue Aufbereitungsanlagen und Verteilnetze zu bauen. Gemessen an den Vorräten hat man damit z. B. in Iran oder Sibirien noch gar nicht begonnen. Dort steht man noch vor dem klassischen Henne-Ei-Problem. In den USA steht dem überreichlichen Angebot zumindest eine potentielle Nachfrage gegenüber. Die geringen Herstellkosten durch „Fracking“ verlocken Investoren neue Pipelines zu bauen. Trotz der Transportkosten ist der Rohstoff Erdgas in den Verbrauchszentren damit immer noch konkurrenzlos günstig. Haushalte und Industrie beginnen umzurüsten. Das braucht aber Zeit und diese Durststrecke muß überbrückt werden.

Gaskraftwerke zum Ausgleich der Nachfrage

Gaskraftwerke erfordern geringe Investitionen und sind schnell zu bauen. Sie wurden deshalb traditionell als Spitzenlast-Kraftwerke (Abdeckung von Verbrauchsspitzen an wenigen Stunden im Jahr) gebaut. Nun sind sie da. Bekommt man an seinem Standort einen besonders günstigen Erdgaspreis, kann man sie jederzeit länger laufen lassen. Betriebswirtschaftlich entscheidend ist einzig die Relation zu anderen Brennstoffen. Dies ist der Grund, warum z. B. die Stromproduktion aus Kohle in den USA stark eingebrochen ist. Der Brennstoffpreis hat die Kohle verdrängt, nicht irgendwelcher „Klimaschutz“. Umgekehrtes gilt in Deutschland: Das „Russengas“ ist – noch – viel zu teuer, sodaß Kohlekraftwerke immer noch preisgünstiger produzieren können. Die Stadtwerke gehen an ihren „umweltfreundlichen“ Gaskraftwerken langsam pleite. Eine klassische Fehlinvestition auf Grund von ideologisch bedingter Fehlsichtigkeit.

Wohin die Entwicklung langfristig geht, kann man bereits in den Golfstaaten erkennen. Dort war Erdgas mehr Abfall als Wirtschaftsgut. Folgerichtig hat man konsequent auf eine Verstromung in Gaskraftwerken gesetzt. Parallel hat man sich aber weltweit neue Absatzmärkte für Erdgas erschlossen und damit den Preis im eigenen Land systematisch nach oben gezogen. In den Vereinigten Emiraten ist man nun an einem Punkt angekommen, wo es günstiger ist, elektrische Energie in Kernkraftwerken zu produzieren. Wohl gemerkt, in den Emiraten. Frei von Rot-Grüner Ideologie, in atemberaubend kurzer Bauzeit, zu günstigen Weltmarktpreisen. Wenn man sich nicht nur im „öko-sozialistischen Nebel“ bewegt, dürft ziemlich klar sein, wohin die Reise geht: Allein China hat gerade die Taktfrequenz (nur in seinem eigenen Land!) auf den Bau von einem Reaktor alle zwei Monate erhöht!

Neues Spiel durch LNG

Bisher hatte Erdgas einen enormen Nachteil zu überwinden: Gas ließ sich nur in Rohrleitungen oder kleinen Gasflaschen transportieren. Dadurch war z. B. der gesamte Verkehrssektor tabu und mußte dem Öl überlassen werden. Die ausschließliche Verbindung zwischen Verbraucher und Produzenten durch Rohrleitungen ist äußerst starr und damit anfällig für jegliche Risiken.

Erdgas war praktisch ein reiner Brennstoff, der nur in Konkurrenz zum Heizöl stand. Insofern war es auch logisch und richtig, die Preisentwicklung an den Rohölpreis zu koppeln. Wer sich einmal an eine Rohrleitung angeschlossen hat, hätte nur bei einer extremen Verbilligung des Heizöls ein Interesse gehabt, zurück zum Öl zu wechseln. Durch die massive Markteinführung von LNG (Liquified Natural Gas) hat sich das Blatt gewendet. Plötzlich gibt es eigene Handelsorte mit eigenen Preisindizes (z. B. Henry Hub) wie schon lange beim Rohöl üblich (z. B. Brent oder WTI). Wo ein funktionierendes Handelsprodukt an einer Börse existiert, wird das notwendige Kapital magisch angezogen. Die Transparenz wirkt dabei wie ein Reaktionsbeschleuniger. Ganz im Gegenteil zu Hinterzimmern, in denen politische Männerfreundschaften (Schröder/Putin) gepflegt werden.

Bisher völlig unterschätzt, wird dabei die Wandlung vom Brennstoff zum Treibstoff. In Windeseile bilden sich Transportketten bis in die letzten Häfen der Welt. Geschickt unter dem Mäntelchen Umweltschutz verkauft, beginnt sich die Weltschifffahrt ein völlig neues Bein als Treibstoff zu erschließen. Gibt es erstmal in jedem größeren Hafen ein Lager und eine Tankstelle für LNG, kommt im nächsten Schritt die Binnenschifffahrt dran (geschieht bereits auf dem Rhein) und als nächstes Eisenbahn (Diesellokomotiven) und schwere LKW. Beides in den USA schon im Ausbau. Hier wird das Henne-Ei-Problem zielstrebig gelöst. Stehen erstmal die Lieferketten, kann der Generalangriff auf die etablierten Gasversorger erfolgen. Wenn Gazprom glaubt, seine hohen Gaspreise auch weiterhin durchsetzen zu können, sollen sie mal weiter träumen. Man wird über die unzähligen Terminals in den europäischen Häfen (gerade nicht in Deutschland!) LNG einspeisen und erstmal die Großverbraucher mit günstigen Angeboten abwerben. Es ist mit Sicherheit kein Zufall, daß z. B. ein neues LNG-Terminal in Swinemünde – nur wenig entfernt von der Anlandungsstelle (Greifswald Lubmin) von Nord Stream – gebaut wurde. Es dient nicht nur der Absicherung Polens gegen die Launen Putins, sondern wird der Grundstock eines Handelspunktes werden, in den auch Gazprom gern einspeisen kann – allerdings zu Weltmarktpreisen und nicht zu Konditionen des Kreml. Notfalls sind z. B. Tankwagen in wenigen Stunden im Verbrauchsschwerpunkt Berlin angekommen. Dies wird die Preisverhandlungen Berliner Kraftwerke noch grundlegend beeinflussen. Ein Leitungsmonopol wird es zukünftig nicht mehr geben. Gazprom könnte das gleiche Schicksal erleiden, wie die Telekom nach „Erfindung“ des Mobiltelefons.

Was macht LNG so anders?

Verflüssigtes Erdgas LNG ist nahezu reines Methan, ohne chemische Verunreinigungen (z. B. Schwefel) und somit einfach (ohne Nachbehandlung) und schadstoffarm zu verbrennen. Es ist sehr klopffest, sodaß es sogar problemlos in Diesel- und Ottomotoren verbrannt werden kann.

Entscheidend ist seine hohe Energiedichte, die etwa 60% von herkömmlichem Kraftstoff beträgt. Weit mehr, als Batterien je erreichen werden. Es ist deshalb ohne all zu große Einbußen an Raum und (totem) Gewicht in Schiffen und LKW einsetzbar. Eine Betankung ist – wie bei allen Flüssigkeiten – schnell und einfach durchführbar.

Nachteil ist die Herstellung: Um die Volumenverkleinerung (1/600) zu erzielen, muß das Erdgas auf etwa -160 °C abgekühlt und gehalten werden. Eine ziemlich aufwendige Technik. Allerdings beherrscht man heute die erforderlichen Schritte sicher. Für die Herstellung und den Transport werden rund 15% des eingesetzten Gases verbraucht. Die Verdampfung aus dem Tank ist nur bei Stillstand ein Verlust, da sonst der „Abdampf“ sofort als Treibstoff genutzt werden kann. Die heutigen „Thermoskannen“ sind so gut geworden, daß sie z. B. als Container über weite Strecken geschickt werden können.

Die Angebotsseite

Der Weltmarkt wächst in den letzten Jahren rasant. 2012 gab es etwa 100 Verflüssigungsstränge mit einer Kapazität von über 297 MMPTA (Hinweis: Wer sich mit Erdgas beschäftigt, muß sich an etliche skurril anmutende Einheiten gewöhnen. 1 MMPTA ist 1 Million metrischer Tonnen pro Jahr.). BP prognostiziert, daß in den nächsten fünf Jahren etwa alle acht Wochen weltweit ein neuer Strang den Betrieb aufnehmen wird. Allein bis 2016 werden in Australien neue Kapazitäten mit 25 MMPTA fertiggestellt. Der Kapitaleinsatz kann sich dabei durchaus mit der Kerntechnik messen. Allein Chevrons Gorgon Projekt (15,6 MMPTA) hat dann über 54 Milliarden US-Dollar gekostet. In den USA sind bis 2020 weitere 58 MMTPA in Planung.

An dieser Stelle erscheint es sinnvoll, sich etwas mit den Relationen vertraut zu machen. Am 24.2.2016 verließ der erste Export-Tanker das Sabine Pass Terminal in USA. Er hatte 3,4 Bcf geladen. Mit diesen 3,4 Milliarden Kubikfüßen (1 Kubikmeter entspricht etwa 35 Kubikfüßen) ist das Gasvolumen nach der Rückverdampfung gemeint. Es entspricht einem Ladungsgewicht von rund 250 000 to – also ein typischer Tanker. Setzt man einen solchen Tanker mit der Nord Stream Pipeline in Vergleich, die eine Kapazität von 55 Milliarden Kubikmetern pro Jahr hat, erkennt man, daß etwa 10 solcher Tanker pro Woche nötig wären, um diese Pipeline komplett zu ersetzen.

Die Preisfrage

Erdgas ist zwischen Öl – als nahem Verwandten – und Kohle eingeklemmt. Die internationale Handelseinheit für Rohöl ist das Faß (1 bbl = 159 l), dessen Heizwert man mit rund 5,8 MMBtu (1 Million British Thermal Unit = 293 kWh) ansetzt. Man muß also die internationale Handelseinheit 1 MMBtu vom Erdgas lediglich mit dem Faktor 5,8 multiplizieren, um das „Öläquivalent“ zu erhalten. Man nennt das auch neudeutsch die „Btu crude ratio method“. Bei Kohle ist es etwas komplizierter, weil spezieller: Die Heizwerte von Kohlen sind sehr verschieden. Ein typischer Richtwert ist der API-2 Index oder die „Rotterdamkohle“ (1 to hat 23,8 MMBtu). Aktuell gilt z. B. für Rohöl (WTI) 35,92 US-Dollar für ein Faß. Somit wäre das Gasäquivalent etwa 6 US-Dollar pro 1 Million Btu. Der Börsenpreis (Henry Hub) betrug aber lediglich 1,67 US-Dollar für eine Million Btu. Die Tonne „Rotterdamkohle“ kostete rund 46 US-Dollar pro Tonne, entsprechend einem Gasäquivalent von 1,93 US-Dollar für eine Million Btu. Da international alle Energieträger miteinander verknüpft sind, erkennt man aus den letzten Relationen, warum der Kohleverbrauch in den Kraftwerken der USA um über 30% eingebrochen ist. Dies ist nicht dem „Klimaschutz“, sondern der harten Hand des Marktes geschuldet. Andererseits liegt der aktuelle Gaspreis an der Leipziger Börse bei rund 4 US-Dollar für eine Million Btu. Auch hier ist der Grund deutlich zu erkennen, warum in Deutschland immer noch – und zukünftig, nach erfolgtem „Atomausstieg“, noch viel mehr — „king coal“ die Stromerzeugung dominiert.

Internationale Aussichten

Die mit Abstand größten LNG-Importeure sind Japan und Korea. Beide setzen konsequent auf den Ausbau von Kernenergie und Kohle. Bereits jetzt ist der Verbrauch in Japan schon wieder rückläufig. Mit jedem Kernkraftwerk, das wieder in Betrieb geht, wird er weiter abnehmen. Auch China hat nicht den Zuwachs im Gasverbrauch, den viele einmal erwartet haben. Kohle läßt sich schon aus sozialpolitischen Gründen nicht so schnell und einfach zurückfahren. Gleichzeitig wurde der Ausbau der Kernenergie noch beschleunigt.

An dieser Stelle scheint eine Verdeutlichung des Erdgasbedarfs in der Stromwirtschaft nötig. Ein Kernkraftwerk würde je 1000 MW Leistung und einer üblichen Auslastung von 90% 44,84 Millionen MMBtu Erdgas pro Jahr, gegenüber einem modernsten Kombikraftwerk (Wirkungsgrad von 60%) einsparen – oder anders ausgedrückt 0,14 Bcf/d. Allein die Erdgasförderung in den USA beträgt rund 74 Bcf/d. Dies erklärt, warum 2015 dort die Stromerzeugung aus Kohle (1356 TWh) und Erdgas (1335 TWh) erstmalig ebenbürtig waren. Die Kohlekraftwerke in USA werden zukünftig die Funktion einer Preisbremse für Erdgas übernehmen und damit den Weltmarktpreis für LNG maßgeblich beeinflussen.

Genau auf die nahen asiatischen Absatzgebiete hat Australien mit seinem massiven Ausbau gesetzt. Nun läßt sich aber die Produktion wegen der hohen Kapitalkosten nicht einfach anhalten, sondern man muß praktisch um jeden Preis verkaufen, damit man die Schulden bedienen kann. Die LNG-Preise werden damit in Asien weiter fallen, was die Exporteure in USA und im mittleren Osten weiter unter Druck setzt. So sind z. B. die Frachtkosten von den Verflüssigungsanlagen nach Asien rund dreimal höher als ins „nahe“ Europa. Für Deutschland als Industriestandort, mit seiner einseitigen Ausrichtung auf „Wind und Russengas“, ziehen deshalb rasch dunkle Wolken auf.

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Reaktortypen in Europa – Teil1, Einleitung

In Europa werden bereits einige Kernkraftwerke neu errichtet bzw. stehen kurz vor einer Auftragsvergabe. Es scheint daher angebracht, sich ein bischen näher mit den unterschiedlichen Typen zu befassen und deren (technische) Unterschiede zu erläutern.

Warum überwiegend Leichtwasserreaktoren?

Es dreht sich um größere Kraftwerke. Oberhalb von etlichen hundert Megawatt ist für Wärmekraftwerke nur ein Dampfkreislauf möglich – egal, ob mit Kohle, Gas oder Kernspaltung als Wärmequelle. Dieselmotoren (bis max. 70 MW) oder Gasturbinen (bis max. 350 MW) sind für solche Blockgrößen ungeeignet. Selbst bei gasgekühlten oder mit Flüssigmetallen gekühlten Reaktoren, besteht der eigentliche Arbeitsprozess aus einem Wasserdampfkreisprozeß: Wasser wird unter hohem Druck verdampft und treibt anschließend eine Turbine mit Generator an. Wenn man also ohnehin Dampf braucht, warum nicht gleich damit im Reaktor anfangen?

Es muß allerdings eine Voraussetzung erfüllt sein: Man muß über Uran mit einem Anteil von etwa 2 bis 5% Uran-235 bzw. Plutonium (MOX) verfügen. Beides kommt in der Natur nicht vor. Will man Natururan verwenden, ist man auf schweres Wasser (Deuterium) oder Kohlenstoff (Reaktorgraphit) angewiesen, um überhaupt eine selbsterhaltende Kettenreaktion zu erhalten. Will man andererseits die schwereren Urankerne bzw. Minoren Aktinoide direkt spalten, darf man die bei der Spaltung freigesetzten Neutronen möglichst gar nicht abbremsen und muß deshalb zu Helium oder flüssigen Metallen als Kühlmittel übergehen. Noch ist dieser Schritt nicht nötig, da es genug billiges Natururan gibt und andererseits (noch nicht) die Notwendigkeit zur Beseitigung der langlebigen Bestandteile des sog. „Atommülls“ besteht. Das zweite ist ohnehin eine rein politische Frage. Die sog. Leichtwasserreaktoren werden deshalb auch in den kommenden Jahrhunderten der bestimmende Reaktortyp bleiben.

Die Temperaturfrage

Je höher die Betriebstemperaturen sind, um so höher die Kosten und Probleme. Dieser Grundsatz gilt ganz allgemein. Bis man auf Kernenergie in der chemischen Industrie z. B. zur „Wasserstoffgewinnung“ angewiesen sein wird, wird noch eine sehr lange Zeit vergehen. Solche Anwendungen lassen sich einfacher und kostengünstiger mit fossilen Brennstoffen realisieren. Abgesehen davon, daß die Vorräte an Kohle, Gas und Öl noch für Jahrhunderte reichen werden, kann man beträchtliche Mengen davon frei setzen, wenn man bei der Stromerzeugung auf Kernenergie übergeht. Diesen Weg hat China bereits angefangen.

Ein oft gehörtes Argument ist der angeblich geringe Wirkungsgrad von Leichtwasserreaktoren. Richtig ist, daß der thermodynamische Wirkungsgrad um so besser ist, je höher die Betriebstemperatur ist. Er liegt bei den heute modernsten Steinkohlekraftwerken bei etwa 46% und bei Braunkohlekraftwerken bei 43%. Demgegenüber erscheint der Wirkungsgrad eines modernen Druckwasserreaktors mit 37% als gering. Es gibt jedoch zwei wichtige Aspekte zu berücksichtigen:

  • Die hohen Wirkungsgrade der Kohlekraftwerke erfordern solche Drücke und Temperaturen, daß die (derzeitigen) technologischen Grenzen erreicht, wenn nicht sogar überschritten sind. Der noch vor wenigen Jahren propagierte Wirkungsgrad von 50% ist in weite Ferne gerückt. Die Werkstoff- und Fertigungsprobleme – und damit die Kosten – nehmen mit jedem weiteren Grad überproportional zu. Kombiprozesse (z. B. Gasturbine mit Abhitzekessel) erfordern hochwertige Brennstoffe, wie Erdgas oder Mineralöle. Will man solche erst aus Kohle gewinnen (Kohlevergasung), sackt der Gesamtwirkungsgrad wieder auf die alten Werte ab.
  • Der thermodynamische Wirkungsgrad ist ohnehin nur für Ingenieure interessant. Entscheidend sind im wirklichen Leben nur die Herstellungskosten des Produktes. Hier gilt es verschiedene Kraftwerke bezüglich ihrer Bau- und Betriebskosten zu vergleichen. Es lohnt sich nur eine Verringerung des Brennstoffverbrauches, wenn die dadurch eingesparten Kosten höher als die hierfür nötigen Investitionen sind. Bei den geringen Uranpreisen ein müßiges Unterfangen. Gleiches gilt für die ohnehin geringen Mengen an Spaltprodukten („Atommüll“) als Abfall, der langfristig (nicht Millionen Jahre!) gelagert werden muß.

Der Betriebsstoff Wasser

Wasser erfüllt in einem Kernkraftwerk drei Aufgaben gleichzeitig: Moderator, Kühlmittel und Arbeitsmedium. Es bremst die bei der Kernspaltung frei werdenden Neutronen auf die erforderliche Geschwindigkeit ab, führt in nahezu idealer Weise die entstehende Wärme ab und leistet als Dampf in der Turbine die Arbeit. Vergleicht man die Abmessungen gasgekühlter Reaktoren mit Leichtwasserreaktoren, erkennt man sofort die überragenden Eigenschaften von Wasser. Es ist kein Zufall, daß heute z. B. alle Reaktoren in Atom-U-Booten ausnahmslos Druckwasserreaktoren sind. Je kompakter ein Reaktor ist, um so kleiner ist das notwendige Bauvolumen. Je kleiner ein Gebäude sein muß, desto geringer können die Baukosten sein.

Der Reaktorkern

Der Kern (Core) ist der eigentliche nukleare Bereich in einem Kernkraftwerk, in dem die Kernspaltung statt findet. Er sollte möglichst kompakt sein. Er besteht aus hunderten von Brennelementen, die wiederum aus jeweils hunderten von Brennstäben zusammengesetzt sind. Ein Brennstab ist ein mit Uranoxid gefülltes, bis zu fünf Meter langes, dabei aber nur etwa einen Zentimeter dickes Rohr. Ein solcher Spagetti besitzt natürlich kaum mechanische Stabilität (z. B. bei einem Erdbeben) und wird deshalb durch diverse Stützelemente zu einem Brennelement zusammengebaut. Erst das Brennelement ist durch die genaue Dimensionierung und Anordnung von Brennstäben und wassergefüllten Zwischenräumen das eigentliche Bauelement zur Kernspaltung. Die einzuhaltenden Fertigungstoleranzen stehen bei einem solchen Brennelement einer mechanischen „Schweizer Uhr“ in nichts nach.

Der Brennstab ist das zentrale Sicherheitselement – gern auch als erste von drei Barrieren bezeichnet – eines Kernreaktors. Der Brennstoff (angereichertes Uran oder Mischoxid) liegt in einer keramischen Form als Uranoxid vor. Dies ist eine chemisch und mechanisch äußerst stabile Form. Der Brennstab soll alle „gefährlichen“ Stoffe von der ersten bis zur letzten Stunde seiner Existenz möglichst vollständig zurückhalten. Er ist chemisch so stabil, daß er in der Wiederaufarbeitungsanlage nur in heißer Salpetersäure aufzulösen ist. Grundsätzlich gilt: Je besser er die Spaltprodukte und den Brennstoff zurückhält, um so geringer ist bei einem Störfall die Freisetzung. Wohl gemerkt, Freisetzung innerhalb des Druckgefäßes, noch lange nicht in die Umwelt! Deshalb bezeichnet man den Brennstab auch als erste Barriere, die Schadstoffe auf ihrem langen Weg in die Umwelt überwinden müßten.

In dem Brennstab findet die eigentliche Kernspaltung statt. Fast die gesamte Energie wird genau an diesem Ort frei. Die bei der Spaltung frei werdenden Neutronen müssen nun (fast) alle aus dem Brennstab raus, rein in den genau definierten Wasserspalt zwischen den Brennstäben um dort abgebremst zu werden und wieder zurück in einen Brennstab, um dort die nächste Spaltung auszulösen. Es geht für die Neutronen (fast) immer mehrere Male durch die Brennstabhülle. Sie darf deshalb möglichst keine Neutronen wegfangen. Zirkalloy hat sich zu diesem Zweck als idealer Werkstoff für die Hüllrohre erwiesen. Diese Rohre haben jedoch bei einem schweren Störfall (TMI und Fukushima) eine fatale Eigenschaft: Sie bilden bei sehr hohen Temperaturen im Kontakt mit Wasserdampf Wasserstoffgas, der zu schweren Explosionen führen kann. Wohl jedem, sind die Explosionen der Kraftwerke in Fukushima noch in Erinnerung.

Bei einem Reaktorkern hat die Geometrie entscheidende Auswirkungen auf die Kernspaltung. Bei einer Spaltung im Zentrum des Kerns haben die frei werdenden Neutronen einen sehr langen Weg im Kern und damit eine hohe Wahrscheinlichkeit, eine weitere Spaltung auszulösen. Neutronen, die am Rand entstehen, haben demgegenüber eine hohe Wahrscheinlichkeit einfach aus dem Kern heraus zu fliegen, ohne überhaupt auf einen weiteren spaltbaren Kern zu treffen. Sie sind nicht nur für den Reaktor verloren, sondern können auch schädlich sein (z. B. Versprödung des Reaktordruckgefäßes oder zusätzlicher Strahlenschutz). Es gibt hierfür zahlreiche Strategien, dem entgegen zu wirken: Unterschiedliche Anreicherung, Umsetzung im Reaktor, abbrennbare Neutronengifte, Reflektoren etc. Verschiedene Hersteller bevorzugen unterschiedliche Strategien.

Brennstäbe

Die Brennstäbe müssen einige sich widersprechende Anforderungen erfüllen:

  • Je dünnwandiger die Hüllrohre sind, desto weniger Neutronen können dort eingefangen werden und je kleiner muß die treibende Temperaturdifferenz innen zu außen sein, damit die enormen Wärmemengen an das Kühlwasser übertragen werden können. Je dünner aber, je geringer die Festigkeit und die Dickenreserve gegen Korrosion.
  • Der Brennstoff selbst soll möglichst stabil sein. Uranoxid erfüllt diesen Anspruch, hat aber eine sehr schlechte Wärmeleitfähigkeit. Die Brennstäbe müssen deshalb sehr dünn sein, was nachteilig für ihre mechanische Stabilität ist. Es kann bei Leistungssprüngen sehr schnell zum Aufschmelzen im Innern des Brennstoffes kommen, obwohl es am Rand noch recht kalt ist. Dadurch kommt es zu entsprechenden Verformungen und Ausgasungen, die sicher beherrscht werden müssen.
  • Das umgebende Wasser ist nicht nur Moderator, sondern auch Kühlung für den Brennstab. Eine ausreichende Kühlung ist nur durch eine Verdampfung auf der Oberfläche möglich. Kernreaktoren sind die „Maschinen“ mit der höchsten Leistungsdichte pro Volumen überhaupt. Das macht sie so schön klein, verringert aber auch die Sicherheitsreserve bei einem Störfall. Fallen sie auch nur einen Augenblick trocken, reicht selbst bei einer Schnellabschaltung die Nachzerfallswärme aus, um sie zum Glühen oder gar Schmelzen zu bringen. In dieser Hitze führt die Reaktion der Brennstoffhülle mit dem vorhandenen Dampf zur sofortigen Zersetzung unter Wasserstoffbildung. Beides geschah in den Reaktoren von Harrisburg und Fukushima.
  • Der Zwischenraum mit seiner Wasserfüllung als Moderator erfüllt eine wichtige Selbstregelfunktion. Damit überhaupt ausreichend Kerne gespalten werden können, müssen die Neutronen im Mittel die „richtige“ Geschwindigkeit haben. Diese wird durch den Zusammenstoß mit einem Wasserstoffatom erreicht. Damit dies geschehen kann, müssen sie eine gewisse Anzahl von Wassermolekülen auf ihrem Weg passiert haben. Da die Spalte geometrisch festgeschrieben sind, hängt die Anzahl wesentlich von der Dichte ab. Mit anderen Worten: Vom Verhältnis zwischen Dampf und Wasser im Kanal. Macht die Leistung einen Sprung, verdampft mehr Wasser und die Dichte nimmt ab. Dadurch werden weniger Neutronen abgebremst und die Anzahl der Spaltungen – die der momentanen Leistung entspricht – nimmt wieder ab.
  • Der Brennstoff wird bei Leichtwasserreaktoren nur in der Form kompletter Brennelemente gewechselt. Da aber kontinuierlich Spaltstoff verbraucht wird, muß am Anfang eine sog. Überschußreaktivität vorhanden sein. Wenn am Ende des Ladezyklus noch so viel Spaltstoff vorhanden ist, daß eine selbsterhaltende Kettenreaktion möglich ist, muß am Anfang zu viel davon vorhanden gewesen sein. Dieses zu viel an Spaltstoff, muß über sog. Neutronengifte kompensiert werden. Das sind Stoffe, die besonders gierig Neutronen einfangen und sie somit einer weiteren Spaltung entziehen. Je nach Reaktortyp kann das durch Zusätze im Brennstoff oder Kühlwasser geschehen.
  • Die Leistungsregelung eines Reaktors geschieht hingegen über Regelstäbe, die in Leerrohre in den Brennelementen eingefahren werden können. Die Regelstäbe bestehen ebenfalls aus Materialien, die sehr stark Neutronen einfangen. Fährt man sie tiefer ein, fangen sie mehr Neutronen weg und die Anzahl der Spaltungen und damit die Leistung, wird geringer. Zieht man sie heraus, können mehr Neutronen ungestört passieren und die Leistung steigt. Bei einer Schnellabschaltung werden sie alle – möglichst schnell – voll eingefahren.

Die eigentliche Stromerzeugung

In einem Kernkraftwerk wird – wie in jedem anderen Kraftwerk auch – die elektrische Energie durch einen Generator erzeugt. Dieser Generator wird in einem Kernkraftwerk durch eine sogenannte Nassdampfturbine angetrieben. Das ist ein wesentlicher Unterschied zu einem fossil befeuerten Kraftwerk. Bei denen wird möglichst heißer Dampf (bis 580 °C) auf die Turbine geschickt. Dieser wird nach einer gewissen Arbeitsleistung sogar wieder entnommen und noch einmal im Kessel neu erhitzt (z. B. Zwischenüberhitzung bei 620 °C). Prinzipiell erhöhen diese Maßnahmen den Wirkungsgrad und machen vor allem die Turbine kleiner und preiswerter.

Das Hauptproblem einer Nassdampfmaschine sind die großen Dampfvolumina und der Wassergehalt des Dampfes. Turbinen von Leichtwasserreaktoren haben üblicherweise einen Hochdruck und drei doppelflutige Niederdruckstufen auf einer gemeinsamen Welle. Trotzdem sind die Endstufen damit über 2 m lang und drehen sich mit Überschallgeschwindigkeit. Dadurch wirken auf jedes Blatt Fliehkräfte von über 500 to. In den Kondensatoren herrscht Hochvakuum, wodurch der Dampf mit der zugehörigen Schallgeschwindigkeit strömt. Die sich bereits gebildeten Wassertröpfchen wirken wie ein Sandstrahlgebläse auf die Turbinenschaufeln. Grundsätzlich gilt, je „kälter“ man mit dem Dampf in die Turbinenstufe rein geht, desto höher wird der Wasseranteil bei vorgegebenem Enddruck.

Die Entwässerung ist bei einer Nassdampfmaschine sehr aufwendig und damit teuer. Man versucht möglichst viel Wasser aus den Leitstufen abzusaugen und verwendet auch noch zusätzliche Tröpfchenabscheider außerhalb der Turbine. Vor den Niederdruckstufen überhitzt man den Dampf noch durch Frischdampf. All diese Maßnahmen verursachen aber Druckverluste und kosten nutzbares Gefälle.

Instrumentierung

Es ist von entscheidender Bedeutung, daß das Bedienungspersonal in jedem Augenblick einen möglichst genauen und detaillierten Überblick über die Zustände im Kraftwerk hat. Nur bei genauer Kenntnis der tatsächlichen Lage, können die richtigen Schlüsse gezogen werden und wirksame Gegenmaßnahmen eingeleitet werden. Dies ist die leidige Erfahrung aus allen Störfällen. Der Meßtechnik kommt deshalb große Bedeutung zu. Sie muß in ausreichender Auflösung (Stückzahl) vorhanden sein und zuverlässige Informationen in allen Betriebszuständen liefern.

In diesem Sinne spielen die Begriffe „Redundanz“ und „Diversität“ eine zentrale Rolle:

  • Alle wichtigen Betriebsgrößen werden mehrfach gemessen. Dies gibt Sicherheit gegen Ausfälle. Zusätzlich kann man bei einer mehrfachen – üblicherweise 4-fachen – Messung, Vertrauen zu den Meßwerten herstellen. Bei sicherheitsrelevanten Meßwerten (z. B Druck und Temperatur im Reaktordruckgefäß), die über eine Schnellabschaltung entscheiden, gilt das 3 von 4 Prinzip: Jede Größe wird gleichzeitig 4-fach gemessen. Anschließend werden die Meßwerte verglichen und es werden nur die drei ähnlichsten als Grundlage weiterer Auswertungen verwendet. Man erkennt damit augenblicklich, welche Meßstelle gestört ist und an Hand der Abweichungen untereinander, wie glaubwürdig die Messung ist.
  • Jedes Meßverfahren liefert nur in bestimmten Bereichen Ergebnisse mit hinreichender Genauigkeit. Dies ist eine besondere Herausforderung in einer Umgebung, die sich ständig verändert. So sind z. B. bestimmte Meßverfahren für den Neutronenfluß stark temperaturabhängig. Es ist deshalb üblich, unterschiedliche physikalische Methoden gleichzeitig für dieselbe Messgröße anzuwenden. Damit sind einfache Plausibilitätskontrollen möglich. Dies ist besonders bei Störfällen wichtig, bei denen die üblichen Bereiche schnell verlassen werden.

Digitalisierung und Sicherheit

Es gibt bei einem Kernkraftwerk alle möglichen Grenzwerte, die nicht überschritten werden dürfen. Wird ein solcher Grenzwert erreicht, wird vollautomatisch eine Schnellabschaltung ausgelöst. Jede Schnellabschaltung ergibt nicht nur einen Umsatzausfall, sondern ist auch eine außergewöhnliche Belastung mit erhöhtem Verschleiß. Das Problem ist nur, daß die Vorgänge in einem solch komplexen System extrem nichtlinear sind. Gemeint ist damit, daß „ein bischen Drehen“ an einer Stellschraube, einen nicht erwarteten Ausschlag an anderer Stelle hervorrufen kann.

Die moderne Rechentechnik kann hier helfen. Wenn man entsprechend genaue mathematische Modelle des gesamten Kraftwerks besitzt und entsprechend leistungsfähige Rechner, kann man jede Veränderung in ihren Auswirkungen voraussagen und damit anpassen bzw. gegensteuern. Nun haben aber auch Computerprogramme Fehler und sind schwer durchschaubar. Es tobt deshalb immer noch ein Glaubenskrieg zwischen „analog“ und „digital“. Dies betrifft insbesondere die geforderte Unabhängigkeit zwischen der Regelung und dem Sicherheitssystem.

Seit Anbeginn der Reaktortechnik ist die Aufmerksamkeit und Übung des Betriebspersonals ein dauerhaftes Diskussionsthema. Insbesondere im Grundlastbetrieb ist die Leitwarte eines Kernkraftwerks der langweiligste Ort der Welt: Alle Zeiger stehen still. Passiert etwas, verwandelt sich dieser Ort augenblicklich in einen Hexenkessel. Die Frage ist, wie schnell können die Menschen geistig und emotional Folgen? Wie kann man sie trainieren und „aufmerksam halten“? Die allgemeine Antwort lautet heute: Ständiges Üben aller möglichen Betriebszustände und Störfälle im hauseigenen Simulator. Das Schichtpersonal eines Kernkraftwerks verbringt heute wesentlich mehr Stunden im Simulator, als jeder Verkehrspilot. Die zweite „Hilfestellung“ ist im Ernstfall erst einmal Zeit zu geben, in der sich das Personal sammeln kann und sich einen Überblick über die Lage verschafft. Dies sind die Erfahrungen aus den Unglücken in Harrisburg und Tschernobyl. Dort haben Fehlentscheidungen in den ersten Minuten die Lage erst verschlimmert. Eine ganz ähnliche Fragestellung, wie bei Flugzeugen: Wer hat das sagen, der Pilot oder die Automatik? Eine Frage, die nicht eindeutig beantwortet werden kann, sondern immer zu Kompromissen führen muß.

Ausblick

Wer bis hier durchgehalten hat, hat nicht vergebens gelesen. Ganz im Gegenteil. In den folgenden Beiträgen werden die Reaktoren jeweils einzeln vorgestellt. Um die Unterschiede klarer zu machen, wurden hier vorab einige grundlegende Eigenschaften behandelt. Zuerst werden die Druckwasserreaktoren EPR von Areva und AP-1000 von Westinghouse behandelt und dann die Siedewasserreaktoren ABWR und der ESBWR von GE-Hitachi. Das entspricht in etwa dem derzeitigen Ausbauprogramm in Großbritannien. Soweit Zeit und Lust des Verfassers reichen, werden noch die russischen (Türkei, Finnland, Ungarn) und die chinesisch/kanadischen Schwerwasserreaktoren (Rumänien) folgen.

Ein Strommarkt für die Energiewende

Das Diskussionspapier des Bundesministeriums für Wirtschaft und Energie – Grünbuch – ist gerade erschienen und kann kostenlos unter Grünbuch heruntergeladen werden. Warum das Ding nun ausgerechnet Grünbuch heißt, mag der Minister Gabriel wissen: Vielleicht soll es ja Assoziationen zum Grünen Buch eines bereits verjagten sozialistischen Potentaten aus Nordafrika wecken. Zumindest an Komik und Absurdität steht es ihm kaum nach. Es ist ebenfalls der Versuch, eine ideologische Kopfgeburt durch schwülstige Worte rechtfertigen zu wollen.

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert:

Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen.

Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition „gute Energie“. Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte… Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den „Treibhausgasemissionen“ wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur „richtig“ interpretieren können.

Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke.

Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt „innerlich schon immer dagegen waren“ oder gleich besser „von allem nichts gewusst haben“ wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die „Energiewende“ und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird:

Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab.

Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt. Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das „Stück Papier“ an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von „Marktsignalen“ erzählt, die von der Börse ausgehen. Wenn von der Strombörse „Marktsignale“ ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlich über die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.

Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros:

Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen. 

Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat:

Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden.

Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.

Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse:

In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind.

Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein:

Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete.

Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters – und in seinem damaligen Lebensabschnitt Bundeskanzlers – Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals – und inzwischen wieder – von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem „badischen Atomkonzern“, der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den „Atomausstieg“ verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die „Klimakatastrophe“. Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als „Wendeminister“: Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?

Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon „Atomausstieg“ zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort „Strommarktliberalisierung“ getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.

Manche Sätze sind von beängstigender Klarheit:

Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten.

Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das „Marktbereinigung“, in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.

Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen:

2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt.

Die damals stillgelegten Kernkraftwerke, waren die „alten und kleinen“. Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz:

Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten.

Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan „Die Sonne schickt keine Rechnung“ ein bescheidenes Vermögen gemacht hat.

Hier ist es wieder, das übliche ideologische Geschwafel:

Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt.

Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf – also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne „Erneuerbare“ gar nicht vorhandener Regelungsbedarf.

Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt:

Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren.

Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.

Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten:

Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet.

Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der „Erneuerbaren“. Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der „Erneuerbaren“. Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.

Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift

Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit.,

zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland – und man ist ja weltmännisch – der 7. Januar 2014 in USA. Sätze wie

… eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken.

lassen – zumindest bei Genossen – sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die „Energiewende“ zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an „Erneuerbaren“ verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.

Noch toller ist das Beispiel aus den USA:

Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden.

So ist das nun mal, wie das Windrad Wind braucht, brauchen die „flexiblen und klimafreundlichen“ Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität – die nur wenige Stunden im Jahr gebraucht wird – finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!

In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln:

Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen.

Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten – sonst die ärgsten Feinde aufrechter Sozialdemokraten – können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter:

Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden.

Der dümmliche Werbeslogan „Die Sonne schickt keine Rechnung“ wird auf Ministerebene „zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie“ umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er „effizient und sicher in das System integriert“. Mein absoluter Lieblingssatz folgt erst kurz danach:

Mein absoluter Lieblingssatz folgt erst kurz danach:

Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen.

Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der „Hauptstadt der DDR“ wären vor Rührung die Tränen gekommen bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen:

Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden.

Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).

Manche Aussagen sind schlicht dummdreist:

Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien).

Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll:

Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken.

Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter:

Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient.

Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung – sprich die Abschaltung der Anlagen bei Überproduktion.

So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können:

Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein.

Man will sich das Abschalten als „negative Regelleistung“ vergüten lassen – hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt:

Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken.

Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich „geregelt“ eingespeist werden soll? Der „Biostrom“ würde damit noch teurer. Die „Schwachwindturbinen“ und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird:

Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können.

Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös:

Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden.

Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?

Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist:

Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften.

Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter – aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder:

Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus.

Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.

Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd „Stromautobahnen“ begründet:

Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden.

Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen – hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der „Energiewende“, für die wir Bürger zahlen müssen.

Ebenso irrsinnig und rein ideologisch begründet ist die Annahme:

Der Stromhandel unterstellt ein Netz ohne Engpässe.

Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.

Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert:

Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden.

Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke – was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?

Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft:

Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann.

Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere „Energieexperten“ noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt:

Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden.

Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn eine Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.

Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt:

Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone.

Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage:

Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen.

Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger – gemeint sind ja wohl eher Windmüller und Sonnenfarmer – reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen?

Geradezu schizophren sind die folgenden Sätze:

Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern.

Also die stochastische (zufällige) Erzeugung durch „Erneuerbare“wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!

Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden.

Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von „Marktsignalen“ wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen – Flaute und Dunkelheit zählen nicht dazu – sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.