Wie soll Plutonium beseitigt werden?

Durch den Baustopp der Mischoxid-Anlage zur Vernichtung von überschüssigem „Waffenplutonium“ in den USA, ist dort wieder eine Grundsatzdebatte losgetreten worden. Nach den Zahlen des International Panel on Fissile Materials (IPFM) gibt es zur Zeit etwa 216 to „Waffenplutonium“ (in Kernwaffen verbaut und als Reserve) und etwa 271 to „ziviles Plutonium“ aus der Wiederaufbereitung von Kernbrennstoffen weltweit. Das Ganze ist also beileibe kein rein akademisches Problem.

Die Kernwaffen-Frage

Wenn man wirkliche Abrüstung will und nicht nur das Einlegen einer Pause, dann muß man nicht nur Trägersysteme und Kernwaffen verschrotten, sondern auch das „Bombenmaterial“ vernichten. Gerade dessen Herstellung — ob Plutonium oder höchst angereichertes Uran — ist der zeit- und kostenaufwendigste Teil bei einer „atomaren Aufrüstung“. Insofern war der Vertrag zwischen den USA und Rußland ihr Überschussplutonium zu vernichten, der einzig richtige Weg. Die Russen gehen nun den Weg — mit vollerZustimmung der USA — ihren Anteil an Überschüssen in ihren schnellen, natriumgekühlten Reaktoren als Brennstoff zu verwenden. Ganz so einfach und schnell geht das aber auch nicht. Selbst der größte „Brüter“ mit 800 MWel braucht überschlägig weniger als 5 to Plutonium für seine Erstbeladung. Es wird deshalb auch dort noch einige Jahre bis Jahrzehnte dauern, bis zumindest der Überschuß soweit „denaturiert“ ist, daß man ihn nie mehr zur Produktion von Kernwaffen einsetzen kann.

Die zivile Herkunft

Für die zivile Produktion von Plutonium aus abgebrannten Brennstäben gab es drei Beweggründe:

  1. Als Erstbeladung für schnelle Brüter
  2. Zur Streckung des Uranverbrauchs über MOX-Elemente
  3. Um das Volumen des „Atommülls“ zu verringern und die „Endlager-Anforderungen“ drastisch zu senken.

Brüter

Noch in den 1960er Jahren ging man von sehr begrenzten Vorräten an förderbarem Natururan aus. Man befürchtete eine baldige Preisexplosion. Gerade „Atomkraftgegner“ haben immer wieder dieses Argument für ihre Propaganda mißbraucht. In Wirklichkeit hängen die förderbaren Vorräte — wie beim Öl — immer vom Uranpreis selbst und von der technologischen Entwicklung ab. Nach heutigen Erfahrungen sind die Natururanvorräte nahezu unendlich. Sehr viel wichtiger ist das Verhältnis zwischen „Strompreis“ und „Brennstoffpreis“. Je 100 $US pro kg Natururan schlägt es mit 0,002 $US pro kWh (!) auf die Stromerzeugungskosten nieder. Wenn schon die Sonne keine Rechnung schickt, tut es die Uranader auch nicht.

Jedenfalls haben wir schon heute mit über 271 to Plutonium aus der Wiederaufbereitung abgebrannter Brennelemente weltweit einen beachtlichen Vorrat für den Start in die Technologie mit schnellen Reaktoren. Wir könnten damit auf einen Schlag 30.000 MWel Schnelle-Brüter bauen.

MOX-Elemente

Die Verwendung von einer Mischung aus Uranoxid und Plutoniumoxid (MOX) in Leichtwasserreaktoren (LWR) kann nur eine Übergangslösung sein. Zwar kann man dadurch Natururan ersetzen, aber der Aufwand steht in keinem wirtschaftlichen Verhältnis zum Nutzen. Zur Verringerung der Plutonium Vorräte trägt es auch nur wenig bei, da in einem LWR etwa für 10 Kerne die gespalten werden, gleichzeitig 6 neue Plutoniumkerne gebildet werden.

Außerdem verschlechtert sich die Isotopenzusammensetzung: Es bilden sich immer mehr Minore Aktinoide, was sowohl die Verarbeitung erschwert, als auch den „Restmüll“ aus der Wiederaufbereitung immer langlebiger macht.

Schon bei der Herstellung von MOX-Brennstäben bleiben etwa 10 bis 15% nach der erforderlichen Reinigung des Eingangsmaterials übrig. Diese gehen meist direkt in den Abfallstrom zur Endlagerung. Es lohnt einfach nicht, aus diesem Abfall noch das Rest-Plutonium zu extrahieren.

Hier sieht man auch den Vorteil metallischen Brennstoffs als Uran-Plutonium-Zirconium-Legierung, wie sie z. B. in PRISM-Reaktoren verwendet werden soll: In ihr kann aller „Dreck“ mit verarbeitet werden und erneut dem Reaktor zur Behandlung zugeführt werden.

Wiederaufbereitung

Abgebrannte Brennelemente enthalten immer noch rund 95% Uran und etwa 1% Plutonium. Anders herum, sind im Sinne der Energieerzeugung nur etwa 4% Abfall. Dies ist die Asche der Kernenergie, die sicher deponiert werden muß. Durch das Recycling ergibt sich eine erhebliche Reduzierung des Abfalls. Man vergleiche dies einmal mit z. B. Altpapier oder gar Plastik.

Eine Wiederaufbereitung ist ein rein chemischer Prozeß. Es wird — anders als im Reaktor — keine Radioaktivität erzeugt, sondern schlimmstenfalls bereits vorhandene radioaktive Stoffe verschleppt. Dies kann aber durch Dekontamination wieder beseitigt werden. Wenn man früher alle Rohre, Schutzkleidung, Werkzeuge, Chemikalien etc. einfach weggeworfen hat, geschah dies aus Kostengründen.

„Atomkraftgegner“ versuchen diese Tatsachen immer noch zu leugnen. Ist doch die „angeblich ungelöste Atommüll-Frage“ ziemlich das letzte Argument, was ihnen gegen die friedliche Nutzung der Kernenergie geblieben ist. Wird dieser Schwindel auch in breiten Bevölkerungskreisen erkannt, ist es aus mit der Angstindustrie. Sie braucht dann dringend neue Phantome um ihre Einnahmen zu sichern.

Nachhaltigkeitsproblematik

In der Szene der „Atomkraftgegner“ ist das Neusprechwort „Nachhaltigkeit“ eine Grundvokabel der Propaganda. Zwar ist diese Försterweisheit [Wenn du mehr Bäume abholzt, als gerade nachwachsen, ist der Wald irgendwann futsch. Nur, gäbe es heute gar kein Deutschland, wenn die alten Germanen schon dem statischen Denken der Melonen-Partei verfallen gewesen wären] schon immer fragwürdig gewesen, hört sich aber gut an.

Wenn man 1 gr Plutonium spaltet, ist es nicht nur unwiederbringlich weg, sondern hat auch noch etwa 22800 kWh Energie geliefert. Wenn man also 70 to überflüssig gewordenes „Waffen-Plutonium“ in Kernreaktoren spaltet, entspricht das dem Energiegehalt von 210 Millionen to Kohle oder 910 Millionen barrel Öl. Damit ließen sich rund 630 TWh elektrische Energie erzeugen (mehr als ein Jahresverbrauch von Deutschland). Eine hübsche Friedensdividende, wenn nicht die verdammte „Grüne Ideologie“ davor stehen würde.

Geht nun Gefahr von Plutonium aus oder doch nicht?

Was „Waffen-Plutonium“ betrifft, ist die Frage eindeutig zu beantworten: Die Sicherheit — im Sinne von Diebstahl etc. — ist zwingend einzuhalten. Es ist ähnlich, wie mit Sprengstoffen: Sie sind an und für sich harmlos — wenn man damit nicht Menschen in die Luft sprengen könnte.

Wie verhält es sich aber mit Plutonium an sich? An den Lagerfeuern von Gorleben erzählt man sich die schaurigsten Geschichten von „wenigen Gramm, die die ganze Menschheit töten können“. Dies ist absoluter Blödsinn! Reines Plutonium ist ein α-Strahler, man kann es deshalb gefahrlos in die Hand nehmen. Dies geschah und geschieht in zahlreichen Labors und in der Waffenproduktion täglich. Schäden sind nicht bekannt. Solange man es nicht als Feinstaub einatmet oder mit der Nahrung zu sich nimmt, passiert rein gar nichts. Selbst bei einer Aufnahme in den Körper, spielt die chemische Verbindung eine große Rolle, in der es vorliegt. Seine (chemische) Wirkung als ein Schwermetall übertrifft meist sogar seine Strahlungswirkung.

Damit ergibt sich für „Atomkraftgegner“ ein schwierig zu lösendes Dilemma: Ist Plutonium ganz, ganz gefährlich, müßte man es zwingend aus der Welt schaffen. Dummerweise erzeugt aber Kernspaltung große Mengen an Energie. Ist es aber nicht so gefährlich, könnte man es problemlos lagern. Die „weltweit ungelöste Endlagerfrage“ — das zentrale Argument der Angstindustrie in Deutschland — platzt wie eine Seifenblase. Es bleibt daher nur der erprobte und erfolgreiche Weg, die Kosten in die Höhe zu treiben, um anschließend sagen zu können, die friedliche Nutzung der Kernenergie sei leider total unwirtschaftlich. Eigentlich ganz leicht zu durchschauen.

WIPP, das Gorleben der USA

In den USA gibt es überall große Mengen von „Atommüll“ aus den staatlichen Forschungslabors und der Kernwaffenproduktion. Manchmal sind ganze Landstriche noch Sperrgebiet. Es stand außer Frage, daß diese Gebiete nach und nach saniert werden müssen. Aber wohin mit dem Abfall? Ein Endlager mußte her, wollte man das Problem nicht den nachfolgenden Generationen aufbürden. Es entstand das Waste Isolation Pilot Plant (WIPP) in Carlsbad, New Mexico. Ein Endlager, in dem der gesamte hochaktive Müll aus Forschung und (militärischer) Wiederaufbereitung verschwinden soll. Ausdrücklich auch Plutonium. Dies ist nicht ganz unwichtig, denn wir haben es damit mit wesentlich langlebigerem „Atommüll“ zu tun, als dem aus z. B. der französischen Wiederaufbereitung von Kernbrennstoffen. Auch dies wird in Deutschland gern verschwiegen. Ist doch hier aus ideologischen Gründen der „Ausstieg aus der Atomenergie“ gefordert. Diesem Diktat haben sich selbstverständlich Sicherheit und Kosten unter zu ordnen. Die Stützung einer kleinen Partei — als potentiellem Koalitionspartner zum Erhalt des Machtgefüges — hat absoluten Vorrang.

Die Ironie an der Geschichte ist, daß das WIPP ein Abbild des Endlagers in Gorleben ist. Man hat es in einem Salzstock in 655 m Tiefe als Kavernenfeld von 1,6 x 1,4 km angelegt. Es werden dort Kammern bergmännisch aus dem Salz aufgefahren, in denen die „Müllbehälter“ gestapelt werden. Wichtig ist, es handelt sich hier nicht um ein altes Salzbergwerk wie bei den Schachtanlagen Asse und Morsleben, sondern eine ausschließlich für die Endlagerung geplante und neu gebaute Anlage. Es ist aber auch kein Zufall, daß man einst in USA und Deutschland einen Salzstock als das ideale Wirtsgestein für ein Endlager angesehen hat. Salz ist plastisch und umschließt langfristig „selbstabdichtend“ den Atommüll. Außerdem ist es ein Rohstoff, der im Überfluß vorhanden ist, was eine etwaige spätere Nutzung ausschließt. Die Baukosten betrugen in den 1980er Jahren rund 700 Millionen $US. Ein geradezu lächerlicher Betrag, wenn man ihn mit der „Geldvernichtungsmaschine“ Gorleben vergleicht.

In Deutschland fängt man gerade an, „ergebnisoffen“ einen neuen Standort zu suchen: Alles außer Gorleben, den Wallfahrtsort der Öko-Sozialistischen Bewegung. Wie putzig dieses neue Suchverfahren abläuft, sieht man schon an dem geforderten „strikten Bohrverbot“ für Gebiete, die von der „Endlagerkommission“ für potentiell würdig erachtet werden. Fährt man auf der kilometerlangen Zufahrtsstraße zum WIPP, hat man tunlichst auf zwei Dinge zu achten: Die halbwilden Rinder, die links und rechts grasen und die LKW und Tanklaster, die in unendlichem Strom zu den Bohrstellen rasen. Der Salzstock liegt mitten in einem Ölfördergebiet — was für Geologen nicht weiter verwunderlich ist. In Sichtweite rund um das WIPP sieht man zahlreiche Bohrtürme. Kein Mensch stört sich daran. Auch nicht die Rancher, deren überlebenswichtige Wasservorräte (Wüstengebiet) durchbohrt oder mit Atommüll unterfüttert werden.

Ausblick

Die letzte Folge dieser kleinen Serie wird sich mit den verschiedenen „Immobilisierungen“ für Plutonium beschäftigen.

Thorcon – neue Reaktoren aus/mit Indonesien?

Das US-Unternehmen Thorcon will Salzbadreaktoren in Indonesien bauen.

Indonesien

Für ein besseres Verständnis, erscheinen ein paar Worte über die Energiesituation in Indonesien angebracht. Indonesien besteht aus über 17000 Inseln und ist mit 253 Millionen Einwohnern (Stand 2014) das viertgrößte Land der Erde. Als Schwellenland hat es einen rasanten Anstieg des Primärenergieverbrauches zu verzeichnen. In der Dekade zwischen 2003 und 2013 um 43%. Die Hauptenergieträger sind Öl, Kohle und Erdgas. Indonesien ist seit 1885 ein Ölförderland. Inzwischen ist die Nachfrage durch Bevölkerungs- und Wirtschaftswachstum so stark gestiegen, daß es seit etwa 2003 Nettoölimporteur ist.

Es besitzt auch große Erdgasvorkommen (Platz 13 in der Weltrangliste, Platz 2 in Asien) und ist immer noch Nettoexporteur. Der Verbrauchsanstieg ist aber so groß, daß es neuerdings sogar Erdgas als LNG aus den USA importiert (20 Jahresvertrag mit Cheniere). Hinzu kommt die ungleiche Verteilung im Inselreich.

Eigentlich ist Indonesien Kohlenland mit über 500 Millionen Tonnen jährlich. Davon werden rund 80% exportiert (weltweit größter Exporteur nach Masse). Trotzdem beträgt der Inlandsverbrauch rund 80 Millionen Tonnen mit stark steigender Tendenz wegen des Zubaues von Kohlekraftwerken.

In Indonesien sind erst 84% der Bevölkerung überhaupt an das Stromnetz angeschlossen. Bei bisher erst 51 GWel installierter Leistung (88% fossil, davon 50% Kohle) ist das Netz chronisch überlastet. Die häufigen Zwangsabschaltungen sind eine enorme Belastung für Bevölkerung und Industrie.

Traurige Berühmtheit erlangte Indonesien durch die Brandrodung des Regenwaldes zur Anpflanzung gigantischer Palmölplantagen. Auch hier wieder ökosozialistische Wahnvorstellungen als entscheidende Triebkraft: Biokraftstoffe und Holzschnitzel zur „Klimarettung“ und gegen „Peakoil“.

Indonesiens Weg in die Kernenergie

Langfristig kommt Indonesien als bevölkerungsreiches Schwellenland – genauso wie China und Indien – nicht ohne eine Nutzung der Kernenergie aus. Man will aber offensichtlich einen etwas anderen Weg gehen: Nicht der schnelle Einstieg durch den Kauf fertiger Kraftwerke steht im Vordergrund, sondern der Aufbau einer eigenen kerntechnischen Industrie. Konsequent setzt man auf die Entwicklung „neuer“ Kernreaktoren. Dies ist zwar mit einem erheblichen Risiko verbunden, erlaubt aber eine konsequente Anpassung an lokale Verhältnisse und vermeidet hohe Lizenzgebühren. Für ein Inselreich bieten sich kleine Reaktoren (SMR) an, bevorzugt als schwimmende Einheiten.

Eine Entwicklungsschiene ist ein gasgekühlter Hochtemperaturreaktor mit Uran als TRISO Kugelhaufen. Der Prototyp RDE (Reaktor Daya Eksperimental) soll eine Leistung von 10 MWel haben, die später auf bis zu 100 MWel erweitert werden soll. Diese SMR (Small Modular Reactor) sind besonders für die „kleineren“ Inseln des Archipels vorgesehen. Noch dieses Jahr soll ein detaillierter Konstruktionsplan durch ein Konsortium aus Universitäten und privaten Unternehmen einer internationalen Kommission der IAEA zur Begutachtung vorgelegt werden. Grundlage für eine endgültige Entscheidung und die Finanzierung.

Schon 2015 hat die US-Firma Martingale (jetzt ThorCon International) mit einem staatlichen indonesischen Konsortium PT Industry Nuklir Indonesia (INUKI) ein Abkommen zum Bau eines Flüssigsalzreaktors abgeschlossen. Angeblich soll schon 2019 mit dem Bau begonnen werden und das erste Kraftwerk 2025 in Betrieb gehen.

Das ThorConIsle-Konzept

Der Guru der Flüssigsalzreaktoren Robert Hargraves verkündet in seinem neuesten Prospekt vollmundig, daß sein Kraftwerk weniger Investitionen als ein Kohlekraftwerk erfordern würde. Allerdings erinnert das schön bebilderte Verkaufsprospekt an einschlägige Exponate von Bauträgern: Alles schön, keine Probleme, super günstig, daher sofort kaufen.

Das Grundkonzept ist von den Russen abgekupfert: Man baut ein Schiff ohne Antrieb um zwei Reaktoren (plus dem nötigem Zubehör) herum. Alles etwas größer und schöner, versteht sich. Nur mit dem Unterschied, daß das russische Modell nach langer Bauzeit endlich schwimmt. Kein Supertanker – nur 2 x 35 MWel anstelle von 2 x 256 MWel – und „nur“ mit auf Eisbrechern erprobten Reaktoren, anstelle von frisch erfundenen Thorium-Flüssigsalz-Reaktoren. Schön wenn ein solches Kraftwerk mal gebaut wird, aber ganz gewiss nicht bis 2025 und dazu noch billiger als ein Kohlekraftwerk.

Die Idee Kernkraftwerke als Schiffe in Serie zu bauen, ist sicherlich für ein Inselreich verlockend. Nur ist eben ein Kernkraftwerk kein Supertanker (Schuhkarton ), sondern randvoll mit Technik. Insofern können die Baukosten nicht einfach übertragen werden.. Ein Schiff bleibt ein Schiff: Die Korrosionsprobleme im tropischen Meer sind gewaltig und erfordern erhöhte Betriebskosten. Ein Schiff kann auch keine „Betonburg“ (Terrorismus, Flugzeugabsturz etc.) sein. Ganz so einfach, wie im Prospekt, dürfte es nicht gehen: Man kippt einfach die Zwischenräume voll Beton und erhält so einen tollen Bunker. Wer z. B. das Genehmigungsverfahren für den AP-1000 (Sandwich aus Stahlplatten und Beton) verfolgt hat, ahnt, wie Genehmigungsbehörden ticken.

Alle Komponenten sollen zwischen 150 und 500 to schwer sein und sich sogar während des Betriebs auswechseln lassen. Auch hier scheint es mehr um Wunschdenken zu gehen.

Der Reaktor

Bei dem Reaktor handelt sich um eine Kanne, in der der eigentliche Reaktorbehälter (gen. Pot), die Umwälzpumpen und die Wärmetauscher untergebracht sind. Die Kanne wiegt knapp 400 to, wovon etwa 43 to auf die Salzfüllung entfallen. Dieses Gebilde soll spätesten nach acht Jahren komplett ausgebaut und mit einem Spezialschiff zur Wiederaufbereitung geschickt werden. Nach acht Jahren ist das Salz so voller Spaltprodukten, daß es nicht mehr weiter im Kraftwerk eingesetzt werden kann. Vor dem Transport soll es vier Jahre lagern, bis die Strahlung auf akzeptable Werte abgeklungen ist. Jeder Block hat deshalb zwei Kannen.

Die Kanne ist das Neuartige an diesem Konzept: Man tauscht nicht regelmäßig Brennstoff aus, sondern der eigentliche Reaktor ist eine „Batterie“, die komplett gewechselt wird. Vorteil dabei ist, daß man erforderliche Inspektionen und Reparaturen in einer Spezialfabrik durchführen kann. Der gesamte nukleare Teil („der strahlt.“) befindet sich in dieser Kanne. Alle anderen Komponenten sind „konventionell“. Mal sehen, was der Genehmigungsbehörde dazu alles einfällt….

Allerdings stellt das Batterieprinzip alle bisher geltenden Lehrmeinungen über Thorium-Reaktoren auf den Kopf:

  • Bisher ging man von einer kontinuierlichen Wiederaufbereitung aus. Man wollte das Spaltproduktinventar stets gering halten. So hätte man es bei einem schweren Störfall automatisch nur mit geringen Mengen zu tun.
  • Je mehr Neutronengifte – und im Sinne einer selbsterhaltenden Kettenreaktion ist schon Thorium selbst ein starker Parasit – vorhanden sind und je länger die Wechselintervalle sein sollen, um so mehr spaltbares Uran muß man am Anfang zugeben. Dieses muß auch noch möglichst hoch angereichert sein (hier geplant 19,7 %).

Das Salz

Als Brennstoff soll ein NaF – BeF2 – ThF4 – UF4 (mit 76 – 12 – 10,2 – 1,8 mol%) Salz verwendet werden. Es soll ganz tolle Lösungseigenschaften haben, die alle „gefährlichen“ Spaltprodukte zurückhalten. An dieser Stelle fällt mir immer der alte Chemikerwitz ein: Ruft der Professor überglücklich, ich habe endlich das ultimative Lösungsmittel gefunden. Antwortet der Laborant trocken, Glückwunsch und wo soll ich es jetzt hinein füllen? Bei einem solchen Salz ist das leider mehr als ein blöder Witz. Zumal hier auch noch mit Temperaturen von über 700 °C gearbeitet werden soll. Mit Schiffbaustahl (Kostenangaben) wird sich da leider gar nichts ausrichten lassen.

Beryllium und auch Berylliumfluorid sind sehr giftig und werden als krebserregend eingestuft. Wenn Beryllium ein Neutron einfängt, bildet es Helium und setzt dabei zwei Neutronen frei. Es wirkt dabei sowohl als Moderator, wie auch als Neutronenvervielfacher. Fluor und Fluorwasserstoff sind gasförmig und sehr giftig. Fluor ist äußerst reaktionsfreudig und geht mit fast allen Elementen stabile chemische Verbindungen ein. Mit Wasserstoff reagiert es letztendlich zu Flußsäure, die sogar Glas ätzt. Jede Kernspaltung zerstört auch die chemische Verbindung und neue chemische Elemente in Form der Spaltprodukte entstehen. Man hat es deshalb stets auch mit elementarem Fluor zu tun, der auch gern mit dem Strukturmaterial reagieren kann. Da Fluoride sehr reaktionsfreudig sind, reagieren sie natürlich auch wieder mit dem größten Teil der Spaltprodukte und binden diese sicher ein. Es gibt aber zwei Ausnahmen: Edelmetalle und Edelgase. Die Edelmetalle lagern sich innerhalb der Anlage ab und führen zu „Verschmutzungen“, die man regelmäßig und aufwendig wird entfernen müssen (Die Batterie doch komplett auf den Müll?). Die Edelgase müssen (eigentlich) durch Helium ständig aus dem Salz herausgespült werden.

Der immer wieder gern gehörte Hinweis aus der Salzbad-Scene auf den legendären MSRE-Reaktor, hilft in diesem Sinne leider auch nicht weiter: Er hat nur 1,5 Voll-Lastjahre (1966 bis 1969) gelaufen.

Das Sicherheitskonzept

Der Reaktor stellt sich immer selbstständig ab, wirbt ThorCon. Zwar ist dies durchaus kein Alleinstellungsmerkmal eines Flüssigsalzreaktors, aber trotzdem eine feine Sache. Locker mit „Walkaway Safe“ umschrieben. Es ist kein Hexenwerk, eine Kettenreaktion durch Überhitzung (Verkleinerung des makroskopischen Einfangquerschnittes) aus sich selbst heraus zusammenbrechen zu lassen, es bleibt aber immer noch die Nachzerfallswärme (Fukushima und Harrisburg): Sie muß entsprechend schnell abgeführt werden, sonst schmilzt der Reaktor. Auch hier gilt natürlich, je mehr Spaltprodukte im Reaktor enthalten sind (Batterie gegen kontinuierliche Aufbereitung), um so größer ist das Problem.

Die Konstrukteure von Flüssigsalzreaktoren gehen nun davon aus, daß das Salz unter allen denkbaren Umständen und überall im Reaktor schön fließfähig bleibt. Im Ernstfall läuft es dann problemlos in einen gekühlten Tank aus. Dazu denkt man sich an geeigneter Stelle einen Pfropfen als Verschluß, der während des Normalbetriebs durch permanente Kühlung erzeugt wird. Unterbricht man im Notfall die Kühlung, schmelzt das flüssige Salz den Pfropfen auf und gibt so den Weg frei. Der Nottank soll aus vielen Röhren bestehen, die über ihre Oberflächen die Wärme gegen eine Kühlwand abstrahlen. Die Wand wird mit Wasser gefüllt, welches verdampfen kann und sich in Kühltürmen auf Deck wieder niederschlägt. Das Kondensat läuft dann in die Hohlwand zurück.

Schlussbetrachtung

Indonesien muß wie jedes andere Schwellenland in die Kerntechnik einsteigen. Nicht nur zur Energiegewinnung, sondern auch um Anschluß an moderne Industriestaaten zu gewinnen. Kerntechnik ist neben Luft- und Raumfahrt die Schlüsseltechnologie schlechthin. In keiner anderen Branche kommen so viele Technologien mit ihren jeweiligen Spitzenleistungen zusammen. Insofern ist es nur konsequent, möglichst frühzeitig in die internationale Entwicklung „neuer“ Reaktortechnologien einzusteigen. Schon die Zusammenarbeit mit Spitzenuniversitäten und Hochtechnologieunternehmen stellt einen unschätzbaren Wert für die eigene Ausbildungslandschaft dar. Selbst wenn diese jungen Ingenieure später nicht in der Kerntechnik tätig werden, werden sie mit Sicherheit zu den gefragten Spitzenkräften in ihrer Heimat zählen. Keine „Entwicklungshilfe“, die „angepasste Technologie“ für die „große Transformation“ verbreiten will, wird auch nur ansatzweise vergleichbares hervorbringen. Technik – und damit die Gesellschaft –entwickelt sich halt immer nur durch machen weiter und nicht in irgendwelchen geisteswissenschaftlichen Seminaren.

SMR, aktualisierter Stand

In der letzten Zeit kommt erneut Bewegung in die Entwicklung „kleiner“ Reaktoren. Anlass für eine Aktualisierung.

Was genau, soll ein SMR sein?

Die Definition eines „SMR“ (Small Modular Reactor) ist etwas vage. In den USA beruht sie auf dem ENERGY POLICY ACT von 2015. Im Abschnitt 608 „Treatment of Modular Reactors“ ist sie wie folgend definiert: Ein Kraftwerk mit höchstens 1300 MWel Gesamtleistung, welches aus mindestens zwei Blöcken mit einer elektrischen Leistung von 100 bis 300 MWel besteht. Dies ist eine etwas sehr geschraubte Definition, aber Politiker und Juristen brauchen wohl so etwas. Wenigstens wird nichts über die anzuwendende Technik vorgeschrieben. Inzwischen gibt es SMR-Entwürfe mit den Kühlmitteln Wasser, Edelgas, Salzschmelze und Flüssigmetall in der Entwicklung.

Zu welchen technischen Verrenkungen solche politischen Akte dann führen, sieht man am Projekt von NuScale Power: Dort werden zwei Reaktoren mit einer äquivalenten Leistung von je 50 MWel auf eine gemeinsame Turbine vorgeschlagen. Förderkriterium erfüllt. Es gibt aber zahlreiche Anwendungen, wo durchaus eine kleinere (thermische) Leistung sinnvoller ist: Kleine Städte in abgelegenen Regionen (Sibirien), Militärische Stützpunkte auf Inseln (China), Ölförderung und Minen (Kanada) etc. Wie es ausschaut, sind genau hier die ersten Anwendungen zu erwarten.

Weltmarkt

Im Jahr 2016 bestand der weltweite Primärenergieverbrauch zu 85% aus fossilen Energieträgern (33% Öl, 28% Kohle und 24% Erdgas). Demgegenüber ist die Kernenergie mit 5% geradezu vernachlässigbar. Sie wurde (nahezu) ausschließlich in der Stromversorgung eingesetzt. Dies hat sie übrigens mit den wetterabhängigen Energieformen Wasserkraft (7%) und „Renewables“ (3%) gemeinsam.

Der Bedarf an elektrischer Energie wird weltweit weiter ansteigen. Nach Schätzungen gibt es derzeit 1,2 Milliarden Menschen, die über keinen Stromanschluss verfügen und fast 3 Milliarden Menschen, die nicht einmal einen Kochherd besitzen. Alles Menschen, die alles dafür geben ihren mittelalterlichen Verhältnissen zu entfliehen – ganz im Gegenteil zu gewissen übersättigten Kreisen bei uns, deren falsches Ideal genau diesem Leben im vorindustriellen Zeitalter entspricht.

Will man in den Weiten Afrikas, Indiens usw. Kernenergie nutzbar machen, sind kleine Reaktoren der einzig gangbare Weg. Mit der heutigen Standardgröße von 1000+ MWel ist sonst der jahrzehntelange Weg über fossile Kraftwerke und großflächige Netze nötig. Um es an dieser Stelle deutlich zu sagen, wer das nicht will, muß unserer Erde noch zweimal Europa oder noch einmal China mit seinen fossilen Kraftwerken zusätzlich zumuten. Ob nun in Deutschland 40 Kohlekraftwerke geschlossen werden oder nicht, ist dafür nur der berühmte Tropfen auf den heißen Stein. Ganz nebenbei ist diese Frage auch der Lackmustest für alle „Klimaschützer“: Geht es wirklich um „Klimaschutz“ oder doch nur um „Gesellschaftsveränderung“?

Letztendlich wird der Preis pro installiertem Megawatt entscheiden. Er dürfte grundsätzlich höher sein, als bei fossilen Kraftwerken. Jedenfalls solange, wie man die bürokratischen Anforderungen aufrecht erhält. Allerdings muß man neben den höheren Brennstoffpreisen auch die notwendige Infrastruktur berücksichtigen: Ein Gaskraftwerk ist nur dann günstiger, wenn bereits eine geeignete Gasversorgung vorhanden ist. Für ein Kohlekraftwerk muß eine Eisenbahnlinie vorhanden sein. Hier kann ein SMR seinen Vorteil des geringen Kernbrennstoffverbrauchs – gerade in flächigen Ländern mit schlechter Infrastruktur – voll ausspielen.

Der wirtschaftliche Blickwinkel

Üblicherweise werden bei Kraftwerken die spezifischen Produktionskosten mit zunehmender Leistung kleiner. Dies betrifft sowohl die spezifischen Investitionskosten (EUR/MW), wie auch die Betriebskosten (EUR/MWh). Bei Kernkraftwerken ergibt sich aber eine Besonderheit: Hohe Finanzierungskosten (Investition) bei nahezu vernachlässigbaren Brennstoffkosten. Eine wesentliche Ursache für die hohen Finanzierungskosten ist die lange Projektdauer. Vom ersten Beschluss ein Kraftwerk zu bauen, bis zur ersten Stromproduktion vergehen oft Jahrzehnte. In dieser langen Zeit summieren sich die Zinsen und Zinseszinsen zu beträchtlichen Schuldenbergen.

Wichtig dabei ist, daß die „Bauzeit“ weniger von der Größe abhängt, als von der Stückzahl. Wenn man nahezu baugleiche Kraftwerke in Serie baut – wie einst in USA und Frankreich und heute in China – kann man auch Großkraftwerke in wenigen Jahren erstellen. Es kommt viel mehr auf die Organisation und das Vorhandensein von erfahrenen Fachkräften an. Negativbeispiele sind hierfür die Projekte von Areva in Finnland und Frankreich und die Baustellen des AP-1000 in den USA. Immer, wenn man mit unerfahrenem Personal „neue“ Typen baut, geht alles schief, was nur schief gehen kann – und darüber hinaus. Es ist deshalb nicht verwunderlich, daß beide Modelle in China – obwohl wesentlich später begonnen – als erste fertig werden.

Genau diesen Umstand versucht man durch eine industrielle Serienproduktion bei den SMR zu umschiffen. Allerdings liegt darin auch die größte Schwierigkeit. Für ein so komplexes Gebilde wie ein Kernkraftwerk, gibt es nur Parallelen im Flugzeugbau. Hier wie dort, kostet es Milliarden, bis ein neues Modell bis zur Serienreife entwickelt ist. Der Weltmarkt für Verkehrsflugzeuge reduziert sich daher nahezu auf zwei Konzerne.

Momentan sind hierzu nur die USA in der Lage. Nur sie verfügen über das notwendige Kapital und die fachliche Infrastruktur. Wohl gemerkt, es geht nicht darum mal einen kleinen Reaktor zu bauen, sondern eine ganz neue Industrie zu erschaffen.

Die nationale Sicherheit

Letztendlich ist der Erfolg von SMR eine rein politische Frage. Will man oder will man nicht. Bemerkenswert in diesem Zusammenhang sind die Diskussionen in Großbritannien. Dort will man immer stärker, nachdem man bereits schmerzlich erfahren hat, was Deindustrialisierung für Folgen hat. Man ist sich aber darüber im Klaren, daß es ohne einen (finanziell) starken Partner nicht geht. Eine europäische Lösung erscheint immer unwahrscheinlicher – nicht nur wegen des Brexit. Die Chinesen klopfen bereits an der Tür. Wahrscheinlich bleibt nur die atlantische Verbindung übrig.

In den USA spielt die SMR-Lobby nun verstärkt die Karte der „Nationalen Sicherheit“ aus. Dafür gibt es zwei gewichtige Argumente. Eins ist die bereits im Verborgenen existierende Industrie für Schiffsreaktoren. Sie baut bereits in Kleinserien erfolgreich „SMR“. Seit der Diskussion über die Kostenexplosion bei der neusten Trägergeneration ist man einer Öffnung in Richtung ziviler Technik nicht mehr so abgeneigt. Die andere Argumentationsschiene betrifft die Weiterverbreitung von Kernwaffen. Durch ihre technologische Führung konnte die USA die Trennung von ziviler und militärischer Technik bei der Lieferung von Kernkraftwerken erfolgreich steuern. Heute gibt es aber mit Rußland (in Iran) und China (in Pakistan) zwei Spieler, die wesentlich lockerer mit diesem Problem umgehen. Wollen die USA weiterhin Einfluß ausüben, müssen sie schnellstens etwas neues bringen. Besonders für Staaten, die noch gar keine friedliche Nutzung der Kernenergie haben.

Die Förderung

Kein (privates) Energieversorgungsunternehmen kauft heute noch ein völlig neues Modell. Das wirtschaftliche Risiko ist einfach zu groß. Dies gilt um so mehr in einer Welt, in der aus ideologischen Gründen bestimmte Energieformen besonders bevorzugt und subventioniert werden. Planwirtschaft wuchert wie Krebs in einer Volkswirtschaft und verdrängt systematisch technische und wirtschaftliche Kriterien. Am Ende steht der erlebte Zusammenbruch solcher Systeme.

In der realen Welt hofft man deshalb die politischen Fehlentscheidungen durch Forschungsförderung, Risikoübernahme, Subventionen etc. wieder zu heilen. Die SMR-Entwicklung ist dafür ein Paradebeispiel. Erst hat man ein bürokratisches und unkalkulierbares Genehmigungsverfahren erschaffen, welches man nun durch den Einsatz weiterer Steuergelder zu heilen versucht. In den USA hat man ein spezielles Förderprogramm für die Genehmigung von SMR als Leichtwasserreaktoren aufgelegt. Alle anderen Typen werden noch auf der Ebene von Forschungsreaktoren behandelt – Realisierung, wenn überhaupt, erst in Jahrzehnten zu erwarten.

Wenn man dann ein genehmigtes Modell hat, ist es trotzdem immer noch ein „Papierreaktor. Man muß dann noch jemanden finden, der auch einen gebaut haben will. Das ist der wesentliche Unterschied zwischen Kerntechnik und z. B. Flugzeugbau. Selbst wenn man einen Prototyp hat, kann man noch keine Bestellungen einsammeln, da auch für die Kunden nahezu unkalkulierbare politische Hürden existieren. Um es kurz zu machen, wenn Politik und Gesellschaft nicht radikal neu über das notwendige Eingehen von Risiken (Kern-, Gentechnik, Digitalisierung usw.) nachdenken, wird man generell keine Neuentwicklungen in den sog. Demokratien durchführen können – mit der Konsequenz, daß sich diese Gesellschaftsform durch Stagnation selbst abschafft. Vielleicht ist aber genau das, das wahre Ziel der „Großen Transformation“.

Im Moment sieht es so aus, daß man sich dessen zumindest in den USA und GB bewußt ist und deshalb die Frage der Energieversorgung auf die Ebene der „nationalen Sicherheit“ hievt, was nichts anderes heißt, daß der Staat für seine selbst geschaffenen Regularien auch die finanzielle Verantwortung übernehmen muß. Zahlen muß sowieso immer die Gesellschaft. Die Ebene der Steuermittel mit vorausgehenden Haushaltsberatungen und politischen Abwägungen der Einsatzzwecke ist jedoch wesentlich demokratischer, als das deutsche Modell der Zwangsgebühren, die nichts weiter als Schattenhaushalte sind.

So ist man in den USA auf gehandelt 20 Milliarden Dollar an bereitzustellenden Haushaltsmitteln für die „neue Kerntechnik“ angekommen. Wer Sicherheit will, muß dafür Geld bereitstellen. Anders als bei Rüstungsausgaben kann man allerdings von höheren Rückflüssen ausgehen.

Die internationale Situation

Jedenfalls ist die Kerntechnik weltweit alles andere als tot. Interessant ist die Liste der unterschiedlichen SMR-Projekte im Jahr 2017 in alphabetischer Reihenfolge der Länder: Argentinien (1), China (4), Dänemark (1), Frankreich (1), Indien (1), Japan (5), Kanada (2), Korea (1), Rußland (15), Südafrika (2), UK (1), USA (11).

Bereits im Bau befinden sich der CAREM-2S in Argentinien, der KLT-40S in Rußland und der HTR-PM in China.

Weit fortgeschritten im Genehmigungsverfahren bzw. der Konstruktion und damit kurzfristig baubar wären: SMART in Korea, RITM-200, BREST300-OD, SVBR und ABV-6M in Rußland, PRISM, NuScale, und mPower in den USA, PBMR-400 in Südafrika, 4S und GTHTR300 in Japan, ACP100 in China.

Bei den bereits im Bau befindlichen Reaktoren handelt es sich um erprobte Konzepte: Leichtwasserreaktoren und Kugelhaufenreaktor. Bei den kurzfristig realisierbaren Reaktoren kommen noch Reaktoren mit Natrium und Blei als Kühlmittel hinzu. Beides ebenfalls erprobte Konzepte mit teilweise Jahrzehnten Betriebserfahrungen zumindest als Prototypen.

Als einziger Reaktor mit kurzfristigem Potential für die Großserie scheint sich der Entwurf von NuScale Power heraus zu kristallisieren. Hoch modular, da nur eine Leistung von 50 MWel pro Reaktor. Voll integrierte Bauweise mit Dampferzeugern, Druckhaltung usw. in einem Behälter, daher komplett zu transportieren nach vollständigem Test in der Fabrik. Neuartiges Sicherheitskonzept als „Thermosflasche im Wasserbad“, bei dem der Austritt von Radioaktivität auch nach schwersten Störfällen ausgeschlossen ist. Wann und von wem wird die Fabrik dafür gebaut?

Kernenergie als Heizung?

Pünktlich zum Jahresanfang hat sich wieder der Winter eingestellt – trotz aller Beschwörungen der Medien zur Weihnachtszeit. Es ist deshalb angebracht, sich einmal mehr mit dem Thema Heizung zu beschäftigen.

Der Anteil am Energieverbrauch

Der Primärenergieverbrauch in Deutschland – und ähnlichen Regionen auf der Nord- und Südhalbkugel – läßt sich grob in die Bereiche Stromerzeugung, Verkehr und Heizung (Niedertemperaturwärme) unterteilen. Diese Aufteilung ist ein Kompromiß zwischen einer rein energetischen Gruppierung (Kohle, Öl, etc.) und üblichen volkswirtschaftlichen Betrachtungen (Privat, Industrie etc.). Ganz grob kann man sagen, daß in Ländern wie Deutschland jeweils ein Drittel des Primärenergieeinsatzes auf diese drei Sektoren entfallen. Der hohe Anteil der Raumwärme mag auf den ersten Blick manchen verblüffen. Besonders bemerkenswert ist dabei, daß sich dieser Anteil keinesfalls verringert, sondern eher noch zunimmt – trotz aller technischer Fortschritte bei den Gebäuden (Heizungssysteme, Wärmedämmung etc.). Eine wachsende Bevölkerung mit steigenden Komfortansprüchen (Wohnungsgröße und Ausstattung) verbraucht auch immer mehr „Raumwärme“. Hinzu kommt die ständig wachsende Infrastruktur in der Form von Krankenhäusern, Hallenbädern, Sporthallen, Einkaufscentern,Verwaltungsgebäuden usw.

Bemerkenswert ist auch, wie sich auf diesem Gebiet die allgemeine Entwicklung der Energietechnik widerspiegelt: Alles begann mit dem Holz am Lagerfeuer und dieser Brennstoff blieb für Jahrtausende bestimmend. Auch die „Energieeffizienz“ ist keine Erfindung heutiger Tage. Die Entwicklung ging von der offenen Feuerstelle bis zum Kachelofen – immer aus den gleichen Gründen: „Komfort“ und „Kosteneinsparung“. Nachdem man die Wälder fast abgeholzt hatte und die „Bedarfsdichte“ in der Form von großen Städten immer weiter anstieg, ging man zur Kohle über. Nachdem die Luftverschmutzung bedrohliche Ausmaße angenommen hatte, begann das Zeitalter der „Zentralheizung“ und der Brennstoffe Öl und Gas. Das ist – auch in Deutschland – nicht einmal eine Generation her!

Das Problem von Leistung und Energie

Wir Menschen streben in unseren Behausungen ganzjährig möglichst gleichmäßige Temperaturen um die 20 °C an. Das Wetter spielt uns aber einen Streich. Die Außentemperaturen schwanken in unseren Breiten von rund -20 °C bis rund +35 °C. Wir müssen also heizen oder kühlen, um unsere Ansprüche zu erfüllen. Extreme Temperaturen sind aber selten, sodaß wir überwiegend nur wenig heizen oder kühlen müssen. Dies stellt unsere Anlagentechnik vor große technische und wirtschaftliche Probleme. Ist beispielsweise eine Zentralheizung für eine Außentemperatur von -10 °C ausgelegt, so muß sie an Tagen mit 0 °C nur noch 2/3 ihrer Leistung und an Tagen mit +10 °C gar nur noch 1/3 ihrer Leistung bereitstellen. Einzig die Warmwasserbereitung fällt das ganze Jahr über an. Sie kann je nach Geräteausstattung (Geschirrspüler, Waschmaschine) und „Wärmedämmstandard“ des Gebäudes, einen beträchtlichen Anteil an den Heizkosten haben. Anders verhält es sich mit der Energie – das ist das Öl oder Gas auf unserer Heizkostenabrechnung – von dem mehr an den häufigen milden Tagen, als an den wenigen Extremen verbraucht wird.

Inzwischen setzt sich auch die Erkenntnis durch, daß alle „Energiesparmaßnahmen“ (Wärmedämmung, Zwangslüftung etc.) erhebliche Investitionskosten erforderlich machen. Letztendlich nur eine Frage von „Kaltmiete“ und „Heizkosten“. Darüberhinaus stellen sich noch Fragen der Architektur (Bestand, Denkmalschutz etc.) und vor allem der Gesundheit (Schimmelpilz etc.). Die „Nullenergiehäuser“ sind nichts weiter, als eine ideologische Kopfgeburt.

Zentral oder dezentral

Bei jeder Verbrennung entstehen auch Schadstoffe. Bei Einzelfeuerungen sind sie technisch praktisch nicht in den Griff zu bekommen und noch weniger zu überwachen. Wer Öfen fordert, braucht sich um Feinstaub und krebserregende Stoffe in seiner Umwelt keine Gedanken mehr zu machen. Passives Rauchen und Autofahren wird heute von grünen Gesinnungstätern mit Körperverletzung gleichgesetzt. Demgegenüber wird der Gestank und das Gift aus Holzheizungen romantisiert und als „klimafreundlich“ verkauft.

Nicht zuletzt die Brennstoffver- und Ascheentsorgung stellte in dichtbesiedelten Gegenden ein Problem dar. Ende des 19. Jahrhunderts installierte man dafür z. B. in Chicago spezielle U-Bahn-Systeme. Nachdem sich Zentralheizungen in modernen Gebäuden durchgesetzt hatten, boten sich Fernwärmesysteme (Dampf oder Heißwasser bzw. Kaltwasser zur Klimatisierung) an. Interessanterweise hat man von Anfang an Abwärme aus Kraftwerken (sog. Kraft-Wärme-Kopplung) für die Heizungen verwendet. Eine wesentlich bessere Auslastung konnte man erreichen, indem man im Sommer die Fernwärme für die Klimaanlagen nutzte (Absorptionskälteanlagen).

Ein Vorteil der zentralen Versorgung ist die umweltfreundliche Erzeugung. Nur Anlagen ab einer gewissen Größe kann man mit Filteranlagen, Betriebspersonal, einer ständigen Abgasanalyse usw. ausstatten. Dezentral (Gas- oder Ölkessel) muß leider passen, denn die jährliche Kontrolle durch den Schornsteinfeger kann damit nie mithalten.

Direkte oder indirekte Nutzung der Kernenergie?

Es gibt grundsätzlich drei Wege, die Kernenergie für die Gebäudeklimatisierung (Heizung und/oder Kühlung) zu nutzen:

  1. Einsatz der in einem Kernkraftwerk erzeugten elektrischen Energie um damit direkte elektrische Heizungen (z. B. Nachtspeicher oder Radiatoren) oder indirekte Systeme (Wärmepumpen und Kältemaschinen) zu betreiben. Dies ist ein sehr flexibler Weg, der besonders einfach ausbaubar ist. Bevorzugt wird er in Gegenden angewendet, in denen nicht so extreme Temperaturen (z. B. Südfrankreich) vorherrschen oder extrem unterschiedliche Nutzungen der Gebäude in Verbindung mit Leichtbau und Wärmedämmung (Schweden) vorliegen.
  2. Kraft-Wärme-Kopplung. Man koppelt aus der Turbine eines Kernkraftwerks Dampf – der bereits zum Teil Arbeit zur Stromerzeugung geleistet hat – aus und nutzt ihn über ein vorhandenes Rohrnetz. Einst wurde dies sogar in Deutschland gemacht (stillgelegtes Kernkraftwerk Stade) und seit Jahrzehnten bis heute in der Schweiz (KKW Beznau für die „Regionale Fernwärme Unteres Aaretal“). Allerdings erfordert dies Kernkraftwerke, die sich möglichst nahe an Ballungsgebieten befinden.
  3. Man würde reine „Heizreaktoren“ bauen, die nur Wärme – wie ein konventioneller Heizkessel – für ein Fernwärmenetz liefern. Der Sicherheitsgewinn wäre so entscheidend (siehe nächster Abschnitt), daß man sie in den Städten bauen könnte. Eine Optimierung mit Wärmespeichern oder Spitzenlastkesseln könnte zu optimalen Ergebnissen bezüglich Kosten, Versorgungssicherheit und Umweltbelastungen führen.

Der nukleare Heizkessel

Gebäudeheizungen benötigen nur Vorlauftemperaturen unterhalb 90 °C. Will man auch noch Kälte für Klimaanlagen mit Hilfe von Absorptionskälteanlagen (üblich Ammoniak und Lithiumbromid) erzeugen, empfiehlt sich eine Temperatur von 130 °C bis 150 °C im Vorlauf des Fernwärmenetzes. Dabei gilt: Je höher die Temperaturspreizung zwischen Vor- und Rücklauf ist, um so größer ist die transportierte Leistung und damit werden die erforderlichen Rohrdurchmesser um so kleiner. Bei sehr großen Leistungen (Hochhäuser und beengte Rohrleitungstrassen) muß man sogar auf ein Dampfnetz mit seinen spezifischen Nachteilen übergehen.

Für wirtschaftliche und sicherheitstechnische Bewertungen ist es ausschlaggebend, sich einen Überblick über das erforderliche Druckniveau zu verschaffen. Will man Wasser bei 90 °C verdampfen, benötigt man einen Druck von 0,7 bar, bei 130 °C von 2,7 bar und bei 150 °C von 4,8 bar. Umgekehrt gilt, man muß mindestens diese Drücke aufrecht erhalten, wenn man eine Verdampfung verhindern will. Alles meilenweit entfernt von den Zuständen, wie sie in jedem Kernkraftwerk herrschen.

Bei dem erforderlichen Druck- und Temperaturniveau könnte man also einen preiswerten „nuklearen Heizkessel“ zum Anschluß an Fernheizungssysteme bauen ohne irgendwelche Abstriche an der Sicherheitstechnik machen zu müssen. Damit man möglichst viele Gebiete erschließen kann, empfiehlt sich ohnehin: Je kleiner, je lieber. Man könnte diese „nuklearen Heizkessel“ als „nukleare Batterien“ bauen, die komplett und betriebsbereit zur Baustelle geliefert werden und erst nach Jahrzehnten wieder komplett zum Hersteller zurück transportiert werden. Dort könnten sie überarbeitet und der Brennstoff nachgeladen werden. Es bietet sich damit ein interessantes Leasingmodell für Gemeinden an: Für Jahrzehnte billige Heizkosten zu garantierten Festpreisen.

Notwendige Entwicklungen

Eigentlich nicht viel, nimmt man Reaktoren für Schiffe als Ausgangspunkt. So hatte der Reaktor der Otto Hahn eine thermische Leistung von 38 MW. Sein Auslegungsdruck betrug 85 bar bei einer Temperatur von 300 °C. Für einen „nuklearen Heizkessel“ schon viel zu viel. Trotzdem kam man mit Wandstärken von rund 50 mm aus. Er hatte eine Höhe von 8,6 m und einen Durchmesser von 2,6 m. Schon klein genug, um die ganze Fernwärmestation in einem mittleren Gebäude unterzubringen.

Wichtig ist, daß man bei den notwendigen Drücken und Temperaturen mit handelsüblichen Werkstoffen auskommt und nur (relativ) geringe Wandstärken benötigt. Dies vereinfacht die Fertigung und verringert die laufenden Kosten. Ausgehend von Leichtwasserreaktoren sind auch alle Berechnungsverfahren bekannt, erprobt und zugelassen. Die Konstruktion und das Zulassungsverfahren könnten sofort beginnen. Ein Bau wäre in wenigen Jahren realisierbar.

Wirtschaftliche Einflüsse

Die Investitionskosten sind natürlich höher als bei einem konventionellen Heizkessel. Dafür sind die Brennstoffkosten vernachlässigbar, sodaß sich trotzdem sehr attraktive Heizkosten ergeben würden. Betriebswirtschaftlich ist immer die Anzahl der „Vollbenutzungsstunden“ ausschlaggebend. Zumindest in der Anfangsphase sollte daher nur die Grundlast (Warmwasser, Klimatisierung und Heizlast in der Übergangszeit) eines Fernwärmenetzes abgedeckt werden. Die Spitzenlast könnte – wie heute – weiterhin durch Öl- oder Gaskessel bereitgestellt werden.

Der nächste Schritt könnte eine Wärmespeicherung sein. Das Wetter (Außentemperatur, Wind und Sonne in ihrem Zusammenwirken) ändert sich ständig. Tagelange Kälteperioden mit satten Minusgraden sind in Deutschland eher selten. Gebäude und das Fernwärmenetz selbst, besitzen bereits eine erhebliche Speicherfähigkeit. Die Anforderung der Heizleistung wird bereits dadurch gedämpft. Mit relativ kleinen Zusatzspeichern kann man daher die Auslastung erheblich verbessern. Beispiel hierfür sind die handelsüblichen Brauchwasserspeicher in unseren Gebäuden. Großtechnische Speicher mit mehreren GWh sind bereits in bestehenden Fernwärmenetzen installiert. Wie gesagt, alles kann schrittweise erfolgen. Je nach Entwicklung der Brennstoffpreise und verordneten Nebenkosten (Luftverschmutzung etc.).

Heute wird immer weniger Kohle zur Heizung eingesetzt. Der Trend zu Öl und insbesondere Gas, hält unvermittelt an. Durch die Verwendung von Kernenergie für die Gebäudeheizung kann man sofort beträchtliche Mengen davon für Industrie und Verkehr zusätzlich verfügbar machen. Eine wesentlich wirksamere Maßnahme als z. B. das „Elektroauto“. Wo und wann wird denn die Luftverschmutzung unerträglich: In den Großstädten und (in unseren Breiten) im Winter. Eine abgasfreie Heizung würde eine durchschlagende Verbesserung bewirken. Holzheizungen und Faulgas sind Wege in die falsche Richtung, die die Belastung für Natur und Menschen nur unnötig erhöhen. Feinstaub z. B. kommt nicht nur aus dem Auspuff, sondern vor allem aus den unzähligen Kaminen.

Ein Strommarkt für die Energiewende

Das Diskussionspapier des Bundesministeriums für Wirtschaft und Energie – Grünbuch – ist gerade erschienen und kann kostenlos unter Grünbuch heruntergeladen werden. Warum das Ding nun ausgerechnet Grünbuch heißt, mag der Minister Gabriel wissen: Vielleicht soll es ja Assoziationen zum Grünen Buch eines bereits verjagten sozialistischen Potentaten aus Nordafrika wecken. Zumindest an Komik und Absurdität steht es ihm kaum nach. Es ist ebenfalls der Versuch, eine ideologische Kopfgeburt durch schwülstige Worte rechtfertigen zu wollen.

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert:

Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen.

Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition „gute Energie“. Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte… Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den „Treibhausgasemissionen“ wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur „richtig“ interpretieren können.

Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke.

Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt „innerlich schon immer dagegen waren“ oder gleich besser „von allem nichts gewusst haben“ wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die „Energiewende“ und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird:

Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab.

Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt. Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das „Stück Papier“ an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von „Marktsignalen“ erzählt, die von der Börse ausgehen. Wenn von der Strombörse „Marktsignale“ ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlich über die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.

Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros:

Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen. 

Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat:

Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden.

Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.

Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse:

In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind.

Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein:

Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete.

Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters – und in seinem damaligen Lebensabschnitt Bundeskanzlers – Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals – und inzwischen wieder – von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem „badischen Atomkonzern“, der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den „Atomausstieg“ verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die „Klimakatastrophe“. Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als „Wendeminister“: Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?

Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon „Atomausstieg“ zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort „Strommarktliberalisierung“ getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.

Manche Sätze sind von beängstigender Klarheit:

Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten.

Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das „Marktbereinigung“, in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.

Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen:

2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt.

Die damals stillgelegten Kernkraftwerke, waren die „alten und kleinen“. Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz:

Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten.

Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan „Die Sonne schickt keine Rechnung“ ein bescheidenes Vermögen gemacht hat.

Hier ist es wieder, das übliche ideologische Geschwafel:

Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt.

Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf – also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne „Erneuerbare“ gar nicht vorhandener Regelungsbedarf.

Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt:

Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren.

Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.

Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten:

Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet.

Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der „Erneuerbaren“. Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der „Erneuerbaren“. Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.

Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift

Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit.,

zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland – und man ist ja weltmännisch – der 7. Januar 2014 in USA. Sätze wie

… eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken.

lassen – zumindest bei Genossen – sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die „Energiewende“ zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an „Erneuerbaren“ verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.

Noch toller ist das Beispiel aus den USA:

Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden.

So ist das nun mal, wie das Windrad Wind braucht, brauchen die „flexiblen und klimafreundlichen“ Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität – die nur wenige Stunden im Jahr gebraucht wird – finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!

In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln:

Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen.

Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten – sonst die ärgsten Feinde aufrechter Sozialdemokraten – können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter:

Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden.

Der dümmliche Werbeslogan „Die Sonne schickt keine Rechnung“ wird auf Ministerebene „zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie“ umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er „effizient und sicher in das System integriert“. Mein absoluter Lieblingssatz folgt erst kurz danach:

Mein absoluter Lieblingssatz folgt erst kurz danach:

Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen.

Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der „Hauptstadt der DDR“ wären vor Rührung die Tränen gekommen bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen:

Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden.

Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).

Manche Aussagen sind schlicht dummdreist:

Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien).

Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll:

Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken.

Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter:

Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient.

Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung – sprich die Abschaltung der Anlagen bei Überproduktion.

So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können:

Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein.

Man will sich das Abschalten als „negative Regelleistung“ vergüten lassen – hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt:

Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken.

Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich „geregelt“ eingespeist werden soll? Der „Biostrom“ würde damit noch teurer. Die „Schwachwindturbinen“ und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird:

Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können.

Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös:

Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden.

Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?

Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist:

Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften.

Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter – aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder:

Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus.

Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.

Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd „Stromautobahnen“ begründet:

Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden.

Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen – hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der „Energiewende“, für die wir Bürger zahlen müssen.

Ebenso irrsinnig und rein ideologisch begründet ist die Annahme:

Der Stromhandel unterstellt ein Netz ohne Engpässe.

Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.

Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert:

Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden.

Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke – was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?

Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft:

Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann.

Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere „Energieexperten“ noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt:

Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden.

Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn eine Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.

Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt:

Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone.

Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage:

Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen.

Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger – gemeint sind ja wohl eher Windmüller und Sonnenfarmer – reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen?

Geradezu schizophren sind die folgenden Sätze:

Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern.

Also die stochastische (zufällige) Erzeugung durch „Erneuerbare“wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!

Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden.

Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von „Marktsignalen“ wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen – Flaute und Dunkelheit zählen nicht dazu – sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.

Kohle, Gas, Öl, Kernenergie? – Teil 1

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo – zumindest kurzfristig – keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff – zumindest in großen Teilen der Welt. Allerdings hat sich durch technologische Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technologie einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß – oder besser – klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war – bei den Anfangs noch kleinen Mengen – kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln – wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technologisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik – sofern man sie nicht politisch behindert – schreitet immer weiter voran. So hat die oben beschriebene „neue Technologie“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig – nach erfolgtem Umbau der Raffinerien – schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt.Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2. aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern in Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.

Wende der „Energiewende“?

Die „Energiewende“ scheint unwiederbringlich ihren Zenit überschritten zu haben. Um so hektischer und peinlicher werden die Rettungsvorschläge. Immer heftiger wird der „Ausstieg aus dem Ausstieg“ dementiert.

Der dreidimensionale Schraubstock der Strompreise

Langsam dämmert es immer mehr Menschen in Deutschland, daß sie durch die ständig steigenden Strompreise mehrfach ausgequetscht werden:

  1. Jedes mal, wenn die Stromrechnung wieder etwas höher ausgefallen ist, geht ein Stück vom Kuchen des eigenen Einkommens verloren. Den Euro, den man an seinen Energieversorger bezahlt hat, kann man nicht noch einmal ausgeben. Nicht für Urlaub usw. – nein, auch nicht für die Anschaffung eines neuen Kühlschrankes mit Energie-Spar-Aufkleber! Mag das Stück vom Kuchen manchem auch klein erscheinen, so ist das sehr relativ: Bei Rentnern, Studenten, Arbeitslosen etc., ist der Kuchen des Familieneinkommens meist recht klein. Strompreise sind sozialpolitisch die Brotpreise von heute! Last euch das gesagt sein, liebe Genossinnen und Genossen von der SPD!
  2. Jedes Unternehmen benötigt elektrische Energie! Die Ausgaben für „Strom“ sind genau so Kosten, wie Material und Löhne und müssen damit über die Preise an die Kunden weiter gegeben werden. Hier zahlen wir zum zweiten Mal! Selbst „ökologisch wertvolle Betriebe“ sind davon nicht ausgenommen: So macht allein die „EEG-Abgabe“ bei den Berliner Verkehrsbetrieben 20 Millionen Euro pro Jahr – Kosten oder Nicht-Kosten – aus. Wie war das doch noch mal, liebe Grün-Alternativen? Sollten wir nicht mehr mit der Bahn fahren? Wegen „Klima“ und so?
  3. Kosten sind Kosten. Steigen die Energiekosten, müssen andere Ausgaben gesenkt werden. Das werdet ihr spätestens bei den nächsten Tarifverhandlungen noch lernen, liebe Gewerkschaftsfunktionäre. Vielleicht auch nicht mehr, weil eure Betriebe bereits dicht gemacht haben. Die Goldader, die jedes Unternehmen angeblich im Keller hat, von der ihr nur ein größeres Stück abschlagen müsst, war nur ein Märchen. Sonst hättet ihr das ja auch schon längst gemacht, gelle?

Um es noch einmal klar und deutlich in einem Satz zu sagen: Steigende Energiepreise bedeuten höhere Ausgaben bei steigenden Preisen und sinkenden Einkommen. Wer das Gegenteil behauptet, lügt! Mögen die Lügen auch in noch so wohlklingende Worte verpackt sein.

Der klassische Verlauf

Es ist immer der gleiche Ablauf, wenn sich Politiker anmaßen, die Gesellschaft zu verändern. Egal, ob über „Bauherrenmodelle“, „Filmfonds“, „Abschreibungsmodelle für Containerschiffe“ oder eben das „EEG“. Am Anfang steht eine Vision von einem angeblichen Mangel. Flugs nimmt die Politik einen Haufen fremdes Geld – besser gesagt unser aller Geld – in die Hand und verteilt dieses um. Am unbeliebtesten ist dabei der Einsatz von Haushaltsmitteln – schließlich hat man ja noch eine Menge anderer toller Ideen. Früher waren sog. „Sonderabschreibungen“ ein probates Mittel die Gier zu befriedigen. Leider wurde von den Investoren meist übersehen, daß der Staat nur Steuern stundet, nicht aber verschenkt. Das ökosozialistische Ei des Kolumbus war die Schaffung eines Schattenhaushaltes in der Form des „EEG“ durch „Rot/Grün“. Allen Modellen gemeinsam, ist die Gier und Unwissenheit potentieller Investoren.

Aus letzterem Grund ist der zeitliche Ablauf immer gleich: Sobald das Gesetz verabschiedet ist, schlagen die Profis aus den Banken etc. zu. Sie machen tatsächlich Gewinne. Nach einer gewissen Zeit jedoch, sind die besten Grundstücke usw. vergeben. Gleichzeitig steigen durch die erhöhte Nachfrage die Preise der Hersteller. Jetzt schlägt die Stunde des (halbseidenen) Vertriebs. Profis, wie Banken, steigen aus und verscherbeln ihre Investitionen mit Gewinn an die Kleinanleger. Jetzt werden die Laien skalpiert. Selbst diese Phase geht bei Wind, Sonne und Bioenergie langsam zu Ende. Der letzte Akt beginnt.

Unternehmen, die sich die Sache in ihrer Gier bedenkenlos schön gerechnet haben, gehen Pleite. Die Investoren verlieren nicht nur ihr Geld, sondern leiten eine Abwärtsspirale ein: Ihre Objekte kommen nun auf den Markt und erzielen nur noch reale Preise, die meist deutlich unter den Herstellungskosten liegen. Die Verwerter stehen bereit. Wie schnell die Preise bei Zwangsversteigerungen purzeln, kennt man z. B. von den „Bauherrenmodellen“ nach der Wende. Dies betrifft aber nicht nur diese gescheiterten Investoren. Plötzlich machen neue Preise die Runde. Über Nacht ist kein Investor mehr bereit, die überhöhten Preise zu bezahlen. Es entsteht schlagartig ein enormer Kostendruck auf der Herstellerseite. Der größte Teil der Hersteller wird in den nächsten Jahren vom Markt verschwinden. Ganz so, wie die aufgeblähte Bauindustrie nach der Wende.

Interessant ist, wie die eigentlichen Täter, die Politiker reagieren. Sie schreien unverzüglich: Haltet den Dieb! Nicht etwa die „Energiewende“ ist schuld, sondern es müssen schärfere Kapitalmarktkontrollen zum Schutz der Anleger her. Man erblödet sich nicht, Jahrzehnte alte Finanzinstrumente (Genußscheine) in Verruf zu bringen. Ganz so, als würde sich ein Schnapsfabrikant hinstellen und die Flaschenhersteller dafür verantwortlich machen, daß sie an den bedauernswerten Alkoholikern schuld tragen.

Die Milderung des Anstiegs oder die Quadratur des Kreises

Eigentlich ist die Sache ganz einfach: Entweder man gibt die Menge elektrischer Energie zu einem bestimmten Zeitpunkt vor und kann sich dann die erforderliche Anzahl Apparaturen und die dafür notwendigen finanziellen Mittel ausrechnen oder man gibt den Zahlungsstrom vor und kann sich ausrechnen, wieviel Strom man dafür erhält. Beides gleichzeitig geht nicht, weil beides streng voneinander abhängt. Soll keiner nachher wieder sagen, man hätte ja nichts davon gewusst oder eigentlich wäre eine „Energiewende“ ja ne tolle Sache gewesen.

Der neuerdings propagierte sanfte Ausbau, hat allerdings seine Logik. Es ist die Logik des Machterhalts. Würde man eingestehen, daß die „Energiewende“ Unsinn ist, würde man die „systemrelevante“ Frage nach der Allwissenheit der Politik stellen. Wenn man einmal zugibt, daß der Kaiser nackend ist, ist die Nomenklatura am Ende. Deshalb muß weiter gelten: Die Partei hat immer recht. Jedenfalls so lange, bis die Mehrheit des Volkes nicht mehr bereit ist, dieses Spiel mit zu spielen. Dann ist wieder einmal „Wendezeit“.

Mancher Politiker bekommt langsam Ohrensausen. Wer noch einen Rest von „Kontakt zum Volk“ hat, merkt den wachsenden Zorn über steigende Strompreise. Wenn jetzt auch noch die Angst vor dem Verlust des Arbeitsplatzes hinzukommt, könnte die Sache eng werden.

Der Popanz von den bösen Kapitalisten, die ihren Anteil an der „Ökostromumlage“ nicht zahlen wollen, kann nur bei besonders einfältigen oder gläubigen Menschen verfangen. Menschen, die etwas aus der Geschichte gelernt haben, sehen die Gefahr der „Ulbrichtfalle“ aufziehen: Je mehr Unternehmen ihre Standorte ins Ausland verlagern, um so mehr lukrative Arbeitsplätze gehen verloren. Den Unternehmen werden wieder die Menschen in Richtung Freiheit und Wohlstand folgen. Wie soll der Ökosozialismus reagieren? Mauer und Schießbefehl im Internetzeitalter?

Wie panisch die Reaktion der Politiker wird, zeigt der Plan, auch auf die sog. Eigenstromerzeugung die „EEG-Umlage“ zu erheben. Bisher war doch die Kraft-Wärme-Kopplung ein Bestandteil der „Energiewende“. Unternehmen, die „energieeffizient“ waren, haben sich solche Anlagen gebaut. Oft genug, am Rande der Wirtschaftlichkeit. Jetzt sollen sie mit der „EEG-Umlage“ dafür bestraft werden. Natürlich mit einem etwas geringeren Satz. Hier wird wieder einmal unverhohlen gezeigt, daß es gar nicht um Umweltschutz geht, sondern nur darum, „die Belastbarkeit der Unternehmen zu testen“. Klassenkampf in Reinkultur. Die gleichen Funktionäre, die immer von dem notwendigen Investitionsschutz säuseln (wenn es um die Photovoltaik auf dem Dach der eigenen Klientel geht), gehen mit Eigentumsrechten bei Kraftwerken locker um – egal ob es sich um Kernkraftwerke oder fossile Anlagen handelt. Langsam, aber sicher, entwickelt sich Deutschland in der Eigentumsfrage immer mehr zur Bananenrepublik. Das Kapital ist aber bekanntermaßen scheu und ängstlich. Deshalb verfällt man immer mehr auf eine „Bürgerbeteiligung“. Zu was es führt, wenn sich Banken wegen des unvertretbar hohen Risikos zurückziehen (müssen), sieht man gerade am Fall Prokon.

Die Bedeutung von Leistung und Energie

Leistung (kW) ist leider nicht gleich Energie (kWh). Entscheidend bei der Berechnung der erzeugten Energie aus der Nennleistung einer Anlage (kW) ist die Zeitdauer (h), in der die Leistung des Typenschilds wirksam ist. In Deutschland beträgt diese Zeitspanne bei Photovoltaik deutlich unter 1000 Stunden pro Jahr und bei Windmühlen deutlich unter 3000 Stunden pro Jahr. Will man nun eine bestimmte Menge elektrischer Energie (z. B. 50 % oder gar 100 % des gesamten Stromverbrauches in einem bestimmten Jahr) erzeugen, muß man diesen Wert (kWh/a) durch die „Vollbenutzungsstunden“ (h/a) des entsprechenden Verfahrens teilen. Man erhält die Leistung (kW), die mindestens installiert werden muß. Da z. B. die Sonne nur recht selten scheint (nachts ist es dunkel, an vielen Tagen trübe) erhält man sehr große (rechnerische) Leistungen die installiert werden müssen. Dieser Zusammenhang ist trivial, aber ausschlaggebend für das zwingende Scheitern einer Energieversorgung ausschließlich durch „Erneuerbare Energien“. Die Sache hat nämlich zwei Harken:

  1. Wenn die Natur keine, dem momentanen Bedarf entsprechende Erzeugung (Nacht, Flaute etc.) zuläßt, muß die elektrische Leistung über konventionelle Kraftwerke bereitgestellt werden. Hierzu zählen auch alle großtechnischen Speichersysteme, da dort die Rückwandlung immer über konventionelle Verfahren führen muß (Wasserkraft, Turbinen etc.).
  2. Wenn der Wind mal richtig weht oder ein strahlend blauer Himmel vorhanden ist, ist die erzeugte Leistung sehr schnell und sehr oft größer als die gerade im Netz verbrauchte Leistung. Physikalisch gibt es nur drei Möglichkeiten, dem entgegen zu treten: Man schaltet (teilweise) Windmühlen oder Sonnenkollektoren ab, entsorgt den Überschuß in benachbarte Netze oder erhöht künstlich den Verbrauch (Speicher). Es lohnt sich, diese drei Möglichkeiten etwas näher zu hinterfragen.

Immer, wenn man gezwungen ist, Anlagen wegen Überproduktion abzuschalten, wird das für den Stromkunden sehr teuer. Die entsprechende Anlage produziert noch weniger Strom und muß diesen deshalb noch teurer verkaufen um ihre Investitions- und Betriebskosten abdecken zu können. Deshalb hat die Politik den Abnahmezwang eingeführt. Die Kosten werden bewußt auf die Verbraucher abgewälzt, um die Produzenten zu schonen. Man könnte auch sagen, weil sich die „Vollbenutzungsstunden“ (h/a) verringern, muß man zusätzliche „Schattenanlagen“ errichten, um die angestrebte Energieausbeute zu erreichen. Physikalisch betrachtet funktioniert das nicht einmal, da man zu jedem Zeitpunkt Produktion und Verbrauch im Gleichgewicht halten muß! Aus diesem Grund hat sich die Politik für den zweiten Weg entschieden. Wenn man etwas nicht gebrauchen kann, nennt man es Abfall. Um Abfall zu entsorgen, muß man immer eine Gebühr entrichten. Dies geschieht an der Strombörse: Die gewaltsame Abnahme geschieht über den Preis. Der Strompreis für den „Alternativstrom“ wird stets so niedrig angesetzt, daß er gerade noch einen Käufer findet. Ist die Energie für niemanden mehr etwas wert, muß die Entsorgung sogar bezahlt werden (negative Strompreise an der Börse). Ganz genau so, wie bei der Müllverbrennungsanlage, wo man für die Dienstleistung der Abfallbeseitigung auch eine Gebühr entrichten muß. Der dritte Weg ist uns dadurch bisher erspart geblieben: Man baut zusätzliche Stromverbraucher (z. B. zur Erzeugung von synthetischem Erdgas) und produziert damit sehr teuer ein Produkt, welches ohnehin im Überfluß vorhanden und billig zu kaufen ist. Jedenfalls erheblich billiger, als elektrische Energie! Dieses System verkauft man als „Speichertechnologie“, weil man anschließend dieses Erdgas wiederum unter erheblichen Verlusten in Gaskraftwerken verfeuert, die man dringend für die Zeiten der Flaute und Dunkelheit benötigt. Hat es je in der Menschheitsgeschichte eine einfältigere Idee gegeben? Wenn das jemanden an etwas erinnert; richtig, an die Fleischversorgung durch Kleintierhaltung mittels der Verfütterung von subventioniertem Brot im (realexistierenden) Sozialismus.

Wenn man etwas unter den Gestehungskosten verkauft, nennt man das gemeinhin Dumping. Genau das, geschieht täglich an der Strombörse. Es ist nur eine Frage der Zeit, wie lange sich das unsere europäischen Nachbarn noch gefallen lassen. Mit jeder Windmühle und jedem Sonnenkollektor, die zusätzlich in Betrieb gehen, wird dieses Dumping größer. Die Differenz zwischen Erzeugungskosten und erzielbarem Preis nennt man „EEG-Umlage“. Die ungekrönte Königin der Schlangenölverkäufer Frau Professor Claudia Kemfert sieht das natürlich ganz anders. In einem Interview vom 27.1.14 in der Zeitschrift Cicero antwortet sie auf die Frage nach einer Umstellung der Ökostrom-Umlage in ihrem Sinne:

„Die EEG-Umlage hat sich bewährt. Schon jetzt sinken die Erzeugungskosten für erneuerbare Energien. Trotzdem sollte man die Ausnahmen für energieintensive Industrien endlich auf ein vernünftiges Maß vermindern – allerdings nur für Unternehmen, die wirklich energieintensiv sind und im internationalen Wettbewerb stehen. Im Gegenzug sollte man die Umlage an Gegenmaßnahmen koppeln, wie die Verbesserung der Energieeffizienz. Außerdem muss der Börsenpreis stabilisiert werden: Würde nämlich der niedrigere Börsenpreis für die Erneuerbaren an die Verbraucher weitergegeben, könnte der Strompreis schon heute stabil bleiben, wenn nicht sogar sinken. Dazu könnte man überschüssige Stromkapazitäten aus dem Markt nehmen und den CO2-Preis deutlich erhöhen.“

Selten dürfte es einem Professor gelungen sein, soviel Unsinn in nur einem Absatz von sich zu geben. Selbst wenn die Erzeugungskosten (Ausgaben für Kredite, Personal, Wartung, Betriebsmittel etc.) sinken – was sich erst noch zeigen muß – hat das keinen Einfluß auf den Preis. Ein Preis bildet sich aus dem Zusammenspiel von Angebot und Nachfrage. Immer, wenn mehr angeboten wird als gebraucht wird, sinkt im Handel der Preis. Wenn man sein verderbliches Gemüse überhaupt nicht an den Mann bringen kann, muß man für die Beseitigung auch noch Entsorgungskosten bezahlen – an der Strombörse „negative Preise“ genannt. Die Differenz zwischen den Gestehungskosten und dem (erzielbaren) Preis am Markt, nennt man Verlust. Die Verluste müssen aber irgendwie abgedeckt werden, da sonst die Windmüller und Sonnensammler in wenigen Wochen pleite wären. Damit genau das nicht passiert, wurde die „EEG-Umlage“ geschaffen: Sie legt diese Verluste auf die Verbraucher um. Die Strombörse ist ein hervorragender Anzeiger für das jeweilige Verhältnis von Stromproduktion zu Stromnachfrage – ausgedrückt in der Einheit Euro pro MWh. Nicht mehr, aber auch nicht weniger. Je weiter der Börsenpreis unter den Erzeugungskosten liegt, um so größer ist das Überangebot zu diesem Zeitpunkt. Es gibt überhaupt nichts weiter zu geben. Das System ist ja gerade für gleiche Strompreise geschaffen worden: Die tatsächlich erzielten Börsenpreise werden durch die „EEG-Umlage“ auf den Cent genau zu den staatlich garantierten Kosten ergänzt. Bisher mußten nur die konventionellen Kraftwerke ihre Verluste selbst tragen. Sie stellen deshalb (einer, nach dem anderen) einen Antrag auf Stilllegung. Die zuständige Behörde stellt dann ihre „Systemrelevanz“ fest (irgendeiner muß ja auch Strom bei Dunkelheit und Flaute liefern) und sie bekommen ihre Verluste ebenfalls durch eine (neue) Umlage für die Stromverbraucher ersetzt. Frau Kemfert wäre aber nicht Frau Kemfert, wenn sie nicht ein Interview mit etwas Klassenkampf aufpeppen würde und für „vernünftige“ Belastungen der Industrie plädieren würde. Ein richtig rausgehängter Klassenstandpunkt konnte in Deutschland schon immer mangelnde Fachkenntnisse kompensieren. Ist die Deutsche Bahn mit ihren ICE nun „wirklich energieintensiv“? Dafür steht sie aber nicht so „im internationalen Wettbewerb“, wie die Friseurmeisterin in Berlin (70 km von der polnischen Grenze, mit regem Busverkehr zum Polenmarkt mit billigen Zigaretten, billigerem Sprit und allerlei sonstigen Dienstleistungen). Dafür könnte die Bahn wieder durch die „Verbesserung der Energieeffizienz“ punkten, sie müßte einfach nur etwas langsamer fahren oder die Zugfolge ausdünnen. Im letzten Satz scheint sie doch noch die Kurve zu kriegen: „könnte man überschüssige Stromkapazitäten aus dem Markt nehmen“. Genau richtig, mit jeder Windmühle und jedem Sonnenkollektor die man verschrottet, senkt man sofort und unmittelbar den Strompreis für die Verbraucher!

Das Märchen von der immer billiger werdenden „Erneuerbaren Energie“

Der Slogan: „Die Sonne schickt keine Rechnung“ war nichts weiter, als ein Werbespruch für besonders schlichte Gemüter. Natürlich schickt die Sonne keine Rechnung. Genau so wenig, wie ein Kohlenflöz oder eine Ölquelle. Aber die Gerätschaften zum Einsammeln und Umformen kosten bei allen Energiearten Geld. Nicht der Wind, sondern die Windmühle verursacht die Kosten. Da aber, jede technische Anlage ständig repariert und einst auch erneuert werden muß, wird auch der Strom aus Wind und Sonne nie umsonst sein.

Weil von Anfang an die Herstellung elektrischer Energie aus Wind und Sonne sehr viel teurer war, hat man den Mythos irgendwelcher Lernkurven gepflegt. Selbstverständlich gibt es Lernkurven. Nur sind die – bei Windmühlen ganz offensichtlich – extrem flach. Windmühlen gibt es nämlich schon seit über 2000 Jahren. Ganz anders, als z. B. Computer.

Blieb noch die Möglichkeit, mit dem stets kleiner werdenden Abstand zu argumentieren, da ja die anderen Energieträger immer teurer würden. Warum sollten die aber immer teuerer werden, wenn es doch Lernkurven gibt? Logisch, weil die doch endlich sind. Ganz neben bei, ist die Lebensdauer unserer Sonne auch endlich. Eine solche Aussage ist also ohne die Angabe einer konkreten Lebensdauer völlig sinnlos. Flugs, ward die Theorie von peakcoal und später peakoil erschaffen. Man setzt einfach die bekannten Vorkommen als einzig und endlich an und kann damit ausrechnen, daß diese schon in „nächster Zeit“ erschöpft sind oder doch wenigstens deren Preise explodieren. Wäre vielleicht so gewesen, wenn es nicht den menschlichen Erfindergeist und den Kapitalismus geben würde. Wir haben heute die größten Vorkommen an Öl, Erdgas, Kohle, Uran usw. in der Menschheitsgeschichte, bei gleichzeitig größtem Verbrauch aller Zeiten. Die Primärenergiepreise (zumindest als Relativpreise) werden deshalb eher wieder sinken als steigen. Jedenfalls haben wir auf der Basis des heutigen Verbrauches und heutiger Relativpreise Vorräte für Jahrtausende.

Den Anhängern der Planwirtschaft blieb nichts anderes übrig, als ein neues „Marktversagen“ zu konstruieren: Die Klimakatastrophe durch die Freisetzung von CO2 war geboren. Gut und schön, man hätte unbestreitbar sehr viele fossile Energieträger, könnte die aber gar nicht nutzen, da man sonst das Klima kaputt machen würde. Es müßte daher – möglichst sofort – eine CO2.-freie Stromerzeugung her und da der Markt so etwas ja gar nicht regeln könne, muß der Staat lenkend eingreifen. Als wenn jemals die Planwirtschaft etwas anderes als Armut und Elend erzeugt hätte!

Es wird aber trotzdem für die Schlangenölverkäufer der Wind- und Sonnenindustrie immer schwieriger, den Leuten das Märchen von den billiger werdenden „Erneuerbaren“ zu verkaufen. Immer mehr Menschen erinnern sich daran, daß es nachts dunkel ist und manchmal tagelang der Wind kaum weht. Es muß also ein komplettes Backupsystem für diese Zeiten her. Egal ob mit Kohle, Erdgas, Kernenergie oder „Biomasse“ betrieben oder als Speicher bezeichnet. Zwei Systeme sind aber immer teurer, als nur ein System. Immer mehr (denkende) Menschen stellen sich daher die Frage, warum man krampfhaft versucht, unserem funktionierenden und (ehemals) kostengünstigen Stromversorgungssystem ein zweites – zu dem mit äußerst zweifelhafter Umweltbilanz – über zu stülpen.

Was hat das alles mit Kernenergie zu tun?

Erinnern wir uns an die Zeit unmittelbar nach dem Unglück in Fukushima. Die Kanzlerin wollte einen neuen Koalitionspartner. Nun, den hat sie inzwischen gefunden. Die FDP wollte die Grünen noch links überholen und warf all ihre Wahlversprechen über Bord. Nun, der Wähler hat das demokratisch gewürdigt und sie aus dem Bundestag gewählt. Alle deutschen „Qualitätsmedien“ haben gierig die Fieberträume der „Atomkraftgegner“ von „Millionen Toten und zehntausende Jahre unbewohnbar“ nachgeplappert. Nun, es hat immer noch keinen einzigen Toten durch die Strahlung gegeben. Die Aufräumarbeiten schreiten zielstrebig voran und die „Vertriebenen“ kehren langsam in ihre alte Wohngegend zurück. Kurz gesagt, das Unglück hat viel von seinem Schrecken verloren, den es für manche tatsächlich gehabt haben mag.

Deutschland ist das einzige Land auf der Welt, das aus der Kernenergie aussteigen will. Inzwischen sind zahlreiche Neubauten beschlossen. Wohlgemerkt nach Fukushima, hat Großbritannien den Neubau einer ganzen Flotte Kernkraftwerke beschlossen. Selbst Schweden – das Ausstiegsvorbild schlechthin – hat vor wenigen Wochen ein über zehn Jahre angelegtes Verfahren zur Bürgerbeteiligung zum Neubau neuer Kernkraftwerke eingeleitet. Nach Deutschland geh voran, wir folgen dir, sieht das alles gar nicht aus.

Wie ist nun die aktuelle Situation in Deutschland? Abgeschaltet wurden die älteren und kleineren Kernkraftwerke. Die Frage der Entschädigung für diese Enteignungen ist noch lange nicht durch. Die Streitsumme wird allgemein auf 15 Milliarden Euro geschätzt. Einmal Mütterrente, so zu sagen. Mögen sich deutsche Politiker auch auf ihre Kombinatsleiter und deren Stillhaltung verlassen: Vattenfall ist ein schwedischer Konzern und geht von Anfang an den Weg über die internationale Handelsgerichtsbarkeit. Die Konsequenzen einer internationalen Verurteilung wegen einer unrechtmäßigen, entschädigungslosen Enteignung, übersteigt offensichtlich das Vorstellungsvermögen deutscher Provinzpolitiker bei weitem.

Oder, man geht die Sache anders an. Erst in den nächsten Jahren wird der „Atomausstieg“ zu einem echten Problem, wenn nämlich die großen Blöcke in Süddeutschland vom Netz gehen sollen. Dann erst, werden die Strompreise richtig explodieren. Einerseits, weil die immer noch beträchtlichen Mengen „billigen Atomstroms“ aus der Mischkalkulation fallen und andererseits noch sehr kostspielige Maßnahmen für Netz und Regelung nötig sind. Gnade dem Unternehmen in Süddeutschland, dessen Lieferverträge in den nächsten Jahren erneuert werden müssen. Die immer wieder gern propagierten 5,6 bis 6,6 Cent pro kWh für Industriestrom sind nämlich nur die halbe Wahrheit. Hinzu kommt noch der Leistungspreis für die Bereitstellung. Grob gerechnet, ist der Anteil für Leistung und Energie jeweils die Hälfte der Stromrechnung. Die Eigenversorgung soll ja bald auch kein Ausweg mehr sein. Es wird jedenfalls spannend werden, einen SPD-Energieminister zwischen den Stühlen der Gewerkschaftsfunktionäre und dem linken Flügel seiner Partei schwitzen zu sehen.

 

 

SMR Teil 3 – Innovative Reaktoren

Es gibt inzwischen unzählige Reaktorentwürfe. Es gehört praktisch zum guten Ton einer jeden Forschungsstätte sich mit einer neuen Studie zu schmücken. Je nach Mitteln und Background, reichen (meist) auch Variationen bekannter Prinzipien aus.

Es ist daher sinnvoll, auch bei der Betrachtung „kleiner“ Reaktoren (SMR) den potentiellen Markt nicht außer acht zu lassen. Die Domäne der Kernenergie ist und bleibt die Erzeugung elektrischer Energie. Dies liegt einerseits an der universellen Verwendbarkeit von „Strom“ und andererseits an Gewicht und Volumen eines Kernreaktors. Die Untergrenze für den technisch/wirtschaftlichen Einsatz ist ein Schiff.

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die „Endlichkeit“ von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

  • Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.
  • Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der „kleinen“ Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach „hohen Temperaturen“ hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit „billiger“ Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. „Schnelle Brüter“.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden.

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel.eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet.

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth. komplett und fertig mit Brennstoff beladen auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in „netzfähigen Strom“ erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines „Schulbusses“ hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften wäre selbst ohne Wiederaufbereitung, der „Atommüll“ um 80% geringer als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein „Energieversorger“ mietet sich quasi für 30 Jahre eine „Stromerzeugungseinheit“ und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine „Atommüllprobleme“…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als „Starter“ rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem „unendlichen“ Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer „schneller“ Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor mit einer thermischen Leistung von 840 MWth und 311 MWel. Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel. zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf „schnelle“ Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten „abgebrannten“ Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel. produziert über ein ganzes Jahr – kann man „irgendwo“ lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B~4 C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

  1. Über einen Bypass der Turbine durch den normalen Dampfkreislauf des Kraftwerks.
  2. Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.
  3. Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das „obere Stockwerk“ des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos „an die Luft können“, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was „Atomkraftgegner“ als „Atommüll“ bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit „Bomben-Plutonium“ aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem „Atommüll“ aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt „zwischenlagert“. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth. haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines „schnellen“ Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

  • Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.
  • Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.
  • Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

  • Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall „(lokale) Unterkühlung“ mit entsprechenden Konsequenzen für das Genehmigungsverfahren.
  • Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.
  • Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.
  • Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).
  • Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.
  • Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis – auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren –. dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den „Atomkraftgegnern“ werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC-100 und wer weiß noch, welche sonst alle….

 

 

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….

Bestellung 5 bis 8

Türkei, wer denkt da nicht an Sonne bis zum Abwinken oder Segelurlaub im Mittelmeer? Wahrscheinlich haben unsere Politiker ein wenig geträumt, als sie in ihrer unendlichen Weisheit den Ausstieg aus der Kernenergie beschlossen haben. Sollte Deutschland nicht vorangehen, damit uns die anderen folgen können? Nun, die Türkei als Schwellenland ist offensichtlich nicht bereit, in die Abgründe der „Energiewende“ abzutauchen. Am 3. Mai wurde auf höchster Ebene ein Abkommen zwischen Japan, Frankreich und der Türkei zum Bau und Betrieb von vier Kernreaktoren (Typ ATMEA1 mit je 1200 MWe) in Sinop an der Schwarzmeerküste geschlossen. Der erste Reaktor soll 2023 und der vierte 2028 den Betrieb aufnehmen. Errichtet wird das Kraftwerk von Mitsubishi Heavy Industries und betrieben von einem Konsortium aus GDF Suez (geplant 75% Anteil) und dem staatlichen Energieversorger Turkish Electricity Generation Corporation (geplant 20 bis 45% Anteil). Ganz neben bei, ist das der erste Auftrag über einen Neubau eines Kernkraftwerks für ein japanisches Unternehmen nach dem Fukushima Desaster. Auftragswert 22 Milliarden US$. Dafür müssten die Sonnenmännchen eine ganze Menge Windmühlen oder Sonnenkollektoren verkaufen. Macht aber nix, der Deutsche Michel wird weiterhin fest an die Schaffung von Arbeitsplätzen durch Wind und Sonne glauben.

Bestellung 1 bis 4

Begonnen hat das türkische Kernenergieprogramm im Mai 2010 mit dem Auftrag für vier Gidropress AES-2006 Reaktoren (mit je 1200 MWe) in Akkuyu am Mittelmeer. Mit der Baustellenvorbereitung wurde bereits begonnen und der offizielle Baubeginn ist für Ende 2013 vorgesehen. Das Kraftwerk soll 2019–2022 in Betrieb gehen. Ganz interessant ist das Finanzierungsmodell: Das Kraftwerk wird schlüsselfertig und zum Festpreis (über 15 Milliarden EUR) von Rosatom für eine Zweckgesellschaft errichtet. In dieser Zweckgesellschaft besitzt Rosatom mit 51% die Mehrheit. Bis zu 49% sollen von türkischen Gesellschaften gehalten werden. Diese Gesellschaft übernimmt für 60 Jahre den Betrieb des Kraftwerks. Zur Refinanzierung der langfristigen russischen Investitionen garantiert die Turkish Electricity Trade and Contract Corporation (TETAS) die Abnahme von 70% der Stromproduktion der Blöcke 1 und 2 und 30% der Produktion der Blöcke 3 und 4 zu einem garantierten Festpreis von 12,35 US-Cent pro kWh über 15 Jahre. Der Rest soll frei am Markt verkauft werden. Bei diesem Modell wird die Kreditlinie der Türkei kaum belastet, da Russland maßgeblich die Finanzierung übernimmt. Für Russland stellt sich die Investition wie eine langfristige Anleihe mit stetigem Zahlungsstrom aus der Türkei dar. Gleichzeitig ergibt sich jedoch eine enge unternehmerische Verknüpfung beider Länder. Anders – als beim deutschen EEG-Modell – wird nicht die volle Energiemenge über die gesamte Lebenszeit, zu einem Festpreis garantiert abgenommen, sondern lediglich eine (auch noch abnehmende) Teilmenge. Der Betreiber muß sich von Anfang an, an dem üblichen Risiko von Absatzmenge und erzielbaren Preisen beteiligen. Andererseits hat er aber auch die Chance auf zusätzlichen Erfolg.

Darüber hinaus, kann die Türkei „sanft“ in eine neue Zukunftstechnologie hineinwachsen. Zu diesem Konzept passt auch die Vergabe des ersten Kraftwerks an den (ehemaligen) „Ostblock“ und die Vergabe des zweiten Kraftwerks an den „Westen“. So kann von beiden Denkschulen der Kerntechnik gelernt werden. Ausdrücklich gewünscht, ist die Entwicklung des bereits geplanten dritten Kraftwerks (ab etwa 2020) durch türkische Ingenieurbüros. Das Modell erscheint ein wenig als Kopie des koreanischen Wegs. Bedenkt man das Selbstverständnis der Türkei als Beispiel für einen modernen islamischen Staat mit Vorbildfunktion, erscheint das durchaus nicht abwegig. Jedenfalls kann man die Türkei nicht als technikfeindlich bezeichnen. Sie hat klar die Bedeutung der Kerntechnik als Triebfeder einer modernen Industriegesellschaft erkannt. Die Beschäftigung mit „angepasster Technologie“ (so hieß Sonne, Wind und Bio noch vor 20 Jahren) überlässt man getrost saturierten Gesellschaften wie Deutschland.

Randbedingungen

Was treibt die Türkei zum Bau von zwölf Reaktoren? Die Frage ist recht leicht zu beantworten: Der Energiehunger eines aufstrebenden Landes. Im ersten Jahrzehnt des 21. Jahrhunderts betrug das jährliche Wirtschaftswachstum etwa sechs Prozent. Durch die zunehmende Industrialisierung und den wachsenden Wohlstand hat sich der pro Kopf Verbrauch an elektrischer Energie fast verdoppelt. Es ist das Dilemma aller Schwellenländer: Ohne ausreichend elektrische Energie, kein angestrebtes Wirtschaftswachstum; durch den dringend benötigten steigenden Wohlstand eine zusätzlich angeheizte Nachfrage nach Energie. Dagegen ist ein Rückgang im Primärenergieverbrauch ein typisches Anzeichen stagnierender Volkswirtschaften. Man kann es zwar politisch korrekt als „Energieeffizienz“ verbrämen, aber am Ende ist es nichts anderes als Wohlstandsverlust.

Für die Türkei stellt sich daher die gleiche Frage, wie für China, Brasilien etc.: Wie kann der zusätzliche Energiebedarf kostengünstig gedeckt werden? Öl und Gas sind bereits heute sehr teuer und für eine Stromerzeugung schlicht weg zu schade. Ihr Verbrauch wird durch zunehmenden Verkehr und Industrialisierung ohnehin weiter ansteigen. Eher muß der Mehrverbrauch in diesen Sektoren durch elektrische Energie ersetzt werden. Letztendlich bleibt nur Kohle und Kernenergie. Will man Kohle umweltfreundlich verstromen, wird dies sehr viel teurer, wie man auch dies hervorragend in Deutschland studieren kann.

In allen Mittelmeerländern kommt mit steigendem Wohlstand und steigenden Bevölkerungszahlen noch ein weiteres Problem hinzu: Ausreichend Süßwasser für Mensch, Landwirtschaft und Industrie. Als Ausweg bleibt nur die Meerwasserentsalzung, die aber viel (billige) Energie benötigt. Man kann es deshalb drehen und wenden wie man will: Der Bau von zwölf Reaktoren allein in der Türkei, erscheint sehr sinnvoll – um nicht zu sagen alternativlos.