Der Wahnsinn geht weiter

Wer immer noch nicht glauben mag, daß Planwirtschaft schneller wuchert als Krebs, hat die Mitteilungen Energie: Bestätigung des Reservekraftwerkbedarfs der Bundesnetzagentur noch nicht gelesen. Inzwischen gibt es eine Verordnung über „Reservekraftwerke“. Immerhin werden hier die „Gebühren“ für zusätzliche Kraftwerke mit bis zu 7800 MWel geregelt, die wir Stromverbraucher zahlen müssen.

Das neu erschaffene Handelsgut der Reservekraftwerke

Irgendwann hat auch jedes Kraftwerk sein Lebensende erreicht: Meist nicht aus technischen Gründen (ein Kraftwerk muß bis zuletzt gewartet werden), oft aus technologischen Gründen, überwiegend aus wirtschaftlichen Erwägungen und neuerdings sogar aus politischen Gründen (Ausstieg aus der Kernenergie). Normalerweise – wie gesagt, bis auf Kernkraftwerke in Deutschland – eine auf betriebswirtschaftliche Daten fußende unternehmerische Entscheidung. Mit einfachen Worten: Wenn die laufenden Kosten, die erzielten Einnahmen übersteigen, wird es stillgelegt. Nun hat man auch früher solche Kraftwerke (eher einzelne Blöcke in einem Großkraftwerk) nicht sofort abgerissen, sondern sie erst einmal in die sogenannte „Kaltreserve“ überführt. Unter „Kaltreserve“ versteht man sorgsam gepflegte Einheiten, die man innerhalb weniger Tage wieder in Betrieb setzen kann. Das kostet natürlich zusätzlich Geld. Quasi eine Versicherungsprämie gegen Ausfälle von Kraftwerken (unerwartete Schäden, Umbau- und Wartungsmaßnahmen etc.). Wieviel und welche Blöcke man in der Kaltreserve belässt, ist wieder eine betriebswirtschaftliche Entscheidung. Weil das so ist, werden stets die Einheiten mit den höchsten Unterhaltungskosten – meist die ältesten – Einheiten endgültig abgerissen. An dieser Stelle muß man verstehen, daß der notwendige Umfang der Kaltreserve ausschließlich in der Verantwortung des jeweiligen Betreibers liegt. Wer seinen Kraftwerkspark optimal betreibt, auf dem Stand der Technik hält und stets gut wartet, kommt mit einer entsprechend kleinen Reserve aus. Wer über den richtigen Brennstoffmix verfügt, braucht unerwartete Preisschwankungen nicht zu fürchten.

Die Politik hat nun durch ihre Vorgaben (Ausstieg aus der Kernenergie, Wunschenergie Wind und Sonne), die vorher beschriebenen Zusammenhänge außer Kraft gesetzt. Damit die Politik nun ihren Willen durchsetzen kann, muß sie die Entscheidung übernehmen, welche Kraftwerke stillgelegt werden dürfen. Da aber Enteignungen in unserem Wirtschaftssystem (noch) schwer durchsetzbar sind, mußte eine Krücke gefunden werden. Will oder muß ein Betreiber ein Kraftwerk abschalten, muß er sich dies genehmigen lassen. Dies stellt für sich schon einen schwerwiegenden Eingriff in das Grundrecht auf Eigentum, Gewerbefreiheit und Vertragsfreiheit dar. Um das durchziehen zu können, muß man zumindest eine akzeptable Entschädigung vorsehen. Das Wirtschaftsgut „Reservekraftwerk“ war geboren. Ein weiteres, von Politikerhand erschaffenes, planwirtschaftliches Monster, welches weitere Monster gebären wird!

Was genau, ist ein Reservekraftwerk?

Wenn der Politik – vertreten durch die Bundesnetzagentur – die endgültige Abschaltung eines Kraftwerks missfällt, wird es zu einem Reservekraftwerk erklärt. Ein Reservekraftwerk darf ausdrücklich nicht mehr von seinem Eigentümer benutzt werden, muß aber stets und in vollem Umfang (Personal, Wartung, Prüfungen etc.) durch ihn unterhalten werden. Lediglich der zuständige Übertragungsnetzbetreiber entscheidet, wann, wie oft, für wie lange, das Kraftwerk betrieben werden soll. Für einen solch schweren Eingriff in das Recht auf Eigentum, muß es natürlich eine Entschädigung geben. Diese Kosten werden auf alle Stromverbraucher über das Netzentgeld umgelegt. Ganz neben bei, ist das eine weitere Verschleierung der tatsächlichen Kosten der Windenergie! Die Festlegung der Entschädigung wird im heute üblichen Neusprech als „Durchführung eines Interessenbekundungsverfahrens “ bezeichnet. Dahinter verbirgt sich folgende Problematik: Die Entschädigung muß ausgehandelt werden. Wenn ein Eigentümer – aus welchen Gründen auch immer – partout kein Reservekraftwerk haben will, kann er sich durch die Nennung eines überhöhten Preises schützen. Deshalb wird schon mal vorsorglich mit der Keule „Gewährleistung der Sicherheit und Zuverlässigkeit des Elektrizitätsversorgungssystems“ gedroht. Andererseits ist die Bundesnetzagentur in einer eher schwachen Position, da bestimmte Kraftwerke aus bekannten technischen Gründen faktisch eine Monopolstellung besitzen. In der Praxis werden die Verhandlungen eher in größter Harmonie verlaufen. Handelt es sich doch um ein klassisches StGeschäft zu Lasten Dritter: Wir Stromkunden müssen auf jeden Fall zahlen, sitzen aber gar nicht am Verhandlungstisch.

Wozu braucht man überhaupt Reservekraftwerke?

In einem Stromnetz müssen zu jedem Zeitpunkt und an jedem Ort Energieverbrauch und Produktion in einem Gleichgewicht sein. Vor dem Zeitalter des Ökologismus hat man deshalb die Kraftwerke so nah wie möglich an den Verbrauchsschwerpunkten gebaut. Teilweise sogar in den Städten (Berlin, Hamburg, München etc.) und hat dabei die Abwärme noch für die Fernheizung verwendet. Insbesondere für die Windenergie wurde zu deren Förderung die Standortwahl freigegeben. Der Strom muß nun irgendwie zum Verbraucher fließen. Die Windparks wurden und werden bevorzugt in Norddeutschland oder sogar im Meer errichtet. Inzwischen hat man dort erhebliche Überkapazitäten. Der Abfallstrom muß auf biegen und brechen (Abnahmezwang) in Süddeutschland und im Ausland entsorgt werden. Genau dieser Abfallstrom ist aber das Hauptproblem! Nicht die Dunkelflaute, von der inzwischen sogar in der breiteren Öffentlichkeit geredet wird ist der Grund für neue Leitungen und Reservekraftwerke. Wenn kein Wind weht und keine Sonne scheint, kann der Bedarf problemlos mit dem vorhandenen Stromnetz und den (noch) vorhandenen Kraftwerken abgedeckt werden. Nur wenn der Wind – ausnahmsweise – mal etwas stärker weht, ergibt sich sofort ein Problem für jedes Stromnetz! Selbst ein immer weiter betriebener Netzausbau ist deshalb keine Lösung. Auch wenn man das Stromnetz so erweitert, daß auch Windenergiespitzen immer transportiert werden können, ist das nur an wenigen Stunden im Jahr nötig und damit völlig unwirtschaftlich.

An dieser Stelle scheint ein kleiner Einschub zum Umweltschutz nötig. Niemand kann große Mengen elektrischer Energie ohne Verluste quer durch Deutschland verschieben. Schon heute betragen allein die Verluste im Übertragungsnetz (das ist nur das Hochspannungsnetz!) an „Starkwindtagen“ 1500 MWel.! Wie die Simulationen der Bundesnetzagentur zeigen, werden diese mit dem Ausbau der Windenergie beständig ansteigen.

Ein weiteres Zauberwort: „Redispatch“

Redispatch ist, wenn man bestimmte Kraftwerke im Netz runter regelt, um die Flüsse innerhalb des Netzes zu verändern. Natürlich muß man diese Minderleistung an anderer Stelle zusätzlich einspeisen. Dazu dienen die Reservekraftwerke und deshalb haben auch nur die Übertragungsnetzbetreiber eine Verfügung über sie. Man kann sich das (stark vereinfacht) so vorstellen: Wenn eine Übertragungsleitung an ihre Grenzen zu stoßen droht, kann man die Kraftwerke vor der Leitung etwas abregeln. Natürlich fehlt diese Leistung am anderen Ende, was zumindest dort zu Spannungseinbrüchen und Frequenzschwankungen führen würde. Als Gegenmaßnahme muß das Reservekraftwerk dort, die fehlende Leistung ersetzen. An dieser Stelle sei daran erinnert, daß bereits für den Winter 2015/2016 eine Reserveleistung von geschätzt 6,7 bis 7,8 GWel. eingekauft werden muß. Die Kosten hierfür sind noch nicht bekannt. Immerhin entspricht das rund sieben Kernkraftwerken und eine solche Leistung kauft man auch in Deutschland nicht beim Kaufmann um die Ecke.

Es muß noch einmal ganz deutlich gesagt werden, das Problem ist nicht, wenn der Wind nicht weht (Dunkelflaute), sondern wenn er mal weht! Bereits jetzt haben wir bei Starkwind ein Exportsaldo von 12,1 GW. Bei Dunkelflaute (meist am Wintertag) ergibt sich nur ein Importsaldo von -2,1 GW. Die eigenen Kraftwerke reichen (noch) aus, um Deutschland zu versorgen. Im Gegensatz dazu, muß der Abfallstrom bei stärkerem Wind erst einmal zu den Grenzen transportiert werden, bevor er anschließend im Ausland teuer entsorgt werden kann.

Milchmädchen und der CO2 – freie Windstrom

Bis vor wenigen Jahren, wurde man von den Schlangenölverkäufern der Windindustrie immer brüsk abgeschmettert, wenn man von der Dunkelflaute sprach. Obwohl jedem, der sich mit den meteorologischen Daten auseinandergesetzt hat, vollkommen klar war, daß der Wind eben nicht immer weht. Gerade im Winter, wenn der Stromverbrauch am höchsten ist, treten immer wieder großräumige Hochdruckwetterlagen in Europa auf. Heute sind diese Meßdaten der Windstromproduktion von jedermann im Netz einsehbar.

Wenn man den einschlägigen Umfragen glauben mag, ist die (gut verdienende) Mehrheit in Deutschland gern bereit, höhere Strompreise zu bezahlen, wenn sie dadurch das Weltklima retten darf. So eine Art von Ablasshandel halt. Allerdings werden auch immer mehr Gutmenschen stutzig über einen vermeintlichen Widerspruch: Kaum ein Tag vergeht, an dem nicht über neue Rekorde an der Ökostrom-Produktionsfront berichtet wird – nur die CO2 – Produktion sinkt nicht parallel dazu! Nur die Schlangenölverkäufer jubeln noch über jede zusätzliche CO2 – freie Kilowattstunde aus Windstrom.

Windstrom ist nur so lange „CO2 – frei“, wie er den Windpark noch nicht verlassen hat. Selbst hartgesottene „Öko’s“ wissen aber, daß er im Windpark ohne jeden Wert ist. Er muß noch auf einem hunderte Kilometer langen Weg bis zu den Verbrauchsstellen im In- und Ausland gelangen. Ohne konventionelle Kraftwerke, läßt sich aber kein „Zappelstrom“ transportieren. Inzwischen kann man aber auch dies messen! Je höher die Produktion von Windstrom an verbrauchsfernen Standorten ist, um so höher ist die CO2.-Freisetzung um diesen Strom über weite Strecken transportieren zu können. Da kommt auch kein Netzausbau hinterher.

Planwirtschaft gegen Realität

Es ist politisch gewollt, noch mehr Windparks im Meer zu bauen. Gleichzeitig will man aus der Kernenergie aussteigen. Der Ersatz dieser Kraftwerke durch (fossile) Neubauten ist unerwünscht. Es beginnt der Kampf gegen die noch vorhandenen Kohlekraftwerke. All das zusammen genommen, führt zu einem gigantischen Park von Reservekraftwerken mit steigendem CO2.-Ausstoß. Letztendlich zum Zusammenbruch des Strommarktes mit anschließender Verstaatlichung.

Man kann schon heute die Entwicklung in Echtzeit an der Strombörse verfolgen. Jedes mal, wenn der Wind etwas stärker weht, fallen die Strompreise an der Börse synchron. Einziger Grund ist der politisch verursachte Abnahmezwang. Wenn man in einem Markt eine Überversorgung herbeiführt, fallen die Preise so lange, bis genug Marktteilnehmer die Produktion einstellen. Schon heute werden für etliche Stunden sogar negative Preise erzielt. Nichts weiter, als eine Entsorgungsgebühr für die Vernichtung der Überproduktion. Je tiefer die Preise fallen, um so mehr Produzenten können ihre Kosten nicht mehr decken und stellen die Produktion ein. Dies betrifft im derzeitigen System ausschließlich die fossilen Kraftwerke. Denn die Windstromerzeuger erhalten auch weiterhin ihren Garantiepreis für ihre garantiert abgenommene elektrische Energie! Dies haben ausschließlich die Politiker zu verantworten, denn sie haben diesen Irrsinn in Gesetzesform gegossen.

Es gibt offensichtlich noch immer genug schlichte Gemüter, die diesen Zusammenhang gut finden. Sie glauben tatsächlich, daß so immer weniger fossile Energie verbraucht wird, wodurch das „Klima gerettet wird“. Das Gegenteil ist der Fall! Je mehr Windenergie produziert werden soll, um so mehr fossile Energie (bei gleichzeitigem Verzicht auf Kernenergie) muß eingesetzt werden. Nicht nur bei Dunkelflaute muß der Strom in konventionellen Kraftwerken produziert werden, sondern auch bei jeder wetterabhängigen Überproduktion müssen vermehrt fossile Kraftwerke zum Transport des Windstroms zu den Entsorgungsstätten eingesetzt werden. Was heute schon an Sonn- und Feiertagen oder in der Nacht passiert, wird bei weiterem Ausbau bald ständig Realität sein. Es gibt keinen Ausweg aus diesem Dilemma:

  • Regelt man die Windmühlen mit zunehmendem Wind ab, wird deren Auslastung immer schlechter und es erhöhen sich beständig die Stromkosten bei den Verbrauchern. Man zahlt dann nur noch für Windmühlen, die in der Landschaft herumstehen. Wie lange die Wähler so etwas dulden, kann man vielleicht aus der Geschichte lernen. Wer kennt nicht mehr die Bilder von Obst- und Gemüseüberproduktion, die zur Stabilisierung der Preise gleich untergepflügt wurden oder die man gegen Gebühr auf der Müllkippe entsorgt hat.
  • Man versucht die Überschußenergie gleich in den Windparks zu speichern, bis sie auch tatsächlich benötigt werden. Bei dieser Energiewandlung gingen dann gleich rund die Hälfte der Produktion wieder verloren. Der zweite Hauptsatz läßt sich durch Ideologie nicht aushebeln! Abgesehen von den gigantischen Investitionen, die hierfür nötig wären. Die Butterberge und Fleischberge der planwirtschaftlichen europäischen Landwirtschaft waren Nicklichkeiten dagegen.
  • Man versucht wie bisher, die Überschüsse im Ausland zu entsorgen. Für die immer weiter entfernten Abnehmer sind immer mehr Hochspannungsleitungen nötig, auf denen immer mehr elektrische Energie gleich „verbraten“ wird. Trotzdem wird man immer mehr Reservekraftwerke benötigen, um die Netze überhaupt betreiben zu können. Logischerweise werden die Betreiber immer ihre ältesten und umweltverschmutzenden Kraftwerke den Übertragungsnetzbetreibern vermieten.

Es gibt nur eine Möglichkeit diesen Wahnsinn zu stoppen. Man macht sofort Schluß damit. Dies kann aber nur die Politik leisten, weil sie dieses Monster der Planwirtschaft erst erschaffen hat.

Die europaweite Dimension

Die Idee, den Stromabfall gegen Gebühr im Ausland zu entsorgen, war ziemlich dämlich. Polen ist bereits dabei, seine Grenzen dicht zu machen. Man ist es leid, kostenlos Strom über Tschechien nach Bayern und Österreich zu transportieren. Auch die Idee Reservekraftwerke in Polen anzumieten, war ziemlich kurz gedacht. Weder sind die Polen bereit, ihre Souveränität für ein Linsengericht an die Deutschen zu verkaufen, noch die dadurch zusätzlich entstehenden Belastungen in ihrem Netz zu tragen. Einzig Greenpeace hätte sich wahrscheinlich einen Ast gelacht: Die als besonders umweltfreundlich bekannten (abgenutzten alten) Kohlekraftwerke in Polen von Deutschland weiter am Leben gehalten, um den „Grünen Strom“ von der Ostsee nach Österreich und weiter zu verkaufen.

Besonders lustig ist auch, daß ausgerechnet Deutschland nun darüber nachdenkt, den Stromhandel mit Skandinavien und Österreich zu begrenzen. Leider weht auch der Wind in Dänemark, wenn er in Norddeutschland weht. Weil ganz Norddeutschland bereits mit Windstrom verstopft ist, tut jede zusätzlich Kilowattstunde, die Dänemark in Deutschland entsorgen will, besonders weh. Langsam merkt man, daß sich Deutschland zu einem Transitland für elektrische Energie entwickelt. Man findet es inzwischen auch nicht mehr so prickelnd, daß deutsche Stromverbraucher für lukrative Geschäfte zwischen Österreich, Ungarn und Italien bezahlen müssen. Deutscher Stromabfall wird billig von Österreich aufgekauft und gewinnbringend an das alte KuK-Gebiet weiterverscherbelt. Inzwischen fließen bereits 8,5 GW nach Österreich. Tendenz weiter steigend. Alles ein Ergebnis des politisch gewollten „Ein-Zonen- Modells“, in dem die örtliche Entfernung per Ukas außer Kraft gesetzt wurde. Strom soll überall gleich teuer sein. Transportkosten müssen zur Verschleierung aus anderen Töpfen bezahlt werden.

Auch das „Vorangehen“ hat sich als blöde Idee herausgestellt. Frankreich z. B. ist inzwischen auch in das Windgeschäft eingestiegen. Dumm nur, daß dort die geographischen Bedingungen (z. B. Atlantikküste) wesentlich günstiger als in Bayern und im Schwabenland sind, somit die Produktionskosten auch geringer. Warum sollte Frankreich also zusätzlichen Windstrom aus Deutschland importieren? Es sei denn, Michel ist bereit, die Subventionen weiter hoch zu schrauben.

Völlig verschlafen haben unsere Politiker beim „Vorangehen“ den Netzausbau in Ost-West-Richtung. Man war zu sehr von der Idee besessen, die Kernkraftwerke in Süddeutschland abzuschalten und durch Windstrom zu ersetzen. Inzwischen hat man durch die politisch verordnete Überproduktion Strompreise an der Börse erzeugt, die (teilweise) unter den Brennstoffkosten liegen. Daraus ergeben sich erbliche Stromflüsse in Ost-West-Richtung. Ein Netzausbau auch in diese Richtung, ist unvermeidbar! Deutschland wird ein Land der „Stromautobahnen“ und „Reservekraftwerke“. Ist das, das „tolle Europa“, was man uns immer zu verkaufen versucht hat? Gut gemeint, ist noch lange nicht, gut gemacht.

Netzentwicklungsplan 2015

– die Vollendung der Planwirtschaft?

Die Übertragungsnetzbetreiber haben den Szenariorahmen 2014 als Grundlage für die Netzentwicklungspläne 2015 veröffentlicht. Alle sind zur Diskussion aufgerufen. Nicht ganz unwichtig, da dieser Plan zur ersten Überarbeitung des Bundesbedarfsplans durch den Bundesgesetzgeber führt.

Wie es sich für eine anständige Planwirtschaft gehört, muß der Deutsche Bundestag alle drei Jahre einen neuen „Bundesbedarfsplan“ verabschieden. Wesentlicher Teil des Bundesbedarfsplans ist eine Liste künftiger Höchstspannungsleitungen. Wer es noch nicht ganz verstanden hat: Es gehört zur ehrenvollen Aufgabe unserer Bundestagsabgeordneten zu entscheiden, wo, welche Höchstspannungsleitung gebaut wird. Da natürlich keiner unserer Abgeordneten so richtig sattelfest in Elektrotechnik sein dürfte, läßt man sich diesen Plan über die Bundesnetzagentur vorlegen. Man braucht dann nur noch mit ja oder nein abstimmen und dafür ist bekanntermaßen keinerlei (Fach)wissen nötig. Nun gibt es aber ein gewisses Restrisiko, in der Form des nächsten Wahltermins. Deshalb bezahlt man eine ganze Scharr von Hofnarren, auf die man gegebenenfalls alles abschieben kann. Die wollen aber natürlich auch nicht ganz allein im Regen stehen und lassen sich deshalb Vorgaben von den Politikern machen. Damit hat man den perfekten Regelkreis der organisierten Verantwortungslosigkeit erschaffen.

Fragt doch mal die Maus!

Nachts ist es dunkel. In Deutschland ist es besonders im Winter ganz schön lange dunkel. Es weht auch oft gar kein Wind – dummerweise gerade auch im Winter, wenn es kalt und dunkel ist. Das hat man immer und immer wieder, so gemessen! Die Natur ist einfach gemein, die will einfach nicht auf die guten Onkel und Tanten mit grüner Gesinnung hören. Weil die Natur nun so ist, wie sie ist, braucht man zu 100 % eine Absicherung durch konventionelle Kraftwerke. Speicher, die den Stromverbrauch von Deutschland für mehrerer Tage speichern könnten, gibt es nicht. Wird es auch wahrscheinlich nie geben. Ganz zu schweigen, von den Kosten und der Umweltbelastung.

Nicht weniger schlimm, ist es aber, wenn der Wind mal kräftig weht und die Sonne scheint. Dann wird plötzlich viel mehr Strom produziert, als wir überhaupt in Deutschland verbrauchen können. Dann müssen wir jedes mal unseren Nachbarn richtig Geld bezahlen, damit sie für uns den Stromabfall entsorgen. Und genau dafür, brauchen wir die vielen neuen Stromleitungen, die so schön in unsere Landschaft passen. Ist doch super, oder? Bezahlen dürfen wir auch gleich doppelt, nicht nur für die vielen Stromleitungen, sondern auch für Produktionskosten an die Windmüller und die schlauen Sonnenmännchen. Unser zuständiger Minister, der „Sigi Pop“ sagt zwar, daß uns unsere Nachbarn für bekloppt halten, aber das kann uns doch egal sein, da stehen wir einfach drüber. So, liebe Abgeordneten, eigentlich wisst ihr jetzt alles, was ihr für die Abstimmung braucht. Seit mal ehrlich, wenn euch das mit dem Euro auch mal einer so einfach erklärt hätte….

Das Verfahren

Die Politik macht eine Vorgabe wieviel elektrische Energie in der Zukunft erzeugt werden soll. Dafür ermitteln die Übertragungsnetzbetreiber ein Leitungssystem, welches diese Vorgabe erfüllen könnte. Abschließend verabschiedet der Bundestag ein Gesetz, in dem diese Höchstspannungsleitungen festgeschrieben werden.

Eigentlich sollte der Unterschied zwischen einer rechnerischen und einer realen Größe jedem Politiker geläufig sein. Addiert man beispielsweise alle Einkommen und teilt diese Summe durch die Anzahl der Einwohner, erhält man den Mittelwert des Pro-Kopf-Einkommens. Das sagt aber nichts darüber aus, wieviel Kleinrentner und Millionäre es gibt! Gibt man nun den prozentualen Anteil an „Erneuerbaren“ vor (konkret 40 bis 45% in 10 und 55 bis 60% in 20 Jahren), ergibt das noch lange keine Einsparung an fossilen Energien. Am anschaulichsten läßt sich dies am Beispiel der Sonnenkollektoren erklären: Nachts ist es dunkel. Will man nun einen bestimmten Anteil des verbrauchten Stroms durch Sonnenenergie gewinnen, müßte man diesen Anteil notgedrungen ausschließlich am Tage produzieren. Rechnerisch erscheint das – zumindest in Grenzen – möglich, real ist es jedoch ohne Speicher physikalisch unmöglich. Wenn man keine Speicher hat, muß man die volle Leistung durch konventionelle Kraftwerke bereit halten. In der Realität ist die Sache aber noch ungünstiger. Der Wind weht relativ selten bzw. überwiegend schwach und die Sonne scheint noch weitaus seltener mit der Leistung auf dem Typenschild. Jedenfalls kann nicht einmal der Mix aus „Erneuerbaren“ mit einer Energieeffizienz von 40 % aufwarten. Die Physik und die Meßwerte (z. B. Energiestatistik von Deutschland) sprechen eine eindeutige Sprache. Warum soll aber diese einfache Erkenntnis eine solche Tragweite haben?

In einem Stromnetz muß zu jedem Zeitpunkt ein Gleichgewicht zwischen erzeugter und verbrauchter Leistung bestehen. Die absolute Obergrenze die man theoretisch einspeisen könnte, ist also die momentan verbrauchte Leistung. Technisch, ist die mögliche Leistung noch wesentlich geringer. Es gibt nur zwei Möglichkeiten mit diesem Problem umzugehen: Entweder man regelt die „Erneuerbaren“ ab, was ihre ohnehin schon geringe Energieeffizienz weiter verschlechtern würde und ihre Kosten in schwindelerregende Höhen treiben würde oder man vergrößert das Netz. Um es noch einmal mit anderen Worten ganz deutlich zu sagen: Der einzige Grund für den geplanten Netzausbau ist, den Abfallstrom aus den Regionen mit Überproduktion abzutransportieren. Nur diesem einzigen Zweck dient der ganze Zirkus. Würde man zu dem alten Grundsatz zurückkehren, Strom dort zu produzieren, wo man ihn auch braucht, würde man auch keine zusätzlichen Höchstspannungstrassen brauchen.

Dem ganzen Ansatz, das Problem von nicht benötigter Leistung durch einen Netzausbau lösen zu wollen, ist ohnehin nur eine kurze Lebensdauer vergönnt. Er wird genau so lange funktionieren, wie unsere Nachbarländer gewillt sind, unseren Stromabfall aufzunehmen. Ein guter Indikator sind die zu entrichtenden Entsorgungsgebühren – auch negative Börsenpreise genannt. Spätestens, wenn die Entsorgungsgebühren höher als die Vergütung (Einspeisevorrang) für die Windmüller und Sonnenmännchen sind, wird man deren Anlagen abregeln. Bin gespannt, wann die ersten (staatlich geförderten) Verschrottungsprämien für Windräder und Sonnenkollektoren eingeführt werden. Mit an Sicherheit grenzender Wahrscheinlichkeit lange bevor ein Anteil von 50% (produzierte Energie, also MWh und nicht nur installierte Leistung MW) Wind und Sonne an der Stromerzeugung erreicht ist.

Die Standortfrage

Einfach eine Stromleitung irgendwo hin zu bauen, nützt auch nichts. Es sollte schon ein Kraftwerk in der Nähe sein. Damit ergeben sich zwei Probleme, die sich auch noch gegenseitig beeinflussen. Einerseits muß man Voraussagen, wo, welche konventionellen Kraftwerke stehen und andererseits wo die „Erneuerbaren“ gebaut werden. Wenn sich die Standorte nicht decken – was wahrscheinlich ist – braucht man auch noch doppelte Leitungen. Außerdem sind die Leitungen für die „Erneuerbaren“ sehr viel kostspieliger, weil sie wegen deren geringen Effizienz ebenfalls nur schlecht ausgelastet sein können.

Konventionelle Kraftwerke

Es ist politisch gefordert, konventionelle Kraftwerke abzuschalten. Außerdem gibt es auch noch unterschiedlich „politisch korrekte Kraftwerke“: Kernkraft, Braunkohle, Steinkohle Erdgas usw.

Inzwischen hat es sich rum gesprochen, daß auch ein Kraftwerk mindestens seine Kosten (Kapital, Brennstoff etc.) einnehmen können muß (Strompreise). Spätestens, wenn die Brennstoffkosten die Stromvergütung übersteigt, ist es an der Zeit, das Kraftwerk abzuschalten. Leider, richten sich gerade die Brennstoffpreise nicht nach den Idealen der Politiker. Auch die planwirtschaftlichen Ideen einer „Brennstabsteuer“ und einer „CO2.-Abgabe“ waren bisher nicht besonders hilfreich.

Wie lösen nun unsere „Szenario-Bastler“ das Problem? Jedes Kraftwerk bekommt eine Lebensdauer zugewiesen. Modelltechnisch eine elegante Lösung. Nur bitte, was soll die Lebensdauer eines Kraftwerks sein? Die technische Lebensdauer eines Kraftwerks ist theoretisch unendlich, da man immer wieder reparieren und modernisieren kann. Es gibt nur eine wirtschaftliche Lebensdauer, die freilich viel schwerer zu definieren ist. In ihr schlummert jede Menge politischer Willkür! In des Wortes Bedeutung, kann jede Flutwelle im fernen Asien das politisch erzwungene aus bedeuten. Die „klimafreundlichen“ und „flexiblen“ Gaskraftwerke können in den wirtschaftlichen Ruin getrieben werden, wenn ein Diktator in Moskau mit dem falschen Bein aufsteht. Ausgerechnet Braunkohle und Kernenergie haben den geringsten Brennstoffpreis und bieten die höchste Versorgungssicherheit – oder ist genau das der Grund, warum sie so bekämpft werden?

Also, liebe Politiker, sagt ihr uns Ingenieuren mal, welche Kraftwerke ihr haben wollt. Wir sagen euch dann, was ihr dafür für Mittel in eurem Haushalt bereitstellen müsst. Ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger sein. Eine Regierung, die sich anmaßt über Stromleitungen zu entscheiden, wird doch wohl auch noch sagen können, welche Kraftwerke wohin sollen. Das ging doch in der DDR auch ganz gut und 40 Jahre muß doch keiner von euch mehr im Amt bleiben. Wir bringen auch an jedem Kraftwerk eine Bronzetafel mit euren Namen an.

Die Rolle der Energiekombinate

Aber unsere Energiekombinate sind keinen Deut besser. Anstatt der Öffentlichkeit mal klaren Wein einzuschenken, hängen sie an den Lippen irgendwelcher Politiker und verzapfen lieber dämliche Werbekampagnen. Mit Unternehmertum hat das schon lange nichts mehr zu tun. Vielleicht ist aber auch das bewusstes handeln, um ein Gesellschaftssystem zu diskreditieren und letztendlich zu zerstören. Mein Mitleid für Massenentlassungen und sinkende Dividenden hält sich jedenfalls immer mehr in Grenzen.

Wer das für übertrieben hält, soll mir mal erklären, warum man in der Netzstudie von einem Abnehmen der Kraftwerkskapazität und dem zukünftigen Strombezug aus dem Ausland ausgeht.

Die Rolle Europas

Das wäre nach meinem Verständnis von Demokratie, eine Debatte die ins Parlament gehört: Wollen wir in Deutschland noch elektrische Energie selbstbestimmt produzieren oder zukünftig nur noch abhängig aus dem Ausland beziehen? Bundespolitiker, die ernsthaft über den Verlauf von Stromleitungen abstimmen wollen, sollten vielleicht besser mal über ihr Selbstverständnis als Bundestagsabgeordnete nachdenken. Im Szenario wird ein zunehmender Stromhandel als gewünscht vorausgesetzt. Angeblich hat der nur Vorteile. Was soll ein „europäischer Stromhandel“ eigentlich sein? Selbstverständlich liegen die Verbrauchsschwerpunkte von Antwerpen und Rotterdam nahe am rheinischen Braunkohlerevier und die tschechischen Kernkraftwerke fast in Sichtweite von Bayern. Aber wollen wir wirklich polnischen Kohlenstrom nach Spanien transportieren und griechischen Sonnenstrom nach Dänemark? Wie soll man die putzigen Diagramme über „Simulationen“ von ganz Europa interpretieren? „Referenzzeitpunkt Januar 19.00“: Um 19.00 Uhr (wahrer) Ortszeit ist es in ganz Europa schon ganz schön dunkel im Januar! Gerade im Januar gibt es ausgeprägte Hochdruckwetterlagen, die zur Flaute in ganz Zentraleuropa führen. Müssen dann beispielsweise die französischen Kernkraftwerke Deutschland versorgen oder dürfen sie ihre eigene Bevölkerung bevorzugen? Wäre es nicht fair, wenn die Franzosen als Ausgleich für die „Strahlenbelastung“ weiter arbeiten dürften und abends eine warme Wohnung vorfänden? Die Deutschen könnten sich ja zum warm tanzen um ihre Windmühlen versammeln.

Wer selbst nichts produziert, hat auch nur noch geringen Einfluß auf die Produktionsweise. Wer keine „Chlorhühnchen“ will, muß halt selber Hühner nach seinen Vorstellungen produzieren, sonst muß gegessen werden, was auf den Tisch kommt – oder man verzichtet gleich ganz aufs Essen.

Prognosen des Stromverbrauches

Prognosen sind Vorhersagen, bei denen man Nachfrage und Angebot vorhersagen muß, die sich aber auch noch gegenseitig beeinflussen. Das macht das Funktionieren einer jeden Planwirtschaft prinzipiell unmöglich. Das Szenario macht es sich nun besonders einfach, indem es die Nachfrage in den nächsten zwanzig Jahren als wesentlich konstant annimmt (mit 600 TWh Jahresenergieverbrauch bei 86 GW Spitzenlast). Man geht lediglich von den politischen Vorgaben der jährlichen Ausbauraten an „Erneuerbaren“ aus. Schon der konventionelle Kraftwerkspark soll sich daraus ergeben, wird angenommen.

Das Angebot in Form von Strompreis und Verfügbarkeit bestimmt aber schon mittelfristig ganz entscheidend die Nachfrage: Je mehr die Strompreise steigen, je mehr Betriebe werden in Deutschland keine Ersatz- und Neuinvestitionen mehr tätigen. Der Stromverbrauch der Industrie wird im Rhythmus der Betriebsschließungen sinken. Aber auch die Sektoren Handel und Handwerk sind betroffen. Zwar ist der Verbrauch der Privathaushalte sehr unelastisch – da hilft auch kein Glühbirnenverbot, keine Zwangsabschaltung von Kaffeemaschinen und keine Staubsaugerattrappen – aber der geringer werdende Konsum wirkt indirekt: Den Euro für die Stromrechnung kann man nicht noch einmal zum Becker tragen, der selbst seine Preise ständig wegen der steigenden Energiekosten erhöhen muß. Konsequenz: Man kauft halt weniger Kuchen. Öko-Sozialismus ist eine Abwärtsspirale, die im Moment noch langsam zunimmt, aber immer enger wird.

Fazit

Dieses Verfahren ist eine einzige Farce. Wenn Politiker über Stromleitungen entscheiden wollen, soll man ihnen eine Karte und ein paar Filzstifte geben. Jeder Abgeordnete kann dann „seine Lieblingsleitung“ einzeichnen. Er muß dann allerdings auch die alleinige Verantwortung dafür übernehmen. Einfach populistisch eine – zudem auch noch völlig unrealistische – Bandbreite vorgeben (40 bis 45% Anteil in zehn Jahren), geht nicht. So einfach, kann man sich nicht aus der Verantwortung für die wirtschaftliche Entwicklung einer ganzen Nation stehlen. Die Kritik trifft aber nicht nur die Politiker allein. Die Übertragungsnetzbetreiber und Energieversorger müssen endlich ihre Verantwortung als Unternehmer übernehmen. Immer nur aus Bequemlichkeit an den Lippen der Politiker kleben und möglichst in vorauseilendem Gehorsam jeden Wunsch erfüllen, ist auf Dauer tödlich. Am Ende ist das Kapital der Aktionäre verbrannt und die Arbeitsplätze der Arbeitnehmer vernichtet. Vielleicht ist aber gerade das, der Zweck der „Energiewende“.

Fukushima Block IV

Die Geschichte

Das Kernkraftwerk Fukushima gehörte einst zu den größten Kernkraftwerken weltweit. Es besteht aus zehn Blöcken in zwei Gruppen (Fukushima Dai-ichi mit den Blöcken I1 bis I4 und I5 bis I6 und Fukushima Daini mit den Blöcken II1 bis II4). Beide Einheiten wurden von den selben Erdbeben und dem selben Tsunami im März 2011 getroffen. Warum aber, mit völlig unterschiedlichem Ausgang? Dai-ichi ist Totalschaden, Daini könnte man morgen wieder in Betrieb nehmen – sofern man wollte. Der Hauptgrund ist simpel: Fukushima II ist einige Meter höher gelegen, als Fukushima I. Die gleiche Flutwelle konnte damit nicht so verheerend wirken, wie auf dem Gelände I. Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch „Wand an Wand“ mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede­wasser­reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als „Übungsgelände“ für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt „einzufliegen“. Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise „Wand an Wand“ erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischer Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem „verunglückten Nachbarn“ verbunden gewesen wäre!

Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese „Stahlbau-Halle“ ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche „Betonpanzer“ natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen („EVA“, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. „gesicherten Einschluß“. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend „mauert“ man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen „Gemütslage“ in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand „in einem Rutsch“ durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als „Freibäder“. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb von dieser Methode abgekommen. Insofern ist die „Leichtbauhalle“ oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale „Schutzschicht“ für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich „sanft“ auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die „Baustelle“ darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte? Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische „Lüftungs- und Filteranlage“ errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige male ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich „Deutsche Qualitätsmedien“, angefeuert von „Atomexperten“, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die „gefährlichste Situation in der Geschichte der Menschheit“ konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten.

Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht „leer kochen“, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht. Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente „wie neu“ aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die „abgekühltesten“ Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von „Atomexperten“ behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen „Blechkasten“ umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit „unbenutzten“ Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die „Bierkastenmethode“: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt. Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die „Henkel“ sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen. Vor jedem Zug werden deshalb die „Henkel“ mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere „Greiftechniken“ angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen „Atomruinen“ kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller „Atomkraftgegner“.

Erdgas oder Kernenergie

oder Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

  1. Welche Brennstoffe oder sonstige „Rohstoffe“ (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?
  2. Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?
  3. Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die „Energiewende“ eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese „Erstanwender“ finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese durch die sog. „Ölpreisbindung“ im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine „Gasblase“, die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen – wie z. B. in Rußland und dem Iran – kann das Jahrzehnte andauern ohne daß die Fördermenge merklich absinkt. Weit aus größer sind jedoch die Vorkommen von sog. „unkonventionellem Gas“. Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der „Shale Gas Revolution“ wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer wie in den USA. Preisunterschiede – sofern sie hoch genug sind und längerfristig erscheinen – werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das „neue Gas“ unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an dem lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran – aus den vorgenannten Gründen – nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis – wie in Teilen der USA – wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis – wie in Deutschland und den Niederlanden – werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen „Träumen vom Elektromobil“.

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die „Verwerter“ kommen auf den Plan. Typische „Verwerter“ sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen wie z. B. in der Schifffahrt.

Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage – insbesondere nach sauberen Energieträgern – weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Wie man einen Reaktor kaputt repariert

Der amerikanische Energieversorger Southern California Edison’s gab am 7.6.2013 bekannt, sein Kernkraftwerk San Onofre nuclear plants (SONGS) endgültig still zu legen. Ausschlaggebend war die Feststellung der Atomaufsicht (NRC), daß sie mindestens ein Jahr für die endgültige Entscheidung benötigen würde, ob das Kraftwerk mit reduzierter Leistung wieder ans Netz gehen dürfte. Zu den technischen Details später. Wer der NRC einfach nur Unfähigkeit unterstellt, macht sich die Sache zu einfach. Es ist – das auch aus Deutschland hinlänglich bekannte – geschickte Taktieren und Ausnutzen von „Gesetzeslücken“ durch „Atomkraftgegner“. Letztendlich ging es um die juristische Spitzfindigkeit, ob für den Betrieb mit 70% Leistung gegenüber 100% Leistung eine neue Betriebsgenehmigung erforderlich ist. Wenn dies der Fall wäre, müßte ein entsprechendes öffentliches Anhörungsverfahren durchgeführt werden, welches wiederum die Einhaltung von Mindestfristen erforderlich macht. Kein Unternehmen kann eine Entscheidung über mehrere Milliarden Dollar über Jahre in der Schwebe halten. Es tritt daher die alte Kaufmannsregel in Kraft: Ein Ende mit Schrecken, ist besser als ein Schrecken ohne Ende.

Geschichte

Das Kernkraftwerk besteht aus drei Reaktoren. Block 1 hatte eine Leistung von 456 MWe und war 25 Jahre in Betrieb (1968 bis 1992). Er befindet sich im Zustand des „sicheren Einschlusses“ und dient dem restlichen Kraftwerk als atomares Zwischenlager. Die Blöcke 2 und 3 mit einer Nettoleistung von zusammen 2150 MWe gingen im August 1983 und April 1984 in Betrieb. Sie haben eine Betriebserlaubnis bis ins Jahr 2022. Ein entscheidender Punkt in diesem Drama.

SONGS liegt ziemlich genau zwischen San Diego und Los Angeles im südlichen Kalifornien. Eine immer noch wachsende Region mit latentem Mangel an elektrischer Energie und hoher Luftverschmutzung. Ein Ersatz durch ein Kohlekraftwerk scheidet aus. Selbst der Neubau von Gaskraftwerken (z. Zt. extrem billiges Erdgas in USA) wird schwierig werden. Der Bau einer neuen Starkstromleitung wird ebenfalls sehr teuer und befindet sich noch in der Prüfung. Seit der Ausserbetriebnahme der beiden Reaktoren liegt der Strompreis in Südkalifornien bereits permanent rund 5 Dollar pro MWh über dem Preis in Nordkalifornien. Das alles war lange bekannt bzw. absehbar.

Da man sich zu einem rechtzeitigen Neubau eines Kernkraftwerks nicht durchringen wollte, entschloss man sich – wie einst in Deutschland – zu einer „Laufzeitverlängerung“ um weitere 20 Jahre. Dabei war klar, daß für einen wirtschaftlichen Betrieb und eine Betriebsgenehmigung umfangreiche Modernisierungen nötig waren. Dickster Brocken war hierbei die Erneuerung der Dampferzeuger für über 500 Millionen Dollar. Wegen der Abmessungen grundsätzlich ein heikles Unterfangen. Auch der Crystal River Nuclear Plant ist durch einen solchen Umbau zum Totalschaden geworden. Die ursprünglich gedachte Lebensdauer von 30+ Jahren, hat genau in der Schwierigkeit des Austausches der Großkomponenten (Dampferzeuger, Druckgefäß etc.) ihre Begründung. Die „Laufzeitverlängerung“ bei Reaktoren der ersten und zweiten Generation ist wirtschaftlich immer fragwürdig gewesen und bleibt es auch heute. Irgendwann wird die ständige Modernisierung bei jedem Auto und Flugzeug zu einem „Groschengrab“. Ein „Oldtimer“ wird zwangsläufig zu einem Luxusgut. Dies gilt besonders, wenn es den ursprünglichen Hersteller (Combustion Engineering CE) gar nicht mehr gibt und die Konstruktion eher exotisch war. CE baute grundsätzlich nur zwei (sonst 2, 3 oder 4 üblich, je nach Leistung) Dampferzeuger in seine Reaktoren ein. Deshalb waren die Dampferzeuger von SONGS die voluminösesten überhaupt. Eine Tatsache, die der Anbieter Mitsubishi Heavy Industries (MHI) ganz offensichtlich unterschätzt hat.

Technik der Dampferzeuger

Die Dampferzeuger sind neben dem Reaktordruckbehälter die größten und schwergewichtigsten Komponenten eines Druckwasserreaktors. Sie liegen innerhalb des Sicherheitsbehälters, der bestimmungsgemäß möglichst dicht sein soll. Will man sie austauschen, muß eine entsprechend große Montageöffnung in den Sicherheitsbehälter und die äußere Betonhülle (danach außergewöhnliche Abplatzungen im Spannbeton bei Crystal River) gebrochen werden.

Um die Vorgänge bei SONGS zu verstehen, muß man sich den Aufbau eines solchen Dampferzeugers vor Augen führen. Er ist das Bindeglied zwischen dem Wasserkreislauf des eigentlichen Reaktors und dem Dampfkreislauf der Turbine. Das heiße Wasser aus dem Reaktor strömt innerhalb der U-förmigen Rohre und überträgt dabei seine Wärme an das äußere Wasser des Dampfkreislaufes. Innerhalb der Rohre (primärseitig) sind die Verhältnisse noch einfach zu berechnen. Außerhalb (sekundärseitig) sind die Verhältnisse wegen der Verdampfung sehr kompliziert. Wie in einem Kochtopf bilden sich unzählige Dampfblasen, die sich ausdehnen, aufsteigen und dabei noch Wasser mitreißen. Es kommt dadurch zu erheblichen mechanischen Belastungen für die Rohre und alle Einbauten. Die Rohre sind nur sehr dünn (etwa 2 cm) und mehrere Meter lang. Ohne geeignete Abstützungen würden sie wie Grashalme im Wind hin und her geschlagen und durch permanentes Zusammenschlagen beschädigt. Die Auslegung und Fertigung solcher Abstandsplatten ist recht kompliziert, denn jeder Spalt zwischen Rohr und Abstandshalter bzw. Bodenplatte ist ein Ort der Korrosion. Durch die Korrosion werden die Rohre ebenfalls geschwächt bzw. eingebeult. Man verwendet deshalb recht exotische Legierungen (früher Inconel 600, heute Inconel 690) und eine komplexe Wasserchemie. Schäden lassen sich trotzdem nicht vermeiden. Bei jeder Inspektion werden die Rohre einzeln überprüft. Wenn ihre Wandstärke um ⅓ dünner geworden ist, werden sie durch Pfropfen dauerhaft verschlossen. Damit das überhaupt geschehen kann, sind ursprünglich 10 bis 20 Prozent mehr Rohre vorhanden, als für die Auslegungsleistung benötigt werden. Während des Betriebs gibt es eine Leckageüberwachung.

Bei der Inbetriebnahme der neuen Dampferzeuger traten unerwartete Vibrationen auf. Solche Vibrationen deuten immer auf einen erhöhten Verschleiß hin. Man stellte daher die Reaktoren ab und begann eine mehrmonatige Untersuchung. Das Ergebnis war ein Verschluß bereits geschädigter Rohre und die Entdeckung eines wahrscheinlichen Fehlers in der Konstruktion von MHI (Falsche Berechnung der Strömungszustände sekundärseitig). Wichtigste Erkenntnis war aber, daß die Vibrationen erst oberhalb einer Leistung von 70% auftraten. Es wurde der NRC daher vorgeschlagen, die Reaktoren für sechs Monate mit einer maximalen Leistung von 70% wieder in Betrieb zu nehmen und dann erneut auf Verschleiß zu prüfen. Gleichzeitig wurden Entwicklungsarbeiten für eine Ertüchtigung der Wärmetauscher durch MHI eingeleitet.

Das Ende

Am 13. Mai knickte das Atomic Safety and Licensing Board (ASaLB) Panel vor Friends of the Earth (FoE) ein. Für alle, die nicht so vertraut sind mit der Materie, ein Einschub: FoE ist einer der ältesten und einflussreichsten „Kampfeinheiten der Anti-Atomkraftbewegung“ oder noch treffender formuliert: Der Solarindustrie. Ihr erster Angestellter war Amory Lovins, der Guru aller Sonnenanbeter. Sich in Kalifornien mit dem Sierra Club und FoE anzulegen, ist ungefähr so, wie gegen Putin in Moskau zu demonstrieren. Der Sierra Club kämpft neuerdings nicht nur gegen Kernenergie, sondern auch massiv gegen die Kohlenindustrie. Dafür kommen die größten Spender aus dem Gassektor. Bei dem ASaLB handelt es sich um eine rein juristische Institution. Technik spielt dort keine Rolle. Insofern dürfte der Urteilsspruch nicht überraschen:

  1. Der Antrag auf eine Begrenzung der Leistung auf 70% entspricht nicht der Genehmigung und stellt eine schwerwiegende Änderung dar,
  2. Block 2 kann nicht sicher mit der genehmigten Leistung betrieben werden, deshalb muß die Genehmigung erneuert werden,
  3. Eine Wiederinbetriebnahme dieser Dampferzeuger in ihrem aktuellen Zustand mit nur 70% Leistung ist außerhalb geschichtlicher Erfahrung und der zeitweise Betrieb mit verringerter Leistung entspricht einem Versuch oder Test, für den es einer gesonderten Genehmigung bedarf.

Moral von der Geschichte: Juristen haben sich schlau aus der Schusslinie gebracht, Problem an die NRC delegiert, Kosten zahlen die Stromkunden, Luftverschmutzung nimmt weiter zu, aber Hauptsache die Solar- und Gasindustrie ist zufrieden gestellt.

Ganz neben bei, verlieren auch noch 900 Angestellte von den bisher 1500 Angestellten des Kraftwerks über Nacht ihre Arbeit.

Konsequenzen

Irgendwann ist jedes Kernkraftwerk am Ende seiner wirtschaftlichen Lebensdauer angekommen. Wer nicht den Mut besitzt ein neues zu bauen, begibt sich unter Umständen auf dünnes Eis: Ein massiver Umbau ist mit erheblichen Risiken verbunden. Ein Abriss und Neubau ist oft günstiger. Eine an und für sich Alltagserfahrung.

Fairerweise muß man aber sagen, daß ein Neubau heutzutage ein sehr langwieriges und kostspieliges Unterfangen ist. Das hat überhaupt nichts mit Technik und Betriebswirtschaft zu tun, sondern ist ausschließlich politisch verursacht. Wer das nicht glauben mag, sollte sich einmal die unterschiedlichen Planungs- und Bauzeiten für gleiche Reaktortypen in unterschiedlichen Ländern anschauen. Die teilweise abenteuerlichen Umbauten in USA sind ein Ergebnis für „vorhandene Standort-Genehmigungen“ und die wohlwollende lokale Unterstützung bei bestehenden Reaktoren im Gegensatz zum Risiko einer von „Anti-Atomgruppen“ verängstigten Bevölkerung an neuen Standorten.

Ein neues Phänomen – auch in Deutschland – ist die Mobilisierung von Rücklagen. Entgegen jahrzehntelanger Propaganda, sind die finanziellen Rücklagen für die Beseitigung der „Atomruinen“ so gewaltig bemessen gewesen, daß es verlockend geworden ist, sie zu heben. Im Falle SONGS betragen sie mehr als 2 Milliarden Dollar. Inzwischen steht eine auf „Abbruch“ spezialisierte Industrie weltweit zur Verfügung.

Das größte Hemmnis (nur in einigen Ländern !!) für die Investitionen in Kernkraftwerke ist die zeitliche Unkalkulierbarkeit. Sie muß über Risikozuschläge und zusätzliche Finanzierungskosten bedient werden. SONGS ist ein typisches Beispiel: Es geht beim Umbau etwas technisch schief. Die Konsequenz ist ein Stillstand der Arbeiten von mindestens einem Jahr aus rein juristischen Gründen. Es gibt aber ausdrückliche keine Garantie für diese Frist und das Ergebnis ist offen. Wahrscheinlich sind eher neue Verzögerungen, da sich die erfahrensten „Anti-Atomkraft-Kämpfer“ eingeschaltet haben. Jeder Tag Stillstand kostet aber dem Energieversorger mehr als eine Million Dollar pro Tag!

Der Restwert des Kernkraftwerks betrug rund 1,5 Milliarden Dollar. Die Umbauaktion schlägt mit weiteren 500 Millionen zu Buche. Allerdings beginnen nun juristische Auseinandersetzungen, wieviel davon MHI zu tragen hat und wieviel zusätzlich von Versicherungen übernommen wird. Man kann es aber drehen und wenden wie man will, letztendlich tragen die Stromkunden den Schaden. Das ist auch gut so. Kalifornien ist bereits einmal durch seine völlig verquaste Energiepolitik an den Rand des Staatsbankrott getrieben worden. Der folgende politische Erdrutsch führte zu einem Gouverneur Schwarzenegger.