Die Krebsgeschwulst der Energiewirtschaft

Es begann alles mit den Subventionen für Wind- und Sonnenenergie. Manche tiefgläubige Politiker halten die zwangsweise Einspeisung von elektrischer Energie zu staatlich festgelegten und garantierten Preisen immer noch für einen ideologischen Exportschlager. Eher ist es so, daß sich die „EEG-Philosophie“ wie Krebs über Europa ausgebreitet hat. Inzwischen ist man schon bei der Förderung neuer Kernkraftwerke (z. B. Großbritannien) und fossilen Kraftwerken als „Kaltreserve“ (z. B. Deutschland) angekommen. Es ist, wie es immer war und sein wird: Einige Politiker wollen mit ihrem Halbwissen in einen Markt eingreifen, um ihn zu verbessern. Zwangsläufig führen ihre Eingriffe zu Störungen an anderen Stellen, die flugs durch weitere Eingriffe beseitigt werden sollen. Eine Kettenreaktion kommt in Gang, an deren Ende meist der Zusammenbruch des gesamten Systems steht. Es scheint also durchaus sinnvoll, sich mit der unterschiedlichen „Rangehensweise“ in Europa auseinanderzusetzen.

Einer oder besser viele?

Historisch gewachsen ist das Modell „integrierter Konzern mit Gebietsmonopol“. In einem geographisch (was meist mit Ländergrenzen gleichzusetzen ist) begrenztem Gebiet hat eine Gesellschaft die Versorgung aller Kunden übernommen. Diese Gesellschaft hat dafür ein Leitungsnetz aufgebaut und betrieben und sich einen passenden Kraftwerkspark zugelegt. Dies geschah in eigener Regie und Verantwortung. In der guten, alten Zeit beschränkten sich die Politiker auf die Forderungen „sichere Versorgung zu günstigen Preisen“, „anständige Dividende“ und „Einhaltung der Gesetze und Vorschriften“. Entscheidend war, daß diese „Stromkonzerne“ wie Kaufhäuser geführt wurden: Alles unter einem Dach. Am Jahresende zählte nur das Gesamtergebnis. Wieviel, welche Abteilung dazu beigetragen hat, war höchstens Insidern bekannt. In der Tat, eine etwas undurchsichtige Angelegenheit. Allerdings weit aus weniger, als Laien (und Politiker sind fast immer Laien!) vielleicht meinen. Sind die internen Zahlen bekannt, sind sie immer auch vergleichbar mit ähnlichen Bereichen in anderen Branchen. Vorteil einer solchen Konstruktion sind die Optimierungsmöglichkeiten und die gegenseitigen Synergien, sowie die günstige Finanzstruktur. Letztendlich läuft alles immer auf die eine Frage hinaus: Was kostet am Ende der Strom? In diesem Sinne, ist z. B. ein Vergleich zwischen Deutschland und Frankreich eindeutig: Die französischen Strompreise bewegen sich im unteren Drittel, Deutschland ist auf dem Weg zur absoluten Spitze.

Das vermeintliche Gegenmodell zum „Staatskonzern a la EDF“ ist die deutsche „Strommarktliberalisierung“. Schon dieser Begriff war einer der dreistesten Neusprech-Schöpfungen in der Geschichte.

  • Man zerschlug gnadenlos bestehende Unternehmensstrukturen: Die regionalen Energieversorger BEWAG (Berlin) und HEW (Hamburg) wurden beispielsweise an den sozialdemokratischen, schwedischen Staatskonzern Vattenfall verschachert. Heute rennen die gleichen Rot/Grünen-Strategen durch die Straßen von Berlin und Hamburg und sammeln Unterschriften zur „Rekommunalisierung“. Aus den einst florierenden Aktiengesellschaften im Landesbesitz sollen über den Zwischenschritt „ausländischer Konzern“ Energiekombinate unter der Leitung von Politkommissaren gemacht werden. Elektrische Energie als neue Kopfsteuer und Zwangsabgabe zur Verwirklichung politischer Ziele – vorbei an Parlamenten und ohne lästige Haushaltsdebatten.
  • Man wandelte die Preisfindung einer Marktwirtschaft in eine reine Planwirtschaft um: Durch das „EEG“ werden nicht nur die Erzeugerpreise staatlich vorgeschrieben, sondern auch die Abnahme der Produktion zwangsweise garantiert. Bei dem Einheitsverkaufspreis (EVP) der zusammengebrochenen DDR handelte es sich noch um ein aufwendiges und strikt reglementiertes Kalkulationsverfahren. Schwarz/Gelb hat daraus die Festlegung der „Einspeisevergütung“ als eine Hinterzimmerveranstaltung unter Politikern gemacht. Der Rahmen eines „Fünf-Jahr-Plan“ wurde durch das Korsett des Abnahmezwanges ersetzt. Damit wurde den Kombinatsleitern der Stromwirtschaft sogar noch die Wahl des Produktionsstandortes entzogen. So viel Staatswirtschaft gab es noch nie auf deutschem Boden.
  • Rot/Grün erschufen die „Strombörse“ als Karikatur einer Börse, in der die eine Abteilung eines Konzerns den Strom an die andere Abteilung des gleichen Konzerns „verkauft“. Gerne benutzen Grüne Politstars diese Art der „Preisfindung“ auch noch als Beweis, daß böse Kapitalisten die „ständig sinkenden Preise an der Strombörse für Wind- und Sonnenenergie“ nicht an die Stromverbraucher weitergeben.
  • Man ist stolz darauf, daß man Ein-Mann-Finanzspekulanten (Photovoltaik auf dem Dach) und Bauernkollektive („Bürgerwindparks“) als neue deutsche Energieversorgungsunternehmen in die Schlacht gegen internationale Milliardenkonzerne geschickt hat. Mal abwarten, wie viele Privatinsolvenzen die Energiewende hinterlassen wird. Bisher haben ja nur super schlaue Stadtwerkedirektoren Millionen in spanische „Sonnenfarmen“ versenkt. Macht ja nichts, werden zum Ausgleich eben die Müllgebühren etwas erhöht.
  • Die Krönung der Volksverdummung war die Idee, haftendes (!) Eigenkapital mit einer Verzinsung von bis zu 5% (!) zur Finanzierung von Hochspannungsleitungen ein zu werben. So dämlich ist nicht einmal unser Michel: Er finanziert Hochspannungsmasten vor seinem Fenster, die niemand braucht und die voraussichtlich auch nie benutzt werden. Weil weder die bestehenden Kraftwerke im Süden abgeschaltet werden, noch die Windparks im Meer im geträumten Umfang gebaut werden. Unter Finanzhaien nennt man das skalpieren. Hauptsache, der Vertrieb hat seine Provision kassiert. Die „Hausfrauen-Hausse“ ist längst gestartet: Deutsche Bank und Co haben längst ihre Aktien in Wind und Sonne an Privatanleger mit Gewinn weiterverkauft. Jetzt können die „Zukunftstechnologien“ getrost pleite gehen und die Arbeitnehmer „frei gestellt“ werden. Es soll ja ohnehin Fachkräftemangel herrschen.

Auswirkungen auf Europa

Bisher konnten Deutschland und Dänemark ihren Stromabfall aus Wind und Sonne problemlos in ihren Nachbarländern entsorgen. Wenn auch nur über direkte oder indirekte Subventionen. Der Strompreis wird so weit runter subventioniert, bis er konventionelle Kraftwerke aus dem Markt drückt. Im Grunde genommen, ist dieses Modell ein Abklatsch alter europäischer Agrarsubventionen. Damals (Milchseen, Butterberge etc.) wie heute, führt es solange zu einer Überproduktion, bis die Subventionen über alle Maßen steigen und politisch nicht mehr zu verkaufen sind. Die Betonung liegt dabei auf „politisch ertragbar“, denn die Schmerzgrenze und die entstehenden Schäden sind in unterschiedlichen Ländern verschieden. Als erste, scherten unsere Nachbarn Polen und Tschechien aus: Die volkswirtschaftlichen Schäden durch deutschen Stromabfall nahmen solche Ausmaße an, daß sie nicht mehr durch den vermeintlich günstigen Preis aufgewogen werden. Sie machen die Grenzen dicht. Übrigens mit vollem Recht: Der Verkauf von Produkten unter Gestehungspreis wird gemeinhin als Dumping bezeichnet und verstößt gegen alle internationalen Handelsabkommen. Eine Trumpfkarte, die unsere Nachbarn gegenüber Deutschland weiter in der Hinterhand halten, solange, bis der „EEG-Wahnsinn“ gestoppt wird.

Es gibt aber noch eine Reihe indirekter Wirkungen auf andere Energiemärkte. Eindeutige Untergrenze für die Strompreise an der Europäischen Strombörse ist seit längerem der Brennstoffpreis für Kohle. Kohle und Kernenergie bilden das Rückrat der Stromerzeugung. Die von allen Sonnenmännchen und Flackerströmern heiß geliebten Gaskraftwerke müssen bereits aus dem Markt ausscheiden. Ihre Brennstoffkosten liegen deutlich über den erzielbaren Strompreisen. Dadurch entsteht eine Todesspirale: Durch die immer geringer werdende Ausnutzung (Vollaststunden) explodieren die Fixkosten. Der Zeitpunkt der vollständigen Stilllegung naht. Neuerdings werden sogar Neubauten unmittelbar nach der ersten Inbetriebsetzung gleich wieder eingemottet. Das grüne Märchen von den unflexiblen Kohle- und Kernkraftwerken, hat sich inzwischen längst als schlechte Propaganda enttarnt. Nur die Politkommissare in den nahestehenden Stadtwerken sind dem aufgesessen und haben kräftig in Gaskraftwerke (fehl)investiert. Manch ein Stadtkämmerer wird noch schlaflose Nächte bekommen: Aus den vermeintlich profitablen „Kraft-Wärme-Kopplungs-Projekten“ – gedacht zur Quersubventionierung von städtischen Hallenbädern, Busbetrieben etc. – werden Investitionsruinen werden.

Genau aus dieser Ecke weht der verzweifelte Schrei nach „Kapazitätsmärkten“. Man benötigt dringend Subventionen um seine Fehlinvestitionen zu vertuschen. Da kaum einer etwas mit diesem Begriff anfangen kann, er aber um so bereitwilliger nachgeplappert wird, hier eine Übertragung in die Alltagswelt. Betriebswirtschaftlich ist es das klassische Problem einer Eisdiele. Der Betreiber einer Eisdiele ist extrem vom Wetter abhängig. Er muß praktisch an den wenigen Tagen mit schönem Wetter den wesentlichen Teil seines Jahresumsatzes machen. All sein Bestreben ist darauf ausgerichtet. Er muß den Preis für sein Eis so kalkulieren, daß er die unzähligen flauen Tage überbrücken kann. Gemeinhin nennt man das unternehmerisches Risiko. Hätte er die Idee vom „Kapazitätsmarkt“ schon gekannt, wäre er zur Gemeinde gegangen und hätte sich jeden Monat einen festen Betrag von der Allgemeinheit bezahlen lassen, um seine Kosten für Miete, Personal etc. abdecken zu können. Als Gegenleistung hätte er sich selbstverständlich verpflichtet, seine Eisdiele an warmen und schönen Sommertagen zu öffnen. Absurd? Wieso, er stellt doch die gesellschaftlich wichtige Aufgabe der Eisversorgung an heißen Tagen bereit. Wenn es immer noch keiner merkt, wir sind mit Volldampf in eine Gesellschaft unterwegs, gegen die der Real-Existierende-Sozialismus ein Freiraum für unternehmerische Tätigkeiten war.

Die Zukunft

Solange es kein wesentliches Wachstum im Stromabsatz gibt, kann man sich eine ganze Zeit durchwursteln. Gleichwohl altert der Kraftwerkspark jeden Tag weiter. Hat man einmal mit der Planwirtschaft angefangen, kann man nicht mehr erwarten, daß das unkalkulierbare – weil politische – Risiko von irgendwelchen verantwortungsbewussten Investoren getragen wird. An diesem Punkt ist man heute bereits in Großbritannien angekommen.

Das englische Modell

Im Vereinigten Königreich hat man eine Reihe alter gasgekühlter Kernkraftwerke. Diese werden nach einem festen Fahrplan außer Betrieb gesetzt. Hinzu kommen eine Reihe alter Kohlekraftwerke, die zumindest nachgerüstet werden müßten, um die europäischen Umweltschutzstandards zu erfüllen. Ferner hat man sich auf das kostspielige Abenteuer der Windenergie aus dem Meer eingelassen. Nach jahrelangen Diskussionen ist man zum Ergebnis gekommen, daß man mindestens 18.000 MWe neue Kernkraftwerke bauen muß und das möglichst schnell. Nur, wer soll das finanzieren? Man hat alle britischen Stromversorger längst privatisiert. Die alten Kernkraftwerke werden beispielsweise von der französischen EDF betrieben. Die würde auch gerne neue bauen und betreiben, aber bitte nur mit eingeschränktem Risiko.

Die britische Lösung den Fehler der Subventionierung der Windenergie zu heilen, heißt „CO2 – freier-Strom“. Man dreht den „Ökospieß“ um. Auch Kernenergie ist „CO2.frei“, hat also folglich auch Subventionsansprüche zum Wohle des Klimas zu stellen. Man handelt für jedes Projekt (Wind auf Land, Wind auf Meer, Biomasse, Kernenergie etc.) mit dem Investor einen Mindestpreis für einen bestimmten Zeitraum aus. Der Antrieb der Verhandlungen ist, einen Preis zu finden, mit dem der Betreiber leben kann ohne pleite zu gehen. Kann dieser Preis nicht am Markt erzielt werden, gibt es die Differenz aus einem Fond oben drauf. Wird umgekehrt am Markt ein höherer Preis erzielt, wird aus der positiven Differenz die angehäufte Schuld getilgt. Erst wenn der Fond auf Null gesetzt ist, kann der Kraftwerksbetreiber den vollen Preis einstreichen. Lange Diskussionen werden immer noch über die Frage der Haftung für diese Fonds geführt: Gibt es eine direkte Bürgschaft durch den englischen Staat oder durch das Kollektiv der Stromverbraucher. Diese Frage ist von zentraler Bedeutung, da sie auf den Garantiepreis zurück koppelt. Bürgt der Staat, hat die gesamte Finanzierung des Projektes die Wertigkeit – und damit geringe Zinssätze – einer britischen Staatsanleihe. Tritt lediglich das Kollektiv der Stromverbraucher als Rückversicherer auf, hat die Finanzierung den Stellenwert einer Unternehmensanleihe. An dieser Stelle ergibt sich deshalb ein möglicher Konflikt mit dem EU-Recht wegen (vermeintlich) unerlaubter Subventionen.

Die Lösung des NIMBY-Problems?

Alle Großprojekte der Energietechnik, vom Windpark bis zum Kernkraftwerk, leiden heute am NIMBY („Aber nicht hinter meinem Haus“) Syndrom: Man erkennt die volkswirtschaftliche Notwendigkeit an, ist aber nicht bereit, persönliche Nachteile zu tragen. Die Briten wollen dieses Dilemma nun marktwirtschaftlich lösen. Die Gemeinden, die solche Projekte bei sich gestatten – vielleicht zukünftig sich sogar darum bewerben – bekommen einen hälftigen Anteil an den Unternehmenssteuern. Man geht für ein Kernkraftwerk von mindestens 193 Millionen Pfund in einem Zeitraum von 40 Jahren aus. Wer das (gefühlte) Risiko eines Kernkraftwerkes in seiner Gemeinde auf sich nimmt, wird mit zusätzlichen Freibädern, Kindergärten und was sonst noch alles, „entschädigt“. Es wird interessant sein, wie die Angstindustrie darauf reagieren wird. Greenpeace und Co. zukünftig nicht mehr in der Rolle der guten „Naturschützer“, sondern eher als Verhinderer von besser ausgestatteten Schulen und Kindergärten. Ganz neu ist dieses Erfolgsmodell nicht. Wyoming hat die am besten ausgestatteten öffentlichen Schulen in den USA (jedem Kind ein kostenloser Laptop). Finanziert durch Abgaben der Kohleindustrie. In solchen Gemeinden fällt das Hetzen gegen die als „guter Nachbar“ empfundene Kohlegrube, schwer. Im fernen Washington ist das Schwadronieren über Klimakatastrophen mit Staatsbediensten wesentlich angenehmer.

Es gibt noch einen weiteren Ansatz, der auch für Windparks und Shale Gas (1000 Pfund pro Bohrstelle + 1% vom Umsatz) gelten soll: Die Gemeinde bekommt 1000 Pfund im Jahr pro MW installierter Leistung (Ziel: Je größer das Kraftwerk, je mehr Einnahmen für die Gemeinde) begrenzt bis zum Jahr 2060 (Ziel: Je schneller gebaut wird, um so mehr Einnahmen.)

Die Rolle der EU-Kommission

Man könnte fast Schadenfreude empfinden: Über Jahrzehnte ist der Popanz „Klimakiller CO2.“ von allen möglichen Schlangenölverkäufern und Systemveränderern aufgebaut worden. Nun braucht die Wettbewerbskommission nur noch betonen, daß Kernenergie auch „kohlenstoffarm“ ist und all die schönen „Ausnahmetatbestände“ gelten auch für die Kernenergie. Oder man macht generell Schluß mit den Subventionen in der europäischen Energiewirtschaft – dann aber, ist die Kernenergie als preiswerteste Methode der Stromerzeugung (in der Grundlast) strahlender Sieger. Ein Ausbauprogramm von chinesischem Ausmaß wäre die Folge.

Es wird interessant zu beobachten sein, wie ein Heulen durch die politischen Parteien und Energiekombinate in Deutschland gehen wird. Hat nicht vor all zu langer Zeit beispielsweise die Kombinatsleitung von E.ON Energie AG in vorauseilendem Gehorsam ihre fertig entwickelten Standorte in England an die Japaner verkauft? Wollte man das erhaltene Geld nicht in die „Zukunftstechnologie Windkraft auf Hoher See“ investieren (versenken)? Mal sehen, wie die Analysten an der Börse reagieren. Das gleiche gilt für Siemens und ein halbes Dutzend Firmen in der zweiten Reihe. Wenn man jemals Manager für Arbeitsplatzvernichtung verantwortlich machen kann, dann sicherlich diese „Energiewender“. Hoffentlich gibt’s noch ne schöne Abfindung.

Niemand wird in der EU Mitleid für „Madame No“ haben, die sich selbst in diese Zwickmühle laviert hat. Ihr überhasteter „Ausstiegsbeschluss“ wird ihr vielleicht in wenigen Wochen eine Koalition mit den Grünen ermöglichen, aber der Machterhalt über Tagespolitik ist erfahrungsgemäß nicht von langer Dauer. Man schaue sich nur Spanien an: Dort sind Milliarden in der spanischen Wüste für Sonnenenergie verbrannt worden. Richtige Konsequenz aus der „Euro-Krise“: Sofortiger Schluß mit dem Unsinn der „Solarförderung“. Entgegen dem Werbeslogan eines bekannten Sozialdemokraten hat die Sonne nun doch brutal eine Rechnung geschrieben. Die politische Frage der nächsten Jahre wird sein, wie lange die (jugendlichen) Arbeitslosen in Europa bereit sind, solche alten Deckel aus der „Grünen Periode“ abzustottern. Wie lange der „Kleinrentner“ über seine Stromrechnung bereit ist, dem Schlangenölverkäufer sein durch „Solarenergie“erworbenes Schloss weiter zu erhalten. Vielleicht wird ja noch ein deutsches Energiemodell zum Exportschlager: Entschädigungslose Enteignung! Es muß ja nicht gleich ein Tsunami in Japan zur Begründung herhalten, vielleicht reicht auch eine umgeblasene Windmühle in der Nordsee.

Obama ruft zum Kreuzzug

Im Juni 2013 stellte das „Executive Office of the President“ seinen 20-seitigen „THE PRESIDENT’S CLIMATE ACTION PLAN“ vor. Medienwirksam hielt der Präsident am 25. Juni einen Vortrag an der Georgetown-Universität in Washington. Alle „Betroffenheitsorganisationen“ von Greenpeace bis WWF waren pflichtschuldigst mit Lob zur Stelle. Das Strommagazin, als Zentralorgan der Sonnenmännchen Deutschlands titelte:

„Die USA machen endlich Ernst beim Klimaschutz. Nach Jahren des Stillstands und der Blockade gibt es endlich ermutigende Signale von der größten Volkswirtschaft der Welt.“

Wieder einmal, war es dem „Ankündigungspräsidenten“ gelungen, der Linken weltweit etwas Zucker zu geben und für sich selbst ein Thema zu finden, mit dem er hofft in positiver Erinnerung zu bleiben.

Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher „Rechter Militärs“ die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2.-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des „Shale-Gas“ und „Shale-Oil“-boom eingefahren – ganz entgegen dem über 60 Jahre andauernden Gefasel von „Peak-Oil“. Deswegen mußte „Greenpeace-Klimaexperte Martin Kaiser“ auch sofort anmerken:

…dass Obama aber auch auf „Risikotechnologien“ wie Fracking oder Atomkraft setze, sei ein falsches Signal…“.

Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur „Ölkrise“ in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die „Freisetzung“ fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der „Systemveränderer“, gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein „Marktversagen“ durch politische Eingriffe erzeugen kann, läßt sich dem Zombie „Planwirtschaft“ wieder neues Leben einhauchen.

Die „Shale-Gas Revolution“

Das sogenannte „Fracking“ ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode „horizontaler Bohrungen“, die in den letzten Jahrzehnten eine bemerkenswerte technische – und vor allem wirtschaftliche – Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das „Erdgasnetz“ gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer „Schweinezyklus“ beginnt.

Der wichtigste „swinging user“ in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2.-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche „Energiewende“. Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen „Gutmenschen“, die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2. wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des „Klimakillers“ (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2 – Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden „CO2 – frei“ (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll und das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose „Guantanamo-Schließung“ auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung „CO2 – frei“.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.

Korea und die Wiederaufbereitung

Im Fahrwasser der aktuellen Krise mit Nord-Korea, bahnt sich für die USA ein hausgemachtes Problem mit Süd-Korea an. Es ist ein schönes Beispiel dafür, wenn Regierungen meinen, sie könnten dauerhaft über andere Nationen bestimmen und ihre ideologische Sicht zur einzig selig machenden zu erklären. Im nächsten Jahr läuft das Abkommen zur Nicht-Weiterverbreitung von Kernwaffen nach 40 Jahren aus. Im Rahmen dieses Abkommens hat Süd-Korea auf Anreicherung und Wiederaufbereitung abgebrannter Brennelemente verzichtet. Es muß neu verhandelt werden.

Ironie der Geschichte ist, daß dies zu einem Zeitpunkt geschehen muß, an dem die USA offen von Nord-Korea mit einem „Atomschlag“ bedroht werden. Nord-Korea hat gezeigt, wie es in der realen Welt zu geht: Wenn ein Diktator bereit ist, sein eigenes Volk wirtschaftlich zu ruinieren, dann baut er sich ganz einfach seine eigenen Kernwaffen. Wenn er über genug Öleinnahmen verfügt – wie Iran – braucht er dafür nicht einmal sein Land an den Rand von Hungersnöten zu führen. Ist das Land vermögend – wie Saudi Arabien – kann es sogar den mühseligen Weg der Eigenentwicklung überspringen und unverhohlen damit drohen, sich gegebenenfalls fertige Kernwaffen (z. B. aus Pakistan) zu kaufen.

Selbst die Supermacht USA kann das offensichtlich nicht verhindern. Mit Verträgen, UNO und leeren Drohungen ist es schon gar nicht möglich, im Internetzeitalter (!) das Wissen der 1940er Jahre geheim halten zu wollen. Der pakistanische Basar der „Atomtechnologie“ ist noch in frischer Erinnerung. Der Versuch, gegen Unterstützung bei der friedlichen Nutzung der Kernenergie – sprich dem Bau von Kernkraftwerken – einen Verzicht auf Anreicherung und Wiederaufbereitung erkaufen zu können, war und ist aberwitzig. Er hat offensichtlich nur zu einer Brüskierung eines der engsten Verbündeten der USA geführt. Was anderes sollte es heißen, als Süd-Korea, wir trauen euch nicht. Wir erinnern uns: Deutschland wurde auch der Verzicht auf Kernwaffen geglaubt, obwohl es eine Wiederaufbereitungsanlage in Karlsruhe betrieben hat und noch heute Zentrifugen zur Anreicherung betreibt. Japan baut eifrig an einer kommerziellen Wiederaufbereitung und diskutiert gleichzeitig, offen wie nie, eine atomare Bewaffnung – wegen der potentiellen Bedrohung durch Nord-Korea und China.

Wie konnte es dazu kommen, daß sich die USA in eine solche diplomatische Sackgasse manövriert haben? 1974 wurde Indien (nahezu aus eigener Kraft) zur Atommacht. Übrigens aus Reaktion auf die atomare Bewaffnung von China, mit dem man noch wenige Jahre zuvor, Krieg führen mußte. Die Welt war verblüfft über den Weg: Man hatte in aller Stille, einen von Kanada gelieferten CANDU-Reaktor zur Produktion von waffengrädigem Plutonium missbraucht. Bis heute, wirkt diese Tat in den internationalen, kerntechnischen Beziehungen nach. Es stehen sich Pragmatiker (Indien ist nun mal Atommacht, das läßt sich nicht zurückdrehen, deshalb freier Handel und Wissensaustausch) und Moralisten (Belohnung des „Fehlverhalten“, Präzedenzfall der die Proliferation zu nichte macht) teilweise unversöhnlich gegenüber. Jeder muß sich da ein eigenes Urteil bilden. Tatsache ist jedoch, daß die Zeit der „drei Welten“ mit dem Zusammenbruch des Kommunismus vorbei ist. Heute bestehen die Probleme eher in der Golfregion oder der koreanischen Halbinsel mit ihrer regionalen und globalen Gemengelage.

Es gab aber auch hausgemachte Gründe. Man muß die erste Hälfte der 1970er Jahre als unmittelbare Nachfolge der sog. „68er Bewegung“ verstehen. Greenpeace z.B. entstammt der Friedensbewegung mit dem Spezialgebiet: Kernwaffen und Umweltbelastung durch Kernwaffentests in der Atmosphäre. Besonders der zweite Punkt machte die Bewegung in kürzester Zeit weltberühmt. Durch die diversen Teststoppabkommen kam dieses Geschäftsmodell immer mehr aus der Mode. Der Übergang zur zivilen Nutzung der Kernenergie und die Konstruktion eines Zusammenhangs mit dem Bau von Atombomben schien folgerichtig. Es entwickelte sich die Gleichung: Links plus friedensbewegt gleich „Atomkraftgegner“. In Deutschland gipfelte dies sogar in der Gründung einer Partei.

In USA beschwor eine Kampagne die Gefahr von möglichen hunderten „Atomanschlägen“ auf Großstädte hervor. Alle versorgt durch Diebstähle aus Wiederaufbereitungsanlagen. Ein neues Buhwort war erschaffen: Plutonium. Künstlich hergestellt, irrsinnig giftig und ganz, ganz gefährlich. Jimmy Carter, ein Erdnussfarmer, der in seiner aktiven Zeit bei der Marine zumindest für Kurse in Kerntechnik angemeldet worden war, stoppte das Clinch River Projekt (Vorstufe eines Schnellen Brüters, der Strom aus recyceltem Brennstoff produzierte) und zwang ein privates Konsortium mehr als 250 Millionen Dollar für eine Wiederaufbereitungsanlage in Barnwell über Nacht abzuschreiben. Er wollte ein Zeichen des „guten Amerikaners“ setzen, der keine Kosten scheuend voranschreitet, um die Welt zu retten. Ähnlichkeiten mit deutschen „Energiewendern“ sind rein zufällig. Jedenfalls gelang es ihm die „Proliferation“ und das Problem, was wir heute als „ungelöste Atommüllfrage“ bezeichnen, zu erschaffen. Ironischerweise ist Jimmy Carter der gleiche Präsident, der durch sein „Geiseldrama“ im Iran nicht unwesentlich zu der heutigen Situation im und mit dem Iran beigetragen hat.

Aber wie hat sich die Welt seit dem verändert? Inzwischen baut eine französische Firma in USA eine Fabrik für MOX-Brennelemente. Solche Mischoxid-Brennelemente dienen zur Verbrennung von Plutonium in konventionellen Leichtwasserreaktoren. In diesem Fall handelt es sich sogar um waffengrädiges Plutonium aus der ehemaligen Sowjetunion. Dies war – wieder zur Verhinderung von Terrorismus – von den USA aufgekauft und ins eigene Land verbracht worden.

Wie kann sich die USA aus den eigenen Fallstricken befreien? Süd-Korea hat sich mit amerikanischer Anschubhilfe zu einer der führenden Nationen im Bau und Betrieb von Kernkraftwerken entwickelt. Spätestens seit dem Auftrag über 20 Milliarden Dollar für vier Reaktoren aus den Vereinigten Arabischen Emiraten ist dies vielen schmerzlich bewußt geworden. Würde es kein neues Abkommen geben, wäre die Versorgung mit angereichertem Uran aus den USA nicht mehr gesichert. Wäre das aber wirklich ein Problem für Süd-Korea? Auf Kanada, Australien und Kasachstan entfallen etwa ⅔ der Weltproduktion an Uran, auf die USA lediglich 4%. Anreicherungsanlagen besitzen mehr als ein Dutzend Staaten. In diesem Sinne würde ein Ausweichen auf andere Lieferanten das „Problem der Weiterverbreitung“ eher anheizen.

Bleibt die Frage der Wiederaufbereitung. Ob Süd-Korea eine Plutonium-Bombe baut oder nicht, ist eine rein politische Frage, die nicht zwingend etwas mit Wiederaufbereitung zu tun hat. Es sind andere Verfahren denkbar, die völlig ungeeignet zum Bau von Kernwaffen sind. Auch hier, hat Süd-Korea bereits viel Forschung und Entwicklung investiert. Süd-Korea hat die Chance, erstes Land auf der Welt mit einer garantiert reinen zivilen Nutzung der Kernenergie zu werden. Bisher sind alle Länder (auch Deutschland und Japan) den bequemeren Weg des bereits etablierten PUREX-Verfahrens gegangen. Nur ist dieses Verfahren genau zur Produktion von waffengrädigem Plutonium entwickelt worden. Natürlich kann man mit einem Panzer auch ein Feld pflügen, nur sollte man sich nicht wundern, wenn andere den Verdacht äußern, man wolle mit solch einem Trecker vielleicht eines Tages auch mal schießen. Ganz gewiß werden sich die Süd-Koreaner nicht der angeblich „ungelösten Atommüllfrage“ hingeben. Sie haben ganz einfach nicht die selbe Vorgeschichte und brauchen auch keine Rücksichtnahme auf die Befindlichkeiten politische Parteien mit dem Gründungsmythos der „Anti-Atombewegung“ nehmen. Übrigens, hat in ganz Asien keine Regierung dieses Problem. Es erfordert deshalb keine prophetische Gabe, wenn man die Renaissance der Kernenergie aus Asien kommen sieht. Wer sehen will, kann schon heute die Anzeichen erkennen.

Erneut über 1000 Menschenleben durch Deutsche Kernkraftwerke gerettet!

Sie glauben das nicht? Das behauptet aber Greenpeace und Greenpeace hat immer recht, das sind doch die guten Menschen, die immer die Wale beschützen. Die immer gegen die Kernenergie gekämpft haben. Die mit den „Atomexperten“ und neuerdings auch noch „Kohleexperten“.

Am Mittwoch trat Greenpeace wieder medienwirksam mit dieser Tatarennachricht an die Öffentlichkeit:

…Der Schadstoffausstoß deutscher Kohlekraftwerke verursache unter anderem Atemwegs- und Herz-Kreislauf-Erkrankungen, die rechnerisch zum Verlust von 33.000 Lebensjahren führten, erklärte Greenpeace. Das seien statistisch etwa 3100 vorzeitige Todesfälle pro Jahr. Betroffen seien auch die Nachbarländer….

Wenn Greenpeace das sagt, muß es ja stimmen. Bisher gab es nur zaghaften Widerspruch vom Verband VGB Power aus Essen meldet „strom magazin“ das Zentralorgan der Sonnenmännchen:

….Daher seien vor allem Abgase aus dem Verkehr und den Heizungen von Wohnhäusern zu beachten, erklärte der VGB in Essen…

Wenn das alles ist. Es gab mal eine Zeit, da war die Vereinigung der Großkesselbesitzer (VGB e.V.) eine international angesehene Institution in Forschung und Entwicklung. Eine Stellungnahme auf dem Niveau: Die anderen sind aber auch böse, wir sind nicht allein schlecht, wäre undenkbar gewesen.