Reduktion langlebiger Spaltprodukte

Aktuell wird wieder einmal in der Fachliteratur die Beseitigung von langlebigen Spaltprodukten diskutiert.

Das Problem

Irgendwann ist jedes Brennelement erschöpft und muß erneuert werden. Die „abgebrannten“ Brennelemente werden von „Atomkraftgegnern“ gern als „Atommüll“ verunglimpft, obwohl sie recycelt werden können. Sie bestehen noch zu rund 96% aus Uran und Plutonium, die erneut als Brennstoff genutzt werden könnten. Sicherheitstechnisch betrachtet, stellt ihre ionisierende Strahlung ein – durchaus unterschiedliches – Problem dar. Es sind daher dauerhafte Abschirmungen in der Form von Wasserbädern, Sicherheitsbehältern etc. notwendig.

Der Faktor Zeit

Je länger die Halbwertszeit ist, um so länger dauert es, bis dieser Stoff verschwunden ist. Wenn man von einer Gefahr durch ionisierende Strahlung ausgeht, ist damit der Zeitraum bestimmt, in dem man den Stoff von der Biosphäre fern halten sollte:

  • Es gibt unterschiedliche Arten ionisierender Strahlung, die auch biologisch unterschiedlich wirken. Strahlung, die z. B. von Uran und Plutonium ausgeht, ist nur dann bedrohlich, wenn sie innerhalb des Körpers frei wird. Nimmt man sie nicht in den Körper auf (Nahrung, Atemluft), sind sie genauso harmlos, wie jedweder anderer Stoff auch.
  • Die Dosis macht’s“. Insofern ist die Konzentration eines radioaktiven Stoffes (z. B. im Trinkwasser) entscheidend.
  • Freigesetzte Stoffe können sich (z. B. über die Nahrungskette) anreichern. Dies gilt naturgemäß besonders für langlebige Stoffe. Insofern sollten sie möglichst gar nicht erst freigesetzt werden.

Der Endlager-Standpunkt

Überzeichnet man die Gefahr, die von radioaktiven Stoffen ausgeht, kommt man zu dem Schluß, man müßte sie quasi „für ewig“ sicher einschließen. Der Begriff des „Endlagers“ ist erschaffen. Ein hervorragender politischer Kampfbegriff, weil wie ein Gummiband dehnbar. Man muß nur die Gefährlichkeit – was auch immer darunter zu verstehen sei – ausdehnen und kommt schnell zu Zeiträumen, die nicht mehr als beherrschbar erklärt werden können. Gipfel dieser Gespensterdebatte ist die Erforschung irgendwelcher Piktogramme, die Außerirdischen oder sonst wie verblödeten Erdbewohnern die Lage eines „Endlagers“ in Millionen von Jahren näher bringen sollen. Interessant ist dabei nur, wie locker man beispielsweise den Fallout aus unzähligen Kernwaffenversuchen nicht gekennzeichnet hat. Wären die Stoffe auch nur annähernd so gefährlich, wie sich Ökoaktivisten gern an den Lagerfeuern im Wendland erzählen, müßte die gesamte Menschheit bereits ausgestorben sein. Aber es geht dabei ja auch weniger um Fakten, als um Gesellschaftsveränderung.

Gleichwohl sollte man mit radioaktiven Abfällen verantwortungsvoll umgehen. Es ist das Verdienst der Kerntechnik, der erste Industriezweig zu sein, der sich von Anfang an um seinen Abfall Gedanken gemacht hat: Wiederaufbereitung und geologische Tiefenlager waren erfunden. Letztere aus einem ethischen Anspruch heraus, den Abfall nicht den folgenden Generationen als Problem und Kosten zu hinterlassen. Immer noch revolutionär, wenn man es mit dem sonst voll akzeptierten Umgang mit Abfällen und Deponien vergleicht.

Die Art der Beseitigung

Wenn man gebrauchte Brennelemente aufarbeitet, können sie weiterhin zur Energiegewinnung verwendet werden: In konventionellen Reaktoren als Mischoxid und in schwerwassermoderierten Reaktoren sogar in ihrer ursprünglichen Zusammensetzung. Bedingung ist die Trennung von Uran und Plutonium von den Spaltprodukten.

Verwendet man diesen aufbereiteten Brennstoff in Reaktoren mit schnellem Neutronenspektrum (meist mit Natrium oder Blei als Kühlmittel), kann man damit sogar die minoren Aktinoide „verbrennen“. Sie bilden sich aus Uran- und Plutoniumkernen, die trotz Neutroneneinfang nicht gespalten worden sind. Sie sind besonders langlebig und müssen zusammen mit Plutonium als Argument für eine „sichere Endlagerung über Millionen von Jahren“ her halten.

Bleiben die Spaltprodukte übrig. Sie sind zumeist recht kurzlebig und strahlen deshalb sehr stark. So stark, daß sie sich aufheizen, deshalb gekühlt und sicher abgeschirmt werden müssen. Ein Problem, das sich nach einigen Jahrhunderten von selbst erledigt hat. Es wäre mit der Lagerung in simplen Bunkern technisch leicht beherrschbar, wenn es nicht einige wenige sehr langlebige Spaltprodukte geben würde. Hier setzt wieder die Ethik ein: Ist es zulässig, solche Stoffe unseren Nachfahren zu vererben? Es handelt sich um recht harmlose Stoffe (lange Halbwertszeiten bedeuten wenige Zerfälle pro Sekunde und damit grundsätzlich geringe Dosisleistungen) in sehr kleinen Mengen. Es geht hier um Halbwertszeiten von einigen Hunderttausend (Se79, Tc99) bis zu einigen Millionen (Zr93, Pd107, I129, Cs135) Jahren.

Man kann Atomkerne nur durch Neutronen in ein anderes Element umformen. Man benötigt also eine (möglichst starke) Neutronenquelle. Dieser Vorgang wird Transmutation genannt. Ein Favorit hierfür sind Spallationsquellen, bei denen Atomkerne beschossen werden und förmlich verdampfen. Sie sind sehr aufwendig, produzieren aber dafür auch große Mengen Neutronen. Grundsätzlich bleibt aber ein Problem: Die Stoffe existieren meist in einem Isotopengemisch. Man will aber eigentlich nur ein bestimmtes (besonders langlebiges) Isotop umwandeln. Alle anderen Kernreaktionen sind parasitär und kosten nur die teueren Neutronen. Ein Schlüssel hierfür, sind die energieabhängigen Einfangquerschnitte.

Beseitigung in schnellen Reaktoren

Reaktoren mit schnellen Neutronen sind hervorragend zur „Verbrennung“ von Plutonium und minoren Aktinoiden geeignet. Darüberhinaus benötigen sie nicht einmal Natururan, sondern geben sich sogar mit abgereichertem Uran als Brennstoff zufrieden. Allerdings sind sie nur schlecht zur Beseitigung der langlebigen Spaltprodukte geeignet. Diese besitzen nur sehr kleine Einfangquerschnitte für schnelle Neutronen. Es gibt aber einige Energiebereiche, in denen sie solche Neutronen begierig aufnehmen. Verzichtet man auf einige bei der Spaltung freigewordenen Neutronen – im statistischen Mittel auf 0,3 Neutronen pro Kernspaltung – kann man sie zur Umwandlung abzweigen. Man muß sie allerdings noch auf die ideale Geschwindigkeit abbremsen.

Damit ergibt sich folgendes Reaktorkonzept:

  • Man baut einen zentralen Kern, in dem die eigentliche Energieproduktion aus Uran und Plutonium durch Spaltung mit schnellen Neutronen stattfindet.
  • In einem „schnellen Brüter“ ist diese Zone von einer Schicht aus abgereichertem Uran umgeben. Die Neutronen, die aus dem Kern rausfliegen und nicht zur Aufrechterhaltung einer Kettenreaktion benötigt wurden, reagieren hier mit dem Uran und bilden zusätzliches Plutonium. Bei einem „Brüter“ ist hier die Produktion von Plutonium größer als gleichzeitig davon im Kern verbraucht wird.
  • Verzichtet man nun auf einen Teil der „Brutrate“, hat man Neutronen für eine Umwandlung von Spaltprodukten zur Verfügung. Man muß diese nur noch – möglichst an Ort und Stelle – auf die „richtige“ Geschwindigkeit abbremsen. Man kann in den „Brutmantel“ eine gewisse Anzahl von Brennstäben einfügen, die mit einem Gemisch aus den zu beseitigenden Spaltprodukten und einem geeigneten Moderator gefüllt sind. Ein solcher Moderator könnte z. B. Yttrium Deuterid (YD2) sein. Er erfüllt die Bedingungen, selbst kaum mit Neutronen zu reagieren und die richtige Masse für die notwendige Abbremsung zu besitzen.

Die notwendige Verfahrenstechnik

Die Wiederaufbereitung wird erheblich komplizierter. Bei dem klassischen PUREX-Verfahren – wie es z. B. in Frankreich angewendet wird – gewinnt man möglichst reines Uran und Plutonium. Alles andere ist Abfall, der verglast und später in einem geologischen Tiefenlager „endgelagert“ wird. Um diesen Abfall weiter zu entschärfen, müßte man in weiteren Schritten die Aktinoide und die langlebigen Spaltprodukte abtrennen. Beides ist sehr aufwendig und man sollte darüber nicht vergessen, daß es sich dabei nur um rund 4% des ursprünglichen Brennstoffs eines Leichtwasserreaktors handelt. Die zusätzliche Volumenverkleinerung ist somit äußerst gering.

Die langlebigen Spaltprodukte müssen nun noch in möglichst reiner Form gewonnen werden, um parasitäre Effekte zu vermeiden. Darüberhinaus muß ein eigener Wiederaufbereitungskreislauf eingerichtet werden, da nicht alle Spaltprodukte in einem Schritt beseitigt werden können. Ein gewaltiger Aufwand für so geringe Mengen. Darüberhinaus macht die ganze Sache nur wirklich Sinn, wenn mehr langlebige Spaltprodukte umgeformt werden, wie bei dem Betrieb dieses Reaktors wieder neu entstehen.

Schlußbemerkung

Der Aufwand für eine Transmutation ist sehr hoch. Gleichwohl erscheint der Erfolg durchaus verlockend. Wie Simulationen für den japanischen Monju-Reaktor zeigen, kann über einen Betrieb von 20 Jahren eine Reduktion der effektiven Halbwertszeit langlebiger Spaltprodukte von über 100.000 Jahren auf rund 100 Jahre erzielt werden.

Trotzdem darf die Frage erlaubt sein, ob der gewaltige (wirtschaftliche) Aufwand den (vermeintlichen) Sicherheitsgewinn aufwiegt. Andererseits wird Menschen mit Strahlenphobie auch dieser Aufwand nicht genügen. Es steht zu befürchten, daß das bekannte Rennen zwischen Hase und Igel der „Atomkraftgegner“ lediglich fortgesetzt wird.

Gray, Sievert und was sonst noch?

In den Medien wird im Zusammenhang mit Radioaktivität mit Zahlenwerten nur so um sich geschmissen. Kaum einer versteht die Aussagen, aber alle reden davon.

Vorbemerkung

Eine Maßeinheit bezieht sich stets auf einen genau definierten Zustand: So ist das [kg] die Einheit für die Masse und das [N] bzw. früher das [kp] eine Einheit für eine Kraft. Im Alltag kann man zwar oft beide Einheiten gleich setzen, es kann aber auch zu schwerwiegenden Fehleinschätzungen dadurch kommen. Kraft und Masse sind halt nur im unbewegten Zustand gleichwertig. Dies ist Allgemeinwissen, aber im Zusammenhang mit Strahlung und Radioaktivität werden fröhlich alle Einheiten miteinander vermischt. Leider nicht nur in Massenmedien.

Die Öffentlichkeit interessiert sich meist nur für die biologische Wirkung: Ab wann ist ionisierende Strahlung gefährlich, ab wann bekomme ich Krebs, sind nachfolgende Generationen gefährdet? Alles Fragen der Biologie – oder noch genauer gesagt – der Medizin und schon wird es schwierig. Der Mensch ist halt keine Maschine und läßt sich deshalb nur sehr schlecht vermessen. Aus den physikalischen Meßwerten über Strahlung lassen sich bestenfalls Erwartungswerte für Krankheiten ableiten. Aus einem Unverständnis wird schnell eine Strahlenphobie. Dies betrifft nicht nur die Kernenergie. Röntgenärzte und Nuklearmediziner können ein Lied davon singen. Besonders heikel sind Patienten, die durch Jahrzehnte grüner Indoktrination notwendige Diagnosen und Therapien verweigern.

Am Anfang steht der Zerfall

Der überwiegende Teil der in der Natur vorkommenden Isotope befindet sich in einem angeregten Zustand. Dieser Zustand läßt sich nicht unbegrenzt aufrecht erhalten, das Atom zerfällt und wandelt sich dabei in ein neues Element um. Dies kann mehrfach geschehen (sog. Zerfallsketten oder Mutter-Tochter Beziehungen), bis ein stabiler Zustand erreicht ist. Wir kennen mehr als 3400 radioaktive Isotope, von denen etwa 900 Halbwertszeiten von mehr als einer Stunde haben. Schon sind wir bei zwei grundlegenden Maßeinheiten angekommen: Der Aktivität mit der Maßeinheit Becquerel Bq und der Lebensdauer mit der Halbwertszeit. Wenn ein Atomkern pro Sekunde zerfällt, bedeutet das eine Aktivität von 1Bq. Nicht mehr, aber auch nicht weniger. Es ist noch nichts über die Art der freigesetzten Strahlung ausgesagt oder über deren Energie und damit auch nichts über die biologische Wirksamkeit.

Das Becquerel [Bq] ist eine reine Stückzahl, die ohne die Angabe des Stoffes (z. B. Cäsium oder Jod) und des Ortes des Zerfalls (z. B. im Körper oder außerhalb) keine Aussage über irgendeine Gefährdung zuläßt.

An dieser Stelle ist auch besonders hervorzuheben, daß wir von zerfallenen Atomen pro Sekunde sprechen. Atome sind aber sehr klein, weswegen man zu gewaltig großen Zahlen kommt. Bis 1985 war deshalb die Einheit Curie [Ci] für die Aktivität gebräuchlich. Sie war von einem Gramm Radium-226 abgeleitet und entsprach 37 000 000 000 Zerfällen pro Sekunde. Schon an dieser Stelle wird deutlich, wie überzogen der japanische Grenzwert von 100 Bq/kg für Fisch nach dem Reaktorunglück von Fukushima war. Man hätte auch gleich sagen können, der Fisch enthält praktisch kein Cäsium (1 gr Cs-137 hat eine Aktivität von 3 215 000 000 000 Bq).

Geläufig – wir haben aus Erfahrung ein Gefühl dafür – sind uns die Einheiten kg oder Gramm. Heutige Waagen können (mit erheblichem Aufwand) noch Millionstel Gramm messen. Die Empfindlichkeit bei der Messung von Radioaktivität ist (recht einfach) noch um eine weitere Million empfindlicher. Radioaktive Quellen mit 10 bis 100 Bq sind schnell und einfach meßbar, obwohl es sich dabei um Stoffmengen von um die 0,000 000 000 000 01 Gramm handelt. Für die Angstindustrie ist das natürlich völlig unbrauchbar. Solche kleinen Mengen ergeben einfach keine Horrormeldung.

Die Strahlungsarten

Unter ionisierender Strahlung versteht man elektromagnetische Wellen sehr hoher Frequenz bzw. Teilchenstrahlung. Normalerweise enthalten Atome genau so viele Protonen (positive Ladung) im Kern, wie Elektronen (negative Ladung) in ihrer Hülle und sind somit elektrisch neutral.

Die technische Nutzung von ionisierender Strahlung begann 1895 mit der Entdeckung der Röntgenstrahlung.

Bei der Strahlung infolge des radioaktiven Zerfalls unterscheidet man im wesentlichen zwischen α- (Heliumkerne), β- (Elektronen) und γ-Strahlen. Die beiden Teilchenstrahlen sind elektrisch positiv bzw. negativ geladen. Insbesondere für die biologische Wirkung ist deren Eindringtiefe maßgebend. Die Heliumkerne der α-Strahlung können in Luft maximal 10 cm zurücklegen und in Wasser (menschliches Gewebe besteht hauptsächlich aus Wasser) wenig mehr als 0,1 mm. Das bedeutet für den Strahlenschutz, daß bereits normale Kleidung zur Abschirmung ausreicht. Umgekehrt gilt aber auch, daß innerhalb des Körpers die gesamte Energie auf kürzester Entfernung freigesetzt wird und lokal einen großen Schaden anrichten kann. Für die β-Strahlung gilt ähnliches. Auch für sie reicht normale Kleidung als Schutz aus.

Die Aufnahme radioaktiver Stoffe in den Körper (Essen, Trinken und Atemluft) ist möglichst zu vermeiden.

Bei der γ-Strahlung verhält sich die Sache etwas anders. Sie durchdringt mühelos den menschlichen Körper. Nur deswegen kann z. B. eine Kontamination im Körper von außen gemessen werden. Für γ-Strahlen verwendet man den Begriff der Halben-Weglänge: Das ist die Materialstärke, bei der die Strahlung nach der Schicht genau halb so groß ist, wie vor der Schicht. Diese halbe Weglänge ist vom Material und der Energie der Strahlung abhängig. Die Abschwächung verläuft exponentiell. Mit anderen Worten: Die Strahlung schwächt sich über den Weg sehr schnell ab, ist aber auch nach dicken Schichten immer noch nachweisbar. Für eine Energie von 0,662 MeV (γ-Strahlung von Cs-137) beträgt die Halbe-Weglänge in Wasser etwa 9 cm. Somit ist nach rund einem halben Meter (entsprechend fünf Halben-Weglängen) die Strahlung um 97% abgeklungen. Dies erklärt, warum das Wasser in einem Brennelementebecken so eine wirksame Abschirmung darstellt. Hat man wenig Platz, verwendet man Blei mit seiner hohen Dichte zur Abschirmung.

Die Energie der Strahlung

Neben der Art der Strahlung ist ihre Energie maßgeblich für die biologische Wirkung. Die Einheit für die Energie ist das Elektronenvolt [eV]. Sie ergibt sich aus der Beschleunigung eines Elektrons in einem Spannungsfeld von einem Volt. Um eine radioaktive Quelle in ihrer biologischen Wirkung zu beurteilen, braucht man folgende physikalischen Parameter:

Die Aktivität, gemessen in Zerfällen pro Sekunde [Bq] und die Halbwertszeit, die Art der ausgesendeten Strahlung (α-, β-, γ-Strahlung) und deren Energien.

Anschaulich werden diese Daten in einem sogenannten Zerfallsschema für jedes Isotop dargestellt. Dabei werden in einer Karte die Energien über den Ordnungszahlen aufgetragen. In der Praxis hat man es immer mit Gemischen von Isotopen zu tun. Dies ergibt sich schon aus den meist vorhandenen Zerfallsketten. Beispielsweise verläuft der Zerfall von Uran-238 in 14 Schritten bis zum stabilen Blei-206.

Wie die Strahlung absorbiert wird

Wenn Röntgenstrahlung oder die Strahlung aus dem radioaktiven Zerfall auf Atome und Moleküle trifft, entstehen Ionen oder angeregte Moleküle. Die Strahlung verliert dabei Energie. Für die biologische Wirkung ist nicht nur die Art und deren Energie der Strahlung von Bedeutung, sondern auch die „Materie“ des Lebewesens. Ein bekanntes Beispiel hierfür ist eine Röntgenaufnahme: Man erkennt ein Skelett. Die Strahlung ist stark genug (von hoher Energie), um den menschlichen Körper zu durchdringen, sonst wäre gar keine Aufnahme möglich. Die Absorption im Körper ist aber unterschiedlich: Es entsteht ein Schattenbild der Knochen (hohe Absorption wegen hoher Dichte) vor einem hellen Hintergrund (wenig Absorption im Gewebe, weshalb viel Strahlung durchkommt).

Auf ihrem Weg durch Materie reagiert die Strahlung mit den Atomen und Molekülen. In Bezug auf die biologische Wirkung ergeben sich sehr komplexe Zusammenhänge, die letztendlich auch noch über chemische Reaktionen Wirkung zeigen können. Stellvertretend soll hier nur die α-Strahlung etwas näher behandelt werden. Wenn ein Heliumkern – nichts anderes ist α-Strahlung – mit bis zu 11 MeV durch Gewebe schießt, kann er die Atome auf die er trifft ionisieren. Diese können dann selbst wieder Strahlung aussenden. Auf seinem Weg verliert er Energie, die er an die Atome abgegeben hat. Um die Sache noch komplizierter zu machen, geschieht das solange, bis er eine bestimmte Geschwindigkeit unterschreitet. An diesem Punkt angekommen, überträgt er seine gesamte Restenergie auf einen Schlag (Bragg peak). Dies macht man sich z. B. bei der Krebstherapie nutzbar. Man kann quasi gesundes Gewebe mit Ionen durchschießen, ohne großen Schaden anzurichten und setzt erst in der Krebszelle die vernichtende Energie frei.

Die Gamma-Strahlung

Sie ist von zentraler Bedeutung in der Kerntechnik, da sie sich recht einfach messen läßt, den menschlichen Körper auf jeden Fall durchdringt (sonst könnte man eine Inkorporation gar nicht feststellen) und sich nur aufwendig abschirmen läßt.

Die γ-Photonen besitzen Energien von 0,1 bis 3 MeV. Wichtig dabei ist, daß jedes Isotop γ-Photonen mit einer charakteristischen Energie bei seinem Zerfall aussendet. Mißt man die Energiespektren, erhält man die „Fingerabdrücke“ der enthaltenen Isotope. Dies ist Voraussetzung, um die biologische Wirkung und damit die Gefährdung überhaupt ermitteln zu können.

Die γ-Strahlung selbst, wirkt durch drei Effekte: Das γ-Photon überträgt seine Energie auf ein Elektron und ist damit verschwunden (Photoelektrischer Effekt), das γ-Photon schießt ein Elektron aus der Atomhülle und bewegt sich danach mit geringerer Energie in einer anderen Richtung weiter (Compton Effekt) oder es bilden sich zwei neue Teilchen: Elektron und Positron (Paarbildung). Der Photoelektrische Effekt tritt ein, wenn das γ-Photon nur eine eine geringe Energie hat. Dies ist mit maximal 100 keV der bevorzugte Bereich in der Diagnostik. Die Durchdringung dieser „weichen γ-Strahlung“ ist sehr von der Dichte (Knochen oder Kontrastmittel) abhängig. Erst oberhalb einer Energie von 100 keV kann der Compton-Effekt auftreten. Er hat durch die Bildung von Ionen auf jeden Fall eine biologische Wirkung. Für eine Paarbildung muß die Energie den Schwellwert von 1,02 MeV überschreiten.

Die Halbwertszeiten

Gängig ist die Physikalische-Halbwertszeit. Sie beträgt z. B. für Cäsium-137 etwa 30 Jahre. Das bedeutet, nach jeweils 30 Jahren ist nur noch die Hälfte des Startwertes vorhanden. Nach 60 Jahren noch 25%, nach 90 Jahren noch 12,5% usw. Cs-137 ist eine Leitsubstanz bei Reaktorunfällen wie in Tschernobyl und Fukushima. Es ist in relativ großen Mengen – ca. 6% der Kernspaltungen – entstanden, bis zum nächsten Brennelementewechsel entsprechend angesammelt worden und gasförmig und gut wasserlöslich. Es kann sich daher weiträumig ausbreiten und auch in großen Entfernungen punktförmig ausregnen.

Es gibt aber noch eine Biologische Halbwertszeit für jeden Stoff. Jedes Lebewesen nimmt zwar Stoffe mit der Nahrung aus der Umwelt auf, scheidet sie aber auch unterschiedlich schnell wieder aus. Wir trinken Wasser (eventuell tritiumhaltig), aber scheiden auch wieder große Mengen durch Schwitzen, Atmung und Ausscheidung aus. Wenn man keine neuen radioaktiven Stoffe aufnimmt, tritt schnell eine Verdünnung im Körper ein. Beim Menschen beträgt die biologische Halbwertszeit für Cs rund 70 Tage. Sie kann durch Medikamente noch weiter auf etwa 30 Tage gesenkt werden. Bei Schafen beträgt sie etwa zwei bis drei Wochen. Man hat nach Tschernobyl Schafe in Schottland vier Wochen vor der Schlachtung mit „sauberem Futter “ aus anderen Regionen gefüttert und so die Belastung im Fleisch auf unter 25% abgesenkt.

Aus der Summe (der Kehrwerte) der biologischen und physikalischen Halbwertszeiten wird die Effektive-Halbwertszeit gebildet. Zu allem Überdruss gibt es auch noch eine Ökologische-Halbwertszeit. Nach dem Reaktorunglück in Tschernobyl im April 1986 sind in Teilen von Norwegen durch Regenfälle 130 000 Bq pro Quadratmeter runter gegangen. Bis zum August stieg deshalb in einigen Seen die Belastung bei Forellen auf 7200 Bq/kg an. Sie wird seitdem kontinuierlich überwacht. Im Jahr 2008 war sie bereits wieder auf 150 Bq/kg abgesunken. In den ersten Jahren betrug die Ökologische-Halbwertszeit rund 3,6 Jahre. Sie ist seitdem angestiegen und hat sich inzwischen der physikalischen Halbwertszeit angenähert. So viel zum Thema Rückbesiedelung in den Sperrzonen. Natürlich bleiben die radioaktiven Stoffe nicht einfach liegen und warten auf ihren Zerfall, sondern werden ausgewaschen, dringen in tiefere Bodenschichten ein oder reagieren chemisch zu Verbindungen, die nicht mehr so einfach in die Nahrungskette aufgenommen werden. Andererseits können sie auch wieder aus diesen Depots freigesetzt werden. In einem See oder einer Wiese bildet sich ein Gleichgewichtszustand aus. Selbstverständlich ist Landwirtschaft in den „verseuchten Gebieten“ möglich. Man muß es nur richtig machen. Das Märchen von Für-Jahrtausende-Unbewohnbar ist einfach nur schlecht gemachte Propaganda.

Die Strahlungsdosis

Bisher haben wir uns nur mit der Aktivität in einem Feststoff [Bq/kg], einer Flüssigkeit [Bq/l] oder auch einer Fläche [Bq/m2] beschäftigt. Wie schon weiter oben erklärt, sagt das ohne weitere Kenntnis über die Isotopen und den Ort noch nichts aus. Für den Übergang auf die (biologische) Wirkung ist entscheidend, wieviel der ausgesendeten Energie auch vom Empfänger aufgenommen wird. Diese kann man einfach und direkt messen. Es handelt sich – bisher immer noch – um reine Physik. Die biologische Wirkung kommt später.

Heute verwendet man für die Dosis die Einheit Gray [1 Gy]. Sie ist aus dem SI-Einheitensystem abgeleitet und entspricht der sehr kleinen Energie von einem Joule pro Kilogramm [1J/kg] absorbierter Energie. Wenn man bedenkt, daß zur Erhöhung der Temperatur von einem Kilogramm Wasser um ein Grad, etwa 4200 Joule notwendig sind, wird auch diese Definition wieder zu großen Zahlen führen. Der nächste Scheinriese, der der Angstindustrie hilft.

1953 wurde die Einheit [rad] festgelegt. Sie beruhte noch auf dem damals gebräuchlichen Einheitensystem und wurde zu 100 [erg] pro Gramm festgelegt. Sie ist einfach – und genau – in die moderne Einheit [1 Gy] durch den Faktor 100 umzurechnen: 1 Gy entspricht 100 rad.

Eine Sonderstellung nimmt das Röntgen ein. Es ist über die Bildung von Ladungen in trockener Luft definiert. Ein Röntgen [1R] entspricht etwa 2,54 x 10-4. Coulomb pro kg in Luft erzeugter Ionen. Eine sehr unhandliche Einheit für den Strahlenschutz. Als Anhaltswert kann man sagen, daß ein Röntgen ungefähr 9,3 Milligray [mGy] in menschlichem Gewebe entspricht.

Relative biologische Wirksamkeit unterschiedlicher Strahlung (RBE)

Ab jetzt verlassen wir den sicheren Boden der Physik: Es wird biologisch – man könnte fast sagen, politisch. Es ist unbestritten, daß verschiedene Strahlungsformen auch bei gleicher Energie unterschiedliche biologische Wirkung zeigen. Ein Hauptgrund ist die (heute) beobachtbare Wirkung beim Beschuß von Zellen. Die α-Strahlung hinterläßt einen regelrechten Schußkanal in der Zelle, während die β- und γ-Strahlung eine eher räumlich gleich verteilte Wirkung zeigt. Man kann dieses Problem lösen, indem man für jede Strahlungsform einen Gewichtungsfaktor einführt.

Für die Endstufe von Strahlenschäden, den Zelltod, kann man einfache und reproduzierbare Versuche durchführen. Man bestrahlt eine Zellkultur mit Strahlung von bekannter Energie. Die lebenden Zellen werden vor und nach der Bestrahlung gezählt. Jeder Versuch wird in ein Diagramm mit der Dosis als Abszisse und dem Prozentsatz der überlebenden Zellen als Ordinate eingetragen. Jede Strahlungsart ergibt eine eigene charakteristische Kurve. Für jeden Wert der Ordinate (überlebende Zellen) ergeben sich nun mehrere verschiedene Werte auf der Abszisse (Dosis). Mit anderen Worten: Diese Wirkung der Strahlung (Zelltod) bei gleicher Dosis nimmt mit der Schwere der Ionen zu. Es werden nun RBE-Werte (Relative Biological Effectiveness) als Gewichtungsfaktoren bestimmt. Bezugsgröße ist die Kurve für Röntgenstrahlung.

Für das Verständnis ist wichtig, daß es sich bei den oben beschriebenen Versuchen zum Zelltod um einfach zu reproduzierende Experimente handelt. Eine tote Zelle ist einfach von einer lebenden Zelle zu unterscheiden. Wie sieht es aber mit (angeblichen) Erbschäden und mit Krebs aus? Krebs kann bis zum Ausbruch Jahrzehnte dauern, für Erbschäden müßten gar zig Generationen beobachtet werden. Experimente wären nicht reproduzierbar, weil die Umwelteinflüsse über so lange Zeiträume gar nicht konstant sein können.

Äquivalentdosis

Damit alle denkbaren Effekte erfaßt werden, hat man sich im International Committee on Radiation Protection (ICRP) auf eine Äquivalentdosis mit der Einheit [rem] bzw. Sievert [Sv] geeinigt. Sie wird aus der physikalischen Dosis – gemessen in Gray [Gy] – durch Multiplikation mit dimensionslosen Gewichtungsfaktoren werzeugt. Genau daraus ergibt sich die Gefahr der Verwechslung und Fehlinterpretation:

Die Äquivalentdosis – angegeben in Sievert [Sv ]– ist keine physikalische Größe und kann auch nicht gemessen werden, sondern ist eine rein rechnerische Größe. Sie wird aus der meßbaren Dosis mit ihrer Einheit Gray [Gy] über (politisch) festgelegte Gewichtungsfaktoren wR gebildet. Diese Gewichtungsfaktoren sollen die komplexen biologischen Verhältnisse des Menschen widerspiegeln. Es handelt sich lediglich um „Modellvereinfachungen“, wie sie auch aus anderen Bereichen bekannt sind. Sievert ist ungeeignet, die biologische Wirkung bei anderen Lebewesen zu beschreiben oder umgekehrt. Sie beruht auf der fragwürdigen LNT-Hypothese (kein Schwellwert, linearer Verlauf). Deshalb sind gerade kleine Werte mit großer Skepsis zu betrachten.

Lediglich bei einer reinen γ-Strahlung wäre eine Gleichsetzung von Sv mit Gy möglich, da hier der Gewichtungsfaktor 1 beträgt. Man sollte dies aber tunlichst vermeiden, da in der Praxis immer Isotopengemische mit allen möglichen Strahlungsarten auftreten. Wenn man z. B. wie Tepco, Strahlungswerte im Sicherheitsbehälter von Fukushima in Sievert angibt, ist das etwas irreführend. Man hat natürlich nur die γ-Strahlung in Gray gemessen. Die sicherlich vorhandene α-Strahlung (Gewichtungsfaktor 20) oder gar die vorhandenen Neutronen (energieabhängiger Gewichtungsfaktor 5 bis 20) sind mit Sicherheit nicht mit ihrem Äquivalent korrigiert worden.

Effektive Dosis

In manchen Fällen werden nur einzelne Organe des menschlichen Körpers belastet. Klassiker ist die Belastung der Lunge und Bronchien durch Radon und seine Zerfallsprodukte. Verschiedene Organe und Gewebe haben eine unterschiedliche Empfindlichkeit bezüglich sog. „Verzögerter Effekte“. Krebs ist ein solcher Effekt, der oft viele Jahre braucht, bis er nachweisbar ist. Um dafür das Risiko vergleichbar zu machen, wird eine Effektive Dosis gebildet.

Wenn in einem bestimmten Teil des menschlichen Körpers eine Dosis wirkt, ergibt sich das Risiko einer bestimmten Wirkung (z. B. Lungenkrebs). Wirkt die gleiche Dosis auf ein anderes Körperteil, ergibt sich ein anderes Risiko. Für jedes Organ – oder besser gesagt Gewebetyp – ergibt sich nun ein Gewichtungsfaktor wT. Daraus ergibt sich schließlich die Effektive Dosis, meist kurz als Dosis bezeichnet.

Die in Gy gemessene Energie einer Strahlung die vom Gewebe aufgenommen wird, wird gemäß ihres Typs (z. B. γ- oder α-Strahlung) in eine äquivalente Strahlung mit der Einheit Sv umgerechnet. Die Äquivalentdosis darf nur die Einheit Sv tragen, da sie eine fiktive Größe ist, die die unterschiedliche biologische Wirkung der Strahlungsarten berücksichtigen soll. Nur im Sonderfall (beispielsweise reiner γ-Strahlung) sind die Zahlenwerte von Gy und Sv gleich setzbar, da sie beide – per Definition – den gleichen Gewichtungsfaktor 1 haben. Trotzdem handelt es sich bei der Einheit Gy [J/kg] um eine physikalische Größe und bei der Einheit Sv um eine fiktive Einheit, die biologische Wirkungen beim Menschen charakterisieren soll. Die Effektivdosis erhält man erst, wenn man für jedes belastete Organ eine weitere Gewichtung vornimmt. Unterstellt man weiterhin einen linearen Verlauf, ohne Schwellwert (LNT) der Dosis-Wirkungsbeziehung, kann man diese Einzelwerte einfach addieren und erhält daraus die Ganzköperdosis, die in der Öffentlichkeit gern als die Dosis bezeichnet wird.

Das ICRP hat dafür ein Modell eines Menschen erschaffen, das aus 14 Organen bzw. Gewebetypen und einem „Rest“ besteht. Der „Rest“ dient zur Unterscheidung von Mann und Frau mit Prostata bzw. Gebärmutter. Die Summe aller 15 Gewichtungsfaktoren wT ergibt 100%.

Die Kollektivdosis

Die Kollektivdosis ist die Summe aller individuellen Dosen in einer Gruppe. Meist wird sie als Produkt einer mittleren Dosis und der Anzahl der Personen gebildet. Ihre Einheit ist das Person Sievert [person-Sv] oder Man-Sievert [man-Sv] bzw. in älteren Veröffentlichungen das Man-Rem [man-rem].

Die Kollektivdosis ergibt in Verbindung mit der LNT-Hypothese absurde Ergebnisse. So sollte z. B. das Reaktorunglück von Tschernobyl über 14000 Tote verursachen. Nichts, aber auch rein gar nichts, konnte bis heute – mehr als 30 Jahre später – davon nachgewiesen werden. Genauso wenig, wie die prognostizierten Spätfolgen von Hiroshima und Nagasaki. Das hielt aber die einschlägigen Propagandaabteilungen der Angstindustrie nicht davon ab, ähnlich blödsinnige Vorhersagen für das Reaktorunglück in Fukushima zu treffen.

Zumindest in den letzten 20 Jahren konnte die Forschung zahlreiche Reperaturmechanismen für die DNA nachweisen, den programmierten Zelltod (Apoptose) erklären und die positive Wirkung kleiner Dosen (adaptive response) als Fortschritt in der Strahlentherapie anwenden.

Nachbemerkung

Ein Schelm, wer bei „Menschenmodellen“ an „Klimamodelle“ denkt, bei Sv an „menschengemachtes CO2“ und bei „Reaktorkatastrophen“ an „Erderwärmung“ – auf zehntel Grad genau berechnet, versteht sich.

Allerdings sind Ähnlichkeiten zwischen dem International Committee on Radiation Protection (ICRP) und dem Intergovernmental Panel on Climate Change (IPCC) alles andere als zufällig: Beide Organisationen halten regelmäßig Kongresse mit wunderbaren Dienstreisen ab. Bei beiden sind in Öffentlichkeitsarbeit geschulte Funktionäre tonangebend. Hinter beiden steht eine milliardenschwere Industrie, die gut auf Kosten der Allgemeinheit lebt.

Allerdings glaube ich immer noch an die Kraft der Aufklärung. Mag es auch lange dauern. Die katholische Kirche brauchte immerhin bis 1992, bis sie in der Lage war Galileo Galilei zu rehabilitieren. Möge es Gott geben, daß der Ökosozialismus gar nicht so alt wird. Es wäre schön, wenn dieser Artikel einen kleinen Beitrag dazu leisten könnte. Steter Tropfen höhlt den Stein.

Das nationale Begleitgremium stellt sich vor

Am Samstag fand im „Tagungswerk Jerusalemkirche in Berlin“ eine Veranstaltung zum „Standortauswahlgesetz“ statt.

Was verbirgt sich dahinter?

Wer bisher noch nicht von dieser Institution gehört hat, sollte vielleicht mal deren Internetauftritt besuchen. Mal ehrlich, wer hat überhaupt von dieser Tagung gewußt oder gar eine Einladung erhalten? Dafür war Funk, Fernsehen und Presse reichlich vertreten. Ist ja bald wieder Wahlkampf. Erstaunlich oder eher erschreckend ist auch hier wieder, das neue deutsche Blockparteiensystem. Alle Parteien vereint – unter Führung der Grünen – im Kampf gegen das „Teufelszeug“ und den zahlenden Bürger. Ein Lehrstück über gelenkte Demokratie. Man bestimmt ein Gremium aus gleichgesinnten Laien und nennt das „Bürgerbeteiligung“. Sachverstand ist ausdrücklich nicht gewünscht, er stört nur die Politik bei ihrer „großen Transformation“.

Was soll das Standortauswahlgesetz bewirken?

Zumindest eine Partei sieht ihre Wurzeln und ihre Kernkompetenz im „Kampf gegen das Atom“. Zieht man dieses Thema ab, verbleibt nur noch ein bischen (austauschbarer) Sozialismus. Die Transsexualität und die vegetarische Zwangsernährung hat sich bereits in den letzten Wahlkämpfen nicht als der Wahlkampfschlager erwiesen. Also zurück zum Geschäft mit der Angst. Nur ist auch das nicht mehr so einfach zu betreiben wie früher. Durch den „Atomausstieg“ und die „Energiewende“ ist „Atomkraft-Nein-Danke“ auch für wohlwollende Linke nicht mehr so der Aufreger. Also schnell vor der Bundestagswahl noch ein paar Kohlen für die eigene Klientel aufgelegt, indem man ein „Standortauswahlgesetz“ im Schweinsgalopp durch die Parlamente treibt. Da alle etablierten Parteien auf den potentiellen Koalitionspartner zum eigenen Machterhalt oder Machterwerb angewiesen scheinen, mit voller Unterstützung der anderen Parteien. Es gibt im Bundestag offensichtlich keine Opposition – und was weit folgenschwerer ist – keinen Sachverstand mehr.

Nachdem wir bereits Milliarden in die Erkundung der Standorte Gorleben und Schacht Konrad investiert haben, soll jetzt noch einmal alles von Neuem gestartet werden. Wohl gemerkt, nicht weil sich diese Standorte als gänzlich ungeeignet erwiesen haben, sondern um die gesamte Republik wieder mit „einem Kampf gegen das Atom“ zu überziehen. Wir gönnen uns ja sonst nichts. In diesem Punkt schweigen sogar die Politiker, die sonst ständig von „Kinderarmut“, drohender „Altersarmut“ etc. reden.

Was ist das eigentliche Problem?

Wir verfügen an zahlreichen Standorten über unterschiedlichste Stoffe, die ionisierende Strahlung aussenden. Sie stammen aus unterschiedlichsten Quellen: Energieerzeugung, Forschung, Medizin, Produktion und Bergbau (Öl, Gas, Kohle usw.). Damit muß verantwortungsvoll umgegangen werden. Das ist die eigentliche politische Frage, die in den Parlamenten diskutiert und beschlossen werden muß:

  • Was ist Wertstoff und was ist Abfall?
  • Was wird als gefährlich angesehen? Dies betrifft nicht nur die Radioaktivität, sondern auch den chemischen Zustand.
  • Wie hoch sollen die Grenzwerte sein?
  • Sollen die Stoffe „vernichtet“ werden und damit dauerhaft aus der Welt geschafft werden oder sollen sie „sicher gelagert“ werden?
  • Was ist eine als sicher angesehene Lagerung: Technische Barrieren oder geologische Barrieren oder eine Mischform?

Erst wenn über diese Fragen Einigung erzielt worden ist, kann sachlich fundiert über Standorte entschieden werden. Dieser Prozeß muß in einer Demokratie über die Parlamente geschehen. Die Politiker – da grundsätzlich Laien – haben vorher den Sachverstand der Wissenschaft zu konsultieren. Die Entscheidung jedoch, kann ihnen keiner abnehmen.

Ganz nebenbei, die „Endlagerfindung“ ist mitnichten die endgültige Lösung. Auch bei einem kompletten Ausstieg aus der Kernenergie und Forschung wird weiterhin mit radioaktiven Stoffen in Medizin und Fertigung umgegangen werden. Radioaktiver Abfall wird weiterhin entstehen.

Die moralische Überhöhung

„Atommüll“ sei Teufelszeug, für das die heutige Generation die Verantwortung tragen müßte, da sie auch den Nutzen davon gehabt hätte. Abgesehen davon, daß dies eine eigenartige Auffassung von der Entwicklung der Menschheit ist, ist diese Aussage auch in höchstem Maße zynisch. Diese Denkweise gipfelt in der Forderung eines generellen Exportverbotes für radioaktive Stoffe. Man will die abgebrannten Brennelemente unwiederbringlich verbuddeln. Deutschland will aus der Kernenergie aussteigen, gut, das ist sein Recht. Aber woher nimmt dieses grün-alternative Milieu eigentlich das Recht, dem Rest der Welt seine Sichtweise aufzuzwingen? Für den überwiegenden Teil der Menschheit sind Brennelemente kein Müll, sondern Rohstoff für die Energiegewinnung. Das Recycling ist erprobte Praxis. Wo bleibt da eigentlich die „Nachhaltigkeit“, die sonst immer, wie eine Monstranz vor sich her getragen wird. Allein China baut alle drei Monate einen neuen Kernreaktor. Der Uranbedarf wird entsprechend steigen. Die Urangewinnung erfordert viele menschliche und materielle Ressourcen, aber wir maßen uns an, Wertstoffe durch vergraben dem Weltmarkt zu entziehen. Am Deutschen Wesen, wird die Welt genesen.

Wie in sich unlogisch die Argumentation ist, zeigt sich daran, daß ein grüner Umweltminister sogar fordert, man müsse für die Endlagerung auch ausdrücklich das tail-end (abgereicherter Teilstrom bei der Urananreicherung) aus deutschen Urananreicherungsanlagen einbeziehen. Was bitte, strahlt denn mehr: Uran-235 oder Uran-238? Das abgereicherte Uran strahlt daher weniger als Natururan. Bisher ist es ein frei handelbares Wirtschaftsgut. Wenn wir die Grenzwerte so tief nach unten schrauben, sollten wir schleunigst Zwischenlager für Kohlenasche (aus der wird gerne Zement und Pflastersteine gemacht), Rückstände aus der heimischen Öl- und Gasförderung usw. anlegen. Außerdem müßten wir schleunigst alle Panzer, panzerbrechende Munition und Ausgleichsgewichte in diversen Flugzeugen mit Aufklebern zur Warnung vor Radioaktivität versehen und das Personal mit Dosimetern ausrüsten. Schöne Grüße aus Absurdistan.

Der Müll geht aus

Der bisherige Gesetzentwurf lautet im Untertitel …ein Endlager für Wärme entwickelnde radioaktive Abfälle…. Wahrscheinlich der kleinste gemeinsame Nenner zwischen den Parteien. Durchaus sinnvoll, denn es gibt ja bereits den Standort Konrad für mittelaktiven Abfall. Wenn man nun aber alle Kernkraftwerke abgeschaltet hat, kommt kein neuer (hochaktiver) Müll mehr hinzu. Der bereits zwischengelagerte Abfall aus der Wiederaufbereitung ist schon recht alt. Bis ein Endlager betriebsbereit ist und die erste Einlagerung möglich wird, werden mindestens noch weitere 50 Jahre vergehen. Je länger der Abfall lagert, um so mehr radioaktive Stoffe sind zerfallen. Es bleiben nur die langlebigen über, die aber gerade wegen ihrer Langlebigkeit wenig Wärmeleistung produzieren. Deshalb ist es z.B. kein Problem, eine Oberflächentemperatur von 90°C (z. B. französische Vorschrift für deren Endlager) bei den Gebinden einzuhalten. Der deutsche Gesetzentwurf schweigt sich bisher dazu aus, was durchaus sinnvoll ist, da ja noch keine konkreten geologischen Verhältnisse vorliegen sollen (Entscheidungsfreiheit).

Damit die „Atommüll-Story“ weiter am Laufen gehalten werden kann, muß man virtuellen Müll erschaffen. Man redet gewaltige Mengen aus der Asse herbei, die angeblich wieder vollständig ausgebaggert werden muß. Hinzu kommen die Mengen an leicht radioaktiven Abfällen aus den Kernkraftwerken und dem Abbruch der kerntechnischen Anlagen. Es wird dabei tunlichst verschwiegen, daß das Volumen von radioaktivem Müll vollkommen beliebig ist. Man kann durch Nachbehandlung (Dekontaminierung, Verbrennung etc.) und Sortierung das Volumen beliebig verringern. Alles nur eine Frage der Kosten. Die jetzt aufgeworfene Forderung der grünen Problemerschaffungs-Partei, auch dieser Müll müßte in dem geologischen Tiefenlager eingelagert werden, setzt dem Ganzen die Krone auf. Müll, der weltweit auf normalen oberirdischen Sondermülldeponien gelagert wird. Dies nur um den Popanz eines nicht vorhandenen Endlagers aufrecht erhalten zu können. Dieses muß natürlich möglichst groß sein, um den Widerstand in der Region anfachen zu können und gleichzeitig möglichst teuer, um das Märchen von der viel zu teuren Kernenergie erfüllen zu können. Als Nebenprodukt kann man noch ein Endlager erschaffen, das sicherheitstechnisch deutlich hinter internationalen Standards zurückbleibt. Nach dem Murks der Energiewende, noch ein Murks mit radioaktiven Stoffen.

Das erschaffene Endlagerproblem

Das größte Bubenstück der Grünen war jedoch das Verbot einer Wiederaufbereitung, das jetzt noch einmal durch das Exportverbot für Kernbrennstoffe verschärft werden soll. Man muß es immer wieder betonen, der verglaste Abfall aus der Wiederaufbereitung in Frankreich und England ist nach maximal 100 000 Jahren auf das Niveau von Natururan abgeklungen. Man kann ihn bereits nach wenigen hundert Jahren in die Hand nehmen, wenn man keine Strahlenphobie hat. Genau das, war der sicherheitstechnische Sinn der Wiederaufbereitung: Verkleinere drastisch das Volumen und entschärfe den Abfall durch die Entfernung des Plutoniums.

Durch die jetzt geplante Endlagerung der unbehandelten Brennstäbe hat man wegen des hohen Plutoniumgehaltes einen wesentlich problematischeren Abfall erschaffen. Man kann nicht einfach die Castoren verbuddeln, sondern die Brennelemente müssen aufwendig neu verpackt werden. Verfahren hierfür, die auch nur ansatzweise die gleiche Sicherheit bieten wie der verglaste Abfall, gibt es nicht. Wer soll die eigentlich entwickeln und wo wird später die Anlage hierfür errichtet?

Zusammenfassung

Es ist der klassische Politikablauf: Erschaffe ein Problem, das du anschließend vorgibst zu lösen. Halte Fachleute fern und laß nach dem Prinzip des Berliner Willi Brand Flughafens Laien vor sich hin wurschteln. Je länger die Sache dauert, je höher sind die Pfründe für alle Günstlinge. Tarne die Angelegenheit über eine „Bürgerbeteiligung“. Gleichzeitig schaffst du dadurch Arbeitsplätze für nicht vom Arbeitsmarkt nachgefragte Akademikergruppen. Diese sind dir deshalb treu ergeben und werden dir den Rücken frei halten. Je besser du die Verantwortungslosigkeit organisiert, je besser ist die Chance wiedergewählt zu werden.

Es wird eine endlose Geschichte inszeniert. Jetzt, wo man sich die Rücklagen für die Entsorgung einverleibt hat, hat man alle Zeit der Welt, das Geld für andere Dinge auszugeben. Politiker als Vermögensverwalter ist genauso, wie gierige Hunde zur Bewachung von Steaks. Ist das Geld weg, wird man die Gesetze ändern. Schacht Konrad und Gorleben laufen ja nicht weg.

Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: „So wenig Strahlung, als vernünftig erreichbar“. Das Wort „vernünftig“ wird – wegen der angeblichen Krebsgefahr – als „so gering wie möglich“ überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine „normale“ Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes : „Die Dosis macht’s“. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche „auf ex“ haben soll. Bestenfalls ist dieser Irrglaube auf ein „physikalisches“ Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz „eine Mutation = ein Krebs“ ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der „Strahlenschutz“ ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der „Walschützer“ ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen „Klimaschutz“ und andere Machenschaften der „Ökoindustrie“ ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle „Gutmenschen“ mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich „harte moralische Fakten“ von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus „Angst vor Strahlung“ verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die „Strahlung“ so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von „Strahlenkrankheiten“. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im „kalten Krieg“ die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein „gut“ und kein „schlecht“, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis „die Dosis macht’s“, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der „Angstmensch“ als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den „Klimawissenschaften“, bei denen „Welt-Temperaturen“ mit (bekannt fehlerhaften) „Weltmodellen“ berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Fukushima – ein Zwischenbericht

In letzter Zeit ist es in den „Qualitätsmedien“ still geworden um die „Reaktorkatastrophe“. Um so mehr ein Grund, hier mal wieder einen Zwischenbericht zu liefern. Man könnte es sich einfach machen: Noch immer kein Toter durch Strahlung, noch immer keine Krebs-Epidemie, noch immer ist der Fisch an Japans Küste essbar…

…da warn es nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der „Reaktorhalle“ zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche „Betonhülle“ um das Kernkraftwerk gebaut hätte. Um es auch unserer – von der japanischen Industriegesellschaft so enttäuschten – Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein „Bankpalast“ aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von „Windmühlen“ und „Sonnenkollektoren“ hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen im Kölner Dom hunderte male stärker als die Strahlenbelastung aus Fukushima.). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die „Flugbahnen“ der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine – auch gegenüber allen Baustoffen, wie Stahl, Beton usw. – außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch „nachrechnen“ des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine „Aufnahmen“ der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden.

Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden.

An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt.

Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die „Eiswände“ fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch „gut verschlossen“ ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit „Wischern“ und „Staubsaugern“ ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man „taucht“ heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik – nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren – ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit – und ganz besonders in Deutschland – zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten „Experten“, die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch „Festigkeit im Rechten-Glauben“ ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher – aber anscheinend nicht so offensichtlich – ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten – und längst überprüften und für sicher befundenen – Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. „Wind und Sonne“ sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der „Krebstoten“ nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung „Krebs“ früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell „Strahlenangst“ erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Reaktortypen heute und in naher Zukunft

Warum haben sich einige Reaktoren durchgesetzt und andere nicht?

Bevor die technische Betrachtung los gehen kann, sind einige Vorbemerkungen erforderlich. Es sind die immer gleichen Sätze, die aber all zu gern gerade von Technikern und Wissenschaftlern verdrängt werden: Da draußen, in der realen Welt, außerhalb von Hörsälen und Politologenseminaren, kostet alles Geld und muß auch alles wieder Geld einbringen. Einen Euro, den man für Forschung ausgegeben hat, kann man nicht noch einmal für „soziale Projekte“ oder sonst irgend etwas ausgeben. In der Politik herrscht der nackte Verteilungskampf. Jeder in der Wirtschaft investierte Euro, muß nicht nur wieder eingespielt werden, sondern auch noch einige Cents zusätzlich einbringen – gemeinhin Gewinn genannt. Dies ist geradezu naturgesetzlich. Wie der „Real Existierende Sozialismus“ eindrücklich bewiesen hat, bricht sonst ein ganzes Gesellschaftssystem einfach in sich zusammen.

Die Evolution

Von den unzähligen Reaktortypen, haben nur drei – in der Reihenfolge ihrer Stückzahl – überlebt: Druckwasser-, Siedewasser- und Schwerwasserreaktoren. Gestorben sind alle mit Gas gekühlten, Graphit moderierten, und „schnellen“ Reaktoren. Manche sind über den Status eines Prototypen – wie z. B. die Salzbadreaktoren – nicht hinaus gekommen. Das sagt weniger über ihre „technischen Qualitäten“, als sehr viel mehr über die Gültigkeit der Vorbemerkung aus.

Die „schnellen“ Brüter

Das einzige, in der Natur vorkommende Material, mit dem man eine Kettenreaktion einleiten kann, ist Uran-235. Der Anteil dieses Isotops am Natururan beträgt nur 0,7%. Hört sich beängstigend gering an. Mit Prozenten ist das aber immer so eine Sache: Wenn man nicht fragt, von wieviel, kann man schnell zu falschen Schlüssen gelangen. Drei Dinge sind zu berücksichtigen, die sich gegenseitig positiv verstärken:

  1. Nach menschlichen Maßstäben, gibt es auf der Erde unerschöpflich viel Uran. Uran ist als Spurenelement überall vorhanden. Allein in den oberen 30 cm Erdschicht, sind auf jedem Quadratkilometer rund 1,5 to vorhanden (der durchschnittliche Urangehalt in der Erdkruste liegt bei 2,7 Gramm pro Tonne). Das Uran-Vorkommen im Meerwasser wird auf vier Milliarden Tonnen geschätzt. Der Menschheit wird das Uran also nie ausgehen. Eine von „Atomkraftgegnern“ immer wieder gern verbreitete angebliche Reichweite von ohnehin nur 30 bis 80 Jahren, ist einfach nur grottenschlechte Propaganda.
  2. Für uns Menschen setzt die Kernspaltung von Uran unvorstellbare – weil außerhalb unseres normalen Erfahrungshorizont liegend – Energiemengen frei. Die Spaltung eines einzelnen Gramms Uran setzt rund 22.800 kWh Wärme frei oder viel anschaulicher ausgedrückt, 13 boe (Fässer Rohöläquivalent). Zur Zeit kostet ein barrel (159 Liter) Rohöl rund 80 Euro am Weltmarkt. Ein Pound (453 gr) U3 O8 kostet aber nur etwa 50 US-Dollar – und damit nicht 1 Million (!!) Dollar, wie es seinem „Öläquivalent“ entsprechen würde. Diese Abschätzung macht deutlich, daß noch einige Zeit vergehen dürfte, bis das Uran auch nur im wirtschaftlichen Sinne knapp werden wird. Allein das bisher geförderte Uran (in der Form von Sprengköpfen, abgebrannten Brennelementen etc.) reicht für einige Jahrtausende aus, um den heutigen Weltbedarf an elektrischer Energie zu produzieren.
  3. In thermischen Reaktoren (gemeint ist damit, Reaktoren in denen überwiegend nur sehr langsame Neutronen die Kernspaltung betreiben.) wird vorwiegend Uran-235 genutzt, das aber im Natururan nur zu 0,7 % enthalten ist. Man glaubte, durch diesen „Faktor 100“ könnte sich vielleicht früher ein Engpass ergeben. Um so mehr, da bei Leichtwasserreaktoren eine Anreicherung auf 3 bis 5 % sinnvoll ist. Wegen der erforderlichen Anreicherung benötigt man fast die zehnfache Menge Natururan für die Erstbeladung eines solchen Reaktors. In Wirklichkeit ist es weit weniger dramatisch, da bei jeder Spaltung durch die Überschußneutronen neuer Spaltstoff (Plutonium) erzeugt wird. Die Konversionsrate bei heutiger Betriebsweise beträgt etwa 0,6. Mit anderen Worten, wenn 10 Kerne gespalten werden, bilden sich dadurch 6 neue „Spaltkerne“. Dafür benötigt man eine Wiederaufbereitungsanlage, deren Betrieb aber reichlich Geld kostet. Bei den heutigen, geringen Uranpreisen am Weltmarkt (siehe oben) lohnt sich das wirtschaftlich kaum. Man läßt die abgebrannten Brennelemente erst einmal stehen. Für die Kraftwerksbetreiber sind sie Abfall (weil nicht länger mehr im Reaktor einsetzbar), aber trotzdem Wertstofflager und keinesfalls Müll. Darüber hinaus sind sie um so leichter zu verarbeiten, je länger sie abgelagert sind.

Bedenkt man diese drei Punkte und den Vorspann, hat man unmittelbar die Antwort, warum sich Reaktoren mit schnellem Neutronenspektrum bis heute nicht kommerziell durchsetzen konnten. Sie sind in Bau und Betrieb wesentlich teurer als Leichtwasserreaktoren. So muß man Natrium- oder Bleilegierungen als Kühlmittel einsetzen. Eine völlig andere Technologie. Für Pumpen, Ventile und was man noch so alles in einem Kraftwerk braucht, gibt es nur weniger als eine Handvoll Hersteller, die alles in Einzelanfertigung herstellen mußten. Selbst das Kühlmittel ist ein Problem: Für vollentsalztes Wasser findet man heute praktisch in jeder Stadt einen Lieferanten. Für „Reaktornatrium“ gibt es nach Kenntnis des Autors praktisch nur einen Hersteller weltweit – übrigens ein deutsches Unternehmen – der bis nach Rußland und China liefert. In einem „natriumgekühlten“ Reaktor hat man drei Kühlkreisläufe (einen radioaktiven durch den Kern, einen Zwischenkreis zum Strahlenschutz und einen Wasser-Dampf-Kreislauf zur eigentlichen Stromerzeugung). Demgegenüber hat ein Siedewasserreaktor nur einen, der auch ohne Umwälzpumpen auskommen kann. Der Unterschied in Investitions- und Betriebskosten dürfte auch jedem Laien nachvollziehbar sein.

Weitaus schwerwiegender ist aber das wirtschaftliche Risiko. Kein verantwortungsvoller Energieversorger auf der Welt, wird sich für einen schnellen Reaktor zur kommerziellen Stromerzeugung entscheiden. Unkalkulierbares Genehmigungsverfahren mit unbestimmten Ausgang: Dafür findet sich keine Bank, die darauf einen Kredit gibt. Es bleibt daher auf absehbare Zeit wie es ist. Solche Reaktoren können nur in Rußland, China und Indien in staatlicher Regie gebaut werden. Sollten sich in einem „westlichen“ Land tatsächlich Politiker finden, die dafür die Verantwortung tragen wollen, könnte es sofort losgehen. Das Jahrzehnte dauernde Drama in Japan (Monju, Baubeginn 1984 (!), bis heute im ständigen Umbau) ist allerdings abschreckendes Beispiel genug. Technisch, gibt es keine grundlegenden Probleme mehr. Technisch, hätte das Projekt ungefähr das Risiko und den finanziellen Aufwand eines neuen Verkehrsflugzeugs oder einer neuen Weltraumrakete – nur für Politiker ist es eben nicht attraktiv. Dies ist übrigens keine Politikerschelte, denn die werden von uns selbst gewählt.

Selbst in USA läßt man sich für zig Milliarden lieber eine Mischoxid-Brennelemente-Fabrik von Areva bauen, nur um seinen vertraglichen Pflichten gegenüber Rußland aus dem Abrüstungsprogramm nachkommen zu können. Was in Frankreich funktioniert, kann so schlecht nicht sein. Die eigene IFR-Entwicklung hat man an Japan verscherbelt. Sie lebt heute unter dem Kürzel PRISM (Power Reactor Innovative Small Module) in einem Gemeinschaftsunternehmen von GE und Hitachi Nuclear Energy (GEH) mehr schlecht als recht, weiter. 2012 hat sich GEH in Großbritannien um ein Projekt zur Beseitigung des nationalen Überschusses an Plutonium beworben. Als Alternative zu Mischoxid-Brennelementen, mit deren Fertigung man in GB keine berauschenden Erfahrungen gemacht hatte. Mal sehen, was daraus wird. Es sollte übrigens ausdrücklich kein „Brüter“, sondern ein „Brenner“ werden, der möglichst schnell, möglichst kostengünstig, große Mengen Plutonium untauglich für eine Waffenherstellung macht.

Die Hochtemperaturreaktoren

Immer wieder taucht die (zweifelhafte) Forderung nach höheren Temperaturen auf. Entweder ist die Begründung ein besserer Wirkungsgrad oder die Nutzung für die Chemie. Deutschland war nach der Ölkrise der 1970er federführend in der Entwicklung. Will man höhere Temperaturen (über 300 °C) erreichen, bleibt praktisch nur eine Gaskühlung, da bei Wasserdampf der Druck in eine nicht mehr sinnvolle Dimension ansteigt. Außerdem verläßt man im Reaktor das Naßdampfgebiet, was für die „Reaktordynamik“ nur Nachteile bringt.

In den 1950er Jahren hatte man das Problem mit „zu nassem“ Dampf im Turbinenbau. Ausserdem ging zwangsläufig der Bau von Reaktoren mit Graphit als Moderator (für die Rüstung) voran. In Großbritannien ergaben sich die MAGNOX-Reaktoren mit Natururan und CO2. als Kühlmittel. Sie wurden mit einem Druck von knapp 21 bar und 400 °C betrieben. Schon damals unwirtschaftlich. Die Entwicklung ging folgerichtig weiter, zum AGR mit rund dem doppelten Druck und einer Temperatur von 630 °C. Von diesem Advanced Gas-cooled Reactor (AGR) wurden immerhin zehn Reaktoren mit einer Gesamtleistung von fast 6.000 MWe gebaut. Die hohe Temperatur in Verbindung mit CO2. führte zwar immer wieder zu Korrosionsproblemen, aber eigentlich sind es recht robuste Kraftwerke. Bei Neuplanungen geht man aber auch in Großbritannien ausschließlich von Leichtwasserreaktoren aus.

In der Sowjetunion erschuf man einen mit Graphit moderierten Druckröhren Reaktor (RBMK). Er erlangte in Tschernobyl traurige Berühmtheit. Es sind wohl immer noch acht Reaktoren in Betrieb. Die Mehrzahl wurde aber bereits aus dem Verkehr gezogen.

Auf die „echten“, mit Helium gekühlten Hochtemperatur-Reaktoren (z. B THTR in Deutschland mit 750 °C Austrittstemperatur) wird weiter unten noch eingegangen.

Kernenergie zur Stromproduktion

Bisher hat sich die Kernenergie weltweit ausschließlich zur Produktion elektrischer Energie durchgesetzt. Warum das auch auf absehbare Zeit so bleiben wird, später.

Nun hört man immer wieder das „Modewort“ von der „Energieeffizienz“. Gegen Leichtwasserreaktoren wird von „Atomkraftgegnern“ immer gern das Argument der angeblich schlechten Wirkungsgrade angeführt. Als Wirkungsgrad ist das Verhältnis von erhaltener Energie (die elektrische Energie, die aus dem Kraftwerk ins Netz geht) zu eingesetzter Energie (Spaltung von Uran oder Plutonium) definiert. Eine solche Definition macht in diesem Fall ohnehin wenig Sinn: Zumindest Plutonium ist ein (außer als Energieträger) wertloser Stoff, der potentiell sogar gefährlich (wie z. B. Quecksilber) ist. Eine andere Situation als bei Öl, Erdgas usw., die man auch als Rohstoff für vielfältige, andere Zwecke (Treibstoff, Kunststoffe etc.) nutzen kann. Ein besserer Wirkungsgrad macht bei der Kernenergie nur als „verminderte“ Betriebskosten Sinn. Wie aber schon oben gezeigt wurde, kostet Uran (energetisch betrachtet) fast nichts, aus dem Schornstein (im Vergleich zu einem Kohlekraftwerk) kommt auch nichts und die Asche (Spaltprodukte) ist weniger, als bei einem Gasturbinen-Kraftwerk aus dem Schornstein kommt. Alles keine Anreize, damit man um Wirkungsgrad-Punkte kämpft.

Trotzdem kann es nicht schaden, wenn man mal über den Zaun schaut. Die Spitzenwerte liegen heute für Koppelprozesse in Gasturbinen-Kraftwerken, mit nachgeschaltetem Dampfkreislauf zur Abwärmenutzung, bei 60%. Die modernsten Steinkohle-Kraftwerke haben Wirkungsgrade von 46% und der EPR von Areva 37%. Wenn man den Koppelprozeß mit 1 ansetzt, verhalten sich Kombi-, zu Steinkohle-Kraftwerk und Druckwasserreaktor wie 1,0 : 0,77 : 0,62. Alles keine Zahlen, um ein völlig neues Kraftwerkskonzept zu verkaufen (Sie erinnern sich noch an den Vorspann?).

Sehr interessant in diesem Zusammenhang wäre die Kraft-Wärme-Kopplung: Ein Kernkraftwerk als Heizkraftwerk. Plötzlich hätte man die gleichen Nutzungsgrade, wie aus den Prospekten der Block-Heiz-Kraft-Werk (BHKW) Hersteller und Rot/Grünen-Parteitagen – und das auch noch ohne Abgase und Geräusche. Ja, wenn nur die Strahlenphobie nicht wäre. Wir könnten leben, wie in der Schweiz (KKW Beznau) oder einst an der Unterelbe (KKW Stade).

Kernenergie als Wärmequelle

Mit Leichtwasserreaktoren läßt sich sinnvoll nur Wärme unter 300 °C herstellen. Wärme läßt sich wirtschaftlich immer nur über kurze Strecken transportieren. Andererseits nimmt gerade die Niedertemperaturwärme (Raumheizung, Warmwasser etc.) einen beträchtlichen Anteil in der nördlichen Hemisphäre ein. Man müßte lediglich Kernkraftwerke (vielleicht SMR?) in der Nähe von Metropolen bauen um „Fernwärme“ auszukoppeln.

Sehr hohe Temperaturen braucht man nur in der Industrie (Metalle, Glas etc.) und der Chemie. Diese Anwendungen sind heute eine Domäne von Erdgas und werden es auch bleiben. Hochtemperatur-Reaktoren wurden immer nur als Angebot für das Zeitalter nach dem „Ölzeitalter“ (wann das wohl sein wird?) vorgeschlagen. In Deutschland nannte man das „Kohle und Kernenergie“ und schuf den Thorium-Hochtemperatur-Reaktor (THTR), auch Kugelhaufen-Reaktor genannt. Er hat Austrittstemperaturen von 750 °C erreicht (für die Stromerzeugung mit Trockenkühlturm), sollte aber über 1000 °C für „Kalte Fernwärme“ und Wasserstoffproduktion erreichen.

Weltweit werden mehr als 500 Milliarden Normkubikmeter Wasserstoff produziert. Hauptsächlich aus Erdgas. Größte Verbraucher sind Raffinerien und Chemieanlagen. Folgt man einmal nicht Greenpeace und Putin („Wir brauchen mehr umweltfreundliche Gaskraftwerke“), sondern ersetzt im Gegenteil Erdgaskraftwerke durch Kernkraftwerke, kann man ganz konventionell riesige Wasserstoffmengen zusätzlich produzieren. Dagegen kann nicht mal die „Klima-Schutz-Staffel aus Potsdam“ etwas einwenden, denn bei der Umwandlung von Methan fällt nur Wasserstoff und CO2 an. Das Kohlendioxid kann nach texanisch, norwegischem Muster in den alten Öl- und Gasfeldern entsorgt werden oder nach niederländischem Muster in Tomaten. Der Einstieg in die „Wasserstoffwirtschaft“ kann erfolgen. Bis uns das Erdgas ausgeht, können Hochtemperaturreaktoren warten.

Fazit

Es geht mir hier nicht darum, für die Einstellung von Forschung und Entwicklung auf dem Gebiet der Kerntechnik einzutreten. Ganz im Gegenteil. Es nervt mich nur, wenn ganz schlaue Kernenergiegegner einem im Schafspelz gegenübertreten und einem erzählen wollen, daß sie ja eigentlich gar nicht gegen Kernenergie sind: Wenn, ja wenn, nur die „ungelöste Entsorgungsfrage“ erstmal gelöst ist und es „sichere Reaktoren“ gibt. Man würde ja in letzter Zeit auch immer von ganz „interessanten Konzepten“ lesen. Was spreche denn dagegen, erstmal abzuwarten? Bis dahin könnte man ja Wind und Sonne ausbauen. Die würden ja dadurch auch ständig billiger werden (Ha, ha, ha) und wahrscheinlich bräuchte man dann auch gar keine Kernenergie mehr. Und überhaupt, die „Energieeffizienz“ sei überhaupt die größte Ressource, man vertraue da ganz auf den Erfindergeist der „Deutschen Ingenieure“. Na denn ….