Reduktion langlebiger Spaltprodukte

Aktuell wird wieder einmal in der Fachliteratur die Beseitigung von langlebigen Spaltprodukten diskutiert.

Das Problem

Irgendwann ist jedes Brennelement erschöpft und muß erneuert werden. Die „abgebrannten“ Brennelemente werden von „Atomkraftgegnern“ gern als „Atommüll“ verunglimpft, obwohl sie recycelt werden können. Sie bestehen noch zu rund 96% aus Uran und Plutonium, die erneut als Brennstoff genutzt werden könnten. Sicherheitstechnisch betrachtet, stellt ihre ionisierende Strahlung ein – durchaus unterschiedliches – Problem dar. Es sind daher dauerhafte Abschirmungen in der Form von Wasserbädern, Sicherheitsbehältern etc. notwendig.

Der Faktor Zeit

Je länger die Halbwertszeit ist, um so länger dauert es, bis dieser Stoff verschwunden ist. Wenn man von einer Gefahr durch ionisierende Strahlung ausgeht, ist damit der Zeitraum bestimmt, in dem man den Stoff von der Biosphäre fern halten sollte:

  • Es gibt unterschiedliche Arten ionisierender Strahlung, die auch biologisch unterschiedlich wirken. Strahlung, die z. B. von Uran und Plutonium ausgeht, ist nur dann bedrohlich, wenn sie innerhalb des Körpers frei wird. Nimmt man sie nicht in den Körper auf (Nahrung, Atemluft), sind sie genauso harmlos, wie jedweder anderer Stoff auch.
  • Die Dosis macht’s“. Insofern ist die Konzentration eines radioaktiven Stoffes (z. B. im Trinkwasser) entscheidend.
  • Freigesetzte Stoffe können sich (z. B. über die Nahrungskette) anreichern. Dies gilt naturgemäß besonders für langlebige Stoffe. Insofern sollten sie möglichst gar nicht erst freigesetzt werden.

Der Endlager-Standpunkt

Überzeichnet man die Gefahr, die von radioaktiven Stoffen ausgeht, kommt man zu dem Schluß, man müßte sie quasi „für ewig“ sicher einschließen. Der Begriff des „Endlagers“ ist erschaffen. Ein hervorragender politischer Kampfbegriff, weil wie ein Gummiband dehnbar. Man muß nur die Gefährlichkeit – was auch immer darunter zu verstehen sei – ausdehnen und kommt schnell zu Zeiträumen, die nicht mehr als beherrschbar erklärt werden können. Gipfel dieser Gespensterdebatte ist die Erforschung irgendwelcher Piktogramme, die Außerirdischen oder sonst wie verblödeten Erdbewohnern die Lage eines „Endlagers“ in Millionen von Jahren näher bringen sollen. Interessant ist dabei nur, wie locker man beispielsweise den Fallout aus unzähligen Kernwaffenversuchen nicht gekennzeichnet hat. Wären die Stoffe auch nur annähernd so gefährlich, wie sich Ökoaktivisten gern an den Lagerfeuern im Wendland erzählen, müßte die gesamte Menschheit bereits ausgestorben sein. Aber es geht dabei ja auch weniger um Fakten, als um Gesellschaftsveränderung.

Gleichwohl sollte man mit radioaktiven Abfällen verantwortungsvoll umgehen. Es ist das Verdienst der Kerntechnik, der erste Industriezweig zu sein, der sich von Anfang an um seinen Abfall Gedanken gemacht hat: Wiederaufbereitung und geologische Tiefenlager waren erfunden. Letztere aus einem ethischen Anspruch heraus, den Abfall nicht den folgenden Generationen als Problem und Kosten zu hinterlassen. Immer noch revolutionär, wenn man es mit dem sonst voll akzeptierten Umgang mit Abfällen und Deponien vergleicht.

Die Art der Beseitigung

Wenn man gebrauchte Brennelemente aufarbeitet, können sie weiterhin zur Energiegewinnung verwendet werden: In konventionellen Reaktoren als Mischoxid und in schwerwassermoderierten Reaktoren sogar in ihrer ursprünglichen Zusammensetzung. Bedingung ist die Trennung von Uran und Plutonium von den Spaltprodukten.

Verwendet man diesen aufbereiteten Brennstoff in Reaktoren mit schnellem Neutronenspektrum (meist mit Natrium oder Blei als Kühlmittel), kann man damit sogar die minoren Aktinoide „verbrennen“. Sie bilden sich aus Uran- und Plutoniumkernen, die trotz Neutroneneinfang nicht gespalten worden sind. Sie sind besonders langlebig und müssen zusammen mit Plutonium als Argument für eine „sichere Endlagerung über Millionen von Jahren“ her halten.

Bleiben die Spaltprodukte übrig. Sie sind zumeist recht kurzlebig und strahlen deshalb sehr stark. So stark, daß sie sich aufheizen, deshalb gekühlt und sicher abgeschirmt werden müssen. Ein Problem, das sich nach einigen Jahrhunderten von selbst erledigt hat. Es wäre mit der Lagerung in simplen Bunkern technisch leicht beherrschbar, wenn es nicht einige wenige sehr langlebige Spaltprodukte geben würde. Hier setzt wieder die Ethik ein: Ist es zulässig, solche Stoffe unseren Nachfahren zu vererben? Es handelt sich um recht harmlose Stoffe (lange Halbwertszeiten bedeuten wenige Zerfälle pro Sekunde und damit grundsätzlich geringe Dosisleistungen) in sehr kleinen Mengen. Es geht hier um Halbwertszeiten von einigen Hunderttausend (Se79, Tc99) bis zu einigen Millionen (Zr93, Pd107, I129, Cs135) Jahren.

Man kann Atomkerne nur durch Neutronen in ein anderes Element umformen. Man benötigt also eine (möglichst starke) Neutronenquelle. Dieser Vorgang wird Transmutation genannt. Ein Favorit hierfür sind Spallationsquellen, bei denen Atomkerne beschossen werden und förmlich verdampfen. Sie sind sehr aufwendig, produzieren aber dafür auch große Mengen Neutronen. Grundsätzlich bleibt aber ein Problem: Die Stoffe existieren meist in einem Isotopengemisch. Man will aber eigentlich nur ein bestimmtes (besonders langlebiges) Isotop umwandeln. Alle anderen Kernreaktionen sind parasitär und kosten nur die teueren Neutronen. Ein Schlüssel hierfür, sind die energieabhängigen Einfangquerschnitte.

Beseitigung in schnellen Reaktoren

Reaktoren mit schnellen Neutronen sind hervorragend zur „Verbrennung“ von Plutonium und minoren Aktinoiden geeignet. Darüberhinaus benötigen sie nicht einmal Natururan, sondern geben sich sogar mit abgereichertem Uran als Brennstoff zufrieden. Allerdings sind sie nur schlecht zur Beseitigung der langlebigen Spaltprodukte geeignet. Diese besitzen nur sehr kleine Einfangquerschnitte für schnelle Neutronen. Es gibt aber einige Energiebereiche, in denen sie solche Neutronen begierig aufnehmen. Verzichtet man auf einige bei der Spaltung freigewordenen Neutronen – im statistischen Mittel auf 0,3 Neutronen pro Kernspaltung – kann man sie zur Umwandlung abzweigen. Man muß sie allerdings noch auf die ideale Geschwindigkeit abbremsen.

Damit ergibt sich folgendes Reaktorkonzept:

  • Man baut einen zentralen Kern, in dem die eigentliche Energieproduktion aus Uran und Plutonium durch Spaltung mit schnellen Neutronen stattfindet.
  • In einem „schnellen Brüter“ ist diese Zone von einer Schicht aus abgereichertem Uran umgeben. Die Neutronen, die aus dem Kern rausfliegen und nicht zur Aufrechterhaltung einer Kettenreaktion benötigt wurden, reagieren hier mit dem Uran und bilden zusätzliches Plutonium. Bei einem „Brüter“ ist hier die Produktion von Plutonium größer als gleichzeitig davon im Kern verbraucht wird.
  • Verzichtet man nun auf einen Teil der „Brutrate“, hat man Neutronen für eine Umwandlung von Spaltprodukten zur Verfügung. Man muß diese nur noch – möglichst an Ort und Stelle – auf die „richtige“ Geschwindigkeit abbremsen. Man kann in den „Brutmantel“ eine gewisse Anzahl von Brennstäben einfügen, die mit einem Gemisch aus den zu beseitigenden Spaltprodukten und einem geeigneten Moderator gefüllt sind. Ein solcher Moderator könnte z. B. Yttrium Deuterid (YD2) sein. Er erfüllt die Bedingungen, selbst kaum mit Neutronen zu reagieren und die richtige Masse für die notwendige Abbremsung zu besitzen.

Die notwendige Verfahrenstechnik

Die Wiederaufbereitung wird erheblich komplizierter. Bei dem klassischen PUREX-Verfahren – wie es z. B. in Frankreich angewendet wird – gewinnt man möglichst reines Uran und Plutonium. Alles andere ist Abfall, der verglast und später in einem geologischen Tiefenlager „endgelagert“ wird. Um diesen Abfall weiter zu entschärfen, müßte man in weiteren Schritten die Aktinoide und die langlebigen Spaltprodukte abtrennen. Beides ist sehr aufwendig und man sollte darüber nicht vergessen, daß es sich dabei nur um rund 4% des ursprünglichen Brennstoffs eines Leichtwasserreaktors handelt. Die zusätzliche Volumenverkleinerung ist somit äußerst gering.

Die langlebigen Spaltprodukte müssen nun noch in möglichst reiner Form gewonnen werden, um parasitäre Effekte zu vermeiden. Darüberhinaus muß ein eigener Wiederaufbereitungskreislauf eingerichtet werden, da nicht alle Spaltprodukte in einem Schritt beseitigt werden können. Ein gewaltiger Aufwand für so geringe Mengen. Darüberhinaus macht die ganze Sache nur wirklich Sinn, wenn mehr langlebige Spaltprodukte umgeformt werden, wie bei dem Betrieb dieses Reaktors wieder neu entstehen.

Schlußbemerkung

Der Aufwand für eine Transmutation ist sehr hoch. Gleichwohl erscheint der Erfolg durchaus verlockend. Wie Simulationen für den japanischen Monju-Reaktor zeigen, kann über einen Betrieb von 20 Jahren eine Reduktion der effektiven Halbwertszeit langlebiger Spaltprodukte von über 100.000 Jahren auf rund 100 Jahre erzielt werden.

Trotzdem darf die Frage erlaubt sein, ob der gewaltige (wirtschaftliche) Aufwand den (vermeintlichen) Sicherheitsgewinn aufwiegt. Andererseits wird Menschen mit Strahlenphobie auch dieser Aufwand nicht genügen. Es steht zu befürchten, daß das bekannte Rennen zwischen Hase und Igel der „Atomkraftgegner“ lediglich fortgesetzt wird.

Wie wird eigentlich Strahlung gemessen?

Der Mensch hat keine Sinne für Strahlung, wir sind deshalb auf Meßgeräte angewiesen die uns warnen können.

Verfahren

Es gibt zwei Arten von Instrumenten: Zählende und Dosimeter. Die Zählenden bestimmen die spezifischen atomaren Zerfälle in Bq/kg für Feststoffe, Bq/l für Flüssigkeiten, Bq/m3 für Gase und Bq/m2 für Oberflächen. Die Dosimeter ermitteln die Energie der absorbierten Strahlung in Gray.

Beide Meßgeräte bestehen aus einem Volumen und einer Messwerterfassung, die die durch die Strahlung verursachte Veränderung im Volumen erkennt und in ein Signal umwandelt. Das Volumen muß dabei die Photonen oder Partikel überhaupt erfassen können. Dies setzt ein Mindestvolumen und besonders empfindliche Materialien voraus. Wenn entsprechend viele Teilchen und Photonen das Volumen passieren können ohne eine Reaktion zu verursachen, spricht man von geringer Empfindlichkeit (low efficiency).

Methoden

Man unterscheidet technische Verfahren und biologische Methoden. So kann man z.B die durch Strahlung ausgelöste Veränderung von Chromosomen benutzen, um verabreichte Dosen bei Lebewesen nachträglich zu ermitteln. Technische Verfahren geben idealerweise einen linearen Verlauf zwischen Dosis und Wirkung wieder. Bei den biologischen Verfahren liegt eher ein linear-quadratischer Verlauf (chromosome aberrations) vor.

Filmdosimeter sind sehr verbreitet. Das Maß für die empfangene Strahlung ist die Schwärzung des Films. Die Filme werden lichtdicht in Gehäuse eingeklebt. Durch unterschiedliche Materialien kann man sogar unterschiedliche Strahlungen oder (thermische) Neutronen unterscheiden und durch unterschiedliche Empfindlichkeit die Genauigkeit steigern. Sie sind billig in der Herstellung und wirken integrierend über den gesamten Zeitraum, in dem sie getragen werden. Typische Anwendung ist daher der Arbeitsschutz.

Thermolumineszenzdosimeter (TLD) senden nach Erhitzung einen der Dosis proportionalen Lichtschein aus. Sie sind so stabil, daß sie sogar in der Archäologie zur Altersbestimmung genutzt werden. Gerne werden sie auch in der Strahlentherapie eingesetzt. Für den Arbeitsschutz werden meist Kristalle aus Lithiumfluorid verwendet, da ihre Absorption der von Gewebe sehr ähnlich ist. Die Strahlung verursacht Fehlstellen in der Kristallstruktur. Werden sie auf ca. 200 °C erhitzt, bilden sich die Fehlstellen zurück und es wird dabei Licht ausgesendet. Die Menge ist dabei proportional zur empfangenen Strahlung. Über die Lithium-6 Isotope kann man auch empfangene Neutronen erfassen.

Ionisation, bekanntester Vertreter ist das Geiger-Müller Zählrohr. Ionisierende Strahlung erzeugt positive und negative Ionen. Jeder Zerfall löst einen Impuls aus, der verstärkt und z. B. hörbar gemacht werden kann. Das bekannte „Geknatter“ ist ein typisches Maß für die Strahlung. Der Geiger-Müller Zähler zeigt unmittelbar die momentane Strahlung an. Er ist deshalb ein gutes Hilfsmittel, um vor gefährlichen Bereichen zu warnen. Für die Überwachung ist er jedoch ungeeignet, da er nicht die gesamte Dosis die während der (z.B.) Arbeitszeit aufgenommen wurde, registrieren kann. Er liefert keine Information über die Art der Strahlung oder deren Energie.

Scintillation nutz den physikalischen Effekt, daß manche Stoffe auf Strahlung durch das Aussenden von Licht reagieren. Die Intensität des ausgesendeten Lichts ist mit einem Lichtverstärker (photomultiplier) leicht sichtbar zu machen, wobei die „Helligkeit“ für die Energie der γ-Strahlung steht. In Kliniken verwendet man aus Einkristallen aus Natrium-Jod hergestellte Detektoren mit einem Halben Meter Kantenlänge als „Bildschirme“.

Halbleiter erzeugen beim Auftreffen von Strahlung eine elektrische Spannung. Sie ermitteln die Energie sehr genau, sind jedoch nicht besonders empfindlich. Halbleiter auf der Basis von Germanium werden deshalb meist auf -196°C mit flüssigem Stickstoff gekühlt. Sie werden in Labors zur qualitativen und quantitativen Bestimmung von „Isotopen Cocktails“ verwendet.

Freie Radikale werden durch Strahlung erzeugt. Sie reagieren in Flüssigkeiten sehr schnell, sind aber in Feststoffen erstaunlich stabil. Die Anzahl der erzeugten Radikale ist ein Maß für die empfangene Dosis. Eine Methode mit der man z.B. in Zähnen auch noch nach sehr langer Zeit die empfangene Dosis nachweisen kann.

Redox Produkte. Strahlung reduziert durch Aufnahme von Elektronen bzw. oxidiert durch Verlust von Elektronen Moleküle. Damit können gezielt chemische Reaktionen ausgelöst werden, die zu stabilen chemischen Verbindungen führen können. Diese sind dann ein (dauerhaftes) Maß für die empfangene Dosis.

Die Nachweisgrenze

Ein Klassiker in der kerntechnischen Ausbildung ist die Frage, ob man ein einzelnes Gramm Jod-131 noch nachweisen könnte, wenn man dieses gleichmäßig über die gesamte Erdoberfläche verteilen würde. Jod-131 hat eine Halbwertszeit von 8,04 Tagen. Es zerfällt recht schnell und hat damit eine hohe Aktivität. Es ist ein Leitisotop für Reaktorunfälle, da es gasförmig ist und sich besonders in der Schilddrüse anreichert.

Jod-131 ist ein β-Strahler mit einer maximalen Teilchenenergie von 0,606 MeV und sendet gleichzeitig noch γ-Photonen mit einer Energie von 0,364 MeV aus. Letztere kann man gut mit einem Halbleiterdetektor messen und sie wirkt wie ein „Fingerabdruck“ zur eindeutigen Identifizierung auch in beliebigen Isotopengemischen.

Ein einzelnes Gramm Jod-131 besteht aus 4,6 x 1021 Atomen. Das Gesetz über den radioaktiven Zerfall und seine Halbwertszeit ergeben somit eine Aktivität von 4,59 x 1015 Bq. Die Erdoberfläche beträgt ungefähr 5,1 x 1014 m2. Die sich ergebende Aktivität von rund 10 Bq/m2 ist einfach nachweisbar.

Im Februar geisterte eine Meldung durch die Medien, zahlreiche automatische Überwachungsstationen zwischen Norwegen und Spanien hätten Aktivitäten zwischen 0,1 und 5,9 microBq/m3 in der Luft gemessen. Was war geschehen? Tatsächlich hatte es im Forschungsreaktor Halden in Norwegen einen Unfall beim Hantieren mit einem Brennelement gegeben. Wie dieser Vorfall zeigt, entgeht der Fachwelt nichts: Kein illegaler Kernwaffentest und kein noch so kleiner Unfall in einem Reaktor. Gemessen an den Nachweisgrenzen der Chemie, sind die Messmethoden der Kerntechnik geradezu atemberaubend empfindlich. Hinzu kommt, daß man beliebige Isotopenzusammensetzungen messen kann. Bei einer Probe ergibt sich daraus – auch bei kleinsten Mengen – ein „Fingerabdruck“ des Täters.

Dosismessung

Die Aktivität (in Bq) und die Energie (in eV) sind physikalische Größen, die gemessen werden können. Die Dosis ist hingegen die Energie, die im Medium aufgenommen wird. Wir betrachten meist den Menschen. In diesem Sinne ist die Dosis die vom menschlichen Körper aufgenommene Energie der ionisierenden Strahlung. Sie hängt von zahlreichen (biologischen) Faktoren ab. Es ist schwierig, die Absorption von Strahlung im Gewebe zu beobachten. Wie gesagt, es ist nicht das Problem Teilchen oder Photonen zu messen, sondern es ist schwierig, die Energie, die im menschlichen Gewebe absorbiert wurde zu erfassen:

  • Man kann die Energie von Röntgen oder γ-Strahlung recht einfach in einer mit Gas gefüllten Ionisationskammer (z.B. Geiger-Müller Zählrohr) messen. Die Maßeinheit Röntgen (1R) ist auf Luft bezogen. Wieviel von der Strahlung absorbiert wird, hängt aber von der Elektronendichte ab. So wird z. B. in Knochen (schwere Atome mit vielen Elektronen in ihren Hüllen) sehr viel mehr Energie, als im Gewebe (besteht hauptsächlich aus Wasser) absorbiert. Das erklärt das Bild einer „Röntgenaufnahme“. Die Dosis für Knochen und Gewebe ist deshalb völlig verschieden, auch wenn die Strahlung exakt gleich war.
  • Die Dosis hängt bei menschlichem Gewebe stark von der Eindringtiefe ab. Trägt man die absorbierte Energie über die Wegstrecke auf, ergeben sich konvexe Kurven: Auf den ersten Millimetern ist die absorbierte Energie klein, dann steigt sie steil bis zu einem Maximum an und nimmt dann mit größerer Entfernung wieder ab. Die Dosis ist ortsabhängig. Besonders extrem ist dies bei Teilchenstrahlung. Abhängig von der Art der Ionen, durchdringen diese zig Zentimeter mit sehr geringer Energieabgabe. Wird ein charakteristischer Wert erreicht, wird an diesem Ort (Bragg-peak) fast die gesamte Energie umgesetzt. Die Dosis ist örtlich eng begrenzt sehr hoch.
  • Was im Sinne des Arbeitsschutzes nachteilig ist, ist für die Medizin von großem Vorteil. Man will gezielt die Krebszellen belasten und nicht das umliegende gesunde Gewebe. Kennt man die Kurven für die absorbierten Energien in Abhängigkeit von der Strahlungsenergie, kann man über die gewählte Energie der Strahlung die Wirksamkeit (Dosis) sehr genau steuern. Für Tumore, die z. B. in einer Tiefe von etwa 6 cm im menschlichen Gewebe sitzen, muß man eine Röntgenstrahlung von mindestens 20 MeV wählen um optimale Ergebnisse (Kleine Dosis für das durchdrungene gesunde Gewebe, aber eine hohe Dosis im Tumor) zu erzielen.

Wir Eigenstrahler

Kalium ist überall vorhanden: Im Boden, im Wasser, in Pflanzen, in Tieren und am Ende der Nahrungskette in uns selbst. Kalium entspricht 2,4 Gewichtsprozenten aller Elemente der Erde. Die Häufigkeit des radioaktiven Isotops Ka-40 beträgt 0,0118%. Ka-40 hat eine Halbwertszeit von fast 1,3 Milliarden Jahren. Nur deshalb ist es noch überall auf der Erde vorhanden. Beim Zerfall sendet es β- und γ-Strahlung aus. Mit der Nahrung nehmen wir durchschnittlich 2,5 Gramm Kalium pro Tag auf. Dies ergibt rund 75 Bq Ka-40 pro Tag. Kalium ist in allen Zellen unseres Körpers eingebaut. Die Menge unterscheidet sich nach Geschlecht und Alter. Sie schwankt etwa zwischen 75 Bq pro kg Körpergewicht bei jungen Männern und 40 Bq/kg bei einer älteren Frau. Mit anderen Worten: Ein Fußballstadion, voll mit überwiegend jungen Menschen, ist eine ganz schöne „Atommülldeponie“. Jedenfalls verglichen mit den aus den Medien bekannten Wassertanks in Fukushima.

Eine einfache Abschätzung ergibt folgende Daten: Aus dem Zerfallsschema entnimmt man, daß 89,3 % der beim Zerfall entfallenden Energie auf die β-Teilchen entfallen. Da β-Strahlung nur eine sehr kurze Reichweite hat, verbleiben damit im Mittel 429.200 eV im Körper. Bei der γ-Strahlung sieht es etwas anders aus: Man nimmt an, daß nur 50% im Körper verbleiben, die andere Hälfte aber den Körper verläßt. Damit ergibt sich eine Energie von 78.100 eV. für die γ-Photonen. Somit kann man eine vom Körper absorbierte Energie von ungefähr 510.000 eV unterstellen. Pro Becquerel und kg und Jahr ergibt sich eine Energie von 2,6 μGy. Bei 70 Bq/kg ergibt sich somit eine Belastung von 182 μGy pro kg Körpergewicht jährlich. Diese Abschätzung deckt sich gut mit den von UNSCEAR angegebenen 0,165 – 0,185 mSv per year. Da es sich um die aufgenommene Dosis handelt, kann man auch die Einheit mSv verwenden.

Hinzu kommt noch Kohlenstoff-14. Er wird ständig in der Atmosphäre durch die kosmische Strahlung aus Stickstoff gebildet. Pflanzen lagern diesen Kohlenstoff über die Photosynthese ein. Wir wiederum nehmen dieses C-14 direkt über pflanzliche Nahrung oder indirekt über Fleisch auf. Durchschnittlich tragen wir alle etwa 35 Bq pro kg Körpergewicht in uns. C-14 sendet β-Strahlung mit (im Mittel) einer Energie von 52 keV bei jedem Zerfall aus. Das ergibt eine Strahlenbelastung von weiteren 0.01 mGy bzw. 0.01 mSv pro Jahr, die wir uns – ganz natürlich – selbst zufügen.

Hinzu kommen noch – je nach Bodenverhältnissen – die kompletten Zerfallsreihen von Uran und Thorium. Je nach Ernährungsgewohnheiten, Geschlecht und Lebensalter ergeben sich unterschiedliche Mengen die wir vornehmlich in unseren Knochen einlagern. Man setzt nach umfangreichen Analysen und Berechnungen als durchschnittliche Belastung hierfür eine effektive jährliche Dosis von 0,12 mSv an.

Somit setzt man eine durchschnittliche effektive Dosis für diese drei Wege von 310 μSv an. Wichtig dabei ist, nie den langen Weg vom Isotop bis zur Strahlenbelastung des Menschen zu vergessen. Die Energien beim Zerfall eines radioaktiven Elements sind leicht zu messen. Wieviel von diesem Stoff in den Körper gelangt, wie lange es dort verbleibt und wo und wie genau es im Körper wirkt, ist von unzähligen Einflüssen abhängig. Jede Angabe von irgendwelchen μSv (d h. dem millionsten Teil eines Sv) ist daher mindestens mit Gelassenheit zu betrachten.

Gray, Sievert und was sonst noch?

In den Medien wird im Zusammenhang mit Radioaktivität mit Zahlenwerten nur so um sich geschmissen. Kaum einer versteht die Aussagen, aber alle reden davon.

Vorbemerkung

Eine Maßeinheit bezieht sich stets auf einen genau definierten Zustand: So ist das [kg] die Einheit für die Masse und das [N] bzw. früher das [kp] eine Einheit für eine Kraft. Im Alltag kann man zwar oft beide Einheiten gleich setzen, es kann aber auch zu schwerwiegenden Fehleinschätzungen dadurch kommen. Kraft und Masse sind halt nur im unbewegten Zustand gleichwertig. Dies ist Allgemeinwissen, aber im Zusammenhang mit Strahlung und Radioaktivität werden fröhlich alle Einheiten miteinander vermischt. Leider nicht nur in Massenmedien.

Die Öffentlichkeit interessiert sich meist nur für die biologische Wirkung: Ab wann ist ionisierende Strahlung gefährlich, ab wann bekomme ich Krebs, sind nachfolgende Generationen gefährdet? Alles Fragen der Biologie – oder noch genauer gesagt – der Medizin und schon wird es schwierig. Der Mensch ist halt keine Maschine und läßt sich deshalb nur sehr schlecht vermessen. Aus den physikalischen Meßwerten über Strahlung lassen sich bestenfalls Erwartungswerte für Krankheiten ableiten. Aus einem Unverständnis wird schnell eine Strahlenphobie. Dies betrifft nicht nur die Kernenergie. Röntgenärzte und Nuklearmediziner können ein Lied davon singen. Besonders heikel sind Patienten, die durch Jahrzehnte grüner Indoktrination notwendige Diagnosen und Therapien verweigern.

Am Anfang steht der Zerfall

Der überwiegende Teil der in der Natur vorkommenden Isotope befindet sich in einem angeregten Zustand. Dieser Zustand läßt sich nicht unbegrenzt aufrecht erhalten, das Atom zerfällt und wandelt sich dabei in ein neues Element um. Dies kann mehrfach geschehen (sog. Zerfallsketten oder Mutter-Tochter Beziehungen), bis ein stabiler Zustand erreicht ist. Wir kennen mehr als 3400 radioaktive Isotope, von denen etwa 900 Halbwertszeiten von mehr als einer Stunde haben. Schon sind wir bei zwei grundlegenden Maßeinheiten angekommen: Der Aktivität mit der Maßeinheit Becquerel Bq und der Lebensdauer mit der Halbwertszeit. Wenn ein Atomkern pro Sekunde zerfällt, bedeutet das eine Aktivität von 1Bq. Nicht mehr, aber auch nicht weniger. Es ist noch nichts über die Art der freigesetzten Strahlung ausgesagt oder über deren Energie und damit auch nichts über die biologische Wirksamkeit.

Das Becquerel [Bq] ist eine reine Stückzahl, die ohne die Angabe des Stoffes (z. B. Cäsium oder Jod) und des Ortes des Zerfalls (z. B. im Körper oder außerhalb) keine Aussage über irgendeine Gefährdung zuläßt.

An dieser Stelle ist auch besonders hervorzuheben, daß wir von zerfallenen Atomen pro Sekunde sprechen. Atome sind aber sehr klein, weswegen man zu gewaltig großen Zahlen kommt. Bis 1985 war deshalb die Einheit Curie [Ci] für die Aktivität gebräuchlich. Sie war von einem Gramm Radium-226 abgeleitet und entsprach 37 000 000 000 Zerfällen pro Sekunde. Schon an dieser Stelle wird deutlich, wie überzogen der japanische Grenzwert von 100 Bq/kg für Fisch nach dem Reaktorunglück von Fukushima war. Man hätte auch gleich sagen können, der Fisch enthält praktisch kein Cäsium (1 gr Cs-137 hat eine Aktivität von 3 215 000 000 000 Bq).

Geläufig – wir haben aus Erfahrung ein Gefühl dafür – sind uns die Einheiten kg oder Gramm. Heutige Waagen können (mit erheblichem Aufwand) noch Millionstel Gramm messen. Die Empfindlichkeit bei der Messung von Radioaktivität ist (recht einfach) noch um eine weitere Million empfindlicher. Radioaktive Quellen mit 10 bis 100 Bq sind schnell und einfach meßbar, obwohl es sich dabei um Stoffmengen von um die 0,000 000 000 000 01 Gramm handelt. Für die Angstindustrie ist das natürlich völlig unbrauchbar. Solche kleinen Mengen ergeben einfach keine Horrormeldung.

Die Strahlungsarten

Unter ionisierender Strahlung versteht man elektromagnetische Wellen sehr hoher Frequenz bzw. Teilchenstrahlung. Normalerweise enthalten Atome genau so viele Protonen (positive Ladung) im Kern, wie Elektronen (negative Ladung) in ihrer Hülle und sind somit elektrisch neutral.

Die technische Nutzung von ionisierender Strahlung begann 1895 mit der Entdeckung der Röntgenstrahlung.

Bei der Strahlung infolge des radioaktiven Zerfalls unterscheidet man im wesentlichen zwischen α- (Heliumkerne), β- (Elektronen) und γ-Strahlen. Die beiden Teilchenstrahlen sind elektrisch positiv bzw. negativ geladen. Insbesondere für die biologische Wirkung ist deren Eindringtiefe maßgebend. Die Heliumkerne der α-Strahlung können in Luft maximal 10 cm zurücklegen und in Wasser (menschliches Gewebe besteht hauptsächlich aus Wasser) wenig mehr als 0,1 mm. Das bedeutet für den Strahlenschutz, daß bereits normale Kleidung zur Abschirmung ausreicht. Umgekehrt gilt aber auch, daß innerhalb des Körpers die gesamte Energie auf kürzester Entfernung freigesetzt wird und lokal einen großen Schaden anrichten kann. Für die β-Strahlung gilt ähnliches. Auch für sie reicht normale Kleidung als Schutz aus.

Die Aufnahme radioaktiver Stoffe in den Körper (Essen, Trinken und Atemluft) ist möglichst zu vermeiden.

Bei der γ-Strahlung verhält sich die Sache etwas anders. Sie durchdringt mühelos den menschlichen Körper. Nur deswegen kann z. B. eine Kontamination im Körper von außen gemessen werden. Für γ-Strahlen verwendet man den Begriff der Halben-Weglänge: Das ist die Materialstärke, bei der die Strahlung nach der Schicht genau halb so groß ist, wie vor der Schicht. Diese halbe Weglänge ist vom Material und der Energie der Strahlung abhängig. Die Abschwächung verläuft exponentiell. Mit anderen Worten: Die Strahlung schwächt sich über den Weg sehr schnell ab, ist aber auch nach dicken Schichten immer noch nachweisbar. Für eine Energie von 0,662 MeV (γ-Strahlung von Cs-137) beträgt die Halbe-Weglänge in Wasser etwa 9 cm. Somit ist nach rund einem halben Meter (entsprechend fünf Halben-Weglängen) die Strahlung um 97% abgeklungen. Dies erklärt, warum das Wasser in einem Brennelementebecken so eine wirksame Abschirmung darstellt. Hat man wenig Platz, verwendet man Blei mit seiner hohen Dichte zur Abschirmung.

Die Energie der Strahlung

Neben der Art der Strahlung ist ihre Energie maßgeblich für die biologische Wirkung. Die Einheit für die Energie ist das Elektronenvolt [eV]. Sie ergibt sich aus der Beschleunigung eines Elektrons in einem Spannungsfeld von einem Volt. Um eine radioaktive Quelle in ihrer biologischen Wirkung zu beurteilen, braucht man folgende physikalischen Parameter:

Die Aktivität, gemessen in Zerfällen pro Sekunde [Bq] und die Halbwertszeit, die Art der ausgesendeten Strahlung (α-, β-, γ-Strahlung) und deren Energien.

Anschaulich werden diese Daten in einem sogenannten Zerfallsschema für jedes Isotop dargestellt. Dabei werden in einer Karte die Energien über den Ordnungszahlen aufgetragen. In der Praxis hat man es immer mit Gemischen von Isotopen zu tun. Dies ergibt sich schon aus den meist vorhandenen Zerfallsketten. Beispielsweise verläuft der Zerfall von Uran-238 in 14 Schritten bis zum stabilen Blei-206.

Wie die Strahlung absorbiert wird

Wenn Röntgenstrahlung oder die Strahlung aus dem radioaktiven Zerfall auf Atome und Moleküle trifft, entstehen Ionen oder angeregte Moleküle. Die Strahlung verliert dabei Energie. Für die biologische Wirkung ist nicht nur die Art und deren Energie der Strahlung von Bedeutung, sondern auch die „Materie“ des Lebewesens. Ein bekanntes Beispiel hierfür ist eine Röntgenaufnahme: Man erkennt ein Skelett. Die Strahlung ist stark genug (von hoher Energie), um den menschlichen Körper zu durchdringen, sonst wäre gar keine Aufnahme möglich. Die Absorption im Körper ist aber unterschiedlich: Es entsteht ein Schattenbild der Knochen (hohe Absorption wegen hoher Dichte) vor einem hellen Hintergrund (wenig Absorption im Gewebe, weshalb viel Strahlung durchkommt).

Auf ihrem Weg durch Materie reagiert die Strahlung mit den Atomen und Molekülen. In Bezug auf die biologische Wirkung ergeben sich sehr komplexe Zusammenhänge, die letztendlich auch noch über chemische Reaktionen Wirkung zeigen können. Stellvertretend soll hier nur die α-Strahlung etwas näher behandelt werden. Wenn ein Heliumkern – nichts anderes ist α-Strahlung – mit bis zu 11 MeV durch Gewebe schießt, kann er die Atome auf die er trifft ionisieren. Diese können dann selbst wieder Strahlung aussenden. Auf seinem Weg verliert er Energie, die er an die Atome abgegeben hat. Um die Sache noch komplizierter zu machen, geschieht das solange, bis er eine bestimmte Geschwindigkeit unterschreitet. An diesem Punkt angekommen, überträgt er seine gesamte Restenergie auf einen Schlag (Bragg peak). Dies macht man sich z. B. bei der Krebstherapie nutzbar. Man kann quasi gesundes Gewebe mit Ionen durchschießen, ohne großen Schaden anzurichten und setzt erst in der Krebszelle die vernichtende Energie frei.

Die Gamma-Strahlung

Sie ist von zentraler Bedeutung in der Kerntechnik, da sie sich recht einfach messen läßt, den menschlichen Körper auf jeden Fall durchdringt (sonst könnte man eine Inkorporation gar nicht feststellen) und sich nur aufwendig abschirmen läßt.

Die γ-Photonen besitzen Energien von 0,1 bis 3 MeV. Wichtig dabei ist, daß jedes Isotop γ-Photonen mit einer charakteristischen Energie bei seinem Zerfall aussendet. Mißt man die Energiespektren, erhält man die „Fingerabdrücke“ der enthaltenen Isotope. Dies ist Voraussetzung, um die biologische Wirkung und damit die Gefährdung überhaupt ermitteln zu können.

Die γ-Strahlung selbst, wirkt durch drei Effekte: Das γ-Photon überträgt seine Energie auf ein Elektron und ist damit verschwunden (Photoelektrischer Effekt), das γ-Photon schießt ein Elektron aus der Atomhülle und bewegt sich danach mit geringerer Energie in einer anderen Richtung weiter (Compton Effekt) oder es bilden sich zwei neue Teilchen: Elektron und Positron (Paarbildung). Der Photoelektrische Effekt tritt ein, wenn das γ-Photon nur eine eine geringe Energie hat. Dies ist mit maximal 100 keV der bevorzugte Bereich in der Diagnostik. Die Durchdringung dieser „weichen γ-Strahlung“ ist sehr von der Dichte (Knochen oder Kontrastmittel) abhängig. Erst oberhalb einer Energie von 100 keV kann der Compton-Effekt auftreten. Er hat durch die Bildung von Ionen auf jeden Fall eine biologische Wirkung. Für eine Paarbildung muß die Energie den Schwellwert von 1,02 MeV überschreiten.

Die Halbwertszeiten

Gängig ist die Physikalische-Halbwertszeit. Sie beträgt z. B. für Cäsium-137 etwa 30 Jahre. Das bedeutet, nach jeweils 30 Jahren ist nur noch die Hälfte des Startwertes vorhanden. Nach 60 Jahren noch 25%, nach 90 Jahren noch 12,5% usw. Cs-137 ist eine Leitsubstanz bei Reaktorunfällen wie in Tschernobyl und Fukushima. Es ist in relativ großen Mengen – ca. 6% der Kernspaltungen – entstanden, bis zum nächsten Brennelementewechsel entsprechend angesammelt worden und gasförmig und gut wasserlöslich. Es kann sich daher weiträumig ausbreiten und auch in großen Entfernungen punktförmig ausregnen.

Es gibt aber noch eine Biologische Halbwertszeit für jeden Stoff. Jedes Lebewesen nimmt zwar Stoffe mit der Nahrung aus der Umwelt auf, scheidet sie aber auch unterschiedlich schnell wieder aus. Wir trinken Wasser (eventuell tritiumhaltig), aber scheiden auch wieder große Mengen durch Schwitzen, Atmung und Ausscheidung aus. Wenn man keine neuen radioaktiven Stoffe aufnimmt, tritt schnell eine Verdünnung im Körper ein. Beim Menschen beträgt die biologische Halbwertszeit für Cs rund 70 Tage. Sie kann durch Medikamente noch weiter auf etwa 30 Tage gesenkt werden. Bei Schafen beträgt sie etwa zwei bis drei Wochen. Man hat nach Tschernobyl Schafe in Schottland vier Wochen vor der Schlachtung mit „sauberem Futter “ aus anderen Regionen gefüttert und so die Belastung im Fleisch auf unter 25% abgesenkt.

Aus der Summe (der Kehrwerte) der biologischen und physikalischen Halbwertszeiten wird die Effektive-Halbwertszeit gebildet. Zu allem Überdruss gibt es auch noch eine Ökologische-Halbwertszeit. Nach dem Reaktorunglück in Tschernobyl im April 1986 sind in Teilen von Norwegen durch Regenfälle 130 000 Bq pro Quadratmeter runter gegangen. Bis zum August stieg deshalb in einigen Seen die Belastung bei Forellen auf 7200 Bq/kg an. Sie wird seitdem kontinuierlich überwacht. Im Jahr 2008 war sie bereits wieder auf 150 Bq/kg abgesunken. In den ersten Jahren betrug die Ökologische-Halbwertszeit rund 3,6 Jahre. Sie ist seitdem angestiegen und hat sich inzwischen der physikalischen Halbwertszeit angenähert. So viel zum Thema Rückbesiedelung in den Sperrzonen. Natürlich bleiben die radioaktiven Stoffe nicht einfach liegen und warten auf ihren Zerfall, sondern werden ausgewaschen, dringen in tiefere Bodenschichten ein oder reagieren chemisch zu Verbindungen, die nicht mehr so einfach in die Nahrungskette aufgenommen werden. Andererseits können sie auch wieder aus diesen Depots freigesetzt werden. In einem See oder einer Wiese bildet sich ein Gleichgewichtszustand aus. Selbstverständlich ist Landwirtschaft in den „verseuchten Gebieten“ möglich. Man muß es nur richtig machen. Das Märchen von Für-Jahrtausende-Unbewohnbar ist einfach nur schlecht gemachte Propaganda.

Die Strahlungsdosis

Bisher haben wir uns nur mit der Aktivität in einem Feststoff [Bq/kg], einer Flüssigkeit [Bq/l] oder auch einer Fläche [Bq/m2] beschäftigt. Wie schon weiter oben erklärt, sagt das ohne weitere Kenntnis über die Isotopen und den Ort noch nichts aus. Für den Übergang auf die (biologische) Wirkung ist entscheidend, wieviel der ausgesendeten Energie auch vom Empfänger aufgenommen wird. Diese kann man einfach und direkt messen. Es handelt sich – bisher immer noch – um reine Physik. Die biologische Wirkung kommt später.

Heute verwendet man für die Dosis die Einheit Gray [1 Gy]. Sie ist aus dem SI-Einheitensystem abgeleitet und entspricht der sehr kleinen Energie von einem Joule pro Kilogramm [1J/kg] absorbierter Energie. Wenn man bedenkt, daß zur Erhöhung der Temperatur von einem Kilogramm Wasser um ein Grad, etwa 4200 Joule notwendig sind, wird auch diese Definition wieder zu großen Zahlen führen. Der nächste Scheinriese, der der Angstindustrie hilft.

1953 wurde die Einheit [rad] festgelegt. Sie beruhte noch auf dem damals gebräuchlichen Einheitensystem und wurde zu 100 [erg] pro Gramm festgelegt. Sie ist einfach – und genau – in die moderne Einheit [1 Gy] durch den Faktor 100 umzurechnen: 1 Gy entspricht 100 rad.

Eine Sonderstellung nimmt das Röntgen ein. Es ist über die Bildung von Ladungen in trockener Luft definiert. Ein Röntgen [1R] entspricht etwa 2,54 x 10-4. Coulomb pro kg in Luft erzeugter Ionen. Eine sehr unhandliche Einheit für den Strahlenschutz. Als Anhaltswert kann man sagen, daß ein Röntgen ungefähr 9,3 Milligray [mGy] in menschlichem Gewebe entspricht.

Relative biologische Wirksamkeit unterschiedlicher Strahlung (RBE)

Ab jetzt verlassen wir den sicheren Boden der Physik: Es wird biologisch – man könnte fast sagen, politisch. Es ist unbestritten, daß verschiedene Strahlungsformen auch bei gleicher Energie unterschiedliche biologische Wirkung zeigen. Ein Hauptgrund ist die (heute) beobachtbare Wirkung beim Beschuß von Zellen. Die α-Strahlung hinterläßt einen regelrechten Schußkanal in der Zelle, während die β- und γ-Strahlung eine eher räumlich gleich verteilte Wirkung zeigt. Man kann dieses Problem lösen, indem man für jede Strahlungsform einen Gewichtungsfaktor einführt.

Für die Endstufe von Strahlenschäden, den Zelltod, kann man einfache und reproduzierbare Versuche durchführen. Man bestrahlt eine Zellkultur mit Strahlung von bekannter Energie. Die lebenden Zellen werden vor und nach der Bestrahlung gezählt. Jeder Versuch wird in ein Diagramm mit der Dosis als Abszisse und dem Prozentsatz der überlebenden Zellen als Ordinate eingetragen. Jede Strahlungsart ergibt eine eigene charakteristische Kurve. Für jeden Wert der Ordinate (überlebende Zellen) ergeben sich nun mehrere verschiedene Werte auf der Abszisse (Dosis). Mit anderen Worten: Diese Wirkung der Strahlung (Zelltod) bei gleicher Dosis nimmt mit der Schwere der Ionen zu. Es werden nun RBE-Werte (Relative Biological Effectiveness) als Gewichtungsfaktoren bestimmt. Bezugsgröße ist die Kurve für Röntgenstrahlung.

Für das Verständnis ist wichtig, daß es sich bei den oben beschriebenen Versuchen zum Zelltod um einfach zu reproduzierende Experimente handelt. Eine tote Zelle ist einfach von einer lebenden Zelle zu unterscheiden. Wie sieht es aber mit (angeblichen) Erbschäden und mit Krebs aus? Krebs kann bis zum Ausbruch Jahrzehnte dauern, für Erbschäden müßten gar zig Generationen beobachtet werden. Experimente wären nicht reproduzierbar, weil die Umwelteinflüsse über so lange Zeiträume gar nicht konstant sein können.

Äquivalentdosis

Damit alle denkbaren Effekte erfaßt werden, hat man sich im International Committee on Radiation Protection (ICRP) auf eine Äquivalentdosis mit der Einheit [rem] bzw. Sievert [Sv] geeinigt. Sie wird aus der physikalischen Dosis – gemessen in Gray [Gy] – durch Multiplikation mit dimensionslosen Gewichtungsfaktoren werzeugt. Genau daraus ergibt sich die Gefahr der Verwechslung und Fehlinterpretation:

Die Äquivalentdosis – angegeben in Sievert [Sv ]– ist keine physikalische Größe und kann auch nicht gemessen werden, sondern ist eine rein rechnerische Größe. Sie wird aus der meßbaren Dosis mit ihrer Einheit Gray [Gy] über (politisch) festgelegte Gewichtungsfaktoren wR gebildet. Diese Gewichtungsfaktoren sollen die komplexen biologischen Verhältnisse des Menschen widerspiegeln. Es handelt sich lediglich um „Modellvereinfachungen“, wie sie auch aus anderen Bereichen bekannt sind. Sievert ist ungeeignet, die biologische Wirkung bei anderen Lebewesen zu beschreiben oder umgekehrt. Sie beruht auf der fragwürdigen LNT-Hypothese (kein Schwellwert, linearer Verlauf). Deshalb sind gerade kleine Werte mit großer Skepsis zu betrachten.

Lediglich bei einer reinen γ-Strahlung wäre eine Gleichsetzung von Sv mit Gy möglich, da hier der Gewichtungsfaktor 1 beträgt. Man sollte dies aber tunlichst vermeiden, da in der Praxis immer Isotopengemische mit allen möglichen Strahlungsarten auftreten. Wenn man z. B. wie Tepco, Strahlungswerte im Sicherheitsbehälter von Fukushima in Sievert angibt, ist das etwas irreführend. Man hat natürlich nur die γ-Strahlung in Gray gemessen. Die sicherlich vorhandene α-Strahlung (Gewichtungsfaktor 20) oder gar die vorhandenen Neutronen (energieabhängiger Gewichtungsfaktor 5 bis 20) sind mit Sicherheit nicht mit ihrem Äquivalent korrigiert worden.

Effektive Dosis

In manchen Fällen werden nur einzelne Organe des menschlichen Körpers belastet. Klassiker ist die Belastung der Lunge und Bronchien durch Radon und seine Zerfallsprodukte. Verschiedene Organe und Gewebe haben eine unterschiedliche Empfindlichkeit bezüglich sog. „Verzögerter Effekte“. Krebs ist ein solcher Effekt, der oft viele Jahre braucht, bis er nachweisbar ist. Um dafür das Risiko vergleichbar zu machen, wird eine Effektive Dosis gebildet.

Wenn in einem bestimmten Teil des menschlichen Körpers eine Dosis wirkt, ergibt sich das Risiko einer bestimmten Wirkung (z. B. Lungenkrebs). Wirkt die gleiche Dosis auf ein anderes Körperteil, ergibt sich ein anderes Risiko. Für jedes Organ – oder besser gesagt Gewebetyp – ergibt sich nun ein Gewichtungsfaktor wT. Daraus ergibt sich schließlich die Effektive Dosis, meist kurz als Dosis bezeichnet.

Die in Gy gemessene Energie einer Strahlung die vom Gewebe aufgenommen wird, wird gemäß ihres Typs (z. B. γ- oder α-Strahlung) in eine äquivalente Strahlung mit der Einheit Sv umgerechnet. Die Äquivalentdosis darf nur die Einheit Sv tragen, da sie eine fiktive Größe ist, die die unterschiedliche biologische Wirkung der Strahlungsarten berücksichtigen soll. Nur im Sonderfall (beispielsweise reiner γ-Strahlung) sind die Zahlenwerte von Gy und Sv gleich setzbar, da sie beide – per Definition – den gleichen Gewichtungsfaktor 1 haben. Trotzdem handelt es sich bei der Einheit Gy [J/kg] um eine physikalische Größe und bei der Einheit Sv um eine fiktive Einheit, die biologische Wirkungen beim Menschen charakterisieren soll. Die Effektivdosis erhält man erst, wenn man für jedes belastete Organ eine weitere Gewichtung vornimmt. Unterstellt man weiterhin einen linearen Verlauf, ohne Schwellwert (LNT) der Dosis-Wirkungsbeziehung, kann man diese Einzelwerte einfach addieren und erhält daraus die Ganzköperdosis, die in der Öffentlichkeit gern als die Dosis bezeichnet wird.

Das ICRP hat dafür ein Modell eines Menschen erschaffen, das aus 14 Organen bzw. Gewebetypen und einem „Rest“ besteht. Der „Rest“ dient zur Unterscheidung von Mann und Frau mit Prostata bzw. Gebärmutter. Die Summe aller 15 Gewichtungsfaktoren wT ergibt 100%.

Die Kollektivdosis

Die Kollektivdosis ist die Summe aller individuellen Dosen in einer Gruppe. Meist wird sie als Produkt einer mittleren Dosis und der Anzahl der Personen gebildet. Ihre Einheit ist das Person Sievert [person-Sv] oder Man-Sievert [man-Sv] bzw. in älteren Veröffentlichungen das Man-Rem [man-rem].

Die Kollektivdosis ergibt in Verbindung mit der LNT-Hypothese absurde Ergebnisse. So sollte z. B. das Reaktorunglück von Tschernobyl über 14000 Tote verursachen. Nichts, aber auch rein gar nichts, konnte bis heute – mehr als 30 Jahre später – davon nachgewiesen werden. Genauso wenig, wie die prognostizierten Spätfolgen von Hiroshima und Nagasaki. Das hielt aber die einschlägigen Propagandaabteilungen der Angstindustrie nicht davon ab, ähnlich blödsinnige Vorhersagen für das Reaktorunglück in Fukushima zu treffen.

Zumindest in den letzten 20 Jahren konnte die Forschung zahlreiche Reperaturmechanismen für die DNA nachweisen, den programmierten Zelltod (Apoptose) erklären und die positive Wirkung kleiner Dosen (adaptive response) als Fortschritt in der Strahlentherapie anwenden.

Nachbemerkung

Ein Schelm, wer bei „Menschenmodellen“ an „Klimamodelle“ denkt, bei Sv an „menschengemachtes CO2“ und bei „Reaktorkatastrophen“ an „Erderwärmung“ – auf zehntel Grad genau berechnet, versteht sich.

Allerdings sind Ähnlichkeiten zwischen dem International Committee on Radiation Protection (ICRP) und dem Intergovernmental Panel on Climate Change (IPCC) alles andere als zufällig: Beide Organisationen halten regelmäßig Kongresse mit wunderbaren Dienstreisen ab. Bei beiden sind in Öffentlichkeitsarbeit geschulte Funktionäre tonangebend. Hinter beiden steht eine milliardenschwere Industrie, die gut auf Kosten der Allgemeinheit lebt.

Allerdings glaube ich immer noch an die Kraft der Aufklärung. Mag es auch lange dauern. Die katholische Kirche brauchte immerhin bis 1992, bis sie in der Lage war Galileo Galilei zu rehabilitieren. Möge es Gott geben, daß der Ökosozialismus gar nicht so alt wird. Es wäre schön, wenn dieser Artikel einen kleinen Beitrag dazu leisten könnte. Steter Tropfen höhlt den Stein.

Braucht das Leben Strahlung?

Die Erkenntnisse über die Wirkung niedriger Strahlungsdosen schreiten immer weiter voran. Die radikalste Fragestellung dabei ist die Frage nach dem Verhalten von Zellen bei Abwesenheit von ionisierender Strahlung. Die Ergebnisse sind verblüffend – aber der Reihe nach…

Das LNT-Modell

In den 1950er-Jahren einigte man sich weltweit auf einen linearen Zusammenhang, ohne einen Schwellwert (linear no-threshold model; LNT), für den Strahlenschutz. Es ist simpel und damit leicht anwendbar: Man unterstellte, daß die biologischen Schäden (gemeint ist Krebs), die durch ionisierende Strahlung (umgangssprachlich durch Radioaktivität) ausgelöst werden, direkt proportional zur Dosis sind: Die mathematische Funktion ist eine einfache Gerade mit der Steigung 0,05/Sv. Etwas anschaulicher ausgedrückt, wenn man 100 Menschen einer Dosis von 1 SV (Sievert) aussetzt, erkranken davon fünf Menschen (zusätzlich) an Krebs. Mehr steckt nicht dahinter und damit fangen schon die Schwierigkeiten an.

Wie ist man zu dieser einfachen Zahl gekommen? Hauptsächlich durch die Auswertung der Opfer der Bomben auf Hiroshima und Nagasaki. Man hat zehntausende Menschen über Jahre beobachtet und ihre Erkrankungen dokumentiert. Das war der einfache Teil der Aufgabe. Wesentlich schwieriger war schon die Ermittlung der individuellen Strahlendosis, da diese Menschen natürlich keine Meßgeräte getragen haben. Hinzu kamen noch jeweils verschiedene Lebensumstände, Vorerkrankungen etc. Wenn man nun jeden einzelnen Fall in einem Diagramm (Krebserkrankungen über Dosis) aufträgt, kann man streng genommen keinen Punkt eintragen, sondern muß eher einen Klecks verwenden: Weder ist die genaue Dosis zu ermitteln, noch sind die Krebsarten alle gleich, noch kann man sonstige Belastungen (z. B. krebserregende Chemikalien, Umwelteinflüsse, genetische Prägungen etc.) genau erfassen.

In solchen Fällen helfen nur die Methoden der Statistik. Vereinfachend gesagt braucht man eine Wolke aus möglichst vielen Fällen, die möglichst eng zusammenliegen. Sieht das sich ergebende Band nach einer Geraden aus, kann man in guter Näherung eine solche hindurch legen und deren Steigung bestimmen.

Hier ergibt sich aber das Problem, welches seit über 80 Jahren zu heftigsten Diskussionen auch in der Fachwelt führt: Im unteren Teil (kleine Dosen und damit eine geringe Anzahl von Krebsfällen) gibt es kaum Punkte und die streuen auch noch sehr stark. Es ist damit äußerst fragwürdig, den gesamten Bereich – von keiner meßbaren Wirkung, bis zum garantiert kurzfristig eintretendem Strahlentod – durch ein und dieselbe Gerade nachbilden zu wollen. Schon die geringe zusätzliche Anzahl von den ohnehin auftretenden Krebsfällen trennen zu wollen, ist eine schier unlösbare Aufgabe. Hier rächt sich die Statistik: Sie arbeitet stets nur mit Wahrscheinlichkeiten. In dem vorherigen Zahlenbeispiel kann man weder voraussagen, welche fünf Personen von den betrachteten 100 Personen Krebs bekommen, noch ob es exakt fünf Fälle sind. Lediglich, wenn man sehr, sehr viele Menschen mit einem Sievert bestrahlen würde, würde sich die Anzahl der zusätzlichen Krebsfälle (bei diesem Modell!) der Zahl von fünf Prozent annähern.

Schwellwert oder nicht?

Man bezeichnet einen Wert als Schwellwert, wenn sich der Zusammenhang bei einem Modell wesentlich ändert. Für einen Ingenieur ist es nichts ungewöhnliches, Messreihen z. B. abschnittsweise durch unterschiedliche Geraden anzunähern.

Im Arbeitsschutz ist es üblich, für Giftstoffe Schwellwerte zu definieren. Üblicherweise sind dies Dosen, bei denen man auch über ein ganzes Arbeitsleben keine Schädigung feststellen kann. Dahinter steckt eine Alltagserfahrung: Nicht jeder Umgang mit einem Stoff führt sogleich zu einem Schaden. Andrerseits führt ein zu viel – bei jedem Stoff – irgendwann, zu irgendwelchen Schäden.

Bis zur Politisierung der Strahlung durch die „Atombomben“, ist man auch mit ionisierender Strahlung sehr erfolgreich so pragmatisch umgegangen. Man hatte schon wenige Jahre nach der segensreichen Erfindung der Röntgenstrahlung festgestellt, daß diese zu Erkrankungen bei dem medizinischen Personal führen konnte. Man analysierte die Fälle und definierte einen (zulässigen) Schwellwert für den Arbeitsschutz.

Energie und Leistung

Schon jedem Schüler sollte der Zusammenhang von Energie und Leistung vertraut sein. Es macht einen gewaltigen Unterschied, ob ich eine Leistung (W oder J/s) für Bruchteile einer Sekunde aufbringe oder über Stunden verteilt. Eindrucksvolles Beispiel hierfür, ist ein Laser-Strahl: Eine relativ geringe Energie reicht aus, um zwei Stahlplatten miteinander zu verschweißen. Der „Trick“ ist, die Energie in einem sehr kurzzeitigen Blitz zu senden. Über Stunden angewendet, würde sie den Stahl nicht einmal zum glühen bringen.

Warum glaubte man nun, diese Erfahrungstatsachen bei der ionisierenden Strahlung außer Kraft setzen zu können? Es war schlicht ein unvollständiges und damit leider falsches Verständnis der biologischen Zusammenhänge. Man hatte erkannt, daß bei der Zellteilung die DNA kopiert und damit die Erbinformationen weitergegeben würden. Man wußte, daß bereits ein Partikel einen DNA-Strang zerschlagen konnte. Man glaubte, wenn nun der Fehler beim kopieren an die Tochterzelle weitergegeben würde, müßten die Fehler irgendwann so häufig sein, daß eine „Krebszelle“ entstanden wäre. Eine übervorsichtige oder abstruse Vorstellung – ganz nach Standpunkt des Betrachters. Der gesunde Menschenverstand sagt einem schon, daß es einen gewaltigen Unterschied macht, ob man täglich nur einen Schnaps trinkt oder gleich die Flasche „auf ex“ leert. Die ganze Pharmakologie müßte neu geschrieben werden, wenn es keinen Unterschied machte, ob man seine Tabletten nach Anwendungsvorschrift einnimmt oder gleich die ganze Schachtel auf einmal in der Apotheke schluckt. Ausgerechnet bei der ionisierenden Strahlung sollte der seit Jahrhunderten bekannte Grundsatz: Die Dosis macht das Gift, nicht gelten.

Die Kollektivdosis ist schlichtweg Unsinn. Nach dem Motto, wenn wir einer Million Menschen je einen Aspirin geben, haben wir X Tote, weil wir ja wissen und nachweisen können, daß die Einnahme von y Schachteln Aspirin zum Tode führt. Ganz im Gegenteil nehmen Millionen Menschen weltweit täglich eine Tablette Aspirin ein, um z. B. das Risiko von Herzinfarkten drastisch zu senken.

Hormesis

Damit kommen wir zur Hormesis. Darunter wird verstanden, daß ein und derselbe Stoff, in geringen Mengen verabreicht, eine genau gegenteilige Wirkung haben kann. Seit Anbeginn zeigte sich bei „Niedrigstrahlung“ das Phänomen deutlich geringerer Krebsfälle, als nach dem LNT-Modell zu erwarten waren. Fast alle Studien mit Arbeitern aus der kerntechnischen Industrie, Opfern von „Atombomben“ und nicht zuletzt den Reaktorunglücken von Tschernobyl und Fukushima zeigten sogar unter dem Erwartungswert für die entsprechende Bevölkerungsgruppe liegende Werte. Jahrzehntelang versuchte man sich besonders bei Bergleuten mit der besonderen medizinischen Fürsorge und der Vorauswahl („Survival of the Fittest“) aus der Affäre zu stehlen. Bis man sich die Frage stellte, ob nicht ionisierende Strahlung in bestimmten geringen Dosen sogar eine den Krebs verhindernde Wirkung zeigte. Plötzlich war auch die „Radontherapie“ keine Esoterik mehr.

Seit man in der Molekularbiologie große Fortschritte erzielt hat und Gene und die DNA praktisch beobachten kann, kann man diese Phänomene sogar naturwissenschaftlich erklären. Es passieren ständig, in jeder Zelle, zehntausende DNA-Fehler. Hauptsächlich sind dafür Radikale verantwortlich. Es gibt daher einen Reperaturmechanismus, der die DNA größtenteils wieder repariert. Darüberhinaus existiert noch eine weitere Ebene, die Zerstörung entarteter Zellen. Erst wenn alle Reparatur- und Schutzmechanismen versagen, kann sich „Krebs“ ausbilden. Hieraus ergibt sich auch der Zusammenhang von (permanenten) kleinen und kurzzeitig hohen Dosen: Mit einer geringen Anzahl von Fehlern wird das Reparatursystem leicht fertig. Ab einer gewissen Dosis entsteht ein „Sättigungsangriff“, der die Abwehr schlicht weg überfordert.

Ohne diese „Selbstheilungskräfte“ wäre überhaupt kein Leben möglich. Man kann nun in Versuchen zeigen, daß diese Kräfte durch ionisierende Strahlung (in der richtigen Dosis!) motiviert und unterstützt werden. Ein Umstand, der bereits in der Strahlentherapie Anwendung findet. Um Krebszellen zu zerstören, braucht man punktuell sehr hohe Dosen, die natürlich das umliegende gesunde Gewebe stark belasten. Deshalb trainiert man in bestimmten Fällen vor der eigentlichen Behandlung das gesunde Gewebe durch mehrere Bestrahlungen mit niedrigen Dosen.

Der Ultimative Test

Wenn es eine Hormesis gibt, was passiert eigentlich, wenn man von Zellen die Strahlung fern hält? Eine einfache Fragestellung, aber ein schwer durchführbares Experiment. Es gibt nämlich überall ionisierende Strahlung: Aus dem All und aus der Erde – die sogenannte Hintergrundstrahlung. Dieser Strahlung war und ist jedes Leben seit Milliarden Jahren ausgesetzt. Leben hätte sich gar nicht entwickeln können, wäre es nicht gegen ionisierende Strahlung überlebensfähig gewesen. Gott sei es gedankt, ist die Natur etwas einfallsreicher, als die Anhänger des LNT-Modells meinen.

Schon in den 1990er Jahren wurde in Italien ein Experiment mit Hefezellen durchgeführt. Hefezellen sind ein Standardobjekt der Molekularbiologen. Sie wurden in ein Labor 1300 m tief unter einem Bergmassiv gezüchtet. Hier unten war die Strahlung tausendfach kleiner, als in dem oberirdischen Vergleichslabor. Anschließend wurden beide Versuchsgruppen Chemikalien ausgesetzt, die starke genetische Veränderungen auslösen können. Es zeigte sich, daß die Fehlerrate bei den „vor Strahlung geschützten“ Zellen höher war.

Inzwischen werden solche Experimente ausgeweitet. In den USA hat man z . B. in einem Salzstock in Carlsbad ein Labor in 650m Tiefe eingerichtet. Die dortige Salzschicht besteht aus sehr reinem Kochsalz und enthält damit nur sehr wenig „radioaktive Stoffe“. Die Deckschicht schirmt die kosmische Strahlung entsprechend ab. Die „Bakterienzucht“ wird in einem Tresor mit 15 cm dicken Stahlwänden aus Stahl vor dem II. Weltkrieg durchgeführt. Solch alter Schrott wird inzwischen hoch gehandelt, da er noch nicht mit Fallout aus „Atombombenversuchen“ etc. belastet ist. Durch diese Maßnahmen gelang es, eine Strahlung von 0,17 mSv pro Jahr innerhalb des Tresors zu erreichen. Dies ist der geringste Wert, der bisher auf der Erde erzeugt werden konnte.

In der Versuchsanordnung wurden nun als besonders strahlenempfindlich bekannte Bakterien Shewanella oneidensis und als besonders strahlungsresistente Bakterien Deinococcus radioduruans gezüchtet. In regelmäßigen Abständen wurde die DNA der Versuchsgruppen auf Schäden untersucht. Um andere Einflüsse ausschließen zu können, wurden die Bakterien mehrfach zwischen den Orten mit verringerter Strahlung und normaler Strahlung hin und her getauscht.

An dieser Stelle müssen wir uns noch einmal die zentrale Aussage des LNT-Modells verdeutlichen:

  • Jedes „Strahlungsereignis“ schädigt die DNA. Deshalb gilt: Je weniger Strahlung, um so weniger Schäden. Nach dem LNT-Modell gibt es einen Nullpunkt, an dem es infolge der nicht vorhandenen Strahlung auch keine Schäden geben dürfte.
  • Die aufgetretenen Schäden addieren sich. Je länger man eine Probe bestrahlt, um so mehr Schäden treten auf.

Demgegenüber stehen die Messergebnisse des Versuches: Beide Bakterienarten weisen „ohne Strahlung“ mehr Schäden auf als „mit Strahlung“. Besonders verblüffend ist, daß sich die Schäden innerhalb von 24h normalisieren, wenn man die Proben wieder der Hintergrundstrahlung aussetzt. Schützt man die Probe wieder vor Strahlung, nehmen die Schäden auch wieder zu. Dies scheint in beliebigem Wechsel möglich.

Sollten sich diese Erkenntnisse weiter verdichten, würde es bedeuten, daß das LNT-Modell schlicht weg, falsch ist. Benutzt man den gesunden Menschenverstand, ist dies auch nicht besonders überraschend: Es hat immer schon Strahlung auf der Erde gegeben. Früher sogar mehr als heute (Halbwertszeit z. B. von Uran, Kalium etc., Sonnenaktivitäten und unterschiedliche Atmosphäre). Vielleicht wäre ohne Strahlung gar kein Leben möglich?

ALARA

Bei diesen Forschungsergebnissen handelt es sich nicht einfach um irgendwelche Trivialitäten, sondern sie sind hoch brisant. Bisher galt weltweit das Prinzip beim Strahlenschutz, die Strahlenbelastung so gering wie möglich zu halten (As Low As Reasonably Archievable; ALARA). Eine ganze Industrie mit Milliardenumsätzen lebt davon. Geld, das man nutzbringender hätte einsetzen können. Konnte man bisher noch mit Fürsorglichkeit und Vorsicht argumentieren, ist es spätestens nach dem Unglück von Fukushima endgültig damit vorbei. Dort hat man eindeutig das Kind mit dem Bade ausgeschüttet. Es sind viel mehr Menschen seelisch und körperlich durch ALARA zu Schaden gekommen, als durch die vorhandene Strahlung. Es wäre besser gewesen, die Menschen hätten in ihrer Umgebung verbleiben können. Evakuierungen wären nur in ganz wenigen Fällen und auf freiwilliger Basis nötig gewesen. Gut gemeint, war auch hier nicht, gut gemacht. Ideologie kann töten. Die Aufklärung der Bevölkerung ist daher dringend notwendig.

Und ewig grüßt das Tanklager

Die „Qualitätsmedien“ können gar nicht genug bekommen, von „der in wenigen Stunden tödlichen Dosis“ im Tanklager H4 in Fukushima. Es ist eine echte „Mann-beißt-Hund-Meldung“. Viel spannender jedenfalls, als ein Giftgaseinsatz oder gar die Bundestagswahl. Ob es sich dabei einfach nur um schlampigen Journalismus handelt (man hätte ja mal jemand fragen können, der sich damit auskennt) oder tumbe Propaganda, mag der Leser selbst entscheiden. Jedenfalls hält man seine Leser für arg kritiklos – um nicht zu sagen für dämlich. Da werden in den eigenen Berichten über die in „wenigen Stunden tödliche Dosis“ Bilder von Arbeitern in Schutzanzügen (dazu noch weiter unten) gezeigt, die zwischen den Tanks umherlaufen und sich diskutierend über die Betonwanne beugen. Das mag ja noch für manchen Rechtgläubigen, der seit Jahren gegen die „fiese Atommafia“ kämpft, logisch erscheinen. So sind sie halt, die profitgierigen Kapitalisten von Tepco. Was ist aber mit den schönen Photos von dem Besuch des japanischen Handelsministers Toshimitsu Motegi inmitten einer solchen Gruppe? Hat man je von einem „Herrschenden“ gehört, der sich freiwillig und unnötig „verstrahlt“? Man muß also gar nichts von Strahlenschutz verstehen, um diese Berichte kritisch zu hinterfragen. Etwas gesunder Menschenverstand würde ausreichen – oder man hat halt etwas ganz anderes im Sinn.

Man unterscheidet α – (Heliumkerne), β – (Elektronen) und γ -Strahlung (elektromagnetische). Jede, dieser ionisierenden Strahlungen hat eine charakteristische biologische Wirkung und „Durchdringungsfähigkeit“. Für α – Strahlung reicht ein Stück Papier oder ein Zentimeter Luft als Abschirmung aus. Völlig anders ist die Situation, wenn α -Strahlung erst im Körper freigesetzt wird. Für den gleichen Energiegehalt wird deshalb eine 20fache Schadenswirkung angenommen. Ganz ähnlich verhält es sich mit der anderen Teilchenstrahlung, der β – Strahlung. Sie dringt nur oberflächlich in Stoffe ein. Eine Abschirmung von ein bis zwei Metern Luft reicht aus. Genau hier, liegt das Mißverständnis begründet. Im Sinne des Strahlenschutzes spielt nur die γ – Strahlung für einen „Tanklagerbesucher“ eine Rolle: Man muß durch einen Schutzanzug mit Atemmaske verhindern, daß radioaktive Partikel in den Körper oder auf die Haut gelangen. Ist dies gewährleistet, kann man im Sinne des Arbeitsschutzes α- und β -Strahlung vergessen. Für die Bestimmung der zulässigen Aufenthaltszeit z. B. ist nur die laufende Messung (Dosimeter) der γ -Strahlung von Interesse. Die γ -Strahlung hat in all den berichteten Fällen etwa 1,5 mSv/h (an den „heißen Stellen“, nicht etwa im gesamten Tanklager) betragen. Eigentlich, nicht der Rede wert – jedenfalls kein Grund für ein meßbar zusätzliches Krebsrisiko.

Warum also die plötzliche Aufregung über ständig steigende und gar „tödliche Strahlung“? Wahrscheinlich eine Kombination aus Unwissenheit und Sensationsgier. Das zweite dürfte überwiegen, denn man hätte ja mal jemanden fragen oder googeln können. Tepco veröffentlicht täglich die Meßwerte an verschiedenen Kontrollstellen. Da das Internet nicht vergisst, kann man die Entwicklung gut nachvollziehen. Fukushima ist eben nicht Tschernobyl! Die Meßwerte haben sich nicht verändert. In letzter Zeit ist lediglich eine Interpretation durch Laien hinzugekommen.

Tepco hat neben der Nuklidzusammensetzung der Wässer und der γ-Strahlenbelastung auch einen Wert für die β-Strahlung angegeben. Wie schon weiter oben gesagt, wird β-Strahlung durch Luft sehr stark abgeschirmt. Die Meßwerte werden von Tepco in einem Abstand von 70 μm gemessen. Das Abwasser in den Tanks hat β-Werte von 1,8 bis 2,2 Sv/h. Solch hohe Werte bedeuten für einen Fachmann nur eins: Paß auf, daß du diese Brühe nicht ins Auge kriegst, sonst könntest du dein Augenlicht (Linsentrübung) verlieren! Mehr aber auch nicht. Selbst bei längerer Einwirkung auf der Haut, würde sich lediglich eine Hautrötung ergeben. Solange man die Pfütze nicht austrinkt, besteht keine Gefahr. Noch einmal in aller Deutlichkeit: Es gibt keine tödliche Dosis für eine äußerlich wirkende β.-Strahlung. Schon der Schmerz durch den „Sonnenbrand“ würde jeden Menschen genug Zeit lassen, sich zu entfernen.

Das Tanklager

Bei dem betreffenden Tanklager handelt es sich um „mobile“ Tanks, die eiligst aufgestellt und teilweise sogar umgesetzt wurden. Sie sind aus einzelnen, gebogenen Segmenten zusammengeschraubt. Um sie überhaupt wasserdicht zu bekommen, sind in die Fugen Gummidichtungen eingelegt. Eine solche Konstruktion, in so hoher Stückzahl, bei den lokalen Wetterverhältnissen (große Temperaturschwankungen, Taifune, Erdbeben etc.) kann nicht über längere Zeit dicht bleiben. Ständige Leckagen waren vorhersehbar.

Die in den Medien angegebene Menge von 300 m3, die ausgelaufen sein sollen, ist mit Vorsicht zu genießen. Geht man in die Originalangaben von Tepco, handelt es sich eher um eine Abschätzung. Es wurde in einem Tank eine Absenkung des Flüssigkeitsspiegels um etwa 3 m gegenüber seinen Nachbartanks festgestellt. Keiner weiß genau, ob er jemals ganz voll war, wieviel verdunstet ist usw. Es wurde Wasser aus der Auffangwanne um den Tank abgepumpt, aber nicht so viel. Nach Tepco etwa 4 m3 (!) bis zum 20. August. Der Rest „könnte“ im Boden versickert sein. Die in den Medien gemachte Aussage, es seien 300 m3 verseuchtes Wasser in den Ozean gelangt, ist so nicht haltbar und eher durch Meßwerte entkräftet. Erst recht nicht, daß die in dem Wasser enthaltene Radioaktivität dorthin gelangt ist. Der Boden wirkt in jedem Fall als Filter und Ionentauscher.

Als Gegenmaßnahmen wurden jetzt (!!) alle Ablaufventile in den Auffangwannen geschlossen. Es wurden unter alle Leckstellen Absorptionsmatten ausgelegt, um zukünftig besser kontrollieren zu können, wieviel Wasser ausgelaufen ist und ob etwas versickert ist. Nach dem Umpumpen des schadhaften Tanks soll die Wanne mit einem Hochdruckreiniger gereinigt werden und eine 50 cm Bodenschicht am Auslaufventil abgetragen werden. Der verseuchte Bodenbereich wurde mit Gummimatten und Sandsackbarrieren gesichert, damit kein verseuchtes Wasser (Regen) in die Entwässerungssysteme gelangen kann.

Als die wirksamste Gegenmaßnahme erscheint der gute alte Nachtwächter: Zukünftig geht alle drei Stunden eine Fußstreife kontrollieren.

Woher kommt das Wasser in den Tanks?

Nach wie vor müssen alle drei Reaktoren gekühlt werden. Dazu wird ständig Wasser in die Reaktorgefässe gepumpt. Durch die Leckagen in den Steuerstabführungen etc. fließt das Wasser in einem offenen Kreislauf in die Kellerbereiche des Kraftwerks. Dort vermischt es sich mit eindringendem Grundwasser und wird abgepumpt und einer Aufbereitung zugeführt. Das Grundwasser ist Brackwasser, wodurch der Salzgehalt im Rücklauf größer wird. Die Aufbereitung erfolgt zur Zeit in zwei Schritten: Dem SARRY-Verfahren und einer Umkehrosmose. In der SARRY-Stufe wird durch Adsorption (vor allem) Cäsium und weitere 60 Spaltprodukte (teilweise) abgeschieden. Die Umkehrosmose entspricht einer Meerwasserentsalzungsanlage: Es entsteht ein Wasserstrom „reines“ Wasser, welches wieder zur Kühlung in die Reaktoren eingespeist wird und ein „Konzentrat“, welches ins Tanklager geht. Ein typisches Meßprotokoll vom 9. 8. 2013 zeigt folgenden Verlauf: Das Wasser kommt beispielsweise mit 56000 Bq/cm3 Cs137 aus dem Keller in die Anlage rein. Dort wird soviel Cäsium abgeschieden, daß es die SARRY-Stufe im Mittel mit 1,3 Bq/cm3 verläßt. Nach der Umkehrosmose ergibt sich ein Reinwasserstrom mit einem Gehalt unter der Nachweisgrenze, aber ein Konzentrat mit 2,7 Bq/cm3 Cs137 für die Tankanlage. Am Rande bemerkt sei, daß der Wert für Cs137 für Trinkwasser nach internationalem Standard 10 Bq/Liter maximal betragen soll. Man könnte jetzt also mit fug und recht sagen, daß das Wasser im Tanklager 270 mal den Grenzwert für Trinkwasser übersteigt. Hört sich doch gleich viel gefährlicher an, nicht wahr?

Die Brennelemente sind durch das Unglück zerstört worden und teilweise wahrscheinlich aufgeschmolzen und wieder erstarrt. Sie haben jedenfalls keine Schutzhülle mehr und befinden sich auch nicht mehr in ihrem ursprünglichen (sehr widerstandsfähigen) chemischen Zustand. Das „Reinwasser“ zur Kühlung wird sie deshalb beständig weiter auslaugen. Es kann auch kein Gleichgewichtszustand angestrebt werden, solange das Wasser immer noch über die zerstörten Keller abfließen muß. Solange es nicht gelingt einen geschlossenen Kühlkreislauf zu bauen, hat man eine „ständige Quelle“ für verseuchtes Wasser. Ziel muß es daher sein, so schnell wie möglich, den alten Brennstoff aus den Reaktoren zu entfernen. Das ist aber leichter gesagt, als getan. Insofern ist es folgerichtig, mit Hochdruck eine stationäre Wasseraufbereitung zu bauen. Es wird noch eine erhebliche Menge mittelaktiven Abfalls anfallen, denn mit der Entfernung aus dem Wasser ist es nicht getan.

Einfach ins Meer kippen?

Manche Kritiker von Tepco schlagen nun eine radikale Lösung vor: Anstatt immer mehr Tankanlagen zu bauen, einen Tanker chartern und das radioaktive Wasser auf hoher See verklappen.

Radioaktive Materialien sind keine Bakterien oder Viren. Eine Vermehrung ist ausgeschlossen. Sie werden einfach nur weniger. Ferner bestimmt immer die Dosis das Gift. Je stärker man die radioaktive Lösung verdünnt, um so ungefährlicher wird sie. Setzt man sie weit genug draußen frei, ist eine Anreicherung über die Nahrungskette, auf für den Menschen schädliche Konzentrationen, ausgeschlossen. Übrigens genau die Lösung, die die Sowjetunion für die Entsorgung ihrer Atom-U-Boote gewählt hatte.

Ob man nun das Meer als Müllkippe nutzen sollte, ist eher eine ethisch-moralische oder juristische Frage. Die Naturwissenschaft kann allenfalls bei der Beantwortung helfen. Das Meer ist ist mit einem Volumen von über 1,5 Milliarden Kubikkilometern gigantisch groß. Zwar gibt es bedeutende regionale Unterschiede (z. B. Mittelmeer und offener Atlantik) und insbesondere sehr unterschiedliche Lebenswelten (Korallenriff bis Tiefseewüste), trotzdem ist es in seiner chemischen Zusammensetzung erstaunlich homogen. So enthält jeder Kubikmeter Meerwasser rund 433 Milligramm Uran, was eine Gesamtmenge von 5 Milliarden Tonnen gelösten Urans ergibt. Einschließlich der natürlich entstehenden Spaltprodukte, eine Menge Radioaktivität. Allein die Menge des gelösten radioaktiven K40 (Kalium hat auch jeder Mensch in seinen Knochen; „eigene Strahlung“ etwa 0,17 mSv/a) beträgt 530 Milliarden Curie (1 Cu ist die Aktivität von einem Gramm Radium oder 37 GBq). Das ist für sich eine gewaltige Menge Radioaktivität – aber eben fein verteilt. Es gibt aber durchaus auch Unterschiede: Die Konzentration im Golf von Mexiko ist höher – eine Folge der Zahlreichen Öl- und Gasbohrungen dort.

Nach Schätzungen verschiedener unabhängiger Institutionen (Tokyo University of Marine Science, Woods Hole Oceanographic Institution, National Oceanography Centre in Southampton etc.) werden etwa 0,3 TBq monatlich durch Fukushima ins Meer abgegeben. Die auf Messungen und Ausbreitungsrechnungen beruhenden Werte, bewegen sich in einer Bandbreite von 0,1 bis 0,6 TBq. Ist das nun sehr viel? Allein durch die Wasserstoffbombentests in den 1960er Jahren wurden im nördlichen Pazifik mehr als 100.000 TBq Cs137 eingetragen. Die Wiederaufbereitungsanlage in Sellafield hat in 40 Jahren 39.000 TBq in die Nordsee abgegeben.

Die bisher höchsten Werte im Seegebiet zwischen 30 und 600 Kilometer vor Fukushima wurden 3 Monate nach dem Unglück gemessen. Es ergaben sich 3 Bq/Liter Cs137 . Im gleichen Zeitraum wurde ein natürlicher Eintrag von 10 Bq/Liter K40 gemessen. Schön, daß uns die Meßtechnik erlaubt, notfalls auch noch einzelne Kerne festzustellen.

Anreicherung über die Nahrungskette

Ist seit Beginn der „Anti-Atomkraft-Bewegung“ immer das schärfste Schwert in jeder Diskussion. Leider ist es nur sehr eingeschränkt und mit Vorsicht zu gebrauchen. In der Wissenschaft wird sie über das Verhältnis der Konzentration in der Umgebung zu der im Lebewesen bestimmt. Plankton reichert z. B. die Radioaktivität rund 40-fach an. Aber schon in den nächsten Schritten der Nahrungskette wird die Konzentration wesentlich geringer. Sie ist keinesfalls additiv. Biologie ist halt komplizierter. Zudem ist jedes Lebewesen für unterschiedliche Nuklide auch unterschiedlich selektiv. Wir erinnern uns noch an die Empfehlung nach Tschernobyl, nicht zu viel Pilze zu essen. Nebenbei gesagt, haben wir durch den „Praxistest“ Tschernobyl eine Menge über solche Ketten lernen können.

Wie schön, daß nun auch schon eine Auswirkung von Fukushima über den Pazifik bis nach Kalifornien festzustellen ist. Es ist nichts so schlecht, daß es nicht zu irgendetwas nützlich ist. Der „Nuklidcocktail“ von Fukushima dient nun dazu, die Wanderwege des von der Ausrottung bedrohten blauen Thunfisch zu erforschen. Nach Veröffentlichung erster Ergebnisse, waren sofort die Panikmacher zur Stelle und sahen sich in ihren schlimmsten Befürchtungen bestätigt. Die Ergänzung der Wissenschaftler ging natürlich bei den Medien verloren: Ein Erwachsener müßte 2,5 bis 4 Tonnen pro Jahr von diesem Thunfisch essen, um überhaupt auf den zulässigen Grenzwert zu kommen. Dieser ist aber noch weit von jeglicher Schädigung entfernt, sonst wäre es ja kein Grenzwert. Feststellbar, ist eben noch lange nicht schädlich.

Wer Angst vor „von Fukushima verseuchtem Tunfisch “ hat, sollte besser gar keinen Fisch essen. In jedem Fisch kann man unter anderem Po210 mit einer zigfach höheren „Strahlenbelastung“ nachweisen. Es stammt aus der natürlichen Zerfallskette des im Meerwasser gelösten Urans. Es ist nur etwas schwieriger nachweisbar, da es sich um einen α-Strahler handelt. Deshalb wurde 2006 auch der Putingegner Alexander Litwinenko damit in London ermordet.