Wie wird eigentlich Strahlung gemessen?

Der Mensch hat keine Sinne für Strahlung, wir sind deshalb auf Meßgeräte angewiesen die uns warnen können.

Verfahren

Es gibt zwei Arten von Instrumenten: Zählende und Dosimeter. Die Zählenden bestimmen die spezifischen atomaren Zerfälle in Bq/kg für Feststoffe, Bq/l für Flüssigkeiten, Bq/m3 für Gase und Bq/m2 für Oberflächen. Die Dosimeter ermitteln die Energie der absorbierten Strahlung in Gray.

Beide Meßgeräte bestehen aus einem Volumen und einer Messwerterfassung, die die durch die Strahlung verursachte Veränderung im Volumen erkennt und in ein Signal umwandelt. Das Volumen muß dabei die Photonen oder Partikel überhaupt erfassen können. Dies setzt ein Mindestvolumen und besonders empfindliche Materialien voraus. Wenn entsprechend viele Teilchen und Photonen das Volumen passieren können ohne eine Reaktion zu verursachen, spricht man von geringer Empfindlichkeit (low efficiency).

Methoden

Man unterscheidet technische Verfahren und biologische Methoden. So kann man z.B die durch Strahlung ausgelöste Veränderung von Chromosomen benutzen, um verabreichte Dosen bei Lebewesen nachträglich zu ermitteln. Technische Verfahren geben idealerweise einen linearen Verlauf zwischen Dosis und Wirkung wieder. Bei den biologischen Verfahren liegt eher ein linear-quadratischer Verlauf (chromosome aberrations) vor.

Filmdosimeter sind sehr verbreitet. Das Maß für die empfangene Strahlung ist die Schwärzung des Films. Die Filme werden lichtdicht in Gehäuse eingeklebt. Durch unterschiedliche Materialien kann man sogar unterschiedliche Strahlungen oder (thermische) Neutronen unterscheiden und durch unterschiedliche Empfindlichkeit die Genauigkeit steigern. Sie sind billig in der Herstellung und wirken integrierend über den gesamten Zeitraum, in dem sie getragen werden. Typische Anwendung ist daher der Arbeitsschutz.

Thermolumineszenzdosimeter (TLD) senden nach Erhitzung einen der Dosis proportionalen Lichtschein aus. Sie sind so stabil, daß sie sogar in der Archäologie zur Altersbestimmung genutzt werden. Gerne werden sie auch in der Strahlentherapie eingesetzt. Für den Arbeitsschutz werden meist Kristalle aus Lithiumfluorid verwendet, da ihre Absorption der von Gewebe sehr ähnlich ist. Die Strahlung verursacht Fehlstellen in der Kristallstruktur. Werden sie auf ca. 200 °C erhitzt, bilden sich die Fehlstellen zurück und es wird dabei Licht ausgesendet. Die Menge ist dabei proportional zur empfangenen Strahlung. Über die Lithium-6 Isotope kann man auch empfangene Neutronen erfassen.

Ionisation, bekanntester Vertreter ist das Geiger-Müller Zählrohr. Ionisierende Strahlung erzeugt positive und negative Ionen. Jeder Zerfall löst einen Impuls aus, der verstärkt und z. B. hörbar gemacht werden kann. Das bekannte „Geknatter“ ist ein typisches Maß für die Strahlung. Der Geiger-Müller Zähler zeigt unmittelbar die momentane Strahlung an. Er ist deshalb ein gutes Hilfsmittel, um vor gefährlichen Bereichen zu warnen. Für die Überwachung ist er jedoch ungeeignet, da er nicht die gesamte Dosis die während der (z.B.) Arbeitszeit aufgenommen wurde, registrieren kann. Er liefert keine Information über die Art der Strahlung oder deren Energie.

Scintillation nutz den physikalischen Effekt, daß manche Stoffe auf Strahlung durch das Aussenden von Licht reagieren. Die Intensität des ausgesendeten Lichts ist mit einem Lichtverstärker (photomultiplier) leicht sichtbar zu machen, wobei die „Helligkeit“ für die Energie der γ-Strahlung steht. In Kliniken verwendet man aus Einkristallen aus Natrium-Jod hergestellte Detektoren mit einem Halben Meter Kantenlänge als „Bildschirme“.

Halbleiter erzeugen beim Auftreffen von Strahlung eine elektrische Spannung. Sie ermitteln die Energie sehr genau, sind jedoch nicht besonders empfindlich. Halbleiter auf der Basis von Germanium werden deshalb meist auf -196°C mit flüssigem Stickstoff gekühlt. Sie werden in Labors zur qualitativen und quantitativen Bestimmung von „Isotopen Cocktails“ verwendet.

Freie Radikale werden durch Strahlung erzeugt. Sie reagieren in Flüssigkeiten sehr schnell, sind aber in Feststoffen erstaunlich stabil. Die Anzahl der erzeugten Radikale ist ein Maß für die empfangene Dosis. Eine Methode mit der man z.B. in Zähnen auch noch nach sehr langer Zeit die empfangene Dosis nachweisen kann.

Redox Produkte. Strahlung reduziert durch Aufnahme von Elektronen bzw. oxidiert durch Verlust von Elektronen Moleküle. Damit können gezielt chemische Reaktionen ausgelöst werden, die zu stabilen chemischen Verbindungen führen können. Diese sind dann ein (dauerhaftes) Maß für die empfangene Dosis.

Die Nachweisgrenze

Ein Klassiker in der kerntechnischen Ausbildung ist die Frage, ob man ein einzelnes Gramm Jod-131 noch nachweisen könnte, wenn man dieses gleichmäßig über die gesamte Erdoberfläche verteilen würde. Jod-131 hat eine Halbwertszeit von 8,04 Tagen. Es zerfällt recht schnell und hat damit eine hohe Aktivität. Es ist ein Leitisotop für Reaktorunfälle, da es gasförmig ist und sich besonders in der Schilddrüse anreichert.

Jod-131 ist ein β-Strahler mit einer maximalen Teilchenenergie von 0,606 MeV und sendet gleichzeitig noch γ-Photonen mit einer Energie von 0,364 MeV aus. Letztere kann man gut mit einem Halbleiterdetektor messen und sie wirkt wie ein „Fingerabdruck“ zur eindeutigen Identifizierung auch in beliebigen Isotopengemischen.

Ein einzelnes Gramm Jod-131 besteht aus 4,6 x 1021 Atomen. Das Gesetz über den radioaktiven Zerfall und seine Halbwertszeit ergeben somit eine Aktivität von 4,59 x 1015 Bq. Die Erdoberfläche beträgt ungefähr 5,1 x 1014 m2. Die sich ergebende Aktivität von rund 10 Bq/m2 ist einfach nachweisbar.

Im Februar geisterte eine Meldung durch die Medien, zahlreiche automatische Überwachungsstationen zwischen Norwegen und Spanien hätten Aktivitäten zwischen 0,1 und 5,9 microBq/m3 in der Luft gemessen. Was war geschehen? Tatsächlich hatte es im Forschungsreaktor Halden in Norwegen einen Unfall beim Hantieren mit einem Brennelement gegeben. Wie dieser Vorfall zeigt, entgeht der Fachwelt nichts: Kein illegaler Kernwaffentest und kein noch so kleiner Unfall in einem Reaktor. Gemessen an den Nachweisgrenzen der Chemie, sind die Messmethoden der Kerntechnik geradezu atemberaubend empfindlich. Hinzu kommt, daß man beliebige Isotopenzusammensetzungen messen kann. Bei einer Probe ergibt sich daraus – auch bei kleinsten Mengen – ein „Fingerabdruck“ des Täters.

Dosismessung

Die Aktivität (in Bq) und die Energie (in eV) sind physikalische Größen, die gemessen werden können. Die Dosis ist hingegen die Energie, die im Medium aufgenommen wird. Wir betrachten meist den Menschen. In diesem Sinne ist die Dosis die vom menschlichen Körper aufgenommene Energie der ionisierenden Strahlung. Sie hängt von zahlreichen (biologischen) Faktoren ab. Es ist schwierig, die Absorption von Strahlung im Gewebe zu beobachten. Wie gesagt, es ist nicht das Problem Teilchen oder Photonen zu messen, sondern es ist schwierig, die Energie, die im menschlichen Gewebe absorbiert wurde zu erfassen:

  • Man kann die Energie von Röntgen oder γ-Strahlung recht einfach in einer mit Gas gefüllten Ionisationskammer (z.B. Geiger-Müller Zählrohr) messen. Die Maßeinheit Röntgen (1R) ist auf Luft bezogen. Wieviel von der Strahlung absorbiert wird, hängt aber von der Elektronendichte ab. So wird z. B. in Knochen (schwere Atome mit vielen Elektronen in ihren Hüllen) sehr viel mehr Energie, als im Gewebe (besteht hauptsächlich aus Wasser) absorbiert. Das erklärt das Bild einer „Röntgenaufnahme“. Die Dosis für Knochen und Gewebe ist deshalb völlig verschieden, auch wenn die Strahlung exakt gleich war.
  • Die Dosis hängt bei menschlichem Gewebe stark von der Eindringtiefe ab. Trägt man die absorbierte Energie über die Wegstrecke auf, ergeben sich konvexe Kurven: Auf den ersten Millimetern ist die absorbierte Energie klein, dann steigt sie steil bis zu einem Maximum an und nimmt dann mit größerer Entfernung wieder ab. Die Dosis ist ortsabhängig. Besonders extrem ist dies bei Teilchenstrahlung. Abhängig von der Art der Ionen, durchdringen diese zig Zentimeter mit sehr geringer Energieabgabe. Wird ein charakteristischer Wert erreicht, wird an diesem Ort (Bragg-peak) fast die gesamte Energie umgesetzt. Die Dosis ist örtlich eng begrenzt sehr hoch.
  • Was im Sinne des Arbeitsschutzes nachteilig ist, ist für die Medizin von großem Vorteil. Man will gezielt die Krebszellen belasten und nicht das umliegende gesunde Gewebe. Kennt man die Kurven für die absorbierten Energien in Abhängigkeit von der Strahlungsenergie, kann man über die gewählte Energie der Strahlung die Wirksamkeit (Dosis) sehr genau steuern. Für Tumore, die z. B. in einer Tiefe von etwa 6 cm im menschlichen Gewebe sitzen, muß man eine Röntgenstrahlung von mindestens 20 MeV wählen um optimale Ergebnisse (Kleine Dosis für das durchdrungene gesunde Gewebe, aber eine hohe Dosis im Tumor) zu erzielen.

Wir Eigenstrahler

Kalium ist überall vorhanden: Im Boden, im Wasser, in Pflanzen, in Tieren und am Ende der Nahrungskette in uns selbst. Kalium entspricht 2,4 Gewichtsprozenten aller Elemente der Erde. Die Häufigkeit des radioaktiven Isotops Ka-40 beträgt 0,0118%. Ka-40 hat eine Halbwertszeit von fast 1,3 Milliarden Jahren. Nur deshalb ist es noch überall auf der Erde vorhanden. Beim Zerfall sendet es β- und γ-Strahlung aus. Mit der Nahrung nehmen wir durchschnittlich 2,5 Gramm Kalium pro Tag auf. Dies ergibt rund 75 Bq Ka-40 pro Tag. Kalium ist in allen Zellen unseres Körpers eingebaut. Die Menge unterscheidet sich nach Geschlecht und Alter. Sie schwankt etwa zwischen 75 Bq pro kg Körpergewicht bei jungen Männern und 40 Bq/kg bei einer älteren Frau. Mit anderen Worten: Ein Fußballstadion, voll mit überwiegend jungen Menschen, ist eine ganz schöne „Atommülldeponie“. Jedenfalls verglichen mit den aus den Medien bekannten Wassertanks in Fukushima.

Eine einfache Abschätzung ergibt folgende Daten: Aus dem Zerfallsschema entnimmt man, daß 89,3 % der beim Zerfall entfallenden Energie auf die β-Teilchen entfallen. Da β-Strahlung nur eine sehr kurze Reichweite hat, verbleiben damit im Mittel 429.200 eV im Körper. Bei der γ-Strahlung sieht es etwas anders aus: Man nimmt an, daß nur 50% im Körper verbleiben, die andere Hälfte aber den Körper verläßt. Damit ergibt sich eine Energie von 78.100 eV. für die γ-Photonen. Somit kann man eine vom Körper absorbierte Energie von ungefähr 510.000 eV unterstellen. Pro Becquerel und kg und Jahr ergibt sich eine Energie von 2,6 μGy. Bei 70 Bq/kg ergibt sich somit eine Belastung von 182 μGy pro kg Körpergewicht jährlich. Diese Abschätzung deckt sich gut mit den von UNSCEAR angegebenen 0,165 – 0,185 mSv per year. Da es sich um die aufgenommene Dosis handelt, kann man auch die Einheit mSv verwenden.

Hinzu kommt noch Kohlenstoff-14. Er wird ständig in der Atmosphäre durch die kosmische Strahlung aus Stickstoff gebildet. Pflanzen lagern diesen Kohlenstoff über die Photosynthese ein. Wir wiederum nehmen dieses C-14 direkt über pflanzliche Nahrung oder indirekt über Fleisch auf. Durchschnittlich tragen wir alle etwa 35 Bq pro kg Körpergewicht in uns. C-14 sendet β-Strahlung mit (im Mittel) einer Energie von 52 keV bei jedem Zerfall aus. Das ergibt eine Strahlenbelastung von weiteren 0.01 mGy bzw. 0.01 mSv pro Jahr, die wir uns – ganz natürlich – selbst zufügen.

Hinzu kommen noch – je nach Bodenverhältnissen – die kompletten Zerfallsreihen von Uran und Thorium. Je nach Ernährungsgewohnheiten, Geschlecht und Lebensalter ergeben sich unterschiedliche Mengen die wir vornehmlich in unseren Knochen einlagern. Man setzt nach umfangreichen Analysen und Berechnungen als durchschnittliche Belastung hierfür eine effektive jährliche Dosis von 0,12 mSv an.

Somit setzt man eine durchschnittliche effektive Dosis für diese drei Wege von 310 μSv an. Wichtig dabei ist, nie den langen Weg vom Isotop bis zur Strahlenbelastung des Menschen zu vergessen. Die Energien beim Zerfall eines radioaktiven Elements sind leicht zu messen. Wieviel von diesem Stoff in den Körper gelangt, wie lange es dort verbleibt und wo und wie genau es im Körper wirkt, ist von unzähligen Einflüssen abhängig. Jede Angabe von irgendwelchen μSv (d h. dem millionsten Teil eines Sv) ist daher mindestens mit Gelassenheit zu betrachten.

Gray, Sievert und was sonst noch?

In den Medien wird im Zusammenhang mit Radioaktivität mit Zahlenwerten nur so um sich geschmissen. Kaum einer versteht die Aussagen, aber alle reden davon.

Vorbemerkung

Eine Maßeinheit bezieht sich stets auf einen genau definierten Zustand: So ist das [kg] die Einheit für die Masse und das [N] bzw. früher das [kp] eine Einheit für eine Kraft. Im Alltag kann man zwar oft beide Einheiten gleich setzen, es kann aber auch zu schwerwiegenden Fehleinschätzungen dadurch kommen. Kraft und Masse sind halt nur im unbewegten Zustand gleichwertig. Dies ist Allgemeinwissen, aber im Zusammenhang mit Strahlung und Radioaktivität werden fröhlich alle Einheiten miteinander vermischt. Leider nicht nur in Massenmedien.

Die Öffentlichkeit interessiert sich meist nur für die biologische Wirkung: Ab wann ist ionisierende Strahlung gefährlich, ab wann bekomme ich Krebs, sind nachfolgende Generationen gefährdet? Alles Fragen der Biologie – oder noch genauer gesagt – der Medizin und schon wird es schwierig. Der Mensch ist halt keine Maschine und läßt sich deshalb nur sehr schlecht vermessen. Aus den physikalischen Meßwerten über Strahlung lassen sich bestenfalls Erwartungswerte für Krankheiten ableiten. Aus einem Unverständnis wird schnell eine Strahlenphobie. Dies betrifft nicht nur die Kernenergie. Röntgenärzte und Nuklearmediziner können ein Lied davon singen. Besonders heikel sind Patienten, die durch Jahrzehnte grüner Indoktrination notwendige Diagnosen und Therapien verweigern.

Am Anfang steht der Zerfall

Der überwiegende Teil der in der Natur vorkommenden Isotope befindet sich in einem angeregten Zustand. Dieser Zustand läßt sich nicht unbegrenzt aufrecht erhalten, das Atom zerfällt und wandelt sich dabei in ein neues Element um. Dies kann mehrfach geschehen (sog. Zerfallsketten oder Mutter-Tochter Beziehungen), bis ein stabiler Zustand erreicht ist. Wir kennen mehr als 3400 radioaktive Isotope, von denen etwa 900 Halbwertszeiten von mehr als einer Stunde haben. Schon sind wir bei zwei grundlegenden Maßeinheiten angekommen: Der Aktivität mit der Maßeinheit Becquerel Bq und der Lebensdauer mit der Halbwertszeit. Wenn ein Atomkern pro Sekunde zerfällt, bedeutet das eine Aktivität von 1Bq. Nicht mehr, aber auch nicht weniger. Es ist noch nichts über die Art der freigesetzten Strahlung ausgesagt oder über deren Energie und damit auch nichts über die biologische Wirksamkeit.

Das Becquerel [Bq] ist eine reine Stückzahl, die ohne die Angabe des Stoffes (z. B. Cäsium oder Jod) und des Ortes des Zerfalls (z. B. im Körper oder außerhalb) keine Aussage über irgendeine Gefährdung zuläßt.

An dieser Stelle ist auch besonders hervorzuheben, daß wir von zerfallenen Atomen pro Sekunde sprechen. Atome sind aber sehr klein, weswegen man zu gewaltig großen Zahlen kommt. Bis 1985 war deshalb die Einheit Curie [Ci] für die Aktivität gebräuchlich. Sie war von einem Gramm Radium-226 abgeleitet und entsprach 37 000 000 000 Zerfällen pro Sekunde. Schon an dieser Stelle wird deutlich, wie überzogen der japanische Grenzwert von 100 Bq/kg für Fisch nach dem Reaktorunglück von Fukushima war. Man hätte auch gleich sagen können, der Fisch enthält praktisch kein Cäsium (1 gr Cs-137 hat eine Aktivität von 3 215 000 000 000 Bq).

Geläufig – wir haben aus Erfahrung ein Gefühl dafür – sind uns die Einheiten kg oder Gramm. Heutige Waagen können (mit erheblichem Aufwand) noch Millionstel Gramm messen. Die Empfindlichkeit bei der Messung von Radioaktivität ist (recht einfach) noch um eine weitere Million empfindlicher. Radioaktive Quellen mit 10 bis 100 Bq sind schnell und einfach meßbar, obwohl es sich dabei um Stoffmengen von um die 0,000 000 000 000 01 Gramm handelt. Für die Angstindustrie ist das natürlich völlig unbrauchbar. Solche kleinen Mengen ergeben einfach keine Horrormeldung.

Die Strahlungsarten

Unter ionisierender Strahlung versteht man elektromagnetische Wellen sehr hoher Frequenz bzw. Teilchenstrahlung. Normalerweise enthalten Atome genau so viele Protonen (positive Ladung) im Kern, wie Elektronen (negative Ladung) in ihrer Hülle und sind somit elektrisch neutral.

Die technische Nutzung von ionisierender Strahlung begann 1895 mit der Entdeckung der Röntgenstrahlung.

Bei der Strahlung infolge des radioaktiven Zerfalls unterscheidet man im wesentlichen zwischen α- (Heliumkerne), β- (Elektronen) und γ-Strahlen. Die beiden Teilchenstrahlen sind elektrisch positiv bzw. negativ geladen. Insbesondere für die biologische Wirkung ist deren Eindringtiefe maßgebend. Die Heliumkerne der α-Strahlung können in Luft maximal 10 cm zurücklegen und in Wasser (menschliches Gewebe besteht hauptsächlich aus Wasser) wenig mehr als 0,1 mm. Das bedeutet für den Strahlenschutz, daß bereits normale Kleidung zur Abschirmung ausreicht. Umgekehrt gilt aber auch, daß innerhalb des Körpers die gesamte Energie auf kürzester Entfernung freigesetzt wird und lokal einen großen Schaden anrichten kann. Für die β-Strahlung gilt ähnliches. Auch für sie reicht normale Kleidung als Schutz aus.

Die Aufnahme radioaktiver Stoffe in den Körper (Essen, Trinken und Atemluft) ist möglichst zu vermeiden.

Bei der γ-Strahlung verhält sich die Sache etwas anders. Sie durchdringt mühelos den menschlichen Körper. Nur deswegen kann z. B. eine Kontamination im Körper von außen gemessen werden. Für γ-Strahlen verwendet man den Begriff der Halben-Weglänge: Das ist die Materialstärke, bei der die Strahlung nach der Schicht genau halb so groß ist, wie vor der Schicht. Diese halbe Weglänge ist vom Material und der Energie der Strahlung abhängig. Die Abschwächung verläuft exponentiell. Mit anderen Worten: Die Strahlung schwächt sich über den Weg sehr schnell ab, ist aber auch nach dicken Schichten immer noch nachweisbar. Für eine Energie von 0,662 MeV (γ-Strahlung von Cs-137) beträgt die Halbe-Weglänge in Wasser etwa 9 cm. Somit ist nach rund einem halben Meter (entsprechend fünf Halben-Weglängen) die Strahlung um 97% abgeklungen. Dies erklärt, warum das Wasser in einem Brennelementebecken so eine wirksame Abschirmung darstellt. Hat man wenig Platz, verwendet man Blei mit seiner hohen Dichte zur Abschirmung.

Die Energie der Strahlung

Neben der Art der Strahlung ist ihre Energie maßgeblich für die biologische Wirkung. Die Einheit für die Energie ist das Elektronenvolt [eV]. Sie ergibt sich aus der Beschleunigung eines Elektrons in einem Spannungsfeld von einem Volt. Um eine radioaktive Quelle in ihrer biologischen Wirkung zu beurteilen, braucht man folgende physikalischen Parameter:

Die Aktivität, gemessen in Zerfällen pro Sekunde [Bq] und die Halbwertszeit, die Art der ausgesendeten Strahlung (α-, β-, γ-Strahlung) und deren Energien.

Anschaulich werden diese Daten in einem sogenannten Zerfallsschema für jedes Isotop dargestellt. Dabei werden in einer Karte die Energien über den Ordnungszahlen aufgetragen. In der Praxis hat man es immer mit Gemischen von Isotopen zu tun. Dies ergibt sich schon aus den meist vorhandenen Zerfallsketten. Beispielsweise verläuft der Zerfall von Uran-238 in 14 Schritten bis zum stabilen Blei-206.

Wie die Strahlung absorbiert wird

Wenn Röntgenstrahlung oder die Strahlung aus dem radioaktiven Zerfall auf Atome und Moleküle trifft, entstehen Ionen oder angeregte Moleküle. Die Strahlung verliert dabei Energie. Für die biologische Wirkung ist nicht nur die Art und deren Energie der Strahlung von Bedeutung, sondern auch die „Materie“ des Lebewesens. Ein bekanntes Beispiel hierfür ist eine Röntgenaufnahme: Man erkennt ein Skelett. Die Strahlung ist stark genug (von hoher Energie), um den menschlichen Körper zu durchdringen, sonst wäre gar keine Aufnahme möglich. Die Absorption im Körper ist aber unterschiedlich: Es entsteht ein Schattenbild der Knochen (hohe Absorption wegen hoher Dichte) vor einem hellen Hintergrund (wenig Absorption im Gewebe, weshalb viel Strahlung durchkommt).

Auf ihrem Weg durch Materie reagiert die Strahlung mit den Atomen und Molekülen. In Bezug auf die biologische Wirkung ergeben sich sehr komplexe Zusammenhänge, die letztendlich auch noch über chemische Reaktionen Wirkung zeigen können. Stellvertretend soll hier nur die α-Strahlung etwas näher behandelt werden. Wenn ein Heliumkern – nichts anderes ist α-Strahlung – mit bis zu 11 MeV durch Gewebe schießt, kann er die Atome auf die er trifft ionisieren. Diese können dann selbst wieder Strahlung aussenden. Auf seinem Weg verliert er Energie, die er an die Atome abgegeben hat. Um die Sache noch komplizierter zu machen, geschieht das solange, bis er eine bestimmte Geschwindigkeit unterschreitet. An diesem Punkt angekommen, überträgt er seine gesamte Restenergie auf einen Schlag (Bragg peak). Dies macht man sich z. B. bei der Krebstherapie nutzbar. Man kann quasi gesundes Gewebe mit Ionen durchschießen, ohne großen Schaden anzurichten und setzt erst in der Krebszelle die vernichtende Energie frei.

Die Gamma-Strahlung

Sie ist von zentraler Bedeutung in der Kerntechnik, da sie sich recht einfach messen läßt, den menschlichen Körper auf jeden Fall durchdringt (sonst könnte man eine Inkorporation gar nicht feststellen) und sich nur aufwendig abschirmen läßt.

Die γ-Photonen besitzen Energien von 0,1 bis 3 MeV. Wichtig dabei ist, daß jedes Isotop γ-Photonen mit einer charakteristischen Energie bei seinem Zerfall aussendet. Mißt man die Energiespektren, erhält man die „Fingerabdrücke“ der enthaltenen Isotope. Dies ist Voraussetzung, um die biologische Wirkung und damit die Gefährdung überhaupt ermitteln zu können.

Die γ-Strahlung selbst, wirkt durch drei Effekte: Das γ-Photon überträgt seine Energie auf ein Elektron und ist damit verschwunden (Photoelektrischer Effekt), das γ-Photon schießt ein Elektron aus der Atomhülle und bewegt sich danach mit geringerer Energie in einer anderen Richtung weiter (Compton Effekt) oder es bilden sich zwei neue Teilchen: Elektron und Positron (Paarbildung). Der Photoelektrische Effekt tritt ein, wenn das γ-Photon nur eine eine geringe Energie hat. Dies ist mit maximal 100 keV der bevorzugte Bereich in der Diagnostik. Die Durchdringung dieser „weichen γ-Strahlung“ ist sehr von der Dichte (Knochen oder Kontrastmittel) abhängig. Erst oberhalb einer Energie von 100 keV kann der Compton-Effekt auftreten. Er hat durch die Bildung von Ionen auf jeden Fall eine biologische Wirkung. Für eine Paarbildung muß die Energie den Schwellwert von 1,02 MeV überschreiten.

Die Halbwertszeiten

Gängig ist die Physikalische-Halbwertszeit. Sie beträgt z. B. für Cäsium-137 etwa 30 Jahre. Das bedeutet, nach jeweils 30 Jahren ist nur noch die Hälfte des Startwertes vorhanden. Nach 60 Jahren noch 25%, nach 90 Jahren noch 12,5% usw. Cs-137 ist eine Leitsubstanz bei Reaktorunfällen wie in Tschernobyl und Fukushima. Es ist in relativ großen Mengen – ca. 6% der Kernspaltungen – entstanden, bis zum nächsten Brennelementewechsel entsprechend angesammelt worden und gasförmig und gut wasserlöslich. Es kann sich daher weiträumig ausbreiten und auch in großen Entfernungen punktförmig ausregnen.

Es gibt aber noch eine Biologische Halbwertszeit für jeden Stoff. Jedes Lebewesen nimmt zwar Stoffe mit der Nahrung aus der Umwelt auf, scheidet sie aber auch unterschiedlich schnell wieder aus. Wir trinken Wasser (eventuell tritiumhaltig), aber scheiden auch wieder große Mengen durch Schwitzen, Atmung und Ausscheidung aus. Wenn man keine neuen radioaktiven Stoffe aufnimmt, tritt schnell eine Verdünnung im Körper ein. Beim Menschen beträgt die biologische Halbwertszeit für Cs rund 70 Tage. Sie kann durch Medikamente noch weiter auf etwa 30 Tage gesenkt werden. Bei Schafen beträgt sie etwa zwei bis drei Wochen. Man hat nach Tschernobyl Schafe in Schottland vier Wochen vor der Schlachtung mit „sauberem Futter “ aus anderen Regionen gefüttert und so die Belastung im Fleisch auf unter 25% abgesenkt.

Aus der Summe (der Kehrwerte) der biologischen und physikalischen Halbwertszeiten wird die Effektive-Halbwertszeit gebildet. Zu allem Überdruss gibt es auch noch eine Ökologische-Halbwertszeit. Nach dem Reaktorunglück in Tschernobyl im April 1986 sind in Teilen von Norwegen durch Regenfälle 130 000 Bq pro Quadratmeter runter gegangen. Bis zum August stieg deshalb in einigen Seen die Belastung bei Forellen auf 7200 Bq/kg an. Sie wird seitdem kontinuierlich überwacht. Im Jahr 2008 war sie bereits wieder auf 150 Bq/kg abgesunken. In den ersten Jahren betrug die Ökologische-Halbwertszeit rund 3,6 Jahre. Sie ist seitdem angestiegen und hat sich inzwischen der physikalischen Halbwertszeit angenähert. So viel zum Thema Rückbesiedelung in den Sperrzonen. Natürlich bleiben die radioaktiven Stoffe nicht einfach liegen und warten auf ihren Zerfall, sondern werden ausgewaschen, dringen in tiefere Bodenschichten ein oder reagieren chemisch zu Verbindungen, die nicht mehr so einfach in die Nahrungskette aufgenommen werden. Andererseits können sie auch wieder aus diesen Depots freigesetzt werden. In einem See oder einer Wiese bildet sich ein Gleichgewichtszustand aus. Selbstverständlich ist Landwirtschaft in den „verseuchten Gebieten“ möglich. Man muß es nur richtig machen. Das Märchen von Für-Jahrtausende-Unbewohnbar ist einfach nur schlecht gemachte Propaganda.

Die Strahlungsdosis

Bisher haben wir uns nur mit der Aktivität in einem Feststoff [Bq/kg], einer Flüssigkeit [Bq/l] oder auch einer Fläche [Bq/m2] beschäftigt. Wie schon weiter oben erklärt, sagt das ohne weitere Kenntnis über die Isotopen und den Ort noch nichts aus. Für den Übergang auf die (biologische) Wirkung ist entscheidend, wieviel der ausgesendeten Energie auch vom Empfänger aufgenommen wird. Diese kann man einfach und direkt messen. Es handelt sich – bisher immer noch – um reine Physik. Die biologische Wirkung kommt später.

Heute verwendet man für die Dosis die Einheit Gray [1 Gy]. Sie ist aus dem SI-Einheitensystem abgeleitet und entspricht der sehr kleinen Energie von einem Joule pro Kilogramm [1J/kg] absorbierter Energie. Wenn man bedenkt, daß zur Erhöhung der Temperatur von einem Kilogramm Wasser um ein Grad, etwa 4200 Joule notwendig sind, wird auch diese Definition wieder zu großen Zahlen führen. Der nächste Scheinriese, der der Angstindustrie hilft.

1953 wurde die Einheit [rad] festgelegt. Sie beruhte noch auf dem damals gebräuchlichen Einheitensystem und wurde zu 100 [erg] pro Gramm festgelegt. Sie ist einfach – und genau – in die moderne Einheit [1 Gy] durch den Faktor 100 umzurechnen: 1 Gy entspricht 100 rad.

Eine Sonderstellung nimmt das Röntgen ein. Es ist über die Bildung von Ladungen in trockener Luft definiert. Ein Röntgen [1R] entspricht etwa 2,54 x 10-4. Coulomb pro kg in Luft erzeugter Ionen. Eine sehr unhandliche Einheit für den Strahlenschutz. Als Anhaltswert kann man sagen, daß ein Röntgen ungefähr 9,3 Milligray [mGy] in menschlichem Gewebe entspricht.

Relative biologische Wirksamkeit unterschiedlicher Strahlung (RBE)

Ab jetzt verlassen wir den sicheren Boden der Physik: Es wird biologisch – man könnte fast sagen, politisch. Es ist unbestritten, daß verschiedene Strahlungsformen auch bei gleicher Energie unterschiedliche biologische Wirkung zeigen. Ein Hauptgrund ist die (heute) beobachtbare Wirkung beim Beschuß von Zellen. Die α-Strahlung hinterläßt einen regelrechten Schußkanal in der Zelle, während die β- und γ-Strahlung eine eher räumlich gleich verteilte Wirkung zeigt. Man kann dieses Problem lösen, indem man für jede Strahlungsform einen Gewichtungsfaktor einführt.

Für die Endstufe von Strahlenschäden, den Zelltod, kann man einfache und reproduzierbare Versuche durchführen. Man bestrahlt eine Zellkultur mit Strahlung von bekannter Energie. Die lebenden Zellen werden vor und nach der Bestrahlung gezählt. Jeder Versuch wird in ein Diagramm mit der Dosis als Abszisse und dem Prozentsatz der überlebenden Zellen als Ordinate eingetragen. Jede Strahlungsart ergibt eine eigene charakteristische Kurve. Für jeden Wert der Ordinate (überlebende Zellen) ergeben sich nun mehrere verschiedene Werte auf der Abszisse (Dosis). Mit anderen Worten: Diese Wirkung der Strahlung (Zelltod) bei gleicher Dosis nimmt mit der Schwere der Ionen zu. Es werden nun RBE-Werte (Relative Biological Effectiveness) als Gewichtungsfaktoren bestimmt. Bezugsgröße ist die Kurve für Röntgenstrahlung.

Für das Verständnis ist wichtig, daß es sich bei den oben beschriebenen Versuchen zum Zelltod um einfach zu reproduzierende Experimente handelt. Eine tote Zelle ist einfach von einer lebenden Zelle zu unterscheiden. Wie sieht es aber mit (angeblichen) Erbschäden und mit Krebs aus? Krebs kann bis zum Ausbruch Jahrzehnte dauern, für Erbschäden müßten gar zig Generationen beobachtet werden. Experimente wären nicht reproduzierbar, weil die Umwelteinflüsse über so lange Zeiträume gar nicht konstant sein können.

Äquivalentdosis

Damit alle denkbaren Effekte erfaßt werden, hat man sich im International Committee on Radiation Protection (ICRP) auf eine Äquivalentdosis mit der Einheit [rem] bzw. Sievert [Sv] geeinigt. Sie wird aus der physikalischen Dosis – gemessen in Gray [Gy] – durch Multiplikation mit dimensionslosen Gewichtungsfaktoren werzeugt. Genau daraus ergibt sich die Gefahr der Verwechslung und Fehlinterpretation:

Die Äquivalentdosis – angegeben in Sievert [Sv ]– ist keine physikalische Größe und kann auch nicht gemessen werden, sondern ist eine rein rechnerische Größe. Sie wird aus der meßbaren Dosis mit ihrer Einheit Gray [Gy] über (politisch) festgelegte Gewichtungsfaktoren wR gebildet. Diese Gewichtungsfaktoren sollen die komplexen biologischen Verhältnisse des Menschen widerspiegeln. Es handelt sich lediglich um „Modellvereinfachungen“, wie sie auch aus anderen Bereichen bekannt sind. Sievert ist ungeeignet, die biologische Wirkung bei anderen Lebewesen zu beschreiben oder umgekehrt. Sie beruht auf der fragwürdigen LNT-Hypothese (kein Schwellwert, linearer Verlauf). Deshalb sind gerade kleine Werte mit großer Skepsis zu betrachten.

Lediglich bei einer reinen γ-Strahlung wäre eine Gleichsetzung von Sv mit Gy möglich, da hier der Gewichtungsfaktor 1 beträgt. Man sollte dies aber tunlichst vermeiden, da in der Praxis immer Isotopengemische mit allen möglichen Strahlungsarten auftreten. Wenn man z. B. wie Tepco, Strahlungswerte im Sicherheitsbehälter von Fukushima in Sievert angibt, ist das etwas irreführend. Man hat natürlich nur die γ-Strahlung in Gray gemessen. Die sicherlich vorhandene α-Strahlung (Gewichtungsfaktor 20) oder gar die vorhandenen Neutronen (energieabhängiger Gewichtungsfaktor 5 bis 20) sind mit Sicherheit nicht mit ihrem Äquivalent korrigiert worden.

Effektive Dosis

In manchen Fällen werden nur einzelne Organe des menschlichen Körpers belastet. Klassiker ist die Belastung der Lunge und Bronchien durch Radon und seine Zerfallsprodukte. Verschiedene Organe und Gewebe haben eine unterschiedliche Empfindlichkeit bezüglich sog. „Verzögerter Effekte“. Krebs ist ein solcher Effekt, der oft viele Jahre braucht, bis er nachweisbar ist. Um dafür das Risiko vergleichbar zu machen, wird eine Effektive Dosis gebildet.

Wenn in einem bestimmten Teil des menschlichen Körpers eine Dosis wirkt, ergibt sich das Risiko einer bestimmten Wirkung (z. B. Lungenkrebs). Wirkt die gleiche Dosis auf ein anderes Körperteil, ergibt sich ein anderes Risiko. Für jedes Organ – oder besser gesagt Gewebetyp – ergibt sich nun ein Gewichtungsfaktor wT. Daraus ergibt sich schließlich die Effektive Dosis, meist kurz als Dosis bezeichnet.

Die in Gy gemessene Energie einer Strahlung die vom Gewebe aufgenommen wird, wird gemäß ihres Typs (z. B. γ- oder α-Strahlung) in eine äquivalente Strahlung mit der Einheit Sv umgerechnet. Die Äquivalentdosis darf nur die Einheit Sv tragen, da sie eine fiktive Größe ist, die die unterschiedliche biologische Wirkung der Strahlungsarten berücksichtigen soll. Nur im Sonderfall (beispielsweise reiner γ-Strahlung) sind die Zahlenwerte von Gy und Sv gleich setzbar, da sie beide – per Definition – den gleichen Gewichtungsfaktor 1 haben. Trotzdem handelt es sich bei der Einheit Gy [J/kg] um eine physikalische Größe und bei der Einheit Sv um eine fiktive Einheit, die biologische Wirkungen beim Menschen charakterisieren soll. Die Effektivdosis erhält man erst, wenn man für jedes belastete Organ eine weitere Gewichtung vornimmt. Unterstellt man weiterhin einen linearen Verlauf, ohne Schwellwert (LNT) der Dosis-Wirkungsbeziehung, kann man diese Einzelwerte einfach addieren und erhält daraus die Ganzköperdosis, die in der Öffentlichkeit gern als die Dosis bezeichnet wird.

Das ICRP hat dafür ein Modell eines Menschen erschaffen, das aus 14 Organen bzw. Gewebetypen und einem „Rest“ besteht. Der „Rest“ dient zur Unterscheidung von Mann und Frau mit Prostata bzw. Gebärmutter. Die Summe aller 15 Gewichtungsfaktoren wT ergibt 100%.

Die Kollektivdosis

Die Kollektivdosis ist die Summe aller individuellen Dosen in einer Gruppe. Meist wird sie als Produkt einer mittleren Dosis und der Anzahl der Personen gebildet. Ihre Einheit ist das Person Sievert [person-Sv] oder Man-Sievert [man-Sv] bzw. in älteren Veröffentlichungen das Man-Rem [man-rem].

Die Kollektivdosis ergibt in Verbindung mit der LNT-Hypothese absurde Ergebnisse. So sollte z. B. das Reaktorunglück von Tschernobyl über 14000 Tote verursachen. Nichts, aber auch rein gar nichts, konnte bis heute – mehr als 30 Jahre später – davon nachgewiesen werden. Genauso wenig, wie die prognostizierten Spätfolgen von Hiroshima und Nagasaki. Das hielt aber die einschlägigen Propagandaabteilungen der Angstindustrie nicht davon ab, ähnlich blödsinnige Vorhersagen für das Reaktorunglück in Fukushima zu treffen.

Zumindest in den letzten 20 Jahren konnte die Forschung zahlreiche Reperaturmechanismen für die DNA nachweisen, den programmierten Zelltod (Apoptose) erklären und die positive Wirkung kleiner Dosen (adaptive response) als Fortschritt in der Strahlentherapie anwenden.

Nachbemerkung

Ein Schelm, wer bei „Menschenmodellen“ an „Klimamodelle“ denkt, bei Sv an „menschengemachtes CO2“ und bei „Reaktorkatastrophen“ an „Erderwärmung“ – auf zehntel Grad genau berechnet, versteht sich.

Allerdings sind Ähnlichkeiten zwischen dem International Committee on Radiation Protection (ICRP) und dem Intergovernmental Panel on Climate Change (IPCC) alles andere als zufällig: Beide Organisationen halten regelmäßig Kongresse mit wunderbaren Dienstreisen ab. Bei beiden sind in Öffentlichkeitsarbeit geschulte Funktionäre tonangebend. Hinter beiden steht eine milliardenschwere Industrie, die gut auf Kosten der Allgemeinheit lebt.

Allerdings glaube ich immer noch an die Kraft der Aufklärung. Mag es auch lange dauern. Die katholische Kirche brauchte immerhin bis 1992, bis sie in der Lage war Galileo Galilei zu rehabilitieren. Möge es Gott geben, daß der Ökosozialismus gar nicht so alt wird. Es wäre schön, wenn dieser Artikel einen kleinen Beitrag dazu leisten könnte. Steter Tropfen höhlt den Stein.

Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: „So wenig Strahlung, als vernünftig erreichbar“. Das Wort „vernünftig“ wird – wegen der angeblichen Krebsgefahr – als „so gering wie möglich“ überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine „normale“ Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes : „Die Dosis macht’s“. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche „auf ex“ haben soll. Bestenfalls ist dieser Irrglaube auf ein „physikalisches“ Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz „eine Mutation = ein Krebs“ ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der „Strahlenschutz“ ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der „Walschützer“ ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen „Klimaschutz“ und andere Machenschaften der „Ökoindustrie“ ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle „Gutmenschen“ mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich „harte moralische Fakten“ von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus „Angst vor Strahlung“ verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die „Strahlung“ so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von „Strahlenkrankheiten“. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im „kalten Krieg“ die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein „gut“ und kein „schlecht“, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis „die Dosis macht’s“, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der „Angstmensch“ als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den „Klimawissenschaften“, bei denen „Welt-Temperaturen“ mit (bekannt fehlerhaften) „Weltmodellen“ berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Was ist eigentlich Atommüll?

Wenn man sich z.B. mit dem Thema Endlagerung beschäftigen will, ist es sinnvoll zu wissen, was „Atommüll“ eigentlich ist und wie er entsteht.

Alles entsteht im Reaktor

Im Reaktor eines Kernkraftwerks werden Atomkerne gespalten. Dies ist sein Sinn. Um Wärme-Leistungen von mehreren Gigawatt (GWth.) in einem so kleinen Behälter zu erzeugen, sind gewaltige Flüsse von Neutronen notwendig. Die Neutronen entstehen überwiegend bei den Spaltungen und lösen weitere Spaltungen aus. Eine sich selbst erhaltende Kettenreaktion. Sie läuft solange weiter, bis zu viel „Spaltstoff“ verbraucht wurde. Der Brennstoff muß erneuert werden, d. h. die „abgebrannten Brennelemente“ (spent fuel) müssen durch frische ersetzt werden.

Auf ihrem Weg von einer Spaltung zu einem weiteren spaltbaren Kern, treffen die meisten Neutronen auch auf andere Atomkerne. Das sind all die anderen Materialien, aus denen der Reaktor besteht: Brennstabhüllen, Wasser, Regelstäbe, Einbauten im Reaktor, das Reaktorgefäß selbst etc. Nun kann es passieren, daß sie nicht nur mit einem Atomkern zusammenstoßen und wieder abprallen – gestreut werden – sondern von diesem dauerhaft eingefangen werden. Es entsteht ein neues chemischen Element oder ein Isotop. Man nennt das Aktivierung, da diese neu erschaffene Elemente radioaktiv sind.

Bewegen sich solche radioaktiven Stoffe durch das Kernkraftwerk, können sie Bauteile, Werkzeuge etc. kontaminieren. Kontaminierung und Aktivierung werden oft miteinander verwechselt: Kontaminierte Gegenstände bleiben unverändert, sie werden nur mit radioaktiven Stoffen verunreinigt. Sie können auch wieder gereinigt werde. Die Reinigung kann aber so aufwendig und damit kostenintensiv sein, daß es billiger ist, das Teil als „Atommüll“ zu deklarieren und einfach komplett wegzuwerfen.

Unterschiedliche Formen der Strahlung

Man unterscheidet γ-Strahlung, β-Strahlung (Elektronen) und α-Strahlung (Helium-Kern). Die beiden letzten können kaum Materie durchdringen. Für γ-Strahlung gilt: Eine Abschirmung aus möglichst dichtem Material (z. B. Blei) und schlichtweg Abstand einhalten. Jedenfalls reicht in einem Brennelemente-Lagerbecken die Wassertiefe als Abschirmung vollkommen aus. Es wäre gefahrlos möglich, in einem solchen Becken zu schwimmen.

Aus vorgenannten Gründen reicht meist ganz normale Schutzkleidung – bestehend aus Atemschutz, Schutzanzug, Handschuhen und Brille – beim Umgang mit Atommüll aus. Solange man radioaktive Stoffe nicht in seinen Körper aufnimmt, ist Atommüll relativ harmlos. Umgekehrt gilt, wenn man Atommüll sicher einschließt, ist der Umgang ohne Schutzkleidung möglich. Typisches Beispiel ist der Castor-Behälter: Seine dicken Stahlwände, spezielle Neutronenabsorber und sein gasdichter Verschluß machen auch die Handhabung stark strahlender Brennelemente gefahrlos möglich.

Die Dosis macht das Gift

Wie bei allen anderen Stoffen auch, ist die biologische Wirkung von Strahlung immer von der Dosis abhängig. Schon die Erfahrung mit dem Sonnenlicht macht diesen Zusammenhang deutlich: Ein wenig Sonne ist belebend (z. B. Bildung von Vitamin D), zu viel davon, erzeugt einen Sonnenbrand mit der Zerstörung von Hautschichten. Zuviel und häufige Strahlung kann sogar Hautkrebs erzeugen.

Der menschliche Körper verfügt über zahlreiche Reparaturmechanismen. Wäre das nicht so, hätte es überhaupt kein Leben auf der Erde geben können, denn die Strahlung war vor Millionen von Jahren noch wesentlich höher als heute. Jedenfalls ist die Vorstellung, schon ein einziges Plutonium-Atom könnte Krebs auslösen oder gar vererbbare Genveränderungen, ein Hirngespinst, das nur zur Erzeugung von Angst dienen soll. Wäre Radioaktivität tatsächlich so gefährlich, dürften wir nichts essen und trinken. Es gibt Mineralwässer, die enthalten mehr radioaktive Stoffe, als das Wasser in einem Brennelemente-Lagerbecken oder gar das Kondensat in einem Kernkraftwerk. Wir dürften keine Bananen oder Tomatenmark essen, denn die enthalten radioaktives Kalium. Unsere Bauern dürften vor allem keinen mineralischen Dünger aufs Land streuen, denn der enthält beträchtliche Mengen Uran, der ihre Felder im Laufe der Zeit zu „Atommüll-Deponien“ macht.

Es gibt heute umfangreiche Tabellen, die angeben, wieviel man von einem Stoff ohne Krankheitsrisiko zu sich nehmen kann. In diesen Tabellen ist noch ein weiterer Zusammenhang berücksichtigt, die sog. biologische Halbwertszeit. Es ist z. B. ein Unterschied, ob man radioaktives Wasser trinkt, welches ständig aus dem Körper ausgeschieden wird und durch frisches Wasser ersetzt wird oder radioaktives Strontium, welches gern in Knochen eingelagert wird und dort für Jahrzehnte verbleiben kann.

Konzentration oder Verdünnung

Beim Umgang mit „Atommüll“ spielen die Begriffe Verdünnung und Konzentration eine große Rolle. Im Sinne einer biologischen Wirksamkeit ist eine Verdünnung – wie bei jedem anderen Gift auch – eine bedeutende Schutzmaßnahme. Im Prinzip kann man jeden Stoff soweit verdünnen und damit unschädlich machen, daß er Trinkwasser oder Nahrungsmittelqualität besitzt. Deshalb besitzt z. B. jedes Kernkraftwerk einen hohen Abluftkamin. Radioaktive Abgase werden ordentlich verdünnt, bevor sie aus großer Höhe wieder auf den Boden gelangen oder von Menschen eingeatmet werden können.

Das Prinzip der Verdünnung, war bis in die 1960er Jahre der bestimmende Gedanke bei der Abgabe radioaktiver Stoffe ins Meer. Allerdings war von Anfang an klar, daß man durch die beständige Abgabe ins Meer, die Konzentration radioaktiver Stoffe dort erhöhen würde. Man vollzog deshalb eine 180-Grad-Wende: Von nun an war die Aufkonzentrierung das Mittel der Wahl. Bis aktuell in Fukushima. Dort dampft man radioaktives Wasser ein, welches nahezu Trinkwasserqualität hat, um auch geringste Mengen radioaktiver Stoffe vom Meer fern zu halten. Vom naturwissenschaftlichen Standpunkt aus betrachtet, schlicht Irrsinn. Aber zugegeben ein Irrsinn, mit dem sich trefflich Geld verdienen läßt und man am Ende auch noch behaupten kann, Kernenergie sei schlicht zu teuer.

Allerdings muß man an dieser Stelle festhalten, daß die Kerntechnik der erste Industriezweig ist, der versucht, Schadstoffe konsequent aus der Umwelt fern zu halten. Gleiches kann man von der Chemie oder den fossilen Energieverwendern (international) noch lange nicht behaupten.

Spent fuel

Nach einiger Zeit im Reaktor, ist jedes Brennelement „abgebrannt“. Es muß deshalb entfernt werden und durch ein neues ersetzt werden. Die frisch entnommenen Brennelemente strahlen so stark, daß man sie nur unter Wasser handhaben kann. Würde man sie nicht kühlen, könnten sie sogar schmelzen oder zumindest glühen. Dies hat zwei Ursachen:

  • Alle Spaltprodukte sind radioaktiv. Die Strahlung wandelt sich beim Kontakt mit Materie in Wärmeenergie um. Letztendlich wandeln sich die Spaltprodukte in stabile (nicht radioaktive) Kerne um. Dies geschieht jedoch meist nicht in einem Schritt, sondern in mehreren Schritten. Dabei können sogar chemisch unterschiedliche Elemente entstehen. Jede Stufe sendet die ihr eigene Strahlung mit ihrer charakteristischen Energie aus.
  • Der radioaktive Zerfall ist im Einzelfall rein zufällig und durch nichts zu beeinflussen. Betrachtet man aber eine sehr große Anzahl von Atomen eines bestimmten Stoffes, kann man sehr wohl eine sog. Zerfallskonstante ermitteln. Für den praktischen Gebrauch hat sich die sog. Halbwertszeit eingebürgert: Das ist die Zeitdauer, nach der genau die Hälfte der ursprünglichen Menge zerfallen ist. Für den Umgang mit Atommüll ergibt das eine wichtige Konsequenz: Stoffe, die eine geringe Halbwertszeit haben, sind schnell zerfallen. Wegen ihrer hohen Zerfallsrate senden sie aber auch sehr viel Strahlung pro Zeiteinheit aus.

Für abgebrannte Brennelemente ergibt sich daraus der übliche Zyklus: Erst werden sie in ein tiefes Becken mit Wasser gestellt. Das Wasser dient dabei zur Abschirmung der Strahlung und als Kühlmittel. Nach ein paar Jahren ist bereits so viel radioaktives Material zerfallen, daß man die Brennelemente in trockene Behälter (z. B. Castoren) umlagern kann. Es beginnt die beliebig ausdehnbare Phase der „Zwischenlagerung“.

Wiederaufbereitung

Ein abgebranntes – und damit nicht mehr nutzbares – Brennelement eines Leichtwasserreaktors, besteht nur zu rund 4% aus Spaltprodukten – quasi der nuklearen Asche – aber immer noch aus dem Uran und einigem neu gebildeten Plutonium. Uran und Plutonium können weiterhin zur Energieerzeugung genutzt werden.

Vom Standpunkt der Abfallbehandlung ergibt eine Wiederaufbereitung deshalb eine Verringerung des hochaktiven Abfalls (gemeint ist damit das abgebrannte Brennelement) um den Faktor Zwanzig, wenn man die Spaltprodukte abtrennt.

Man dreht aber damit auch gleichzeitig an der Stellschraube „Zeitdauer der Gefahr“. Der radioaktive Zerfall verläuft nach einer e-Funktion. D. h. zu Anfang nimmt die Menge stark ab, schleicht sich aber nur sehr langsam dem Grenzwert „alles-ist-weg“ an. In diesem Sinne tritt die Halbwertszeit wieder hervor. Plutonium-239 z. B., hat eine Halbwertszeit von über 24.000 Jahren. Man muß also mehr als 250.000 Jahre warten, bis nur noch ein Tausendstel der ursprünglichen Menge vorhanden wäre. Geht man von einem Anfangsgehalt von 1% Plutonium in den Brennstäben aus, sind das immer noch 10 Gramm pro Tonne. Nach den berühmten eine Million Jahren, beträgt die Konzentration etwa zwei Nanogramm pro Tonne. Auch nicht die Welt. Gleichwohl senkt das Abscheiden von Uran und Plutonium den Gefährdungszeitraum ganz beträchtlich.

Die Spaltprodukte sind im Wesentlichen nach maximal 300 Jahren zerfallen. Das „radioaktive Glas“ für die Endlagerung strahlt dann nur wenig mehr als ein gehaltvolles Uranerz wie z. B. Pechblende, aus dem Madame Curie einst das Radium chemisch extrahiert hat.

Eine Wiederaufbereitung erzeugt keinen zusätzlichen Atommüll, sondern ist ein rein chemisches Verfahren. Atommüll wird nur in Reaktoren „erzeugt“. Richtig ist allerdings, daß die Anlage und alle verwendeten Hilfsstoffe mit Spaltprodukten etc. verschmutzt werden. Heute wirft man solche kontaminierten Teile nicht mehr einfach weg, sondern reinigt bzw. verbrennt sie.

Die minoren Aktinoide

Heute werden die minoren Aktinoide (Neptunium, Americium, Curium, Berkelium, Californium) ebenfalls noch als Abfall betrachtet und in der Spaltproduktlösung belassen. Sie sind für die Strahlung nach 300 Jahren wesentlich verantwortlich. Dies ist eine Kostenfrage, da sie sich nur sehr aufwendig aus einer Spaltproduktlösung abtrennen lassen.

Sie bilden sich im Reaktor, weil nicht jedes eingefangene Neutron auch zu einer Spaltung führt. Je länger der Brennstoff im Reaktor verbleibt, um so weiter kann der Aufbau fortschreiten: aus Uran-235 wird Uran-236 und daraus Uran-237 gebildet bzw. aus Plutonium-239, Plutonium-240 usw.

Setzt man Uran und Plutonium aus der Wiederaufbereitung erneut in Leichtwasserreaktoren ein, verlängert sich quasi die Verweilzeit und die Menge der minoren Aktinoide im Abfall nimmt entsprechend zu. So geht man heute davon aus, Mischoxide aus Uran und Plutonium nur einmal in Leichtwasserreaktoren zu verwenden.

Grundlegend Abhilfe können hier nur Reaktoren mit schnellem Neutronenspektrum leisten. Will man ganz bewußt Plutonium „verbrennen“, um den ständig wachsenden Bestand auf der Welt zu verringern, bleibt nur der Einsatz solcher Reaktoren (z. B. der Typ PRISM) übrig. Reaktoren mit Wasser als Moderator sind viel zu gute „Brüter“. Handelsübliche Leichtwasserreaktoren haben eine sog. Konversionsrate von 0,6. Mit anderen Worten: Wenn man zehn Kerne spaltet, erzeugt man dabei automatisch sechs neue spaltbare Kerne – hauptsächlich durch Umwandlung von Uran-238 in Plutonium-239. Wenn man also reines Mischoxid einsetzt, hat man immer noch 0,6 x 0,6 = 36% der ursprünglichen Plutonium-Menge. Zum Überdruss auch noch in einer unangenehmeren Isotopenzusammensetzung. Keine besonders wirksame Methode, wenn man die Plutoniumvorräte auf der Welt drastisch verringern will. Völlig absurd in diesem Sinne, ist die Endlagerung kompletter Brennelemente, wie das in Deutschland geschehen soll. Bei dieser Methode sind die Anforderungen an ein Endlager am höchsten.

An dieser Stelle soll Thorium nicht unerwähnt bleiben. Thorium erzeugt den kurzlebigsten Abfall, da der Weg ausgehend von Uran-233 sehr viel länger als von Uran-238 ist und über das gut spaltbare Uran-235 führt. Ein Thorium-Reaktor erzeugt kaum minore Aktinoide, sondern hauptsächlich kurzlebige Spaltprodukte.

Der deutsche Sonderweg

Ursprünglich sind wir in Deutschland auch von einer Wiederaufbereitung der Brennelemente ausgegangen. Wir haben sogar rund 7.000 to in Frankreich und England aufbereiten lassen. Der hochaktive Müll – bestehend aus in Glas gelösten Spaltprodukten und minoren Aktinoiden – wird und wurde bereits nach Deutschland zurückgeliefert. Es werden etwa 3.600 solcher Kokillen in Deutschland in ungefähr 130 Castoren (28 Kokillen pro Castor ) „zwischengelagert“. Bis zum geplanten Ausstieg im Jahre 2022 werden noch etwa 10.000 to Brennelemente hinzugekommen sein.

Die Umstellung von Wiederaufbereitung zu direkter Endlagerung ist ein politischer Geniestreich Rot/Grüner-Ideologen gewesen: Deutschland hat nun das künstlich erschaffene Problem, ein – oder gar zwei – Endlager für zwei verschiedene hochaktive Abfallsorten zu erfinden. Beide von (wirtschaftlich) geringer Menge. Die verglasten Abfälle aus der Wiederaufbereitung sind ziemlich unempfindlich gegenüber Wasser (lediglich Auslaugung) und erfordern einen sicheren Einschluß für lediglich ca. 10.000 Jahre. Direkt eingelagerte Brennelemente müssen wegen ihres Gehalts an Spaltstoff (Uran und Plutonium) sicher vor Wassereinbrüchen geschützt sein, um einen Kritikalitätsunfall zu verhindern. Die schwedische Methode der Kupferbehälter mag ein Hinweis in diese Richtung sein. Teuerer geht nimmer, aber das ist ja auch Programm, damit die Behauptung der „teueren Kernenergie“ erfüllt werden kann. Zu allem Überdruss muß der sichere Einschluß auf diesem Weg für mindestens 200.000 Jahre erfolgen (Faktor 20!), um auf eine gleiche Gefährdung zu kommen. Aber auch das ist ja ausdrücklich gewollt, um die Angstindustrie kräftig anzuheizen.

PLX-R18 – ein Wundermittel gegen die Strahlenkrankheit?

In den letzten Monaten wird immer intensiver über die Entwicklung eines neuen Medikaments zur Behandlung von Strahlenkrankheit berichtet.

Was versteht man unter Strahlenkrankheit?

Die Strahlenkrankheit (acute radiation syndrome (ARS)) tritt nur bei sehr hohen kurzzeitigen Strahlenbelastungen auf. Ab etwa 4 Sv (400 rem) muß man von 50% Todesfällen innerhalb von 30 Tagen ausgehen. Ab etwa 6 Sv (600 rem) muß man von einem Tod innerhalb von 14 Tagen ausgehen. Die Werte dienen nur zur Orientierung, da sie je nach Umständen, sonstigen Belastungen und medizinischer Versorgung des Opfers stark streuen.

Solch hohe Dosen treten nur sehr selten, bei schwersten Katastrophen und widrigsten Umständen auf. Traurige Fälle sind z. B. die ahnungslosen Feuerwehrleute von Tschernobyl, die den offenen und brennenden Reaktor versucht haben zu löschen oder die Seeleute auf sowjetischen U-Booten, die versuchten am laufenden Reaktor Notreparaturen durchzuführen. Auch hier eine Orientierung: In Deutschland dürfen Feuerwehrleute (FwDV 500) nur im Katastrophenfall und einmalig im Leben, einer Dosis von 0,25 Sv ausgesetzt werden.

Solch hohe Strahlenbelastungen, die zum Tode führen, sind nicht einmal beim Reaktorunglück in Fukushima aufgetreten. Arbeitsschutz und Sicherheitstechnik haben bisher immer solche Fälle sicher ausgeschlossen.

Bei der Strahlenkrankheit wird das Immunsystem sehr stark belastet (Gefahr von tödlichen Infektionen als Folgeschaden), das Blut und das blutbildende System und der gesamte Verdauungsapparat schwer geschädigt, wenn nicht zerstört. Als sichtbare Anzeichen tritt Haarausfall und innere Blutungen ein.

Was ist PLX-R18?

Das israelische Pharmaunternehmen Pluristem Therapeutics Inc. gilt als führend auf dem Gebiet der Entwicklung von Medikamenten, die auf Placenta beruhen. Es hat ein Patent für eine Gruppe von Proteinen PLX (PLacental eXpanded) erhalten, die unter anderem besonders wirksam bei Strahlenkrankheit zu sein scheinen.

Bei Tierversuchen mit bestrahlten Mäusen, denen man das Medikament nach einem und nach fünf Tagen gespritzt hat, hat man unmittelbar eine Verbesserung des Blutbildes und eine verblüffend hohe Überlebensrate nach 30 Tagen feststellen können. Die Ergebnisse waren so vielversprechend, daß man nun in den USA weitere Tierversuche durch das National Institute of Allergy and Infectious Diseases(NIAID), einer Unterorganisation der U.S. Gesundheitsbehörde, durchführen will. Sie konzentrieren sich auf die Veränderungen im Blutsystem.

Parallel werden Studien in Japan durchgeführt, die sich auf eine Anwendung in der Strahlenmedizin konzentrieren. Man sieht dort Anwendungen bei speziellen Krebstherapien.

Was sagt uns das?

Noch ist alles im Entwicklungsstadium. Bisher konnte man Strahlenkrankheit praktisch nicht behandeln, sondern den Patienten nur unterstützen. Schwere (Arbeits)-Unfälle sind auch in der Kerntechnik nie auszuschließen. Insofern ist es gut, zusätzliche Behandlungsmethoden zu haben.

Die ersten Anwendungen werden sicherlich im Rahmen von Strahlentherapien erfolgen. Man kann damit vielleicht Patienten unterstützen, die unheilbar an Krebs erkrankt sind. Dies wird schon aus ethischen Gründen erfolgen, denn man kann schließlich niemanden zu Testzwecken verstrahlen.

Wo Licht ist, ist auch Schatten

Ein Medikament gegen Strahlenkrankheit kann selbstverständlich auch militärisch genutzt werden. Es könnte für Soldaten wie die Atropin.-Spritze gegen Giftgas eingesetzt werden. Man muß nicht raten, wer sich für eine solche Entwicklung interessiert und sie vorantreiben wird. Der „Atomkrieg“ könnte einen erheblichen Teil seines (militärischen) Schreckens verlieren und damit die Einsatzschwelle herabgesetzt werden. Keine besonders erfreuliche Aussicht.

Ein weiteres Einsatzgebiet dürfte der Zivilschutz werden. Es ist noch nicht lange her, da geisterte die „schmutzige Bombe“ in der Hand von Terroristen durch die Medien oder der Raketenangriff auf ein Brennelementelager durch „grüne Hirne“. Beides ist zwar eher ausgeschlossen, läßt sich aber hervorragend zur Einwerbung von Forschungsgeldern verwenden. Insofern wird die Entwicklung eher schneller vorangehen.

Da der Autor hoffnungslos fortschrittsgläubig ist, erwartet er im Rahmen der notwendigen Forschungsarbeiten noch weiter verbesserte Erkenntnisse über die biologische Wirkung von ionisierender Strahlung. Immer, wenn ein militärischer Nutzen in Aussicht gestellt wird, wird sehr schnell, sehr viel Geld in die Hand genommen.

Braucht das Leben Strahlung?

Die Erkenntnisse über die Wirkung niedriger Strahlungsdosen schreiten immer weiter voran. Die radikalste Fragestellung dabei ist die Frage nach dem Verhalten von Zellen bei Abwesenheit von ionisierender Strahlung. Die Ergebnisse sind verblüffend – aber der Reihe nach…

Das LNT-Modell

In den 1950er-Jahren einigte man sich weltweit auf einen linearen Zusammenhang, ohne einen Schwellwert (linear no-threshold model; LNT), für den Strahlenschutz. Es ist simpel und damit leicht anwendbar: Man unterstellte, daß die biologischen Schäden (gemeint ist Krebs), die durch ionisierende Strahlung (umgangssprachlich durch Radioaktivität) ausgelöst werden, direkt proportional zur Dosis sind: Die mathematische Funktion ist eine einfache Gerade mit der Steigung 0,05/Sv. Etwas anschaulicher ausgedrückt, wenn man 100 Menschen einer Dosis von 1 SV (Sievert) aussetzt, erkranken davon fünf Menschen (zusätzlich) an Krebs. Mehr steckt nicht dahinter und damit fangen schon die Schwierigkeiten an.

Wie ist man zu dieser einfachen Zahl gekommen? Hauptsächlich durch die Auswertung der Opfer der Bomben auf Hiroshima und Nagasaki. Man hat zehntausende Menschen über Jahre beobachtet und ihre Erkrankungen dokumentiert. Das war der einfache Teil der Aufgabe. Wesentlich schwieriger war schon die Ermittlung der individuellen Strahlendosis, da diese Menschen natürlich keine Meßgeräte getragen haben. Hinzu kamen noch jeweils verschiedene Lebensumstände, Vorerkrankungen etc. Wenn man nun jeden einzelnen Fall in einem Diagramm (Krebserkrankungen über Dosis) aufträgt, kann man streng genommen keinen Punkt eintragen, sondern muß eher einen Klecks verwenden: Weder ist die genaue Dosis zu ermitteln, noch sind die Krebsarten alle gleich, noch kann man sonstige Belastungen (z. B. krebserregende Chemikalien, Umwelteinflüsse, genetische Prägungen etc.) genau erfassen.

In solchen Fällen helfen nur die Methoden der Statistik. Vereinfachend gesagt braucht man eine Wolke aus möglichst vielen Fällen, die möglichst eng zusammenliegen. Sieht das sich ergebende Band nach einer Geraden aus, kann man in guter Näherung eine solche hindurch legen und deren Steigung bestimmen.

Hier ergibt sich aber das Problem, welches seit über 80 Jahren zu heftigsten Diskussionen auch in der Fachwelt führt: Im unteren Teil (kleine Dosen und damit eine geringe Anzahl von Krebsfällen) gibt es kaum Punkte und die streuen auch noch sehr stark. Es ist damit äußerst fragwürdig, den gesamten Bereich – von keiner meßbaren Wirkung, bis zum garantiert kurzfristig eintretendem Strahlentod – durch ein und dieselbe Gerade nachbilden zu wollen. Schon die geringe zusätzliche Anzahl von den ohnehin auftretenden Krebsfällen trennen zu wollen, ist eine schier unlösbare Aufgabe. Hier rächt sich die Statistik: Sie arbeitet stets nur mit Wahrscheinlichkeiten. In dem vorherigen Zahlenbeispiel kann man weder voraussagen, welche fünf Personen von den betrachteten 100 Personen Krebs bekommen, noch ob es exakt fünf Fälle sind. Lediglich, wenn man sehr, sehr viele Menschen mit einem Sievert bestrahlen würde, würde sich die Anzahl der zusätzlichen Krebsfälle (bei diesem Modell!) der Zahl von fünf Prozent annähern.

Schwellwert oder nicht?

Man bezeichnet einen Wert als Schwellwert, wenn sich der Zusammenhang bei einem Modell wesentlich ändert. Für einen Ingenieur ist es nichts ungewöhnliches, Messreihen z. B. abschnittsweise durch unterschiedliche Geraden anzunähern.

Im Arbeitsschutz ist es üblich, für Giftstoffe Schwellwerte zu definieren. Üblicherweise sind dies Dosen, bei denen man auch über ein ganzes Arbeitsleben keine Schädigung feststellen kann. Dahinter steckt eine Alltagserfahrung: Nicht jeder Umgang mit einem Stoff führt sogleich zu einem Schaden. Andrerseits führt ein zu viel – bei jedem Stoff – irgendwann, zu irgendwelchen Schäden.

Bis zur Politisierung der Strahlung durch die „Atombomben“, ist man auch mit ionisierender Strahlung sehr erfolgreich so pragmatisch umgegangen. Man hatte schon wenige Jahre nach der segensreichen Erfindung der Röntgenstrahlung festgestellt, daß diese zu Erkrankungen bei dem medizinischen Personal führen konnte. Man analysierte die Fälle und definierte einen (zulässigen) Schwellwert für den Arbeitsschutz.

Energie und Leistung

Schon jedem Schüler sollte der Zusammenhang von Energie und Leistung vertraut sein. Es macht einen gewaltigen Unterschied, ob ich eine Leistung (W oder J/s) für Bruchteile einer Sekunde aufbringe oder über Stunden verteilt. Eindrucksvolles Beispiel hierfür, ist ein Laser-Strahl: Eine relativ geringe Energie reicht aus, um zwei Stahlplatten miteinander zu verschweißen. Der „Trick“ ist, die Energie in einem sehr kurzzeitigen Blitz zu senden. Über Stunden angewendet, würde sie den Stahl nicht einmal zum glühen bringen.

Warum glaubte man nun, diese Erfahrungstatsachen bei der ionisierenden Strahlung außer Kraft setzen zu können? Es war schlicht ein unvollständiges und damit leider falsches Verständnis der biologischen Zusammenhänge. Man hatte erkannt, daß bei der Zellteilung die DNA kopiert und damit die Erbinformationen weitergegeben würden. Man wußte, daß bereits ein Partikel einen DNA-Strang zerschlagen konnte. Man glaubte, wenn nun der Fehler beim kopieren an die Tochterzelle weitergegeben würde, müßten die Fehler irgendwann so häufig sein, daß eine „Krebszelle“ entstanden wäre. Eine übervorsichtige oder abstruse Vorstellung – ganz nach Standpunkt des Betrachters. Der gesunde Menschenverstand sagt einem schon, daß es einen gewaltigen Unterschied macht, ob man täglich nur einen Schnaps trinkt oder gleich die Flasche „auf ex“ leert. Die ganze Pharmakologie müßte neu geschrieben werden, wenn es keinen Unterschied machte, ob man seine Tabletten nach Anwendungsvorschrift einnimmt oder gleich die ganze Schachtel auf einmal in der Apotheke schluckt. Ausgerechnet bei der ionisierenden Strahlung sollte der seit Jahrhunderten bekannte Grundsatz: Die Dosis macht das Gift, nicht gelten.

Die Kollektivdosis ist schlichtweg Unsinn. Nach dem Motto, wenn wir einer Million Menschen je einen Aspirin geben, haben wir X Tote, weil wir ja wissen und nachweisen können, daß die Einnahme von y Schachteln Aspirin zum Tode führt. Ganz im Gegenteil nehmen Millionen Menschen weltweit täglich eine Tablette Aspirin ein, um z. B. das Risiko von Herzinfarkten drastisch zu senken.

Hormesis

Damit kommen wir zur Hormesis. Darunter wird verstanden, daß ein und derselbe Stoff, in geringen Mengen verabreicht, eine genau gegenteilige Wirkung haben kann. Seit Anbeginn zeigte sich bei „Niedrigstrahlung“ das Phänomen deutlich geringerer Krebsfälle, als nach dem LNT-Modell zu erwarten waren. Fast alle Studien mit Arbeitern aus der kerntechnischen Industrie, Opfern von „Atombomben“ und nicht zuletzt den Reaktorunglücken von Tschernobyl und Fukushima zeigten sogar unter dem Erwartungswert für die entsprechende Bevölkerungsgruppe liegende Werte. Jahrzehntelang versuchte man sich besonders bei Bergleuten mit der besonderen medizinischen Fürsorge und der Vorauswahl („Survival of the Fittest“) aus der Affäre zu stehlen. Bis man sich die Frage stellte, ob nicht ionisierende Strahlung in bestimmten geringen Dosen sogar eine den Krebs verhindernde Wirkung zeigte. Plötzlich war auch die „Radontherapie“ keine Esoterik mehr.

Seit man in der Molekularbiologie große Fortschritte erzielt hat und Gene und die DNA praktisch beobachten kann, kann man diese Phänomene sogar naturwissenschaftlich erklären. Es passieren ständig, in jeder Zelle, zehntausende DNA-Fehler. Hauptsächlich sind dafür Radikale verantwortlich. Es gibt daher einen Reperaturmechanismus, der die DNA größtenteils wieder repariert. Darüberhinaus existiert noch eine weitere Ebene, die Zerstörung entarteter Zellen. Erst wenn alle Reparatur- und Schutzmechanismen versagen, kann sich „Krebs“ ausbilden. Hieraus ergibt sich auch der Zusammenhang von (permanenten) kleinen und kurzzeitig hohen Dosen: Mit einer geringen Anzahl von Fehlern wird das Reparatursystem leicht fertig. Ab einer gewissen Dosis entsteht ein „Sättigungsangriff“, der die Abwehr schlicht weg überfordert.

Ohne diese „Selbstheilungskräfte“ wäre überhaupt kein Leben möglich. Man kann nun in Versuchen zeigen, daß diese Kräfte durch ionisierende Strahlung (in der richtigen Dosis!) motiviert und unterstützt werden. Ein Umstand, der bereits in der Strahlentherapie Anwendung findet. Um Krebszellen zu zerstören, braucht man punktuell sehr hohe Dosen, die natürlich das umliegende gesunde Gewebe stark belasten. Deshalb trainiert man in bestimmten Fällen vor der eigentlichen Behandlung das gesunde Gewebe durch mehrere Bestrahlungen mit niedrigen Dosen.

Der Ultimative Test

Wenn es eine Hormesis gibt, was passiert eigentlich, wenn man von Zellen die Strahlung fern hält? Eine einfache Fragestellung, aber ein schwer durchführbares Experiment. Es gibt nämlich überall ionisierende Strahlung: Aus dem All und aus der Erde – die sogenannte Hintergrundstrahlung. Dieser Strahlung war und ist jedes Leben seit Milliarden Jahren ausgesetzt. Leben hätte sich gar nicht entwickeln können, wäre es nicht gegen ionisierende Strahlung überlebensfähig gewesen. Gott sei es gedankt, ist die Natur etwas einfallsreicher, als die Anhänger des LNT-Modells meinen.

Schon in den 1990er Jahren wurde in Italien ein Experiment mit Hefezellen durchgeführt. Hefezellen sind ein Standardobjekt der Molekularbiologen. Sie wurden in ein Labor 1300 m tief unter einem Bergmassiv gezüchtet. Hier unten war die Strahlung tausendfach kleiner, als in dem oberirdischen Vergleichslabor. Anschließend wurden beide Versuchsgruppen Chemikalien ausgesetzt, die starke genetische Veränderungen auslösen können. Es zeigte sich, daß die Fehlerrate bei den „vor Strahlung geschützten“ Zellen höher war.

Inzwischen werden solche Experimente ausgeweitet. In den USA hat man z . B. in einem Salzstock in Carlsbad ein Labor in 650m Tiefe eingerichtet. Die dortige Salzschicht besteht aus sehr reinem Kochsalz und enthält damit nur sehr wenig „radioaktive Stoffe“. Die Deckschicht schirmt die kosmische Strahlung entsprechend ab. Die „Bakterienzucht“ wird in einem Tresor mit 15 cm dicken Stahlwänden aus Stahl vor dem II. Weltkrieg durchgeführt. Solch alter Schrott wird inzwischen hoch gehandelt, da er noch nicht mit Fallout aus „Atombombenversuchen“ etc. belastet ist. Durch diese Maßnahmen gelang es, eine Strahlung von 0,17 mSv pro Jahr innerhalb des Tresors zu erreichen. Dies ist der geringste Wert, der bisher auf der Erde erzeugt werden konnte.

In der Versuchsanordnung wurden nun als besonders strahlenempfindlich bekannte Bakterien Shewanella oneidensis und als besonders strahlungsresistente Bakterien Deinococcus radioduruans gezüchtet. In regelmäßigen Abständen wurde die DNA der Versuchsgruppen auf Schäden untersucht. Um andere Einflüsse ausschließen zu können, wurden die Bakterien mehrfach zwischen den Orten mit verringerter Strahlung und normaler Strahlung hin und her getauscht.

An dieser Stelle müssen wir uns noch einmal die zentrale Aussage des LNT-Modells verdeutlichen:

  • Jedes „Strahlungsereignis“ schädigt die DNA. Deshalb gilt: Je weniger Strahlung, um so weniger Schäden. Nach dem LNT-Modell gibt es einen Nullpunkt, an dem es infolge der nicht vorhandenen Strahlung auch keine Schäden geben dürfte.
  • Die aufgetretenen Schäden addieren sich. Je länger man eine Probe bestrahlt, um so mehr Schäden treten auf.

Demgegenüber stehen die Messergebnisse des Versuches: Beide Bakterienarten weisen „ohne Strahlung“ mehr Schäden auf als „mit Strahlung“. Besonders verblüffend ist, daß sich die Schäden innerhalb von 24h normalisieren, wenn man die Proben wieder der Hintergrundstrahlung aussetzt. Schützt man die Probe wieder vor Strahlung, nehmen die Schäden auch wieder zu. Dies scheint in beliebigem Wechsel möglich.

Sollten sich diese Erkenntnisse weiter verdichten, würde es bedeuten, daß das LNT-Modell schlicht weg, falsch ist. Benutzt man den gesunden Menschenverstand, ist dies auch nicht besonders überraschend: Es hat immer schon Strahlung auf der Erde gegeben. Früher sogar mehr als heute (Halbwertszeit z. B. von Uran, Kalium etc., Sonnenaktivitäten und unterschiedliche Atmosphäre). Vielleicht wäre ohne Strahlung gar kein Leben möglich?

ALARA

Bei diesen Forschungsergebnissen handelt es sich nicht einfach um irgendwelche Trivialitäten, sondern sie sind hoch brisant. Bisher galt weltweit das Prinzip beim Strahlenschutz, die Strahlenbelastung so gering wie möglich zu halten (As Low As Reasonably Archievable; ALARA). Eine ganze Industrie mit Milliardenumsätzen lebt davon. Geld, das man nutzbringender hätte einsetzen können. Konnte man bisher noch mit Fürsorglichkeit und Vorsicht argumentieren, ist es spätestens nach dem Unglück von Fukushima endgültig damit vorbei. Dort hat man eindeutig das Kind mit dem Bade ausgeschüttet. Es sind viel mehr Menschen seelisch und körperlich durch ALARA zu Schaden gekommen, als durch die vorhandene Strahlung. Es wäre besser gewesen, die Menschen hätten in ihrer Umgebung verbleiben können. Evakuierungen wären nur in ganz wenigen Fällen und auf freiwilliger Basis nötig gewesen. Gut gemeint, war auch hier nicht, gut gemacht. Ideologie kann töten. Die Aufklärung der Bevölkerung ist daher dringend notwendig.

PRISM das moderne Entsorgungszentrum? Teil 2

Bei jeder öffentlichen Diskussion ist der „Atommüll“ der Aufreger schlecht hin. Spätestens an diesem Punkt, kommt meist die Ablehnung jeglicher Nutzung der Kernenergie in Deutschland. Die Propaganda hat hier ganze Arbeit geleistet. Es macht nicht einmal stutzig, daß dies schon in unseren Nachbarländern anders gesehen wird.

Was ist eigentlich Abbrand?

Dieser Begriff hat sich wegen seiner Anschaulichkeit so durchgesetzt. Einen Kernreaktor kann man nur mit der typischen Konzentration von spaltbarem Material – eine übliche Bezeichnung für U235 oder Pu239 – betreiben. Bei Reaktoren mit schwerem Wasser reicht schon Natururan aus, bei Leichtwasserreaktoren ist eine Anreicherung auf 3 bis 5 Prozent nötig und bei schnellen Reaktoren sogar bis zu 20%. Haben die Brennelemente nun eine gewisse Zeit im Reaktor Wärme produziert, würde irgendwann die Kettenreaktion zusammen brechen, wenn man nicht einige Brennelemente auswechseln würde. Angestrebt wird immer ein möglichst hoher Abbrand, was ein anderer Ausdruck für die Spaltung von Kernen ist. Gebräuchliche Maßeinheit hierfür ist MWd/to SM (Megawatt Tage pro Tonne Schwermetall). Wenn man 1gr Uran bzw. Plutonium spaltet, wird ziemlich genau ein MWd – oder 24000 kWh – Wärme frei. Eine gewaltige Menge, mit der man schon mitten in der „Atommüll-Frage“ steckt. 2014 wurde in Deutschland 55970 GWh elektrische Energie durch Windkraft erzeugt. Hätte man diese Strommenge in den Kernkraftwerken erzeugt, hätten dafür rund 7000 kg Uran gespalten werden müssen. Ein Würfel von 72 cm Kantenlänge. Warum also die ganze Aufregung?

Wieso Recycling?

Für den Windstrom wären ungefähr 7 GW Leichtwasserreaktoren (gegenüber 39 GW Windmühlen) nötig gewesen. Dafür hätte man erst einmal über 1000 to Natururan fördern müssen, die nach der Anreicherung zu rund 186 to Reaktorbrennstoff verarbeitet worden wären – der berüchtigte deutsche Atommüll, mit seiner „ungeklärten Entsorgungsfrage“. An dieser Stelle wird schon mal klar, warum „Atomkraftgegner“ monatelang – oft gewalttätig – gegen die einst geplante Wiederaufbereitungsanlage gekämpft haben: 186 to sind mehr als 25 mal so viel, wie 7 to. Gerne wird auch noch das geförderte Natururan dem „zu entsorgenden“ Müll hinzugerechnet und fälschlicherweise behauptet, eine Wiederaufbereitungsanlage würde zusätzlichen Atommüll erzeugen. Flugs ist man nach dieser Zahlenakrobatik auf der Suche nach einem gigantischen Endlager. Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen.

An dieser Stelle ist es an der Zeit, die drei grundsätzlichen Möglichkeiten kurz zu betrachten:

  1. Man verbuddelt alle benutzten Brennelemente in einem „Endlager“. Schon hier gibt es zwei deutlich unterschiedliche Varianten: Die „Schwedische-Lösung“ eines Langzeitlagers hunderte Meter unter Granit. Die Brennelemente werden in Kupferbehälter eingeschweißt und sollen ausdrücklich rückholbar – eventuell erst in Jahrhunderten – eingelagert werden. Die „Deutsche-Endlager-Lösung“ mit dem Anspruch eines „absolut sicheren“ Einschlusses über „geologische Zeiträume“. Wegen dieses Anspruches hat man auch folgerichtig gleich Fachkräfte für Glaubensfragen und nicht Ingenieure mit der Suche betraut.
  2. Man geht – wie z. B. in Frankreich – den Weg über eine Aufbereitung und Wiederverwendung im vorhandenen System. Ein abgebranntes Brennelement eines Druckwasserreaktors enthält immer noch rund 95% Uran, 1% Transurane und 4% Spaltprodukte. Das Uran wird wieder neu angereichert, das Plutonium zu sog. Mischoxid-Brennelementen verarbeitet und lediglich die Spaltprodukte und minoren Aktinoiden verglast und als „Atommüll endgelagert“. Auch dieser bewußt rückholbar, denn er enthält wertvolle Rohstoffe. Nachteil dieses Weges ist die erforderliche Reinheit von Uran und Plutonium, um sie in vorhandenen Leichtwasserreaktoren wieder einsetzen zu können. Alle minoren Aktinoide werden deshalb den Spaltprodukten zugeschlagen und machen damit diesen Atommüll sehr langlebig.
  3. Man betrachtet die abgebrannten Brennelemente als Brennstoff für schnelle Reaktoren. Die dort verwendeten metallischen Brennstoffe haben keine besonderen Anforderungen an die Reinheit. Man kann deshalb zu Aufbereitungsverfahren übergehen, die Uran zusammen mit allen Transuranen (also auch Plutonium und den minoren Aktinoiden) abscheiden. Hier liegt umgekehrt das Bestreben, möglichst reine Spaltprodukte zu erlangen. Man hat damit einen relativ kurzlebigen (Gefährdungspotential einiger Jahrzehnte bis Jahrhunderte) Abfall, der automatisch ein sehr wertvolles „Erz“ ergibt. Eine „Endlagerung“ wäre nicht nur unnötig, sondern eher Verschwendung. Zumal die relativ geringen Mengen (siehe oben) einfach und sicher zu lagern sind.

Grundsätzlich gibt es auch noch andere Wege. Verwendung des abgebrannten Brennstoffes in Schwer-Wasser-Reaktoren. An diesem Weg wird zielstrebig in Korea gearbeitet oder die „Entschärfung“ des Atommülls in Beschleunigern (Versuchsanlage in Belgien) und Spallationsquellen (USA). Nur die Politik in Deutschland, hat sich in einer „Endlösung“ mit „Atomausstieg“ verrannt.

Warum soll „Atommüll“ eigentlich gefährlich sein?

Spaltprodukte wandeln sich über sog. Zerfallsketten um und senden bis zum Erreichen ihres stabilen Endglieds Strahlung aus. Das ist eigentlich überhaupt kein Problem, denn man kann die Quelle leicht und wirksam abschirmen (z. B. Castor-Behälter). Niemand ist gezwungen, Atommüll zu essen. Das mag sich flapsig anhören, ist aber wörtlich zu nehmen. Erst wenn radioaktive Stoffe unmittelbar in den Körper gelangen, können sie gefährlich werden. Dabei kommt es nicht nur auf die Menge, sondern auch den chemischen Zustand an. Plutonium ist z. B. rein chemisch betrachtet, ein Knochengift. Die biologische Verweildauer (bis es ausgeschieden ist) ist z. B. entscheidend abhängig von der Wertigkeit, in der es vorliegt und damit seiner Löslichkeit im Körper. Jod wird selektiv in der Schilddrüse angereichert. Strontium ist dem Kalzium verwandt und ersetzt dies gern in den Knochen usw.

Radioaktive Stoffe können überhaupt erst gefährlich werden, wenn sie in die Biosphäre gelangen und letztendlich über die Nahrungskette in den Menschen. Aber auch dann ist noch die Frage der Dosis zu stellen. Wir haben sehr genaue Kenntnisse über Wege und Wirkungen. Es gibt für jeden Stoff einen Grenzwert z. B. für Trinkwasser. Diese sind ausnahmslos sehr konservativ festgesetzt. Wer sich einmal mit dieser Materie beschäftigt, wird feststellen, daß selbst eine zigfache Überschreitung der Grenzwerte noch zu keiner akuten Gefährdung einer durchschnittlichen Person führt. Wer anderes behauptet, glaubt auch an die heilende Wirkung irgendwelcher esoterischen Amulette. Möge ihm sein Aberglaube erhalten bleiben, aber versuche er nicht, sein Unwissen als Wissenschaft zu verkaufen und anderen Menschen Angst einzujagen.

Wären radioaktive Stoffe auch nur annähernd so gefährlich, wie „Atomkraftgegner“ gern behaupten, wäre die Menschheit längst ausgestorben. Man denke nur an die Kinder der fünfziger Jahre. Es wurden Tonnen radioaktiver Stoffe bei den Kernwaffentests in die Atmosphäre freigesetzt. Noch heute kann man diese Belastungen weltweit in den Knochen und Zähnen der Betroffenen messen. Wohlgemerkt messen, nicht nur vermuten. Wir haben zwar keine direkten Sinne für Strahlung, aber unsere Meßtechnik ist so verfeinert, daß immer die „Isotopenzusammensetzung“ helfen muß, wenn andere forensische Verfahren längst versagt haben.

Wieso unterirdische Lager?

Für die Gefährlichkeit der radioaktiven Abfälle gibt es zwei wesentliche Einflüsse: Zeit und Konzentration. Je länger es dauern würde, bis die radioaktiven Stoffe wieder in die Biosphäre gelangen, je weniger gibt es überhaupt noch von ihnen. Der Zerfall ist durch nichts aufzuhalten und er geht immer nur in die eine Richtung – Umwandlung in stabile Atome. Ein typisches deutsches Brennelement (Anfangsanreicherung 3,3%, Abbrand 34000 MWd/tU) enthält nach der Entladung 3,62 % Spaltprodukte. Bereits nach einem Jahr sind 3% in einem stabilen – also nicht mehr radioaktiven – Zustand. Zu den 0,62% radioaktiven Spaltprodukten kommen noch 0,9% Plutonium und 0,72% minore Aktinoide. Nur die beiden letzten Gruppen, sind sicherheitstechnisch von langfristigem Interesse.

Man verglast nun die Spaltprodukte und die minoren Aktinoide. Diese „radioaktiven Glasblöcke“ würden in 100 000 Jahren etwa zu 2% aufgelöst, wenn sie im Wasser stehen würden. Das ist die erste Barriere. Wenn sie sich so langsam auflösen, würde dies zu sehr geringen Konzentrationen im Wasser führen. Umgangssprachlich wäre das Wasser nur leicht radioaktiv. Jetzt müßte es aber noch mehrere hundert Meter durch etliche Gesteins- und Bodenschichten aufsteigen. Dies geht nicht nur extrem langsam, noch erfolgt es in einer Rohrleitung, sondern durch einen „riesigen Ionentauscher“. Es kommt nur sehr wenig von dem, was unten ins Wasser überhaupt rein geht, auch oben an. Umgangssprachlich filtert der Boden fast alles raus.

Damit kein Mißverständnis entsteht: Sicherheitstechnisch ist es überhaupt kein Problem, radioaktive Abfälle in einem speziellen Bergwerk gefahrlos und „für ewig“ zu vergraben. Allerdings muß diese Lösung einem Ingenieur widerstreben. Warum soll man Papier und Plastikbecher aussortieren, wenn man Brennelemente einfach am Stück wegwirft?

Wie gefährlich ist gefährlich?

Die Maßeinheiten in der Kerntechnik sind für Menschen, die nicht täglich damit umgehen, wenig verständlich. Dies wird von der Betroffenheitsindustrie weidlich ausgenutzt. Genüsslich wird mit riesigen Zahlen an Becquerel und Sievert nur so um sich geschmissen. Eigentlich ist der psychologische Trick einfach durchschaubar: So schrecklich viel, muß doch einfach gefährlich sein. Es kann also nicht schaden, die Angelegenheit etwas auf die Ebene der Alltagserfahrungen zurück zu holen.

Fangen wir mal mit der guten alten Maßeinheit der Madame Curie an: 1 Curie (Ci) entspricht 3,7 x 1010. Becquerel (Bq) oder anschaulich 1 Gramm Radium. Radium wurde bis in die 1930er Jahre in Medikamenten, Kosmetika und Leuchtstoff für Instrumente und Uhren verkauft. Bis man seine krebserzeugende Wirkung (in hoher Konzentration) erkannte.

Der Abfall aus der Aufbereitung von Brennelementen aus Leichtwasserreaktoren mit allen Spaltprodukten, minoren Aktinoiden und einem Rest von 0,5% Uran und 0,5% Plutonium (alles bezogen auf den ursprünglichen Gehalt im Brennstab vor der Aufbereitung) hat ein Jahr nach der Entladung ziemlich genau eine Radioaktivität von 106 Ci pro Tonne Schwermetall .(im ursprünglichen Brennstab). Die Radioaktivität der Spaltstoff-Lösung (nicht des Glasblockes!) entspricht also ziemlich genau der von Radium. Entscheidend ist, daß die Radioaktivität der Aktinoide zu diesem Zeitpunkt erst 1% ausmacht. Sie sind halt sehr langlebig und tragen damit noch wenig zur Aktivität bei. Nach etwa 500 Jahren ist der Schnittpunkt erreicht: Die Aktivität der Spaltprodukte entspricht der Aktivität der Aktinoide mit deren Zerfallsprodukten. Die Radioaktivität des Atommülls aus der Wiederaufbereitung ist auf rund 0,01% des ursprünglichen Wertes nach der Entladung abgefallen. Wären keine langlebigen Aktinoide im Abfall enthalten, wäre jetzt die Gefahr faktisch vorbei.

Ein anderer Versuch zur Veranschaulichung ist der Vergleich zwischen der Aktivität des Atommülls mit der ursprünglich zur Energieerzeugung geförderten Uranmenge. Uranerz enthält auch immer „Atommüll“, da durch die spontanen Zerfälle auch Spaltprodukte erzeugt worden sind (z. B. Radon). Diese Belastung mit Radionukliden in Gebieten mit Uranlagerstätten (z. B. Sachsen, Tschechien etc.) ist offensichtlich für den Menschen tolerierbar. Wäre das nicht der Fall, müßten überdurchschnittlich viele Sterbefälle in diesen Gebieten nachweisbar sein. Wirft man komplette Brennstäbe weg, wird diese Aktivität erst nach rund 30 000 Jahren erreicht. Solange hat man also zusätzliche Radioaktivität in die Natur eingebracht. Spaltet man das Plutonium in der Form von Mischoxid-Brennelementen in Leichtwasserreaktoren, wird dieser Zeitraum auf rund 1000 Jahre verkürzt. Ein doppelter Ertrag: Das langlebige Plutonium ist weg und für die damit zusätzlich erzeugte Energie braucht kein zusätzliches Uran gefördert werden.

Ein weiterer Vergleichsmaßstab ist Pechblende. Verbuddelt man komplette Brennstäbe, wird die Aktivität von Pechblende für diesen Atommüll auch nach über einer Million Jahren nicht erreicht. Verbuddelt man den verglasten Abfall nach der Wiederaufbereitung, wird der Wert schon nach etwa 80 000 Jahren erreicht. Entfernt man auch noch die Aktinoiden aus diesem Abfall, nach wenigen hundert Jahren (je nach Reinheit). An dieser Stelle dürfte jedem die Bedeutung der „Entsorgungsfrage“ für Pseudo-Umweltschützer klar geworden sein. Als die Grünen die Wiederaufbereitung in Deutschland gekippt hatten, glaubten sie das Totschlagargument gegen die Kernenergie gefunden zu haben: Die selbsterschaffene Gefahr für geologische Zeiträume, die man angeblich den Nachfahren aufbürdet. Politisch besser zu verwenden, als jeder Hexenwahn im Mittelalter.

Zusammenfassend kann an dieser Stelle noch einmal festgehalten werden:

  • „Atommüll“ kann selbst in seiner ursprünglichen Form – als abgebrannte Brennelemente – problemlos und ohne Gefahr für Mensch und Umwelt unterirdisch oder auch oberirdisch in technischen Bauten gelagert werden. Radioaktivität ist natürlich und klingt immer von allein ab (anders als z. B. Asbest oder Quecksilber, die in der Tat „ewig bleiben“). Die Gefahr, die von radioaktiven Stoffen ausgeht, ist somit zeitlich begrenzt. Die „ethische Dimension“ bezieht sich deshalb weniger auf die momentane Gefahr, als auf den Aufwand und die daraus resultierenden Kosten für zukünftige Generationen. Es ist das ewig gleiche Problem, einer jeden Mülldeponie. Kerntechnik ist in diesem Sinne keinesfalls anders, als z. B. Chemie, Landwirtschaft (z. B. Bodenerosion) oder Fischerei (unwiederbringliche Ausrottung ganzer Arten) zu betrachten. Jede Form der Nutzung von „Natur“ verändert diese dauerhaft.
  • Die Kerntechnik ist der einzige Industriezweig, der sich von der ersten Stunde an, Gedanken über seine Umwelteinflüsse gemacht hat. Der Gedanke des „Recycling“ wurde überhaupt erst durch sie populär. Man vergleiche dies mal mit anderen Zweigen der Energietechnik, in denen bis heute, nach wie vor, immer nur auf Umweltschäden reagiert wird. Paradebeispiel ist die Windkraft-Industrie (Vögel, Fledermäuse, Schweinswale, Infraschall usw.) im Verleugnen absehbarer Schäden. Kohle- und Ölindustrie sind dagegen bereits zu aktiven Umweltschützern mutiert.
  • Kernenergie ist unbestritten der sicherste Zweig der Energieerzeugung (Arbeitsschutz = Menschenschutz). Von Anfang an, war man bestrebt, die Nachteile so gering wie möglich zu halten. In welchem anderen Industriezweig gibt es sonst den Grundsatz, die Auswirkungen stets so gering wie möglich zu halten – unabhängig von den Kosten? Im Strahlenschutz und bei der Abgabe von radioaktiven Stoffen bereits mit absurden Auswirkungen.

Der Vorwurf einer angeblich ungelösten Entsorgungsfrage, ist jedenfalls absurd bis böswillig. Je nach Standpunkt und Bildungsgrad.

Das Purex-Verfahren

Wie der Name schon sagt – Plutonium-Uranium Recovery by Extraction – dient der Purex-Prozeß zur Gewinnung von Uran und Plutonium mit möglichst hoher Reinheit. Alles andere (alle Spaltprodukte ob stabil oder radioaktiv und die minoren Aktinoide) ist Abfall. Günstig, wenn man daraus neue Brennelemente für Leichtwasserreaktoren herstellen will, ungünstig für den „Atommüll“, der dadurch besonders langlebig wird.

Es handelt sich um eine Flüssig-Flüssig-Extraktion: Es wird Wasser und Öl gemischt. Diese beiden Flüssigkeiten trennen sich wieder von allein. Findet man nun ein Stoffpaar mit möglichst unterschiedlichem Lösungsvermögen für den gewünschten Stoff, hat man eine einfache Möglichkeit zur Gewinnung gefunden. Es wird aus dem abgenutzten Brennstoff mittels konzentrierter Salpetersäure eine wässrige Lösung hergestellt. Dieses genau eingestellte „Salzwasser“ (Nitrate) wird nun in einer Pulskolonne intensiv mit dem „Öl“ gemischt. Das „Öl“ besteht aus rund 70% Kerosin, in dem rund 30% Tributylphosphat aufgelöst sind. Dieses „Öl“ löst Uran und Plutonium wesentlich besser als andere Salze. Im ersten Schritt gehen etwa 98% davon von der wässrigen in die organische Lösung über.

Für das Verständnis ist wichtig, daß die Löslichkeit relativ ist. Mit anderen Worten, es geht nie alles Uran und Plutonium von der wässrigen Lösung über, dafür aber auch immer einige Spaltprodukte. Man muß das Verfahren also mehrmals wiederholen (Kaskade). Üblich ist eine geforderte Reinheit von 99,9% bei den Endprodukten Uran und Plutonium. Andererseits geht man von bis zu 0,5% Uran und 0,5% Plutonium (beides auf die ursprüngliche Menge im Brennstab bezogen) im Abfallstrom aus. Man hat also nicht nur die ursprünglichen rund 0,07% minoren Aktinoide (Neptunium, Americium, Curium) sondern auch bis zu 0,05% Uran und 0,0005% Plutonium als langlebige α-Strahler im Abfall. Zusammen mit den rund 3,06% Spaltprodukten. Diese Brühe wird nun aufkonzentriert und später verfestigt (kalziniert) und in Glas eingeschmolzen. Das ist das Produkt, welches z. B. aus England und Frankreich zur Endlagerung als „Atommüll“ nach Deutschland zurück geliefert wird. In diesem „Atommüll“ entspricht der Anteil an α-Strahlern also etwa 4%.

Eine Wiederaufbereitungsanlage ist kein Kernkraftwerk, sondern eine reine Chemiefabrik und erzeugt damit auch keinen „Atommüll“. Dies wird immer wieder fälschlich behauptet. In einer Wiederaufbereitungsanlage werden die bereits angelieferten radioaktiven Stoffe lediglich umsortiert und anders konditioniert (z. B. verglast).

Pyrometallurgische Verfahren

Will man den wiedergewonnenen Brennstoff nicht wieder in Leichtwasserreaktoren, sondern in schnellen Reaktoren verwenden, erhält man ein gänzlich anderes Anforderungsprofil. Die Reinheit von Uran und Plutonium spielt – wegen der generell kleineren Einfangquerschnitte – nur noch eine untergeordnete Rolle. Es wird damit möglich, alle Aktinoiden zusammen abzutrennen und als Brennstoff erneut zu verwenden. Es spielt auch keine Rolle, ob einige Spaltprodukte mit durchrutschen. Viele sehen den Vorteil dieses Brennstoffgemisches im Schutz gegen die Weiterverbreitung von Kernwaffen: Es ist ohnehin für den Bau von Kernwaffen völlig ungeeignet. Darüber hinaus, ist der Transport und die Handhabung wegen der erhöhten Strahlung kaum im Verborgenen zu machen.

Die abgenutzten Brennstäbe werden in geschmolzenem Salz aufgelöst. Dabei trennen sich bereits alle leicht flüchtigen Bestandteile (z. B. Edelgase) ab. In das Salzbad tauchen die Elektroden ein. Die Aktinoiden scheiden sich gemeinsam an der Kathode als eine Art „Metallschwamm“ ab. Die Spaltprodukte bleiben im Salzbad gelöst und reichern sich dort an. Aus ihr werden zwei verschiedene „Abfallformen“ zur Lagerung hergestellt: Eine metallische Matrix, in der alle Edelmetalle eingelagert werden und ein keramisches Produkt, in dem die Spaltstoffe in mineralischer Form (Metalle der I. und II. Gruppe und die Halogene) vorliegen. Beides sehr stabile Formen, die direkt einem unterirdischen Lager zugeführt werden könnten. Man könnte sie dort in Bohrlöchern versenken. Vielleicht sollte man hier noch einmal daran erinnern, daß diese Form des Atommülls nach wenigen hundert Jahren nur noch wie gewöhnliches Uranerz strahlt – also einem Stoff, mit dem Bergleute ohne große Schutzmaßnahmen umgehen können.

Der „Metallschwamm“ der Kathode wird nun unter Schutzgas in einem Induktions-Tiegel eingeschmolzen und üblicherweise mehrere Stunden bei bis zu 1400 °C gehalten. Die Schmelze homogenisiert sich. Es können auch weitere Legierungsbestandteile hinzugefügt werden. Schließlich erfordert jeder Brennstab im Reaktor (idealer weise) eine etwas andere Zusammensetzung. Die Legierung kann auch in Formen aus Graphit zu Barren vergossen werden. Üblicherweise werden aber direkt dünne „Stäbe“ zur Herstellung neuer Brennstäbe abgegossen. Ein Verfahren, ist das Gießen in dünne Rohre aus Quarzglas, die während des Abgusses in einer Zentrifuge rotieren. Durch die Zentrifuge bekommt man besonders hochwertige Stäbe. Das Ausformen ist durch Zerschlagen der Glasröhren besonders einfach.

Die Brennstäbe werden aus Stahlrohren (H9) gebildet, in die nun die gegossenen Stücke eingesteckt werden. Der Querschnitt der Gußstücke beträgt nur etwa 75% der Innenfläche der Rohre, da der Brennstoff durch die Bestrahlung sehr stark anschwillt. Damit überhaupt eine gute Wärmeübertragung zwischen Brennstoff und Hülle stattfinden kann, werden die Stäbe mit flüssigem Natrium ausgegossen. Dies geschieht sehr langsam auf Rütteltischen, damit auch kleinste Gasblasen aufsteigen können. Abschließend werden die Rohre gasdicht verschweißt. Die Rohre sind nicht auf ihrer ganzen Länge mit Brennstoff gefüllt, sondern haben oben einen Gasraum als Puffer, in dem sich später Spaltgase ansammeln können. Dieser Gasraum ist mit einer individuellen Gasmischung gefüllt. Wird ein Brennstab im Reaktor undicht, kann man ihn später durch eine Analyse der Isotopenzusammensetzung des „Abgases“ genau identifizieren. Solche Messmethoden sind für den Betrieb sehr wichtig, da flüssiges Natrium nicht durchsichtig ist, was Inspektionen sehr erschwert.

Man muß sich immer vor Augen halten, daß die Abbrände bei schnellen Reaktoren sehr viel höher als bei Leichtwasserreaktoren sind. Man geht dadurch auch mit wesentlich kleineren Brennstoffmengen (bezogen auf die erzeugte elektrische Energie) um. Eine solche Wiederaufbereitung und Brennstoffproduktion hat gegenüber den klassischen industriellen Anlagen eher den Charakter einer Manufaktur. Die Abschirmung ist kein Problem – es genügen übliche heiße Zellen. Die Handhabung ebenfalls nicht, da es sich um recht überschaubare Vorgänge handelt, die sich leicht automatisieren lassen. Es spricht also nichts dagegen, eine solche Anlage direkt auf dem Gelände des Kraftwerks zu errichten. Transport- und Sicherheitsrisiken werden damit erheblich verringert. Den Abfall könnte man ebenfalls in Bunkern auf dem Gelände lagern. Da die Strahlung recht schnell abklingt, könnte man die Entscheidung zwischen verbuddeln oder nutzen bis zum endgültigen Abbruch der gesamten „Energieerzeugungsanlage“ vertagen. Immerhin sind rund 50 % der Spaltprodukte schon mal seltene Erden.

Medikamente gegen Strahlenschäden

Eine Betrachtung zur Strahlung

In der deutschen Öffentlichkeit wird γ-Strahlung auf immer seltsamere Art und Weise doppeldeutig diskutiert: Stammt sie aus einer medizinischen Apparatur (Krebstherapie), wird sie als gut und hilfreich empfunden, stammt sie aus der Nutzung der Kernenergie („Atommüll“), wird sie durchweg abgelehnt. Selbst die Alltagserfahrung des „die Menge macht’s“, scheint hier außer Kraft gesetzt zu sein. Wie anders soll man es sonst deuten, daß geringste Dosen bei einem Reaktorstörfall (Fukushima, Tschernobyl) als lebensbedrohlich angesehen werden, aber um einige Zehnerpotenzen höhere Dosen mancher Therapie, als segensreich empfunden werden? Naturwissenschaftlich jedenfalls, läßt sich das nicht erklären. Es handelt sich eher um Okkultismus.

Nicht nur physikalisch läßt sich nachweisen, daß die Strahlung von z. B. Co60 immer die gleiche ist, egal ob sie aus „Atommüll“, einem Reaktor oder einer Apparatur zur Bestrahlung stammt. Auch die biologische Wirkung ist immer gleich, lediglich abhängig von der Dosisleistung und der Bestrahlungszeit. Bei hohen Dosen – wie sie z. B. bei einer Krebstherapie verlangt werden – kann man die Auswirkungen schon bei Blutproben nachweisen. Die Ergebnisse sind immer die gleichen, sie sind reproduzierbar und unabhängig von der Strahlenquelle. Es sind die gleichen meßbaren Effekte, wie sie z. B. schon bei den Opfern von Hiroshima und Nagasaki festgestellt werden konnten. Es ist also nicht so, daß wir nicht über ausreichende Erfahrungen verfügen würden. Mögen wir auch (noch) nicht alle Effekte bis ins letzte Detail einer jeden Zelle verstehen, so sind doch die Dinge auf der Ebene des „biologischen Systems Mensch und Tier“ gut vorhersehbar und nachvollziehbar.

Behandlungsmethoden

Es ist, wie immer in der Medizin: Auch wenn man den Ablauf einer Krankheit nicht bis ins letzte versteht, kann man doch helfen. Anders als bei biologischen Krankheiten ist es bei einer Verstrahlung sehr einfach den „Erreger“ zu finden. Eine Untersuchung, ob sich radioaktive Stoffe im Körper befinden (sog. Inkorporation) ist mit physikalischen Meßgeräten zuverlässig und schnell durchzuführen. Hat man Stoffe gefunden, kann man den Körper unterstützen, diese schnell wieder auszuscheiden. Man kann heute die sog. „biologische Halbwertszeit“ meist beträchtlich verkürzen. Im übertragenen Sinne kommt es der Tötung von Krankheitserregern gleich.

Hat die Strahlung nur von außen gewirkt, sollte die Person möglichst schnell aus dem Bereich der Strahlung herausgebracht werden, um weitere Schäden zu vermeiden. Diese Maßnahme ist besser unter den Begriffen „Evakuierung und Sperrgebiet“ bekannt.

Leider ist es damit nicht getan. Der Krankheitsverlauf ist mit einem Biss durch eine Giftschlange vergleichbar. Die Ursache kann sehr schnell und kurzeitig (Kritikalitätsunfall) wirksam sein. Man merkt erst nach einigen Minuten oder Stunden irgendwelche Symptome. Das „Gift“ ist schnell verschwunden, aber die zerstörerischen Prozesse, die es im Körper ausgelöst hat, laufen erst richtig an. Trotzdem kann man Strahlenopfern vielfach wirksam helfen, in dem man die „Selbstheilungskräfte“ unterstützt und vor allem den Körper vor weiteren Schäden (Infektionsgefahr) und Belastungen bewahrt.

An diesem Punkt überschneiden sich „Strahlentherapie“ und „Strahlenunfall“. Die Krebszellen sollen sicher zerstört werden, gleichwohl ist für die „gesunden“ Körperteile die Bestrahlung eine „nukleare Katastrophe“. Gelingt es, die Regeneration der belasteten Zellen zu unterstützen, kann man die Strahlendosis erhöhen und damit den „Krebs“ sicherer bekämpfen.

Es gibt also ein großes Forschungsinteresse „Medikamente gegen Strahlenkrankheit“ zu entwickeln. Solche Medikamente können dann auch zur Behandlung nach kerntechnischen Unfällen verwendet werden. Um es gleich vorweg zu nehmen, für eine militärische Verwendung sind solche Medikamente sinnlos, wenn nicht sogar kontraproduktiv. Ein Soldat, der nicht durch eine Kernwaffe getötet wurde, aber weiß, daß er erheblich verstrahlt wurde, ist in des Wortes Bedeutung ein todesmutiger Krieger. Wäre das nicht so, wären wahrscheinlich bereits erhebliche Mittel in die Entwicklung solcher Medikamente geflossen.

Heute kommt der Anstoß für Forschung und Entwicklung aus dem Bereich Nuklearmedizin. Gelingt es, die unvermeidlichen Nachteile einer Bestrahlung weiter zu senken, erschließen sich wahrscheinlich weitere Anwendungen für Strahlentherapien. Folgerichtig untersucht man besonders Medikamente, die bereits in der Krebstherapie eingesetzt werden. Bei diesen Medikamenten kennt man bereits sehr gut die Wirkungen auf den menschlichen Körper und etwaige Nebenwirkungen. Man will ja vermeiden, daß man den Teufel mit Beelzebub austreibt.

Ein solcher Stoff ist DIM (3,3′-diindolylmethane). Er kommt in der Natur in manchen Kreuzblütlern, wie Rotkohl, Blumenkohl und Brokkoli vor und wird schon länger zur Krebsbehandlung eingesetzt. Die Georgetown University hat diesen Stoff nun zum Patent für die Behandlung von Strahlenopfern angemeldet. In einer aktuellen Veröffentlichung werden die Forschungsergebnisse vorgestellt. Es wurden Ratten mit einer Dosis von 13 Gy (1300 rad) bestrahlt. Diese Dosis ist für Ratten normalerweise zu 100% tödlich. Sie sterben in wenigen Tagen. Ein Teil der Tiere wurde mit DIM behandelt. Ihn wurde täglich DIM gespritzt (Anmerkung: Bei so hohen Strahlendosen wird der gesamte Verdauungstrakt förmlich durchlöchert, wodurch eine normale Nahrungsaufnahme unmöglich wird. Also kein Versuch für Tierschützer!). Über 60% der behandelten Ratten haben auch noch nach 30 Tagen überlebt. Diese Tiere sollen bis zum natürlichen Ableben ohne erkennbare Schäden weitergelebt haben. In einer weiteren Versuchsreihe wurden Ratten mit 7 Gy (700 rad) bestrahlt. Unbehandelt, sind 50% nach 30 Tagen verstorben, behandelt haben rund 90% überlebt. Insofern hoffnungsvolle Ergebnisse.

Es ist aber nicht nur eine Erhöhung der Überlebenswahrscheinlichkeit fest zu stellen, sondern es sind auch andere Veränderungen meßbar. Dies betrifft einzelne Zellkulturen genau so, wie Blutuntersuchungen. Ein wesentlicher Effekt scheint auf der Anregung der Fähigkeit einer Zelle zur Reparatur von DNA-Brüchen zu liegen. Es werden aber auch die Symptome einer Strahlenkrankheit (Störung der Elektrolyte-Bilanz, zunehmende Entzündungen etc.) deutlich gesenkt. Gerade hierin, wird eine potentielle Anwendung als unterstützendes Medikament bei hoher Strahlenbelastung gesehen.

Ausblick

Es geht hier nicht um die Vorstellung eines neuen „Wundermedikaments“. Vielmehr geht es darum, auf die laufende Forschung aufmerksam zu machen. Ein Gebiet, das sich weitgehend unbeachtet von der Öffentlichkeit vollzieht. Die Nuklearmedizin hat sich in nur hundert Jahren zu einem bedeutenden Zweig der Medizin entwickelt. Dies ist der entscheidende Punkt: Diese Fachrichtung gibt es überhaupt erst, seit die Röntgenstrahlung und die Kernspaltung entdeckt wurden. In Kombination mit Molekularbiologie etc. hat sie eine rasante Entwicklung vollzogen und führt ganz neben bei, zu einem immer besseren Verständnis von der Wirkung jeglicher Strahlung auf lebende Organismen. Je weiter diese Erkenntnisse fortschreiten, um so weiter wird der „Aberglauben“ zurück gedrängt werden. Entscheidend ist eine ganz andere Frage. Welche Konsequenzen hat es für eine Gesellschaft, wenn sie sich aus diesem Prozeß ausklinken will? Geht das überhaupt? Der Weg zurück ins Mittelalter, mag manchen schlichten Gemütern sehr verlockend erscheinen. Die Strahlenphobie, wird genau wie der „Hexenwahn“, durch zunehmende Aufklärung verschwinden. Die Geschwindigkeit wird – heute wie damals – maßgeblich durch wirtschaftliche Interessen bestimmt. Die „Angst vor Strahlung“ wird sich in eine „Angst vor Blitz und Donner“ verwandeln: Man versteht die dahinter verborgenen physikalischen Effekte, respektiert die möglichen Gefahren und kann deshalb hervorragend mit dem „unvermeidlichen“ Problem umgehen.

Und ewig grüßt das Tanklager

Die „Qualitätsmedien“ können gar nicht genug bekommen, von „der in wenigen Stunden tödlichen Dosis“ im Tanklager H4 in Fukushima. Es ist eine echte „Mann-beißt-Hund-Meldung“. Viel spannender jedenfalls, als ein Giftgaseinsatz oder gar die Bundestagswahl. Ob es sich dabei einfach nur um schlampigen Journalismus handelt (man hätte ja mal jemand fragen können, der sich damit auskennt) oder tumbe Propaganda, mag der Leser selbst entscheiden. Jedenfalls hält man seine Leser für arg kritiklos – um nicht zu sagen für dämlich. Da werden in den eigenen Berichten über die in „wenigen Stunden tödliche Dosis“ Bilder von Arbeitern in Schutzanzügen (dazu noch weiter unten) gezeigt, die zwischen den Tanks umherlaufen und sich diskutierend über die Betonwanne beugen. Das mag ja noch für manchen Rechtgläubigen, der seit Jahren gegen die „fiese Atommafia“ kämpft, logisch erscheinen. So sind sie halt, die profitgierigen Kapitalisten von Tepco. Was ist aber mit den schönen Photos von dem Besuch des japanischen Handelsministers Toshimitsu Motegi inmitten einer solchen Gruppe? Hat man je von einem „Herrschenden“ gehört, der sich freiwillig und unnötig „verstrahlt“? Man muß also gar nichts von Strahlenschutz verstehen, um diese Berichte kritisch zu hinterfragen. Etwas gesunder Menschenverstand würde ausreichen – oder man hat halt etwas ganz anderes im Sinn.

Man unterscheidet α – (Heliumkerne), β – (Elektronen) und γ -Strahlung (elektromagnetische). Jede, dieser ionisierenden Strahlungen hat eine charakteristische biologische Wirkung und „Durchdringungsfähigkeit“. Für α – Strahlung reicht ein Stück Papier oder ein Zentimeter Luft als Abschirmung aus. Völlig anders ist die Situation, wenn α -Strahlung erst im Körper freigesetzt wird. Für den gleichen Energiegehalt wird deshalb eine 20fache Schadenswirkung angenommen. Ganz ähnlich verhält es sich mit der anderen Teilchenstrahlung, der β – Strahlung. Sie dringt nur oberflächlich in Stoffe ein. Eine Abschirmung von ein bis zwei Metern Luft reicht aus. Genau hier, liegt das Mißverständnis begründet. Im Sinne des Strahlenschutzes spielt nur die γ – Strahlung für einen „Tanklagerbesucher“ eine Rolle: Man muß durch einen Schutzanzug mit Atemmaske verhindern, daß radioaktive Partikel in den Körper oder auf die Haut gelangen. Ist dies gewährleistet, kann man im Sinne des Arbeitsschutzes α- und β -Strahlung vergessen. Für die Bestimmung der zulässigen Aufenthaltszeit z. B. ist nur die laufende Messung (Dosimeter) der γ -Strahlung von Interesse. Die γ -Strahlung hat in all den berichteten Fällen etwa 1,5 mSv/h (an den „heißen Stellen“, nicht etwa im gesamten Tanklager) betragen. Eigentlich, nicht der Rede wert – jedenfalls kein Grund für ein meßbar zusätzliches Krebsrisiko.

Warum also die plötzliche Aufregung über ständig steigende und gar „tödliche Strahlung“? Wahrscheinlich eine Kombination aus Unwissenheit und Sensationsgier. Das zweite dürfte überwiegen, denn man hätte ja mal jemanden fragen oder googeln können. Tepco veröffentlicht täglich die Meßwerte an verschiedenen Kontrollstellen. Da das Internet nicht vergisst, kann man die Entwicklung gut nachvollziehen. Fukushima ist eben nicht Tschernobyl! Die Meßwerte haben sich nicht verändert. In letzter Zeit ist lediglich eine Interpretation durch Laien hinzugekommen.

Tepco hat neben der Nuklidzusammensetzung der Wässer und der γ-Strahlenbelastung auch einen Wert für die β-Strahlung angegeben. Wie schon weiter oben gesagt, wird β-Strahlung durch Luft sehr stark abgeschirmt. Die Meßwerte werden von Tepco in einem Abstand von 70 μm gemessen. Das Abwasser in den Tanks hat β-Werte von 1,8 bis 2,2 Sv/h. Solch hohe Werte bedeuten für einen Fachmann nur eins: Paß auf, daß du diese Brühe nicht ins Auge kriegst, sonst könntest du dein Augenlicht (Linsentrübung) verlieren! Mehr aber auch nicht. Selbst bei längerer Einwirkung auf der Haut, würde sich lediglich eine Hautrötung ergeben. Solange man die Pfütze nicht austrinkt, besteht keine Gefahr. Noch einmal in aller Deutlichkeit: Es gibt keine tödliche Dosis für eine äußerlich wirkende β.-Strahlung. Schon der Schmerz durch den „Sonnenbrand“ würde jeden Menschen genug Zeit lassen, sich zu entfernen.

Das Tanklager

Bei dem betreffenden Tanklager handelt es sich um „mobile“ Tanks, die eiligst aufgestellt und teilweise sogar umgesetzt wurden. Sie sind aus einzelnen, gebogenen Segmenten zusammengeschraubt. Um sie überhaupt wasserdicht zu bekommen, sind in die Fugen Gummidichtungen eingelegt. Eine solche Konstruktion, in so hoher Stückzahl, bei den lokalen Wetterverhältnissen (große Temperaturschwankungen, Taifune, Erdbeben etc.) kann nicht über längere Zeit dicht bleiben. Ständige Leckagen waren vorhersehbar.

Die in den Medien angegebene Menge von 300 m3, die ausgelaufen sein sollen, ist mit Vorsicht zu genießen. Geht man in die Originalangaben von Tepco, handelt es sich eher um eine Abschätzung. Es wurde in einem Tank eine Absenkung des Flüssigkeitsspiegels um etwa 3 m gegenüber seinen Nachbartanks festgestellt. Keiner weiß genau, ob er jemals ganz voll war, wieviel verdunstet ist usw. Es wurde Wasser aus der Auffangwanne um den Tank abgepumpt, aber nicht so viel. Nach Tepco etwa 4 m3 (!) bis zum 20. August. Der Rest „könnte“ im Boden versickert sein. Die in den Medien gemachte Aussage, es seien 300 m3 verseuchtes Wasser in den Ozean gelangt, ist so nicht haltbar und eher durch Meßwerte entkräftet. Erst recht nicht, daß die in dem Wasser enthaltene Radioaktivität dorthin gelangt ist. Der Boden wirkt in jedem Fall als Filter und Ionentauscher.

Als Gegenmaßnahmen wurden jetzt (!!) alle Ablaufventile in den Auffangwannen geschlossen. Es wurden unter alle Leckstellen Absorptionsmatten ausgelegt, um zukünftig besser kontrollieren zu können, wieviel Wasser ausgelaufen ist und ob etwas versickert ist. Nach dem Umpumpen des schadhaften Tanks soll die Wanne mit einem Hochdruckreiniger gereinigt werden und eine 50 cm Bodenschicht am Auslaufventil abgetragen werden. Der verseuchte Bodenbereich wurde mit Gummimatten und Sandsackbarrieren gesichert, damit kein verseuchtes Wasser (Regen) in die Entwässerungssysteme gelangen kann.

Als die wirksamste Gegenmaßnahme erscheint der gute alte Nachtwächter: Zukünftig geht alle drei Stunden eine Fußstreife kontrollieren.

Woher kommt das Wasser in den Tanks?

Nach wie vor müssen alle drei Reaktoren gekühlt werden. Dazu wird ständig Wasser in die Reaktorgefässe gepumpt. Durch die Leckagen in den Steuerstabführungen etc. fließt das Wasser in einem offenen Kreislauf in die Kellerbereiche des Kraftwerks. Dort vermischt es sich mit eindringendem Grundwasser und wird abgepumpt und einer Aufbereitung zugeführt. Das Grundwasser ist Brackwasser, wodurch der Salzgehalt im Rücklauf größer wird. Die Aufbereitung erfolgt zur Zeit in zwei Schritten: Dem SARRY-Verfahren und einer Umkehrosmose. In der SARRY-Stufe wird durch Adsorption (vor allem) Cäsium und weitere 60 Spaltprodukte (teilweise) abgeschieden. Die Umkehrosmose entspricht einer Meerwasserentsalzungsanlage: Es entsteht ein Wasserstrom „reines“ Wasser, welches wieder zur Kühlung in die Reaktoren eingespeist wird und ein „Konzentrat“, welches ins Tanklager geht. Ein typisches Meßprotokoll vom 9. 8. 2013 zeigt folgenden Verlauf: Das Wasser kommt beispielsweise mit 56000 Bq/cm3 Cs137 aus dem Keller in die Anlage rein. Dort wird soviel Cäsium abgeschieden, daß es die SARRY-Stufe im Mittel mit 1,3 Bq/cm3 verläßt. Nach der Umkehrosmose ergibt sich ein Reinwasserstrom mit einem Gehalt unter der Nachweisgrenze, aber ein Konzentrat mit 2,7 Bq/cm3 Cs137 für die Tankanlage. Am Rande bemerkt sei, daß der Wert für Cs137 für Trinkwasser nach internationalem Standard 10 Bq/Liter maximal betragen soll. Man könnte jetzt also mit fug und recht sagen, daß das Wasser im Tanklager 270 mal den Grenzwert für Trinkwasser übersteigt. Hört sich doch gleich viel gefährlicher an, nicht wahr?

Die Brennelemente sind durch das Unglück zerstört worden und teilweise wahrscheinlich aufgeschmolzen und wieder erstarrt. Sie haben jedenfalls keine Schutzhülle mehr und befinden sich auch nicht mehr in ihrem ursprünglichen (sehr widerstandsfähigen) chemischen Zustand. Das „Reinwasser“ zur Kühlung wird sie deshalb beständig weiter auslaugen. Es kann auch kein Gleichgewichtszustand angestrebt werden, solange das Wasser immer noch über die zerstörten Keller abfließen muß. Solange es nicht gelingt einen geschlossenen Kühlkreislauf zu bauen, hat man eine „ständige Quelle“ für verseuchtes Wasser. Ziel muß es daher sein, so schnell wie möglich, den alten Brennstoff aus den Reaktoren zu entfernen. Das ist aber leichter gesagt, als getan. Insofern ist es folgerichtig, mit Hochdruck eine stationäre Wasseraufbereitung zu bauen. Es wird noch eine erhebliche Menge mittelaktiven Abfalls anfallen, denn mit der Entfernung aus dem Wasser ist es nicht getan.

Einfach ins Meer kippen?

Manche Kritiker von Tepco schlagen nun eine radikale Lösung vor: Anstatt immer mehr Tankanlagen zu bauen, einen Tanker chartern und das radioaktive Wasser auf hoher See verklappen.

Radioaktive Materialien sind keine Bakterien oder Viren. Eine Vermehrung ist ausgeschlossen. Sie werden einfach nur weniger. Ferner bestimmt immer die Dosis das Gift. Je stärker man die radioaktive Lösung verdünnt, um so ungefährlicher wird sie. Setzt man sie weit genug draußen frei, ist eine Anreicherung über die Nahrungskette, auf für den Menschen schädliche Konzentrationen, ausgeschlossen. Übrigens genau die Lösung, die die Sowjetunion für die Entsorgung ihrer Atom-U-Boote gewählt hatte.

Ob man nun das Meer als Müllkippe nutzen sollte, ist eher eine ethisch-moralische oder juristische Frage. Die Naturwissenschaft kann allenfalls bei der Beantwortung helfen. Das Meer ist ist mit einem Volumen von über 1,5 Milliarden Kubikkilometern gigantisch groß. Zwar gibt es bedeutende regionale Unterschiede (z. B. Mittelmeer und offener Atlantik) und insbesondere sehr unterschiedliche Lebenswelten (Korallenriff bis Tiefseewüste), trotzdem ist es in seiner chemischen Zusammensetzung erstaunlich homogen. So enthält jeder Kubikmeter Meerwasser rund 433 Milligramm Uran, was eine Gesamtmenge von 5 Milliarden Tonnen gelösten Urans ergibt. Einschließlich der natürlich entstehenden Spaltprodukte, eine Menge Radioaktivität. Allein die Menge des gelösten radioaktiven K40 (Kalium hat auch jeder Mensch in seinen Knochen; „eigene Strahlung“ etwa 0,17 mSv/a) beträgt 530 Milliarden Curie (1 Cu ist die Aktivität von einem Gramm Radium oder 37 GBq). Das ist für sich eine gewaltige Menge Radioaktivität – aber eben fein verteilt. Es gibt aber durchaus auch Unterschiede: Die Konzentration im Golf von Mexiko ist höher – eine Folge der Zahlreichen Öl- und Gasbohrungen dort.

Nach Schätzungen verschiedener unabhängiger Institutionen (Tokyo University of Marine Science, Woods Hole Oceanographic Institution, National Oceanography Centre in Southampton etc.) werden etwa 0,3 TBq monatlich durch Fukushima ins Meer abgegeben. Die auf Messungen und Ausbreitungsrechnungen beruhenden Werte, bewegen sich in einer Bandbreite von 0,1 bis 0,6 TBq. Ist das nun sehr viel? Allein durch die Wasserstoffbombentests in den 1960er Jahren wurden im nördlichen Pazifik mehr als 100.000 TBq Cs137 eingetragen. Die Wiederaufbereitungsanlage in Sellafield hat in 40 Jahren 39.000 TBq in die Nordsee abgegeben.

Die bisher höchsten Werte im Seegebiet zwischen 30 und 600 Kilometer vor Fukushima wurden 3 Monate nach dem Unglück gemessen. Es ergaben sich 3 Bq/Liter Cs137 . Im gleichen Zeitraum wurde ein natürlicher Eintrag von 10 Bq/Liter K40 gemessen. Schön, daß uns die Meßtechnik erlaubt, notfalls auch noch einzelne Kerne festzustellen.

Anreicherung über die Nahrungskette

Ist seit Beginn der „Anti-Atomkraft-Bewegung“ immer das schärfste Schwert in jeder Diskussion. Leider ist es nur sehr eingeschränkt und mit Vorsicht zu gebrauchen. In der Wissenschaft wird sie über das Verhältnis der Konzentration in der Umgebung zu der im Lebewesen bestimmt. Plankton reichert z. B. die Radioaktivität rund 40-fach an. Aber schon in den nächsten Schritten der Nahrungskette wird die Konzentration wesentlich geringer. Sie ist keinesfalls additiv. Biologie ist halt komplizierter. Zudem ist jedes Lebewesen für unterschiedliche Nuklide auch unterschiedlich selektiv. Wir erinnern uns noch an die Empfehlung nach Tschernobyl, nicht zu viel Pilze zu essen. Nebenbei gesagt, haben wir durch den „Praxistest“ Tschernobyl eine Menge über solche Ketten lernen können.

Wie schön, daß nun auch schon eine Auswirkung von Fukushima über den Pazifik bis nach Kalifornien festzustellen ist. Es ist nichts so schlecht, daß es nicht zu irgendetwas nützlich ist. Der „Nuklidcocktail“ von Fukushima dient nun dazu, die Wanderwege des von der Ausrottung bedrohten blauen Thunfisch zu erforschen. Nach Veröffentlichung erster Ergebnisse, waren sofort die Panikmacher zur Stelle und sahen sich in ihren schlimmsten Befürchtungen bestätigt. Die Ergänzung der Wissenschaftler ging natürlich bei den Medien verloren: Ein Erwachsener müßte 2,5 bis 4 Tonnen pro Jahr von diesem Thunfisch essen, um überhaupt auf den zulässigen Grenzwert zu kommen. Dieser ist aber noch weit von jeglicher Schädigung entfernt, sonst wäre es ja kein Grenzwert. Feststellbar, ist eben noch lange nicht schädlich.

Wer Angst vor „von Fukushima verseuchtem Tunfisch “ hat, sollte besser gar keinen Fisch essen. In jedem Fisch kann man unter anderem Po210 mit einer zigfach höheren „Strahlenbelastung“ nachweisen. Es stammt aus der natürlichen Zerfallskette des im Meerwasser gelösten Urans. Es ist nur etwas schwieriger nachweisbar, da es sich um einen α-Strahler handelt. Deshalb wurde 2006 auch der Putingegner Alexander Litwinenko damit in London ermordet.