Wie wird eigentlich Strahlung gemessen?

Der Mensch hat keine Sinne für Strahlung, wir sind deshalb auf Meßgeräte angewiesen die uns warnen können.

Verfahren

Es gibt zwei Arten von Instrumenten: Zählende und Dosimeter. Die Zählenden bestimmen die spezifischen atomaren Zerfälle in Bq/kg für Feststoffe, Bq/l für Flüssigkeiten, Bq/m3 für Gase und Bq/m2 für Oberflächen. Die Dosimeter ermitteln die Energie der absorbierten Strahlung in Gray.

Beide Meßgeräte bestehen aus einem Volumen und einer Messwerterfassung, die die durch die Strahlung verursachte Veränderung im Volumen erkennt und in ein Signal umwandelt. Das Volumen muß dabei die Photonen oder Partikel überhaupt erfassen können. Dies setzt ein Mindestvolumen und besonders empfindliche Materialien voraus. Wenn entsprechend viele Teilchen und Photonen das Volumen passieren können ohne eine Reaktion zu verursachen, spricht man von geringer Empfindlichkeit (low efficiency).

Methoden

Man unterscheidet technische Verfahren und biologische Methoden. So kann man z.B die durch Strahlung ausgelöste Veränderung von Chromosomen benutzen, um verabreichte Dosen bei Lebewesen nachträglich zu ermitteln. Technische Verfahren geben idealerweise einen linearen Verlauf zwischen Dosis und Wirkung wieder. Bei den biologischen Verfahren liegt eher ein linear-quadratischer Verlauf (chromosome aberrations) vor.

Filmdosimeter sind sehr verbreitet. Das Maß für die empfangene Strahlung ist die Schwärzung des Films. Die Filme werden lichtdicht in Gehäuse eingeklebt. Durch unterschiedliche Materialien kann man sogar unterschiedliche Strahlungen oder (thermische) Neutronen unterscheiden und durch unterschiedliche Empfindlichkeit die Genauigkeit steigern. Sie sind billig in der Herstellung und wirken integrierend über den gesamten Zeitraum, in dem sie getragen werden. Typische Anwendung ist daher der Arbeitsschutz.

Thermolumineszenzdosimeter (TLD) senden nach Erhitzung einen der Dosis proportionalen Lichtschein aus. Sie sind so stabil, daß sie sogar in der Archäologie zur Altersbestimmung genutzt werden. Gerne werden sie auch in der Strahlentherapie eingesetzt. Für den Arbeitsschutz werden meist Kristalle aus Lithiumfluorid verwendet, da ihre Absorption der von Gewebe sehr ähnlich ist. Die Strahlung verursacht Fehlstellen in der Kristallstruktur. Werden sie auf ca. 200 °C erhitzt, bilden sich die Fehlstellen zurück und es wird dabei Licht ausgesendet. Die Menge ist dabei proportional zur empfangenen Strahlung. Über die Lithium-6 Isotope kann man auch empfangene Neutronen erfassen.

Ionisation, bekanntester Vertreter ist das Geiger-Müller Zählrohr. Ionisierende Strahlung erzeugt positive und negative Ionen. Jeder Zerfall löst einen Impuls aus, der verstärkt und z. B. hörbar gemacht werden kann. Das bekannte „Geknatter“ ist ein typisches Maß für die Strahlung. Der Geiger-Müller Zähler zeigt unmittelbar die momentane Strahlung an. Er ist deshalb ein gutes Hilfsmittel, um vor gefährlichen Bereichen zu warnen. Für die Überwachung ist er jedoch ungeeignet, da er nicht die gesamte Dosis die während der (z.B.) Arbeitszeit aufgenommen wurde, registrieren kann. Er liefert keine Information über die Art der Strahlung oder deren Energie.

Scintillation nutz den physikalischen Effekt, daß manche Stoffe auf Strahlung durch das Aussenden von Licht reagieren. Die Intensität des ausgesendeten Lichts ist mit einem Lichtverstärker (photomultiplier) leicht sichtbar zu machen, wobei die „Helligkeit“ für die Energie der γ-Strahlung steht. In Kliniken verwendet man aus Einkristallen aus Natrium-Jod hergestellte Detektoren mit einem Halben Meter Kantenlänge als „Bildschirme“.

Halbleiter erzeugen beim Auftreffen von Strahlung eine elektrische Spannung. Sie ermitteln die Energie sehr genau, sind jedoch nicht besonders empfindlich. Halbleiter auf der Basis von Germanium werden deshalb meist auf -196°C mit flüssigem Stickstoff gekühlt. Sie werden in Labors zur qualitativen und quantitativen Bestimmung von „Isotopen Cocktails“ verwendet.

Freie Radikale werden durch Strahlung erzeugt. Sie reagieren in Flüssigkeiten sehr schnell, sind aber in Feststoffen erstaunlich stabil. Die Anzahl der erzeugten Radikale ist ein Maß für die empfangene Dosis. Eine Methode mit der man z.B. in Zähnen auch noch nach sehr langer Zeit die empfangene Dosis nachweisen kann.

Redox Produkte. Strahlung reduziert durch Aufnahme von Elektronen bzw. oxidiert durch Verlust von Elektronen Moleküle. Damit können gezielt chemische Reaktionen ausgelöst werden, die zu stabilen chemischen Verbindungen führen können. Diese sind dann ein (dauerhaftes) Maß für die empfangene Dosis.

Die Nachweisgrenze

Ein Klassiker in der kerntechnischen Ausbildung ist die Frage, ob man ein einzelnes Gramm Jod-131 noch nachweisen könnte, wenn man dieses gleichmäßig über die gesamte Erdoberfläche verteilen würde. Jod-131 hat eine Halbwertszeit von 8,04 Tagen. Es zerfällt recht schnell und hat damit eine hohe Aktivität. Es ist ein Leitisotop für Reaktorunfälle, da es gasförmig ist und sich besonders in der Schilddrüse anreichert.

Jod-131 ist ein β-Strahler mit einer maximalen Teilchenenergie von 0,606 MeV und sendet gleichzeitig noch γ-Photonen mit einer Energie von 0,364 MeV aus. Letztere kann man gut mit einem Halbleiterdetektor messen und sie wirkt wie ein „Fingerabdruck“ zur eindeutigen Identifizierung auch in beliebigen Isotopengemischen.

Ein einzelnes Gramm Jod-131 besteht aus 4,6 x 1021 Atomen. Das Gesetz über den radioaktiven Zerfall und seine Halbwertszeit ergeben somit eine Aktivität von 4,59 x 1015 Bq. Die Erdoberfläche beträgt ungefähr 5,1 x 1014 m2. Die sich ergebende Aktivität von rund 10 Bq/m2 ist einfach nachweisbar.

Im Februar geisterte eine Meldung durch die Medien, zahlreiche automatische Überwachungsstationen zwischen Norwegen und Spanien hätten Aktivitäten zwischen 0,1 und 5,9 microBq/m3 in der Luft gemessen. Was war geschehen? Tatsächlich hatte es im Forschungsreaktor Halden in Norwegen einen Unfall beim Hantieren mit einem Brennelement gegeben. Wie dieser Vorfall zeigt, entgeht der Fachwelt nichts: Kein illegaler Kernwaffentest und kein noch so kleiner Unfall in einem Reaktor. Gemessen an den Nachweisgrenzen der Chemie, sind die Messmethoden der Kerntechnik geradezu atemberaubend empfindlich. Hinzu kommt, daß man beliebige Isotopenzusammensetzungen messen kann. Bei einer Probe ergibt sich daraus – auch bei kleinsten Mengen – ein „Fingerabdruck“ des Täters.

Dosismessung

Die Aktivität (in Bq) und die Energie (in eV) sind physikalische Größen, die gemessen werden können. Die Dosis ist hingegen die Energie, die im Medium aufgenommen wird. Wir betrachten meist den Menschen. In diesem Sinne ist die Dosis die vom menschlichen Körper aufgenommene Energie der ionisierenden Strahlung. Sie hängt von zahlreichen (biologischen) Faktoren ab. Es ist schwierig, die Absorption von Strahlung im Gewebe zu beobachten. Wie gesagt, es ist nicht das Problem Teilchen oder Photonen zu messen, sondern es ist schwierig, die Energie, die im menschlichen Gewebe absorbiert wurde zu erfassen:

  • Man kann die Energie von Röntgen oder γ-Strahlung recht einfach in einer mit Gas gefüllten Ionisationskammer (z.B. Geiger-Müller Zählrohr) messen. Die Maßeinheit Röntgen (1R) ist auf Luft bezogen. Wieviel von der Strahlung absorbiert wird, hängt aber von der Elektronendichte ab. So wird z. B. in Knochen (schwere Atome mit vielen Elektronen in ihren Hüllen) sehr viel mehr Energie, als im Gewebe (besteht hauptsächlich aus Wasser) absorbiert. Das erklärt das Bild einer „Röntgenaufnahme“. Die Dosis für Knochen und Gewebe ist deshalb völlig verschieden, auch wenn die Strahlung exakt gleich war.
  • Die Dosis hängt bei menschlichem Gewebe stark von der Eindringtiefe ab. Trägt man die absorbierte Energie über die Wegstrecke auf, ergeben sich konvexe Kurven: Auf den ersten Millimetern ist die absorbierte Energie klein, dann steigt sie steil bis zu einem Maximum an und nimmt dann mit größerer Entfernung wieder ab. Die Dosis ist ortsabhängig. Besonders extrem ist dies bei Teilchenstrahlung. Abhängig von der Art der Ionen, durchdringen diese zig Zentimeter mit sehr geringer Energieabgabe. Wird ein charakteristischer Wert erreicht, wird an diesem Ort (Bragg-peak) fast die gesamte Energie umgesetzt. Die Dosis ist örtlich eng begrenzt sehr hoch.
  • Was im Sinne des Arbeitsschutzes nachteilig ist, ist für die Medizin von großem Vorteil. Man will gezielt die Krebszellen belasten und nicht das umliegende gesunde Gewebe. Kennt man die Kurven für die absorbierten Energien in Abhängigkeit von der Strahlungsenergie, kann man über die gewählte Energie der Strahlung die Wirksamkeit (Dosis) sehr genau steuern. Für Tumore, die z. B. in einer Tiefe von etwa 6 cm im menschlichen Gewebe sitzen, muß man eine Röntgenstrahlung von mindestens 20 MeV wählen um optimale Ergebnisse (Kleine Dosis für das durchdrungene gesunde Gewebe, aber eine hohe Dosis im Tumor) zu erzielen.

Wir Eigenstrahler

Kalium ist überall vorhanden: Im Boden, im Wasser, in Pflanzen, in Tieren und am Ende der Nahrungskette in uns selbst. Kalium entspricht 2,4 Gewichtsprozenten aller Elemente der Erde. Die Häufigkeit des radioaktiven Isotops Ka-40 beträgt 0,0118%. Ka-40 hat eine Halbwertszeit von fast 1,3 Milliarden Jahren. Nur deshalb ist es noch überall auf der Erde vorhanden. Beim Zerfall sendet es β- und γ-Strahlung aus. Mit der Nahrung nehmen wir durchschnittlich 2,5 Gramm Kalium pro Tag auf. Dies ergibt rund 75 Bq Ka-40 pro Tag. Kalium ist in allen Zellen unseres Körpers eingebaut. Die Menge unterscheidet sich nach Geschlecht und Alter. Sie schwankt etwa zwischen 75 Bq pro kg Körpergewicht bei jungen Männern und 40 Bq/kg bei einer älteren Frau. Mit anderen Worten: Ein Fußballstadion, voll mit überwiegend jungen Menschen, ist eine ganz schöne „Atommülldeponie“. Jedenfalls verglichen mit den aus den Medien bekannten Wassertanks in Fukushima.

Eine einfache Abschätzung ergibt folgende Daten: Aus dem Zerfallsschema entnimmt man, daß 89,3 % der beim Zerfall entfallenden Energie auf die β-Teilchen entfallen. Da β-Strahlung nur eine sehr kurze Reichweite hat, verbleiben damit im Mittel 429.200 eV im Körper. Bei der γ-Strahlung sieht es etwas anders aus: Man nimmt an, daß nur 50% im Körper verbleiben, die andere Hälfte aber den Körper verläßt. Damit ergibt sich eine Energie von 78.100 eV. für die γ-Photonen. Somit kann man eine vom Körper absorbierte Energie von ungefähr 510.000 eV unterstellen. Pro Becquerel und kg und Jahr ergibt sich eine Energie von 2,6 μGy. Bei 70 Bq/kg ergibt sich somit eine Belastung von 182 μGy pro kg Körpergewicht jährlich. Diese Abschätzung deckt sich gut mit den von UNSCEAR angegebenen 0,165 – 0,185 mSv per year. Da es sich um die aufgenommene Dosis handelt, kann man auch die Einheit mSv verwenden.

Hinzu kommt noch Kohlenstoff-14. Er wird ständig in der Atmosphäre durch die kosmische Strahlung aus Stickstoff gebildet. Pflanzen lagern diesen Kohlenstoff über die Photosynthese ein. Wir wiederum nehmen dieses C-14 direkt über pflanzliche Nahrung oder indirekt über Fleisch auf. Durchschnittlich tragen wir alle etwa 35 Bq pro kg Körpergewicht in uns. C-14 sendet β-Strahlung mit (im Mittel) einer Energie von 52 keV bei jedem Zerfall aus. Das ergibt eine Strahlenbelastung von weiteren 0.01 mGy bzw. 0.01 mSv pro Jahr, die wir uns – ganz natürlich – selbst zufügen.

Hinzu kommen noch – je nach Bodenverhältnissen – die kompletten Zerfallsreihen von Uran und Thorium. Je nach Ernährungsgewohnheiten, Geschlecht und Lebensalter ergeben sich unterschiedliche Mengen die wir vornehmlich in unseren Knochen einlagern. Man setzt nach umfangreichen Analysen und Berechnungen als durchschnittliche Belastung hierfür eine effektive jährliche Dosis von 0,12 mSv an.

Somit setzt man eine durchschnittliche effektive Dosis für diese drei Wege von 310 μSv an. Wichtig dabei ist, nie den langen Weg vom Isotop bis zur Strahlenbelastung des Menschen zu vergessen. Die Energien beim Zerfall eines radioaktiven Elements sind leicht zu messen. Wieviel von diesem Stoff in den Körper gelangt, wie lange es dort verbleibt und wo und wie genau es im Körper wirkt, ist von unzähligen Einflüssen abhängig. Jede Angabe von irgendwelchen μSv (d h. dem millionsten Teil eines Sv) ist daher mindestens mit Gelassenheit zu betrachten.

Gray, Sievert und was sonst noch?

In den Medien wird im Zusammenhang mit Radioaktivität mit Zahlenwerten nur so um sich geschmissen. Kaum einer versteht die Aussagen, aber alle reden davon.

Vorbemerkung

Eine Maßeinheit bezieht sich stets auf einen genau definierten Zustand: So ist das [kg] die Einheit für die Masse und das [N] bzw. früher das [kp] eine Einheit für eine Kraft. Im Alltag kann man zwar oft beide Einheiten gleich setzen, es kann aber auch zu schwerwiegenden Fehleinschätzungen dadurch kommen. Kraft und Masse sind halt nur im unbewegten Zustand gleichwertig. Dies ist Allgemeinwissen, aber im Zusammenhang mit Strahlung und Radioaktivität werden fröhlich alle Einheiten miteinander vermischt. Leider nicht nur in Massenmedien.

Die Öffentlichkeit interessiert sich meist nur für die biologische Wirkung: Ab wann ist ionisierende Strahlung gefährlich, ab wann bekomme ich Krebs, sind nachfolgende Generationen gefährdet? Alles Fragen der Biologie – oder noch genauer gesagt – der Medizin und schon wird es schwierig. Der Mensch ist halt keine Maschine und läßt sich deshalb nur sehr schlecht vermessen. Aus den physikalischen Meßwerten über Strahlung lassen sich bestenfalls Erwartungswerte für Krankheiten ableiten. Aus einem Unverständnis wird schnell eine Strahlenphobie. Dies betrifft nicht nur die Kernenergie. Röntgenärzte und Nuklearmediziner können ein Lied davon singen. Besonders heikel sind Patienten, die durch Jahrzehnte grüner Indoktrination notwendige Diagnosen und Therapien verweigern.

Am Anfang steht der Zerfall

Der überwiegende Teil der in der Natur vorkommenden Isotope befindet sich in einem angeregten Zustand. Dieser Zustand läßt sich nicht unbegrenzt aufrecht erhalten, das Atom zerfällt und wandelt sich dabei in ein neues Element um. Dies kann mehrfach geschehen (sog. Zerfallsketten oder Mutter-Tochter Beziehungen), bis ein stabiler Zustand erreicht ist. Wir kennen mehr als 3400 radioaktive Isotope, von denen etwa 900 Halbwertszeiten von mehr als einer Stunde haben. Schon sind wir bei zwei grundlegenden Maßeinheiten angekommen: Der Aktivität mit der Maßeinheit Becquerel Bq und der Lebensdauer mit der Halbwertszeit. Wenn ein Atomkern pro Sekunde zerfällt, bedeutet das eine Aktivität von 1Bq. Nicht mehr, aber auch nicht weniger. Es ist noch nichts über die Art der freigesetzten Strahlung ausgesagt oder über deren Energie und damit auch nichts über die biologische Wirksamkeit.

Das Becquerel [Bq] ist eine reine Stückzahl, die ohne die Angabe des Stoffes (z. B. Cäsium oder Jod) und des Ortes des Zerfalls (z. B. im Körper oder außerhalb) keine Aussage über irgendeine Gefährdung zuläßt.

An dieser Stelle ist auch besonders hervorzuheben, daß wir von zerfallenen Atomen pro Sekunde sprechen. Atome sind aber sehr klein, weswegen man zu gewaltig großen Zahlen kommt. Bis 1985 war deshalb die Einheit Curie [Ci] für die Aktivität gebräuchlich. Sie war von einem Gramm Radium-226 abgeleitet und entsprach 37 000 000 000 Zerfällen pro Sekunde. Schon an dieser Stelle wird deutlich, wie überzogen der japanische Grenzwert von 100 Bq/kg für Fisch nach dem Reaktorunglück von Fukushima war. Man hätte auch gleich sagen können, der Fisch enthält praktisch kein Cäsium (1 gr Cs-137 hat eine Aktivität von 3 215 000 000 000 Bq).

Geläufig – wir haben aus Erfahrung ein Gefühl dafür – sind uns die Einheiten kg oder Gramm. Heutige Waagen können (mit erheblichem Aufwand) noch Millionstel Gramm messen. Die Empfindlichkeit bei der Messung von Radioaktivität ist (recht einfach) noch um eine weitere Million empfindlicher. Radioaktive Quellen mit 10 bis 100 Bq sind schnell und einfach meßbar, obwohl es sich dabei um Stoffmengen von um die 0,000 000 000 000 01 Gramm handelt. Für die Angstindustrie ist das natürlich völlig unbrauchbar. Solche kleinen Mengen ergeben einfach keine Horrormeldung.

Die Strahlungsarten

Unter ionisierender Strahlung versteht man elektromagnetische Wellen sehr hoher Frequenz bzw. Teilchenstrahlung. Normalerweise enthalten Atome genau so viele Protonen (positive Ladung) im Kern, wie Elektronen (negative Ladung) in ihrer Hülle und sind somit elektrisch neutral.

Die technische Nutzung von ionisierender Strahlung begann 1895 mit der Entdeckung der Röntgenstrahlung.

Bei der Strahlung infolge des radioaktiven Zerfalls unterscheidet man im wesentlichen zwischen α- (Heliumkerne), β- (Elektronen) und γ-Strahlen. Die beiden Teilchenstrahlen sind elektrisch positiv bzw. negativ geladen. Insbesondere für die biologische Wirkung ist deren Eindringtiefe maßgebend. Die Heliumkerne der α-Strahlung können in Luft maximal 10 cm zurücklegen und in Wasser (menschliches Gewebe besteht hauptsächlich aus Wasser) wenig mehr als 0,1 mm. Das bedeutet für den Strahlenschutz, daß bereits normale Kleidung zur Abschirmung ausreicht. Umgekehrt gilt aber auch, daß innerhalb des Körpers die gesamte Energie auf kürzester Entfernung freigesetzt wird und lokal einen großen Schaden anrichten kann. Für die β-Strahlung gilt ähnliches. Auch für sie reicht normale Kleidung als Schutz aus.

Die Aufnahme radioaktiver Stoffe in den Körper (Essen, Trinken und Atemluft) ist möglichst zu vermeiden.

Bei der γ-Strahlung verhält sich die Sache etwas anders. Sie durchdringt mühelos den menschlichen Körper. Nur deswegen kann z. B. eine Kontamination im Körper von außen gemessen werden. Für γ-Strahlen verwendet man den Begriff der Halben-Weglänge: Das ist die Materialstärke, bei der die Strahlung nach der Schicht genau halb so groß ist, wie vor der Schicht. Diese halbe Weglänge ist vom Material und der Energie der Strahlung abhängig. Die Abschwächung verläuft exponentiell. Mit anderen Worten: Die Strahlung schwächt sich über den Weg sehr schnell ab, ist aber auch nach dicken Schichten immer noch nachweisbar. Für eine Energie von 0,662 MeV (γ-Strahlung von Cs-137) beträgt die Halbe-Weglänge in Wasser etwa 9 cm. Somit ist nach rund einem halben Meter (entsprechend fünf Halben-Weglängen) die Strahlung um 97% abgeklungen. Dies erklärt, warum das Wasser in einem Brennelementebecken so eine wirksame Abschirmung darstellt. Hat man wenig Platz, verwendet man Blei mit seiner hohen Dichte zur Abschirmung.

Die Energie der Strahlung

Neben der Art der Strahlung ist ihre Energie maßgeblich für die biologische Wirkung. Die Einheit für die Energie ist das Elektronenvolt [eV]. Sie ergibt sich aus der Beschleunigung eines Elektrons in einem Spannungsfeld von einem Volt. Um eine radioaktive Quelle in ihrer biologischen Wirkung zu beurteilen, braucht man folgende physikalischen Parameter:

Die Aktivität, gemessen in Zerfällen pro Sekunde [Bq] und die Halbwertszeit, die Art der ausgesendeten Strahlung (α-, β-, γ-Strahlung) und deren Energien.

Anschaulich werden diese Daten in einem sogenannten Zerfallsschema für jedes Isotop dargestellt. Dabei werden in einer Karte die Energien über den Ordnungszahlen aufgetragen. In der Praxis hat man es immer mit Gemischen von Isotopen zu tun. Dies ergibt sich schon aus den meist vorhandenen Zerfallsketten. Beispielsweise verläuft der Zerfall von Uran-238 in 14 Schritten bis zum stabilen Blei-206.

Wie die Strahlung absorbiert wird

Wenn Röntgenstrahlung oder die Strahlung aus dem radioaktiven Zerfall auf Atome und Moleküle trifft, entstehen Ionen oder angeregte Moleküle. Die Strahlung verliert dabei Energie. Für die biologische Wirkung ist nicht nur die Art und deren Energie der Strahlung von Bedeutung, sondern auch die „Materie“ des Lebewesens. Ein bekanntes Beispiel hierfür ist eine Röntgenaufnahme: Man erkennt ein Skelett. Die Strahlung ist stark genug (von hoher Energie), um den menschlichen Körper zu durchdringen, sonst wäre gar keine Aufnahme möglich. Die Absorption im Körper ist aber unterschiedlich: Es entsteht ein Schattenbild der Knochen (hohe Absorption wegen hoher Dichte) vor einem hellen Hintergrund (wenig Absorption im Gewebe, weshalb viel Strahlung durchkommt).

Auf ihrem Weg durch Materie reagiert die Strahlung mit den Atomen und Molekülen. In Bezug auf die biologische Wirkung ergeben sich sehr komplexe Zusammenhänge, die letztendlich auch noch über chemische Reaktionen Wirkung zeigen können. Stellvertretend soll hier nur die α-Strahlung etwas näher behandelt werden. Wenn ein Heliumkern – nichts anderes ist α-Strahlung – mit bis zu 11 MeV durch Gewebe schießt, kann er die Atome auf die er trifft ionisieren. Diese können dann selbst wieder Strahlung aussenden. Auf seinem Weg verliert er Energie, die er an die Atome abgegeben hat. Um die Sache noch komplizierter zu machen, geschieht das solange, bis er eine bestimmte Geschwindigkeit unterschreitet. An diesem Punkt angekommen, überträgt er seine gesamte Restenergie auf einen Schlag (Bragg peak). Dies macht man sich z. B. bei der Krebstherapie nutzbar. Man kann quasi gesundes Gewebe mit Ionen durchschießen, ohne großen Schaden anzurichten und setzt erst in der Krebszelle die vernichtende Energie frei.

Die Gamma-Strahlung

Sie ist von zentraler Bedeutung in der Kerntechnik, da sie sich recht einfach messen läßt, den menschlichen Körper auf jeden Fall durchdringt (sonst könnte man eine Inkorporation gar nicht feststellen) und sich nur aufwendig abschirmen läßt.

Die γ-Photonen besitzen Energien von 0,1 bis 3 MeV. Wichtig dabei ist, daß jedes Isotop γ-Photonen mit einer charakteristischen Energie bei seinem Zerfall aussendet. Mißt man die Energiespektren, erhält man die „Fingerabdrücke“ der enthaltenen Isotope. Dies ist Voraussetzung, um die biologische Wirkung und damit die Gefährdung überhaupt ermitteln zu können.

Die γ-Strahlung selbst, wirkt durch drei Effekte: Das γ-Photon überträgt seine Energie auf ein Elektron und ist damit verschwunden (Photoelektrischer Effekt), das γ-Photon schießt ein Elektron aus der Atomhülle und bewegt sich danach mit geringerer Energie in einer anderen Richtung weiter (Compton Effekt) oder es bilden sich zwei neue Teilchen: Elektron und Positron (Paarbildung). Der Photoelektrische Effekt tritt ein, wenn das γ-Photon nur eine eine geringe Energie hat. Dies ist mit maximal 100 keV der bevorzugte Bereich in der Diagnostik. Die Durchdringung dieser „weichen γ-Strahlung“ ist sehr von der Dichte (Knochen oder Kontrastmittel) abhängig. Erst oberhalb einer Energie von 100 keV kann der Compton-Effekt auftreten. Er hat durch die Bildung von Ionen auf jeden Fall eine biologische Wirkung. Für eine Paarbildung muß die Energie den Schwellwert von 1,02 MeV überschreiten.

Die Halbwertszeiten

Gängig ist die Physikalische-Halbwertszeit. Sie beträgt z. B. für Cäsium-137 etwa 30 Jahre. Das bedeutet, nach jeweils 30 Jahren ist nur noch die Hälfte des Startwertes vorhanden. Nach 60 Jahren noch 25%, nach 90 Jahren noch 12,5% usw. Cs-137 ist eine Leitsubstanz bei Reaktorunfällen wie in Tschernobyl und Fukushima. Es ist in relativ großen Mengen – ca. 6% der Kernspaltungen – entstanden, bis zum nächsten Brennelementewechsel entsprechend angesammelt worden und gasförmig und gut wasserlöslich. Es kann sich daher weiträumig ausbreiten und auch in großen Entfernungen punktförmig ausregnen.

Es gibt aber noch eine Biologische Halbwertszeit für jeden Stoff. Jedes Lebewesen nimmt zwar Stoffe mit der Nahrung aus der Umwelt auf, scheidet sie aber auch unterschiedlich schnell wieder aus. Wir trinken Wasser (eventuell tritiumhaltig), aber scheiden auch wieder große Mengen durch Schwitzen, Atmung und Ausscheidung aus. Wenn man keine neuen radioaktiven Stoffe aufnimmt, tritt schnell eine Verdünnung im Körper ein. Beim Menschen beträgt die biologische Halbwertszeit für Cs rund 70 Tage. Sie kann durch Medikamente noch weiter auf etwa 30 Tage gesenkt werden. Bei Schafen beträgt sie etwa zwei bis drei Wochen. Man hat nach Tschernobyl Schafe in Schottland vier Wochen vor der Schlachtung mit „sauberem Futter “ aus anderen Regionen gefüttert und so die Belastung im Fleisch auf unter 25% abgesenkt.

Aus der Summe (der Kehrwerte) der biologischen und physikalischen Halbwertszeiten wird die Effektive-Halbwertszeit gebildet. Zu allem Überdruss gibt es auch noch eine Ökologische-Halbwertszeit. Nach dem Reaktorunglück in Tschernobyl im April 1986 sind in Teilen von Norwegen durch Regenfälle 130 000 Bq pro Quadratmeter runter gegangen. Bis zum August stieg deshalb in einigen Seen die Belastung bei Forellen auf 7200 Bq/kg an. Sie wird seitdem kontinuierlich überwacht. Im Jahr 2008 war sie bereits wieder auf 150 Bq/kg abgesunken. In den ersten Jahren betrug die Ökologische-Halbwertszeit rund 3,6 Jahre. Sie ist seitdem angestiegen und hat sich inzwischen der physikalischen Halbwertszeit angenähert. So viel zum Thema Rückbesiedelung in den Sperrzonen. Natürlich bleiben die radioaktiven Stoffe nicht einfach liegen und warten auf ihren Zerfall, sondern werden ausgewaschen, dringen in tiefere Bodenschichten ein oder reagieren chemisch zu Verbindungen, die nicht mehr so einfach in die Nahrungskette aufgenommen werden. Andererseits können sie auch wieder aus diesen Depots freigesetzt werden. In einem See oder einer Wiese bildet sich ein Gleichgewichtszustand aus. Selbstverständlich ist Landwirtschaft in den „verseuchten Gebieten“ möglich. Man muß es nur richtig machen. Das Märchen von Für-Jahrtausende-Unbewohnbar ist einfach nur schlecht gemachte Propaganda.

Die Strahlungsdosis

Bisher haben wir uns nur mit der Aktivität in einem Feststoff [Bq/kg], einer Flüssigkeit [Bq/l] oder auch einer Fläche [Bq/m2] beschäftigt. Wie schon weiter oben erklärt, sagt das ohne weitere Kenntnis über die Isotopen und den Ort noch nichts aus. Für den Übergang auf die (biologische) Wirkung ist entscheidend, wieviel der ausgesendeten Energie auch vom Empfänger aufgenommen wird. Diese kann man einfach und direkt messen. Es handelt sich – bisher immer noch – um reine Physik. Die biologische Wirkung kommt später.

Heute verwendet man für die Dosis die Einheit Gray [1 Gy]. Sie ist aus dem SI-Einheitensystem abgeleitet und entspricht der sehr kleinen Energie von einem Joule pro Kilogramm [1J/kg] absorbierter Energie. Wenn man bedenkt, daß zur Erhöhung der Temperatur von einem Kilogramm Wasser um ein Grad, etwa 4200 Joule notwendig sind, wird auch diese Definition wieder zu großen Zahlen führen. Der nächste Scheinriese, der der Angstindustrie hilft.

1953 wurde die Einheit [rad] festgelegt. Sie beruhte noch auf dem damals gebräuchlichen Einheitensystem und wurde zu 100 [erg] pro Gramm festgelegt. Sie ist einfach – und genau – in die moderne Einheit [1 Gy] durch den Faktor 100 umzurechnen: 1 Gy entspricht 100 rad.

Eine Sonderstellung nimmt das Röntgen ein. Es ist über die Bildung von Ladungen in trockener Luft definiert. Ein Röntgen [1R] entspricht etwa 2,54 x 10-4. Coulomb pro kg in Luft erzeugter Ionen. Eine sehr unhandliche Einheit für den Strahlenschutz. Als Anhaltswert kann man sagen, daß ein Röntgen ungefähr 9,3 Milligray [mGy] in menschlichem Gewebe entspricht.

Relative biologische Wirksamkeit unterschiedlicher Strahlung (RBE)

Ab jetzt verlassen wir den sicheren Boden der Physik: Es wird biologisch – man könnte fast sagen, politisch. Es ist unbestritten, daß verschiedene Strahlungsformen auch bei gleicher Energie unterschiedliche biologische Wirkung zeigen. Ein Hauptgrund ist die (heute) beobachtbare Wirkung beim Beschuß von Zellen. Die α-Strahlung hinterläßt einen regelrechten Schußkanal in der Zelle, während die β- und γ-Strahlung eine eher räumlich gleich verteilte Wirkung zeigt. Man kann dieses Problem lösen, indem man für jede Strahlungsform einen Gewichtungsfaktor einführt.

Für die Endstufe von Strahlenschäden, den Zelltod, kann man einfache und reproduzierbare Versuche durchführen. Man bestrahlt eine Zellkultur mit Strahlung von bekannter Energie. Die lebenden Zellen werden vor und nach der Bestrahlung gezählt. Jeder Versuch wird in ein Diagramm mit der Dosis als Abszisse und dem Prozentsatz der überlebenden Zellen als Ordinate eingetragen. Jede Strahlungsart ergibt eine eigene charakteristische Kurve. Für jeden Wert der Ordinate (überlebende Zellen) ergeben sich nun mehrere verschiedene Werte auf der Abszisse (Dosis). Mit anderen Worten: Diese Wirkung der Strahlung (Zelltod) bei gleicher Dosis nimmt mit der Schwere der Ionen zu. Es werden nun RBE-Werte (Relative Biological Effectiveness) als Gewichtungsfaktoren bestimmt. Bezugsgröße ist die Kurve für Röntgenstrahlung.

Für das Verständnis ist wichtig, daß es sich bei den oben beschriebenen Versuchen zum Zelltod um einfach zu reproduzierende Experimente handelt. Eine tote Zelle ist einfach von einer lebenden Zelle zu unterscheiden. Wie sieht es aber mit (angeblichen) Erbschäden und mit Krebs aus? Krebs kann bis zum Ausbruch Jahrzehnte dauern, für Erbschäden müßten gar zig Generationen beobachtet werden. Experimente wären nicht reproduzierbar, weil die Umwelteinflüsse über so lange Zeiträume gar nicht konstant sein können.

Äquivalentdosis

Damit alle denkbaren Effekte erfaßt werden, hat man sich im International Committee on Radiation Protection (ICRP) auf eine Äquivalentdosis mit der Einheit [rem] bzw. Sievert [Sv] geeinigt. Sie wird aus der physikalischen Dosis – gemessen in Gray [Gy] – durch Multiplikation mit dimensionslosen Gewichtungsfaktoren werzeugt. Genau daraus ergibt sich die Gefahr der Verwechslung und Fehlinterpretation:

Die Äquivalentdosis – angegeben in Sievert [Sv ]– ist keine physikalische Größe und kann auch nicht gemessen werden, sondern ist eine rein rechnerische Größe. Sie wird aus der meßbaren Dosis mit ihrer Einheit Gray [Gy] über (politisch) festgelegte Gewichtungsfaktoren wR gebildet. Diese Gewichtungsfaktoren sollen die komplexen biologischen Verhältnisse des Menschen widerspiegeln. Es handelt sich lediglich um „Modellvereinfachungen“, wie sie auch aus anderen Bereichen bekannt sind. Sievert ist ungeeignet, die biologische Wirkung bei anderen Lebewesen zu beschreiben oder umgekehrt. Sie beruht auf der fragwürdigen LNT-Hypothese (kein Schwellwert, linearer Verlauf). Deshalb sind gerade kleine Werte mit großer Skepsis zu betrachten.

Lediglich bei einer reinen γ-Strahlung wäre eine Gleichsetzung von Sv mit Gy möglich, da hier der Gewichtungsfaktor 1 beträgt. Man sollte dies aber tunlichst vermeiden, da in der Praxis immer Isotopengemische mit allen möglichen Strahlungsarten auftreten. Wenn man z. B. wie Tepco, Strahlungswerte im Sicherheitsbehälter von Fukushima in Sievert angibt, ist das etwas irreführend. Man hat natürlich nur die γ-Strahlung in Gray gemessen. Die sicherlich vorhandene α-Strahlung (Gewichtungsfaktor 20) oder gar die vorhandenen Neutronen (energieabhängiger Gewichtungsfaktor 5 bis 20) sind mit Sicherheit nicht mit ihrem Äquivalent korrigiert worden.

Effektive Dosis

In manchen Fällen werden nur einzelne Organe des menschlichen Körpers belastet. Klassiker ist die Belastung der Lunge und Bronchien durch Radon und seine Zerfallsprodukte. Verschiedene Organe und Gewebe haben eine unterschiedliche Empfindlichkeit bezüglich sog. „Verzögerter Effekte“. Krebs ist ein solcher Effekt, der oft viele Jahre braucht, bis er nachweisbar ist. Um dafür das Risiko vergleichbar zu machen, wird eine Effektive Dosis gebildet.

Wenn in einem bestimmten Teil des menschlichen Körpers eine Dosis wirkt, ergibt sich das Risiko einer bestimmten Wirkung (z. B. Lungenkrebs). Wirkt die gleiche Dosis auf ein anderes Körperteil, ergibt sich ein anderes Risiko. Für jedes Organ – oder besser gesagt Gewebetyp – ergibt sich nun ein Gewichtungsfaktor wT. Daraus ergibt sich schließlich die Effektive Dosis, meist kurz als Dosis bezeichnet.

Die in Gy gemessene Energie einer Strahlung die vom Gewebe aufgenommen wird, wird gemäß ihres Typs (z. B. γ- oder α-Strahlung) in eine äquivalente Strahlung mit der Einheit Sv umgerechnet. Die Äquivalentdosis darf nur die Einheit Sv tragen, da sie eine fiktive Größe ist, die die unterschiedliche biologische Wirkung der Strahlungsarten berücksichtigen soll. Nur im Sonderfall (beispielsweise reiner γ-Strahlung) sind die Zahlenwerte von Gy und Sv gleich setzbar, da sie beide – per Definition – den gleichen Gewichtungsfaktor 1 haben. Trotzdem handelt es sich bei der Einheit Gy [J/kg] um eine physikalische Größe und bei der Einheit Sv um eine fiktive Einheit, die biologische Wirkungen beim Menschen charakterisieren soll. Die Effektivdosis erhält man erst, wenn man für jedes belastete Organ eine weitere Gewichtung vornimmt. Unterstellt man weiterhin einen linearen Verlauf, ohne Schwellwert (LNT) der Dosis-Wirkungsbeziehung, kann man diese Einzelwerte einfach addieren und erhält daraus die Ganzköperdosis, die in der Öffentlichkeit gern als die Dosis bezeichnet wird.

Das ICRP hat dafür ein Modell eines Menschen erschaffen, das aus 14 Organen bzw. Gewebetypen und einem „Rest“ besteht. Der „Rest“ dient zur Unterscheidung von Mann und Frau mit Prostata bzw. Gebärmutter. Die Summe aller 15 Gewichtungsfaktoren wT ergibt 100%.

Die Kollektivdosis

Die Kollektivdosis ist die Summe aller individuellen Dosen in einer Gruppe. Meist wird sie als Produkt einer mittleren Dosis und der Anzahl der Personen gebildet. Ihre Einheit ist das Person Sievert [person-Sv] oder Man-Sievert [man-Sv] bzw. in älteren Veröffentlichungen das Man-Rem [man-rem].

Die Kollektivdosis ergibt in Verbindung mit der LNT-Hypothese absurde Ergebnisse. So sollte z. B. das Reaktorunglück von Tschernobyl über 14000 Tote verursachen. Nichts, aber auch rein gar nichts, konnte bis heute – mehr als 30 Jahre später – davon nachgewiesen werden. Genauso wenig, wie die prognostizierten Spätfolgen von Hiroshima und Nagasaki. Das hielt aber die einschlägigen Propagandaabteilungen der Angstindustrie nicht davon ab, ähnlich blödsinnige Vorhersagen für das Reaktorunglück in Fukushima zu treffen.

Zumindest in den letzten 20 Jahren konnte die Forschung zahlreiche Reperaturmechanismen für die DNA nachweisen, den programmierten Zelltod (Apoptose) erklären und die positive Wirkung kleiner Dosen (adaptive response) als Fortschritt in der Strahlentherapie anwenden.

Nachbemerkung

Ein Schelm, wer bei „Menschenmodellen“ an „Klimamodelle“ denkt, bei Sv an „menschengemachtes CO2“ und bei „Reaktorkatastrophen“ an „Erderwärmung“ – auf zehntel Grad genau berechnet, versteht sich.

Allerdings sind Ähnlichkeiten zwischen dem International Committee on Radiation Protection (ICRP) und dem Intergovernmental Panel on Climate Change (IPCC) alles andere als zufällig: Beide Organisationen halten regelmäßig Kongresse mit wunderbaren Dienstreisen ab. Bei beiden sind in Öffentlichkeitsarbeit geschulte Funktionäre tonangebend. Hinter beiden steht eine milliardenschwere Industrie, die gut auf Kosten der Allgemeinheit lebt.

Allerdings glaube ich immer noch an die Kraft der Aufklärung. Mag es auch lange dauern. Die katholische Kirche brauchte immerhin bis 1992, bis sie in der Lage war Galileo Galilei zu rehabilitieren. Möge es Gott geben, daß der Ökosozialismus gar nicht so alt wird. Es wäre schön, wenn dieser Artikel einen kleinen Beitrag dazu leisten könnte. Steter Tropfen höhlt den Stein.

Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: „So wenig Strahlung, als vernünftig erreichbar“. Das Wort „vernünftig“ wird – wegen der angeblichen Krebsgefahr – als „so gering wie möglich“ überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine „normale“ Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes : „Die Dosis macht’s“. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche „auf ex“ haben soll. Bestenfalls ist dieser Irrglaube auf ein „physikalisches“ Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz „eine Mutation = ein Krebs“ ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der „Strahlenschutz“ ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der „Walschützer“ ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen „Klimaschutz“ und andere Machenschaften der „Ökoindustrie“ ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle „Gutmenschen“ mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich „harte moralische Fakten“ von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus „Angst vor Strahlung“ verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die „Strahlung“ so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von „Strahlenkrankheiten“. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im „kalten Krieg“ die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein „gut“ und kein „schlecht“, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis „die Dosis macht’s“, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der „Angstmensch“ als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den „Klimawissenschaften“, bei denen „Welt-Temperaturen“ mit (bekannt fehlerhaften) „Weltmodellen“ berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

PLX-R18 – ein Wundermittel gegen die Strahlenkrankheit?

In den letzten Monaten wird immer intensiver über die Entwicklung eines neuen Medikaments zur Behandlung von Strahlenkrankheit berichtet.

Was versteht man unter Strahlenkrankheit?

Die Strahlenkrankheit (acute radiation syndrome (ARS)) tritt nur bei sehr hohen kurzzeitigen Strahlenbelastungen auf. Ab etwa 4 Sv (400 rem) muß man von 50% Todesfällen innerhalb von 30 Tagen ausgehen. Ab etwa 6 Sv (600 rem) muß man von einem Tod innerhalb von 14 Tagen ausgehen. Die Werte dienen nur zur Orientierung, da sie je nach Umständen, sonstigen Belastungen und medizinischer Versorgung des Opfers stark streuen.

Solch hohe Dosen treten nur sehr selten, bei schwersten Katastrophen und widrigsten Umständen auf. Traurige Fälle sind z. B. die ahnungslosen Feuerwehrleute von Tschernobyl, die den offenen und brennenden Reaktor versucht haben zu löschen oder die Seeleute auf sowjetischen U-Booten, die versuchten am laufenden Reaktor Notreparaturen durchzuführen. Auch hier eine Orientierung: In Deutschland dürfen Feuerwehrleute (FwDV 500) nur im Katastrophenfall und einmalig im Leben, einer Dosis von 0,25 Sv ausgesetzt werden.

Solch hohe Strahlenbelastungen, die zum Tode führen, sind nicht einmal beim Reaktorunglück in Fukushima aufgetreten. Arbeitsschutz und Sicherheitstechnik haben bisher immer solche Fälle sicher ausgeschlossen.

Bei der Strahlenkrankheit wird das Immunsystem sehr stark belastet (Gefahr von tödlichen Infektionen als Folgeschaden), das Blut und das blutbildende System und der gesamte Verdauungsapparat schwer geschädigt, wenn nicht zerstört. Als sichtbare Anzeichen tritt Haarausfall und innere Blutungen ein.

Was ist PLX-R18?

Das israelische Pharmaunternehmen Pluristem Therapeutics Inc. gilt als führend auf dem Gebiet der Entwicklung von Medikamenten, die auf Placenta beruhen. Es hat ein Patent für eine Gruppe von Proteinen PLX (PLacental eXpanded) erhalten, die unter anderem besonders wirksam bei Strahlenkrankheit zu sein scheinen.

Bei Tierversuchen mit bestrahlten Mäusen, denen man das Medikament nach einem und nach fünf Tagen gespritzt hat, hat man unmittelbar eine Verbesserung des Blutbildes und eine verblüffend hohe Überlebensrate nach 30 Tagen feststellen können. Die Ergebnisse waren so vielversprechend, daß man nun in den USA weitere Tierversuche durch das National Institute of Allergy and Infectious Diseases(NIAID), einer Unterorganisation der U.S. Gesundheitsbehörde, durchführen will. Sie konzentrieren sich auf die Veränderungen im Blutsystem.

Parallel werden Studien in Japan durchgeführt, die sich auf eine Anwendung in der Strahlenmedizin konzentrieren. Man sieht dort Anwendungen bei speziellen Krebstherapien.

Was sagt uns das?

Noch ist alles im Entwicklungsstadium. Bisher konnte man Strahlenkrankheit praktisch nicht behandeln, sondern den Patienten nur unterstützen. Schwere (Arbeits)-Unfälle sind auch in der Kerntechnik nie auszuschließen. Insofern ist es gut, zusätzliche Behandlungsmethoden zu haben.

Die ersten Anwendungen werden sicherlich im Rahmen von Strahlentherapien erfolgen. Man kann damit vielleicht Patienten unterstützen, die unheilbar an Krebs erkrankt sind. Dies wird schon aus ethischen Gründen erfolgen, denn man kann schließlich niemanden zu Testzwecken verstrahlen.

Wo Licht ist, ist auch Schatten

Ein Medikament gegen Strahlenkrankheit kann selbstverständlich auch militärisch genutzt werden. Es könnte für Soldaten wie die Atropin.-Spritze gegen Giftgas eingesetzt werden. Man muß nicht raten, wer sich für eine solche Entwicklung interessiert und sie vorantreiben wird. Der „Atomkrieg“ könnte einen erheblichen Teil seines (militärischen) Schreckens verlieren und damit die Einsatzschwelle herabgesetzt werden. Keine besonders erfreuliche Aussicht.

Ein weiteres Einsatzgebiet dürfte der Zivilschutz werden. Es ist noch nicht lange her, da geisterte die „schmutzige Bombe“ in der Hand von Terroristen durch die Medien oder der Raketenangriff auf ein Brennelementelager durch „grüne Hirne“. Beides ist zwar eher ausgeschlossen, läßt sich aber hervorragend zur Einwerbung von Forschungsgeldern verwenden. Insofern wird die Entwicklung eher schneller vorangehen.

Da der Autor hoffnungslos fortschrittsgläubig ist, erwartet er im Rahmen der notwendigen Forschungsarbeiten noch weiter verbesserte Erkenntnisse über die biologische Wirkung von ionisierender Strahlung. Immer, wenn ein militärischer Nutzen in Aussicht gestellt wird, wird sehr schnell, sehr viel Geld in die Hand genommen.

Braucht das Leben Strahlung?

Die Erkenntnisse über die Wirkung niedriger Strahlungsdosen schreiten immer weiter voran. Die radikalste Fragestellung dabei ist die Frage nach dem Verhalten von Zellen bei Abwesenheit von ionisierender Strahlung. Die Ergebnisse sind verblüffend – aber der Reihe nach…

Das LNT-Modell

In den 1950er-Jahren einigte man sich weltweit auf einen linearen Zusammenhang, ohne einen Schwellwert (linear no-threshold model; LNT), für den Strahlenschutz. Es ist simpel und damit leicht anwendbar: Man unterstellte, daß die biologischen Schäden (gemeint ist Krebs), die durch ionisierende Strahlung (umgangssprachlich durch Radioaktivität) ausgelöst werden, direkt proportional zur Dosis sind: Die mathematische Funktion ist eine einfache Gerade mit der Steigung 0,05/Sv. Etwas anschaulicher ausgedrückt, wenn man 100 Menschen einer Dosis von 1 SV (Sievert) aussetzt, erkranken davon fünf Menschen (zusätzlich) an Krebs. Mehr steckt nicht dahinter und damit fangen schon die Schwierigkeiten an.

Wie ist man zu dieser einfachen Zahl gekommen? Hauptsächlich durch die Auswertung der Opfer der Bomben auf Hiroshima und Nagasaki. Man hat zehntausende Menschen über Jahre beobachtet und ihre Erkrankungen dokumentiert. Das war der einfache Teil der Aufgabe. Wesentlich schwieriger war schon die Ermittlung der individuellen Strahlendosis, da diese Menschen natürlich keine Meßgeräte getragen haben. Hinzu kamen noch jeweils verschiedene Lebensumstände, Vorerkrankungen etc. Wenn man nun jeden einzelnen Fall in einem Diagramm (Krebserkrankungen über Dosis) aufträgt, kann man streng genommen keinen Punkt eintragen, sondern muß eher einen Klecks verwenden: Weder ist die genaue Dosis zu ermitteln, noch sind die Krebsarten alle gleich, noch kann man sonstige Belastungen (z. B. krebserregende Chemikalien, Umwelteinflüsse, genetische Prägungen etc.) genau erfassen.

In solchen Fällen helfen nur die Methoden der Statistik. Vereinfachend gesagt braucht man eine Wolke aus möglichst vielen Fällen, die möglichst eng zusammenliegen. Sieht das sich ergebende Band nach einer Geraden aus, kann man in guter Näherung eine solche hindurch legen und deren Steigung bestimmen.

Hier ergibt sich aber das Problem, welches seit über 80 Jahren zu heftigsten Diskussionen auch in der Fachwelt führt: Im unteren Teil (kleine Dosen und damit eine geringe Anzahl von Krebsfällen) gibt es kaum Punkte und die streuen auch noch sehr stark. Es ist damit äußerst fragwürdig, den gesamten Bereich – von keiner meßbaren Wirkung, bis zum garantiert kurzfristig eintretendem Strahlentod – durch ein und dieselbe Gerade nachbilden zu wollen. Schon die geringe zusätzliche Anzahl von den ohnehin auftretenden Krebsfällen trennen zu wollen, ist eine schier unlösbare Aufgabe. Hier rächt sich die Statistik: Sie arbeitet stets nur mit Wahrscheinlichkeiten. In dem vorherigen Zahlenbeispiel kann man weder voraussagen, welche fünf Personen von den betrachteten 100 Personen Krebs bekommen, noch ob es exakt fünf Fälle sind. Lediglich, wenn man sehr, sehr viele Menschen mit einem Sievert bestrahlen würde, würde sich die Anzahl der zusätzlichen Krebsfälle (bei diesem Modell!) der Zahl von fünf Prozent annähern.

Schwellwert oder nicht?

Man bezeichnet einen Wert als Schwellwert, wenn sich der Zusammenhang bei einem Modell wesentlich ändert. Für einen Ingenieur ist es nichts ungewöhnliches, Messreihen z. B. abschnittsweise durch unterschiedliche Geraden anzunähern.

Im Arbeitsschutz ist es üblich, für Giftstoffe Schwellwerte zu definieren. Üblicherweise sind dies Dosen, bei denen man auch über ein ganzes Arbeitsleben keine Schädigung feststellen kann. Dahinter steckt eine Alltagserfahrung: Nicht jeder Umgang mit einem Stoff führt sogleich zu einem Schaden. Andrerseits führt ein zu viel – bei jedem Stoff – irgendwann, zu irgendwelchen Schäden.

Bis zur Politisierung der Strahlung durch die „Atombomben“, ist man auch mit ionisierender Strahlung sehr erfolgreich so pragmatisch umgegangen. Man hatte schon wenige Jahre nach der segensreichen Erfindung der Röntgenstrahlung festgestellt, daß diese zu Erkrankungen bei dem medizinischen Personal führen konnte. Man analysierte die Fälle und definierte einen (zulässigen) Schwellwert für den Arbeitsschutz.

Energie und Leistung

Schon jedem Schüler sollte der Zusammenhang von Energie und Leistung vertraut sein. Es macht einen gewaltigen Unterschied, ob ich eine Leistung (W oder J/s) für Bruchteile einer Sekunde aufbringe oder über Stunden verteilt. Eindrucksvolles Beispiel hierfür, ist ein Laser-Strahl: Eine relativ geringe Energie reicht aus, um zwei Stahlplatten miteinander zu verschweißen. Der „Trick“ ist, die Energie in einem sehr kurzzeitigen Blitz zu senden. Über Stunden angewendet, würde sie den Stahl nicht einmal zum glühen bringen.

Warum glaubte man nun, diese Erfahrungstatsachen bei der ionisierenden Strahlung außer Kraft setzen zu können? Es war schlicht ein unvollständiges und damit leider falsches Verständnis der biologischen Zusammenhänge. Man hatte erkannt, daß bei der Zellteilung die DNA kopiert und damit die Erbinformationen weitergegeben würden. Man wußte, daß bereits ein Partikel einen DNA-Strang zerschlagen konnte. Man glaubte, wenn nun der Fehler beim kopieren an die Tochterzelle weitergegeben würde, müßten die Fehler irgendwann so häufig sein, daß eine „Krebszelle“ entstanden wäre. Eine übervorsichtige oder abstruse Vorstellung – ganz nach Standpunkt des Betrachters. Der gesunde Menschenverstand sagt einem schon, daß es einen gewaltigen Unterschied macht, ob man täglich nur einen Schnaps trinkt oder gleich die Flasche „auf ex“ leert. Die ganze Pharmakologie müßte neu geschrieben werden, wenn es keinen Unterschied machte, ob man seine Tabletten nach Anwendungsvorschrift einnimmt oder gleich die ganze Schachtel auf einmal in der Apotheke schluckt. Ausgerechnet bei der ionisierenden Strahlung sollte der seit Jahrhunderten bekannte Grundsatz: Die Dosis macht das Gift, nicht gelten.

Die Kollektivdosis ist schlichtweg Unsinn. Nach dem Motto, wenn wir einer Million Menschen je einen Aspirin geben, haben wir X Tote, weil wir ja wissen und nachweisen können, daß die Einnahme von y Schachteln Aspirin zum Tode führt. Ganz im Gegenteil nehmen Millionen Menschen weltweit täglich eine Tablette Aspirin ein, um z. B. das Risiko von Herzinfarkten drastisch zu senken.

Hormesis

Damit kommen wir zur Hormesis. Darunter wird verstanden, daß ein und derselbe Stoff, in geringen Mengen verabreicht, eine genau gegenteilige Wirkung haben kann. Seit Anbeginn zeigte sich bei „Niedrigstrahlung“ das Phänomen deutlich geringerer Krebsfälle, als nach dem LNT-Modell zu erwarten waren. Fast alle Studien mit Arbeitern aus der kerntechnischen Industrie, Opfern von „Atombomben“ und nicht zuletzt den Reaktorunglücken von Tschernobyl und Fukushima zeigten sogar unter dem Erwartungswert für die entsprechende Bevölkerungsgruppe liegende Werte. Jahrzehntelang versuchte man sich besonders bei Bergleuten mit der besonderen medizinischen Fürsorge und der Vorauswahl („Survival of the Fittest“) aus der Affäre zu stehlen. Bis man sich die Frage stellte, ob nicht ionisierende Strahlung in bestimmten geringen Dosen sogar eine den Krebs verhindernde Wirkung zeigte. Plötzlich war auch die „Radontherapie“ keine Esoterik mehr.

Seit man in der Molekularbiologie große Fortschritte erzielt hat und Gene und die DNA praktisch beobachten kann, kann man diese Phänomene sogar naturwissenschaftlich erklären. Es passieren ständig, in jeder Zelle, zehntausende DNA-Fehler. Hauptsächlich sind dafür Radikale verantwortlich. Es gibt daher einen Reperaturmechanismus, der die DNA größtenteils wieder repariert. Darüberhinaus existiert noch eine weitere Ebene, die Zerstörung entarteter Zellen. Erst wenn alle Reparatur- und Schutzmechanismen versagen, kann sich „Krebs“ ausbilden. Hieraus ergibt sich auch der Zusammenhang von (permanenten) kleinen und kurzzeitig hohen Dosen: Mit einer geringen Anzahl von Fehlern wird das Reparatursystem leicht fertig. Ab einer gewissen Dosis entsteht ein „Sättigungsangriff“, der die Abwehr schlicht weg überfordert.

Ohne diese „Selbstheilungskräfte“ wäre überhaupt kein Leben möglich. Man kann nun in Versuchen zeigen, daß diese Kräfte durch ionisierende Strahlung (in der richtigen Dosis!) motiviert und unterstützt werden. Ein Umstand, der bereits in der Strahlentherapie Anwendung findet. Um Krebszellen zu zerstören, braucht man punktuell sehr hohe Dosen, die natürlich das umliegende gesunde Gewebe stark belasten. Deshalb trainiert man in bestimmten Fällen vor der eigentlichen Behandlung das gesunde Gewebe durch mehrere Bestrahlungen mit niedrigen Dosen.

Der Ultimative Test

Wenn es eine Hormesis gibt, was passiert eigentlich, wenn man von Zellen die Strahlung fern hält? Eine einfache Fragestellung, aber ein schwer durchführbares Experiment. Es gibt nämlich überall ionisierende Strahlung: Aus dem All und aus der Erde – die sogenannte Hintergrundstrahlung. Dieser Strahlung war und ist jedes Leben seit Milliarden Jahren ausgesetzt. Leben hätte sich gar nicht entwickeln können, wäre es nicht gegen ionisierende Strahlung überlebensfähig gewesen. Gott sei es gedankt, ist die Natur etwas einfallsreicher, als die Anhänger des LNT-Modells meinen.

Schon in den 1990er Jahren wurde in Italien ein Experiment mit Hefezellen durchgeführt. Hefezellen sind ein Standardobjekt der Molekularbiologen. Sie wurden in ein Labor 1300 m tief unter einem Bergmassiv gezüchtet. Hier unten war die Strahlung tausendfach kleiner, als in dem oberirdischen Vergleichslabor. Anschließend wurden beide Versuchsgruppen Chemikalien ausgesetzt, die starke genetische Veränderungen auslösen können. Es zeigte sich, daß die Fehlerrate bei den „vor Strahlung geschützten“ Zellen höher war.

Inzwischen werden solche Experimente ausgeweitet. In den USA hat man z . B. in einem Salzstock in Carlsbad ein Labor in 650m Tiefe eingerichtet. Die dortige Salzschicht besteht aus sehr reinem Kochsalz und enthält damit nur sehr wenig „radioaktive Stoffe“. Die Deckschicht schirmt die kosmische Strahlung entsprechend ab. Die „Bakterienzucht“ wird in einem Tresor mit 15 cm dicken Stahlwänden aus Stahl vor dem II. Weltkrieg durchgeführt. Solch alter Schrott wird inzwischen hoch gehandelt, da er noch nicht mit Fallout aus „Atombombenversuchen“ etc. belastet ist. Durch diese Maßnahmen gelang es, eine Strahlung von 0,17 mSv pro Jahr innerhalb des Tresors zu erreichen. Dies ist der geringste Wert, der bisher auf der Erde erzeugt werden konnte.

In der Versuchsanordnung wurden nun als besonders strahlenempfindlich bekannte Bakterien Shewanella oneidensis und als besonders strahlungsresistente Bakterien Deinococcus radioduruans gezüchtet. In regelmäßigen Abständen wurde die DNA der Versuchsgruppen auf Schäden untersucht. Um andere Einflüsse ausschließen zu können, wurden die Bakterien mehrfach zwischen den Orten mit verringerter Strahlung und normaler Strahlung hin und her getauscht.

An dieser Stelle müssen wir uns noch einmal die zentrale Aussage des LNT-Modells verdeutlichen:

  • Jedes „Strahlungsereignis“ schädigt die DNA. Deshalb gilt: Je weniger Strahlung, um so weniger Schäden. Nach dem LNT-Modell gibt es einen Nullpunkt, an dem es infolge der nicht vorhandenen Strahlung auch keine Schäden geben dürfte.
  • Die aufgetretenen Schäden addieren sich. Je länger man eine Probe bestrahlt, um so mehr Schäden treten auf.

Demgegenüber stehen die Messergebnisse des Versuches: Beide Bakterienarten weisen „ohne Strahlung“ mehr Schäden auf als „mit Strahlung“. Besonders verblüffend ist, daß sich die Schäden innerhalb von 24h normalisieren, wenn man die Proben wieder der Hintergrundstrahlung aussetzt. Schützt man die Probe wieder vor Strahlung, nehmen die Schäden auch wieder zu. Dies scheint in beliebigem Wechsel möglich.

Sollten sich diese Erkenntnisse weiter verdichten, würde es bedeuten, daß das LNT-Modell schlicht weg, falsch ist. Benutzt man den gesunden Menschenverstand, ist dies auch nicht besonders überraschend: Es hat immer schon Strahlung auf der Erde gegeben. Früher sogar mehr als heute (Halbwertszeit z. B. von Uran, Kalium etc., Sonnenaktivitäten und unterschiedliche Atmosphäre). Vielleicht wäre ohne Strahlung gar kein Leben möglich?

ALARA

Bei diesen Forschungsergebnissen handelt es sich nicht einfach um irgendwelche Trivialitäten, sondern sie sind hoch brisant. Bisher galt weltweit das Prinzip beim Strahlenschutz, die Strahlenbelastung so gering wie möglich zu halten (As Low As Reasonably Archievable; ALARA). Eine ganze Industrie mit Milliardenumsätzen lebt davon. Geld, das man nutzbringender hätte einsetzen können. Konnte man bisher noch mit Fürsorglichkeit und Vorsicht argumentieren, ist es spätestens nach dem Unglück von Fukushima endgültig damit vorbei. Dort hat man eindeutig das Kind mit dem Bade ausgeschüttet. Es sind viel mehr Menschen seelisch und körperlich durch ALARA zu Schaden gekommen, als durch die vorhandene Strahlung. Es wäre besser gewesen, die Menschen hätten in ihrer Umgebung verbleiben können. Evakuierungen wären nur in ganz wenigen Fällen und auf freiwilliger Basis nötig gewesen. Gut gemeint, war auch hier nicht, gut gemacht. Ideologie kann töten. Die Aufklärung der Bevölkerung ist daher dringend notwendig.

Fukushima – ein Zwischenbericht

In letzter Zeit ist es in den „Qualitätsmedien“ still geworden um die „Reaktorkatastrophe“. Um so mehr ein Grund, hier mal wieder einen Zwischenbericht zu liefern. Man könnte es sich einfach machen: Noch immer kein Toter durch Strahlung, noch immer keine Krebs-Epidemie, noch immer ist der Fisch an Japans Küste essbar…

…da warn es nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der „Reaktorhalle“ zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche „Betonhülle“ um das Kernkraftwerk gebaut hätte. Um es auch unserer – von der japanischen Industriegesellschaft so enttäuschten – Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein „Bankpalast“ aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von „Windmühlen“ und „Sonnenkollektoren“ hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen im Kölner Dom hunderte male stärker als die Strahlenbelastung aus Fukushima.). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die „Flugbahnen“ der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine – auch gegenüber allen Baustoffen, wie Stahl, Beton usw. – außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch „nachrechnen“ des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine „Aufnahmen“ der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden.

Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden.

An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt.

Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die „Eiswände“ fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch „gut verschlossen“ ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit „Wischern“ und „Staubsaugern“ ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man „taucht“ heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik – nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren – ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit – und ganz besonders in Deutschland – zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten „Experten“, die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch „Festigkeit im Rechten-Glauben“ ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher – aber anscheinend nicht so offensichtlich – ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten – und längst überprüften und für sicher befundenen – Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. „Wind und Sonne“ sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der „Krebstoten“ nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung „Krebs“ früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell „Strahlenangst“ erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Medikamente gegen Strahlenschäden

Eine Betrachtung zur Strahlung

In der deutschen Öffentlichkeit wird γ-Strahlung auf immer seltsamere Art und Weise doppeldeutig diskutiert: Stammt sie aus einer medizinischen Apparatur (Krebstherapie), wird sie als gut und hilfreich empfunden, stammt sie aus der Nutzung der Kernenergie („Atommüll“), wird sie durchweg abgelehnt. Selbst die Alltagserfahrung des „die Menge macht’s“, scheint hier außer Kraft gesetzt zu sein. Wie anders soll man es sonst deuten, daß geringste Dosen bei einem Reaktorstörfall (Fukushima, Tschernobyl) als lebensbedrohlich angesehen werden, aber um einige Zehnerpotenzen höhere Dosen mancher Therapie, als segensreich empfunden werden? Naturwissenschaftlich jedenfalls, läßt sich das nicht erklären. Es handelt sich eher um Okkultismus.

Nicht nur physikalisch läßt sich nachweisen, daß die Strahlung von z. B. Co60 immer die gleiche ist, egal ob sie aus „Atommüll“, einem Reaktor oder einer Apparatur zur Bestrahlung stammt. Auch die biologische Wirkung ist immer gleich, lediglich abhängig von der Dosisleistung und der Bestrahlungszeit. Bei hohen Dosen – wie sie z. B. bei einer Krebstherapie verlangt werden – kann man die Auswirkungen schon bei Blutproben nachweisen. Die Ergebnisse sind immer die gleichen, sie sind reproduzierbar und unabhängig von der Strahlenquelle. Es sind die gleichen meßbaren Effekte, wie sie z. B. schon bei den Opfern von Hiroshima und Nagasaki festgestellt werden konnten. Es ist also nicht so, daß wir nicht über ausreichende Erfahrungen verfügen würden. Mögen wir auch (noch) nicht alle Effekte bis ins letzte Detail einer jeden Zelle verstehen, so sind doch die Dinge auf der Ebene des „biologischen Systems Mensch und Tier“ gut vorhersehbar und nachvollziehbar.

Behandlungsmethoden

Es ist, wie immer in der Medizin: Auch wenn man den Ablauf einer Krankheit nicht bis ins letzte versteht, kann man doch helfen. Anders als bei biologischen Krankheiten ist es bei einer Verstrahlung sehr einfach den „Erreger“ zu finden. Eine Untersuchung, ob sich radioaktive Stoffe im Körper befinden (sog. Inkorporation) ist mit physikalischen Meßgeräten zuverlässig und schnell durchzuführen. Hat man Stoffe gefunden, kann man den Körper unterstützen, diese schnell wieder auszuscheiden. Man kann heute die sog. „biologische Halbwertszeit“ meist beträchtlich verkürzen. Im übertragenen Sinne kommt es der Tötung von Krankheitserregern gleich.

Hat die Strahlung nur von außen gewirkt, sollte die Person möglichst schnell aus dem Bereich der Strahlung herausgebracht werden, um weitere Schäden zu vermeiden. Diese Maßnahme ist besser unter den Begriffen „Evakuierung und Sperrgebiet“ bekannt.

Leider ist es damit nicht getan. Der Krankheitsverlauf ist mit einem Biss durch eine Giftschlange vergleichbar. Die Ursache kann sehr schnell und kurzeitig (Kritikalitätsunfall) wirksam sein. Man merkt erst nach einigen Minuten oder Stunden irgendwelche Symptome. Das „Gift“ ist schnell verschwunden, aber die zerstörerischen Prozesse, die es im Körper ausgelöst hat, laufen erst richtig an. Trotzdem kann man Strahlenopfern vielfach wirksam helfen, in dem man die „Selbstheilungskräfte“ unterstützt und vor allem den Körper vor weiteren Schäden (Infektionsgefahr) und Belastungen bewahrt.

An diesem Punkt überschneiden sich „Strahlentherapie“ und „Strahlenunfall“. Die Krebszellen sollen sicher zerstört werden, gleichwohl ist für die „gesunden“ Körperteile die Bestrahlung eine „nukleare Katastrophe“. Gelingt es, die Regeneration der belasteten Zellen zu unterstützen, kann man die Strahlendosis erhöhen und damit den „Krebs“ sicherer bekämpfen.

Es gibt also ein großes Forschungsinteresse „Medikamente gegen Strahlenkrankheit“ zu entwickeln. Solche Medikamente können dann auch zur Behandlung nach kerntechnischen Unfällen verwendet werden. Um es gleich vorweg zu nehmen, für eine militärische Verwendung sind solche Medikamente sinnlos, wenn nicht sogar kontraproduktiv. Ein Soldat, der nicht durch eine Kernwaffe getötet wurde, aber weiß, daß er erheblich verstrahlt wurde, ist in des Wortes Bedeutung ein todesmutiger Krieger. Wäre das nicht so, wären wahrscheinlich bereits erhebliche Mittel in die Entwicklung solcher Medikamente geflossen.

Heute kommt der Anstoß für Forschung und Entwicklung aus dem Bereich Nuklearmedizin. Gelingt es, die unvermeidlichen Nachteile einer Bestrahlung weiter zu senken, erschließen sich wahrscheinlich weitere Anwendungen für Strahlentherapien. Folgerichtig untersucht man besonders Medikamente, die bereits in der Krebstherapie eingesetzt werden. Bei diesen Medikamenten kennt man bereits sehr gut die Wirkungen auf den menschlichen Körper und etwaige Nebenwirkungen. Man will ja vermeiden, daß man den Teufel mit Beelzebub austreibt.

Ein solcher Stoff ist DIM (3,3′-diindolylmethane). Er kommt in der Natur in manchen Kreuzblütlern, wie Rotkohl, Blumenkohl und Brokkoli vor und wird schon länger zur Krebsbehandlung eingesetzt. Die Georgetown University hat diesen Stoff nun zum Patent für die Behandlung von Strahlenopfern angemeldet. In einer aktuellen Veröffentlichung werden die Forschungsergebnisse vorgestellt. Es wurden Ratten mit einer Dosis von 13 Gy (1300 rad) bestrahlt. Diese Dosis ist für Ratten normalerweise zu 100% tödlich. Sie sterben in wenigen Tagen. Ein Teil der Tiere wurde mit DIM behandelt. Ihn wurde täglich DIM gespritzt (Anmerkung: Bei so hohen Strahlendosen wird der gesamte Verdauungstrakt förmlich durchlöchert, wodurch eine normale Nahrungsaufnahme unmöglich wird. Also kein Versuch für Tierschützer!). Über 60% der behandelten Ratten haben auch noch nach 30 Tagen überlebt. Diese Tiere sollen bis zum natürlichen Ableben ohne erkennbare Schäden weitergelebt haben. In einer weiteren Versuchsreihe wurden Ratten mit 7 Gy (700 rad) bestrahlt. Unbehandelt, sind 50% nach 30 Tagen verstorben, behandelt haben rund 90% überlebt. Insofern hoffnungsvolle Ergebnisse.

Es ist aber nicht nur eine Erhöhung der Überlebenswahrscheinlichkeit fest zu stellen, sondern es sind auch andere Veränderungen meßbar. Dies betrifft einzelne Zellkulturen genau so, wie Blutuntersuchungen. Ein wesentlicher Effekt scheint auf der Anregung der Fähigkeit einer Zelle zur Reparatur von DNA-Brüchen zu liegen. Es werden aber auch die Symptome einer Strahlenkrankheit (Störung der Elektrolyte-Bilanz, zunehmende Entzündungen etc.) deutlich gesenkt. Gerade hierin, wird eine potentielle Anwendung als unterstützendes Medikament bei hoher Strahlenbelastung gesehen.

Ausblick

Es geht hier nicht um die Vorstellung eines neuen „Wundermedikaments“. Vielmehr geht es darum, auf die laufende Forschung aufmerksam zu machen. Ein Gebiet, das sich weitgehend unbeachtet von der Öffentlichkeit vollzieht. Die Nuklearmedizin hat sich in nur hundert Jahren zu einem bedeutenden Zweig der Medizin entwickelt. Dies ist der entscheidende Punkt: Diese Fachrichtung gibt es überhaupt erst, seit die Röntgenstrahlung und die Kernspaltung entdeckt wurden. In Kombination mit Molekularbiologie etc. hat sie eine rasante Entwicklung vollzogen und führt ganz neben bei, zu einem immer besseren Verständnis von der Wirkung jeglicher Strahlung auf lebende Organismen. Je weiter diese Erkenntnisse fortschreiten, um so weiter wird der „Aberglauben“ zurück gedrängt werden. Entscheidend ist eine ganz andere Frage. Welche Konsequenzen hat es für eine Gesellschaft, wenn sie sich aus diesem Prozeß ausklinken will? Geht das überhaupt? Der Weg zurück ins Mittelalter, mag manchen schlichten Gemütern sehr verlockend erscheinen. Die Strahlenphobie, wird genau wie der „Hexenwahn“, durch zunehmende Aufklärung verschwinden. Die Geschwindigkeit wird – heute wie damals – maßgeblich durch wirtschaftliche Interessen bestimmt. Die „Angst vor Strahlung“ wird sich in eine „Angst vor Blitz und Donner“ verwandeln: Man versteht die dahinter verborgenen physikalischen Effekte, respektiert die möglichen Gefahren und kann deshalb hervorragend mit dem „unvermeidlichen“ Problem umgehen.

Seltene Filmschätze

Das Internet vergisst nie, sagt man. Leider gilt das für Filmschätze aus der Welt davor, nicht unbedingt. Es gibt aber eine Reihe von Leuten, die alte Photos und Schmalfilme digitalisieren und der Allgemeinheit über das Internet wieder zugänglich machen. Ein solches Beispiel ist der Mitschnitt von Vorträgen von Galen Winsor aus den 1980er Jahren. Leider sind scheinbar nur diese drei noch vorhanden:

The Nuclear Scare Scam | Galen Winsor

Wer Englisch kann, sollte sich dieses Dokument nicht entgehen lassen. Er bekommt in 90 Minuten den Einblick in eine Welt, die völlig anders ist, als die in deutschen Medien dargestellte.

Der Zeitzeuge Galen Winsor

Galen Winsor wurde 1926 geboren und verstarb 2008. Er war 32 Berufsjahre mit der Wiederaufbereitung und Gewinnung von Plutonium beschäftigt. Erst im militärischen Komplex von Hanford und später in der Entwicklung für General Electric (GE). Als Pensionär zog er durch Amerika und hielt Vorträge gegen die herrschende „Atompolitik“, die er für gänzlich falsch hielt. Er wurde zum Wanderprediger für die Nutzung abgebrannter Brennstäbe. Für alle, die erst nach der Erfindung des Internet geboren wurden oder sich nicht mehr an die Urzeit erinnern mögen: Es gab nur Zeitungen, Radio und Fernsehen als Massenmedien. Wer eine andere Meinung, als die der Verleger und Intendanten vertrat, dem blieben nur Flugblätter und Vorträge. Schon ein Buch zu drucken und zu vertreiben, war nicht ganz einfach. Vielleicht war dies ein (wesentlicher) Grund, warum es gelang, eine (damals noch relativ neue) Technologie so zu verteufeln und zu diskreditieren.

Galen Winsor ist eine gewisse Verbitterung anzumerken. Eine sarkastische Bemerkung jagt die nächste. Er kann und will nicht verstehen, warum – was er für den Fortschritt schlecht hin hält – so bekämpft und abgelehnt wird. Ein bischen Verschwörungstheorie hilft dabei den Frust erträglicher zu machen: „Big Oil“ und „Big Coal“ stecken dahinter. Sie sind die wahren Gegner der Kerntechnik, die um ihre Monopolstellung fürchten. „Atomkraftgegner“ sind nur unwissende und willfährige Hilfstruppen in diesem Milliardenspiel. Ein Standpunkt, der sich heute eher verstärkt.

Galen Winsor verkörpert den Urtypus des freiheitlichen Amerikaners: Voller Misstrauen gegenüber Washington. Er geht voller Begeisterung nach Hanford in die Plutoniumproduktion. 1945 (mit 19!) auf einem Zerstörer im Pazifik unterwegs, bedeutet für ihn der Einsatz als Beobachter bei einem Atombombentest nichts weiter, als ein „Erst mal weg von der Front“. Überwältigt von der Explosion, erkennt er sofort, daß dies die „fehlende Rückfahrkarte“ in die Heimat bedeutet. Von nun an, will er alles wissen und verstehen über Kerntechnik. Er studiert Chemie und fängt schon in der Wiederaufbereitungsanlage in Hanford an, bevor er noch sein Studium abgeschlossen hat. Dort arbeitet er mit „blossen Händen“ mehrere Jahre mit Plutonium. Er ist noch in hohem Alter stolz darauf, daß alle genau wussten, was sie taten und deshalb kaum Unfälle zu verzeichnen waren. An dieser Stelle sei nur daran erinnert, daß der Mann 82 geworden ist und nicht etwa an Krebs gestorben. Alle, die immer noch an das Märchen von „Millionen Toten in Tschernobyl und Fukushima als Spätfolgen“ glauben, sollten nicht versäumen, sich das Video anzuschauen.

Er fängt an mit dem System zu brechen, als immer mehr Bürokraten ihm vorschreiben wollen, welche Dosis er einzuhalten habe und ihm bei Kritik unverhohlen mit Rausschmiss drohen. Irgendwann läßt er sich von GE abwerben, um eine zivile Wiederaufbereitungsanlage zu bauen. Es gelingt ihm, wesentliche Prozeßschritte zu automatisieren. Ein wesentlicher Fortschritt im Strahlenschutz gegenüber der Anlage in Hanford. Als man ihn zwingt, die Dosisleistung noch einmal um den Faktor zehn zu verringern, wird er rebellisch und schwimmt durch das Brennelementebecken.

Galen Winsor ein Irrer oder ein moderner Eulenspiegel?

Ist es nicht ein totaler Irrsinn, durch ein Brennelementebecken mit 170 to abgebrannter Brennstäbe zu schwimmen? Arbeitsrechtlich ja, physikalisch nein. Solch ein Abklingbecken gleicht in der Tat einem Schwimmbecken. Es ist nur tiefer. Das Wasser dient der Kühlung der Brennelemente und der Abschirmung der Strahlung. Die Wassertiefe ist so groß bemessen, daß die Strahlung am Beckenrand auch längere Arbeitsaufenthalte erlaubt. Ob man da nun rein steigt und los schwimmt, ist ziemlich unerheblich. Man sollte nur nicht zu den Brennelementen runter tauchen. Zu allem Überdruss hat sich Wilson auch noch zwei Liter Wasser abgefüllt und getrunken. Auch das keine Hexerei: Brennstäbe sind sicher eingeschweißt. Das Wasser im Becken wird ständig überwacht. Also weit aus weniger Risiko, als wenn jemand von der „Generation Gesamtschule“ mit Fahrradhelm auf dem Kopf, über eine rote Ampel fährt. Interessant die Reaktion seines Arbeitgebers GE: Verbot der Nutzung als (beheiztes) Schwimmbecken, da sonst die Gefahr bestünde, daß Brennelemente gestohlen werden könnten. Strahlung als eine Art Voodoo-Schutz-Zauber?

Besonders gefürchtet waren die Demonstrationen von „Radioaktivität“ in Winsor’s Vorträgen. Unvergesslich die Szene, in der er die Reste von Uranoxid von seiner Handfläche leckt. Ebenso die Nutzung eines Stücks abgereicherten Urans als „Feuerstahl“. Besser konnte er keine „Atomexperten“ vorführen. Die Staatsmacht reagierte prompt: Eine Spezialeinheit durchsuchte sein Haus und beschlagnahmte alle radioaktiven Proben um ihn angeblich vor sich selbst zu schützen. Einen Mann, der jahrzehntelang im Staatsdienst mit Plutonium umgegangen war und sich offensichtlich bester Gesundheit erfreute. Die Staatsmacht toleriert manches, aber wenn man sie der Lächerlichkeit preisgibt, hört sofort jeder Spaß auf – egal ob in Moskau oder Washington.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.