Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: „So wenig Strahlung, als vernünftig erreichbar“. Das Wort „vernünftig“ wird – wegen der angeblichen Krebsgefahr – als „so gering wie möglich“ überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine „normale“ Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes : „Die Dosis macht’s“. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche „auf ex“ haben soll. Bestenfalls ist dieser Irrglaube auf ein „physikalisches“ Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz „eine Mutation = ein Krebs“ ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der „Strahlenschutz“ ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der „Walschützer“ ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen „Klimaschutz“ und andere Machenschaften der „Ökoindustrie“ ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle „Gutmenschen“ mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich „harte moralische Fakten“ von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus „Angst vor Strahlung“ verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die „Strahlung“ so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von „Strahlenkrankheiten“. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im „kalten Krieg“ die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein „gut“ und kein „schlecht“, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis „die Dosis macht’s“, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der „Angstmensch“ als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den „Klimawissenschaften“, bei denen „Welt-Temperaturen“ mit (bekannt fehlerhaften) „Weltmodellen“ berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Braucht das Leben Strahlung?

Die Erkenntnisse über die Wirkung niedriger Strahlungsdosen schreiten immer weiter voran. Die radikalste Fragestellung dabei ist die Frage nach dem Verhalten von Zellen bei Abwesenheit von ionisierender Strahlung. Die Ergebnisse sind verblüffend – aber der Reihe nach…

Das LNT-Modell

In den 1950er-Jahren einigte man sich weltweit auf einen linearen Zusammenhang, ohne einen Schwellwert (linear no-threshold model; LNT), für den Strahlenschutz. Es ist simpel und damit leicht anwendbar: Man unterstellte, daß die biologischen Schäden (gemeint ist Krebs), die durch ionisierende Strahlung (umgangssprachlich durch Radioaktivität) ausgelöst werden, direkt proportional zur Dosis sind: Die mathematische Funktion ist eine einfache Gerade mit der Steigung 0,05/Sv. Etwas anschaulicher ausgedrückt, wenn man 100 Menschen einer Dosis von 1 SV (Sievert) aussetzt, erkranken davon fünf Menschen (zusätzlich) an Krebs. Mehr steckt nicht dahinter und damit fangen schon die Schwierigkeiten an.

Wie ist man zu dieser einfachen Zahl gekommen? Hauptsächlich durch die Auswertung der Opfer der Bomben auf Hiroshima und Nagasaki. Man hat zehntausende Menschen über Jahre beobachtet und ihre Erkrankungen dokumentiert. Das war der einfache Teil der Aufgabe. Wesentlich schwieriger war schon die Ermittlung der individuellen Strahlendosis, da diese Menschen natürlich keine Meßgeräte getragen haben. Hinzu kamen noch jeweils verschiedene Lebensumstände, Vorerkrankungen etc. Wenn man nun jeden einzelnen Fall in einem Diagramm (Krebserkrankungen über Dosis) aufträgt, kann man streng genommen keinen Punkt eintragen, sondern muß eher einen Klecks verwenden: Weder ist die genaue Dosis zu ermitteln, noch sind die Krebsarten alle gleich, noch kann man sonstige Belastungen (z. B. krebserregende Chemikalien, Umwelteinflüsse, genetische Prägungen etc.) genau erfassen.

In solchen Fällen helfen nur die Methoden der Statistik. Vereinfachend gesagt braucht man eine Wolke aus möglichst vielen Fällen, die möglichst eng zusammenliegen. Sieht das sich ergebende Band nach einer Geraden aus, kann man in guter Näherung eine solche hindurch legen und deren Steigung bestimmen.

Hier ergibt sich aber das Problem, welches seit über 80 Jahren zu heftigsten Diskussionen auch in der Fachwelt führt: Im unteren Teil (kleine Dosen und damit eine geringe Anzahl von Krebsfällen) gibt es kaum Punkte und die streuen auch noch sehr stark. Es ist damit äußerst fragwürdig, den gesamten Bereich – von keiner meßbaren Wirkung, bis zum garantiert kurzfristig eintretendem Strahlentod – durch ein und dieselbe Gerade nachbilden zu wollen. Schon die geringe zusätzliche Anzahl von den ohnehin auftretenden Krebsfällen trennen zu wollen, ist eine schier unlösbare Aufgabe. Hier rächt sich die Statistik: Sie arbeitet stets nur mit Wahrscheinlichkeiten. In dem vorherigen Zahlenbeispiel kann man weder voraussagen, welche fünf Personen von den betrachteten 100 Personen Krebs bekommen, noch ob es exakt fünf Fälle sind. Lediglich, wenn man sehr, sehr viele Menschen mit einem Sievert bestrahlen würde, würde sich die Anzahl der zusätzlichen Krebsfälle (bei diesem Modell!) der Zahl von fünf Prozent annähern.

Schwellwert oder nicht?

Man bezeichnet einen Wert als Schwellwert, wenn sich der Zusammenhang bei einem Modell wesentlich ändert. Für einen Ingenieur ist es nichts ungewöhnliches, Messreihen z. B. abschnittsweise durch unterschiedliche Geraden anzunähern.

Im Arbeitsschutz ist es üblich, für Giftstoffe Schwellwerte zu definieren. Üblicherweise sind dies Dosen, bei denen man auch über ein ganzes Arbeitsleben keine Schädigung feststellen kann. Dahinter steckt eine Alltagserfahrung: Nicht jeder Umgang mit einem Stoff führt sogleich zu einem Schaden. Andrerseits führt ein zu viel – bei jedem Stoff – irgendwann, zu irgendwelchen Schäden.

Bis zur Politisierung der Strahlung durch die „Atombomben“, ist man auch mit ionisierender Strahlung sehr erfolgreich so pragmatisch umgegangen. Man hatte schon wenige Jahre nach der segensreichen Erfindung der Röntgenstrahlung festgestellt, daß diese zu Erkrankungen bei dem medizinischen Personal führen konnte. Man analysierte die Fälle und definierte einen (zulässigen) Schwellwert für den Arbeitsschutz.

Energie und Leistung

Schon jedem Schüler sollte der Zusammenhang von Energie und Leistung vertraut sein. Es macht einen gewaltigen Unterschied, ob ich eine Leistung (W oder J/s) für Bruchteile einer Sekunde aufbringe oder über Stunden verteilt. Eindrucksvolles Beispiel hierfür, ist ein Laser-Strahl: Eine relativ geringe Energie reicht aus, um zwei Stahlplatten miteinander zu verschweißen. Der „Trick“ ist, die Energie in einem sehr kurzzeitigen Blitz zu senden. Über Stunden angewendet, würde sie den Stahl nicht einmal zum glühen bringen.

Warum glaubte man nun, diese Erfahrungstatsachen bei der ionisierenden Strahlung außer Kraft setzen zu können? Es war schlicht ein unvollständiges und damit leider falsches Verständnis der biologischen Zusammenhänge. Man hatte erkannt, daß bei der Zellteilung die DNA kopiert und damit die Erbinformationen weitergegeben würden. Man wußte, daß bereits ein Partikel einen DNA-Strang zerschlagen konnte. Man glaubte, wenn nun der Fehler beim kopieren an die Tochterzelle weitergegeben würde, müßten die Fehler irgendwann so häufig sein, daß eine „Krebszelle“ entstanden wäre. Eine übervorsichtige oder abstruse Vorstellung – ganz nach Standpunkt des Betrachters. Der gesunde Menschenverstand sagt einem schon, daß es einen gewaltigen Unterschied macht, ob man täglich nur einen Schnaps trinkt oder gleich die Flasche „auf ex“ leert. Die ganze Pharmakologie müßte neu geschrieben werden, wenn es keinen Unterschied machte, ob man seine Tabletten nach Anwendungsvorschrift einnimmt oder gleich die ganze Schachtel auf einmal in der Apotheke schluckt. Ausgerechnet bei der ionisierenden Strahlung sollte der seit Jahrhunderten bekannte Grundsatz: Die Dosis macht das Gift, nicht gelten.

Die Kollektivdosis ist schlichtweg Unsinn. Nach dem Motto, wenn wir einer Million Menschen je einen Aspirin geben, haben wir X Tote, weil wir ja wissen und nachweisen können, daß die Einnahme von y Schachteln Aspirin zum Tode führt. Ganz im Gegenteil nehmen Millionen Menschen weltweit täglich eine Tablette Aspirin ein, um z. B. das Risiko von Herzinfarkten drastisch zu senken.

Hormesis

Damit kommen wir zur Hormesis. Darunter wird verstanden, daß ein und derselbe Stoff, in geringen Mengen verabreicht, eine genau gegenteilige Wirkung haben kann. Seit Anbeginn zeigte sich bei „Niedrigstrahlung“ das Phänomen deutlich geringerer Krebsfälle, als nach dem LNT-Modell zu erwarten waren. Fast alle Studien mit Arbeitern aus der kerntechnischen Industrie, Opfern von „Atombomben“ und nicht zuletzt den Reaktorunglücken von Tschernobyl und Fukushima zeigten sogar unter dem Erwartungswert für die entsprechende Bevölkerungsgruppe liegende Werte. Jahrzehntelang versuchte man sich besonders bei Bergleuten mit der besonderen medizinischen Fürsorge und der Vorauswahl („Survival of the Fittest“) aus der Affäre zu stehlen. Bis man sich die Frage stellte, ob nicht ionisierende Strahlung in bestimmten geringen Dosen sogar eine den Krebs verhindernde Wirkung zeigte. Plötzlich war auch die „Radontherapie“ keine Esoterik mehr.

Seit man in der Molekularbiologie große Fortschritte erzielt hat und Gene und die DNA praktisch beobachten kann, kann man diese Phänomene sogar naturwissenschaftlich erklären. Es passieren ständig, in jeder Zelle, zehntausende DNA-Fehler. Hauptsächlich sind dafür Radikale verantwortlich. Es gibt daher einen Reperaturmechanismus, der die DNA größtenteils wieder repariert. Darüberhinaus existiert noch eine weitere Ebene, die Zerstörung entarteter Zellen. Erst wenn alle Reparatur- und Schutzmechanismen versagen, kann sich „Krebs“ ausbilden. Hieraus ergibt sich auch der Zusammenhang von (permanenten) kleinen und kurzzeitig hohen Dosen: Mit einer geringen Anzahl von Fehlern wird das Reparatursystem leicht fertig. Ab einer gewissen Dosis entsteht ein „Sättigungsangriff“, der die Abwehr schlicht weg überfordert.

Ohne diese „Selbstheilungskräfte“ wäre überhaupt kein Leben möglich. Man kann nun in Versuchen zeigen, daß diese Kräfte durch ionisierende Strahlung (in der richtigen Dosis!) motiviert und unterstützt werden. Ein Umstand, der bereits in der Strahlentherapie Anwendung findet. Um Krebszellen zu zerstören, braucht man punktuell sehr hohe Dosen, die natürlich das umliegende gesunde Gewebe stark belasten. Deshalb trainiert man in bestimmten Fällen vor der eigentlichen Behandlung das gesunde Gewebe durch mehrere Bestrahlungen mit niedrigen Dosen.

Der Ultimative Test

Wenn es eine Hormesis gibt, was passiert eigentlich, wenn man von Zellen die Strahlung fern hält? Eine einfache Fragestellung, aber ein schwer durchführbares Experiment. Es gibt nämlich überall ionisierende Strahlung: Aus dem All und aus der Erde – die sogenannte Hintergrundstrahlung. Dieser Strahlung war und ist jedes Leben seit Milliarden Jahren ausgesetzt. Leben hätte sich gar nicht entwickeln können, wäre es nicht gegen ionisierende Strahlung überlebensfähig gewesen. Gott sei es gedankt, ist die Natur etwas einfallsreicher, als die Anhänger des LNT-Modells meinen.

Schon in den 1990er Jahren wurde in Italien ein Experiment mit Hefezellen durchgeführt. Hefezellen sind ein Standardobjekt der Molekularbiologen. Sie wurden in ein Labor 1300 m tief unter einem Bergmassiv gezüchtet. Hier unten war die Strahlung tausendfach kleiner, als in dem oberirdischen Vergleichslabor. Anschließend wurden beide Versuchsgruppen Chemikalien ausgesetzt, die starke genetische Veränderungen auslösen können. Es zeigte sich, daß die Fehlerrate bei den „vor Strahlung geschützten“ Zellen höher war.

Inzwischen werden solche Experimente ausgeweitet. In den USA hat man z . B. in einem Salzstock in Carlsbad ein Labor in 650m Tiefe eingerichtet. Die dortige Salzschicht besteht aus sehr reinem Kochsalz und enthält damit nur sehr wenig „radioaktive Stoffe“. Die Deckschicht schirmt die kosmische Strahlung entsprechend ab. Die „Bakterienzucht“ wird in einem Tresor mit 15 cm dicken Stahlwänden aus Stahl vor dem II. Weltkrieg durchgeführt. Solch alter Schrott wird inzwischen hoch gehandelt, da er noch nicht mit Fallout aus „Atombombenversuchen“ etc. belastet ist. Durch diese Maßnahmen gelang es, eine Strahlung von 0,17 mSv pro Jahr innerhalb des Tresors zu erreichen. Dies ist der geringste Wert, der bisher auf der Erde erzeugt werden konnte.

In der Versuchsanordnung wurden nun als besonders strahlenempfindlich bekannte Bakterien Shewanella oneidensis und als besonders strahlungsresistente Bakterien Deinococcus radioduruans gezüchtet. In regelmäßigen Abständen wurde die DNA der Versuchsgruppen auf Schäden untersucht. Um andere Einflüsse ausschließen zu können, wurden die Bakterien mehrfach zwischen den Orten mit verringerter Strahlung und normaler Strahlung hin und her getauscht.

An dieser Stelle müssen wir uns noch einmal die zentrale Aussage des LNT-Modells verdeutlichen:

  • Jedes „Strahlungsereignis“ schädigt die DNA. Deshalb gilt: Je weniger Strahlung, um so weniger Schäden. Nach dem LNT-Modell gibt es einen Nullpunkt, an dem es infolge der nicht vorhandenen Strahlung auch keine Schäden geben dürfte.
  • Die aufgetretenen Schäden addieren sich. Je länger man eine Probe bestrahlt, um so mehr Schäden treten auf.

Demgegenüber stehen die Messergebnisse des Versuches: Beide Bakterienarten weisen „ohne Strahlung“ mehr Schäden auf als „mit Strahlung“. Besonders verblüffend ist, daß sich die Schäden innerhalb von 24h normalisieren, wenn man die Proben wieder der Hintergrundstrahlung aussetzt. Schützt man die Probe wieder vor Strahlung, nehmen die Schäden auch wieder zu. Dies scheint in beliebigem Wechsel möglich.

Sollten sich diese Erkenntnisse weiter verdichten, würde es bedeuten, daß das LNT-Modell schlicht weg, falsch ist. Benutzt man den gesunden Menschenverstand, ist dies auch nicht besonders überraschend: Es hat immer schon Strahlung auf der Erde gegeben. Früher sogar mehr als heute (Halbwertszeit z. B. von Uran, Kalium etc., Sonnenaktivitäten und unterschiedliche Atmosphäre). Vielleicht wäre ohne Strahlung gar kein Leben möglich?

ALARA

Bei diesen Forschungsergebnissen handelt es sich nicht einfach um irgendwelche Trivialitäten, sondern sie sind hoch brisant. Bisher galt weltweit das Prinzip beim Strahlenschutz, die Strahlenbelastung so gering wie möglich zu halten (As Low As Reasonably Archievable; ALARA). Eine ganze Industrie mit Milliardenumsätzen lebt davon. Geld, das man nutzbringender hätte einsetzen können. Konnte man bisher noch mit Fürsorglichkeit und Vorsicht argumentieren, ist es spätestens nach dem Unglück von Fukushima endgültig damit vorbei. Dort hat man eindeutig das Kind mit dem Bade ausgeschüttet. Es sind viel mehr Menschen seelisch und körperlich durch ALARA zu Schaden gekommen, als durch die vorhandene Strahlung. Es wäre besser gewesen, die Menschen hätten in ihrer Umgebung verbleiben können. Evakuierungen wären nur in ganz wenigen Fällen und auf freiwilliger Basis nötig gewesen. Gut gemeint, war auch hier nicht, gut gemacht. Ideologie kann töten. Die Aufklärung der Bevölkerung ist daher dringend notwendig.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.