Wie die Niederlande die Kerntechnik fördern wollen

Die deutsche „Energiewende“ strahlt nun auch bis in die Niederlande. Wenn die Versorgung mit preisgünstiger Grundlast aus dem nahegelegenen rheinischen Braunkohlerevier nicht mehr möglich ist, muß Ersatz her: Erdgas scheidet aus, weil die eigene Förderung stark rückläufig ist und das Gas dringend für Haushalte, Industrie und Landwirtschaft gebraucht wird. Sonne und Wind geht nicht, da schon Deutschland fanatisch auf diese Karte setzt. Wenn in Deutschland Dunkelflaute herrscht, dann auch in den Niederlanden. Was bleibt also anderes als Kernkraftwerke? Im Februar 2021 erschien zu dieser Thematik ein bemerkenswertes Papier der e-lise Stiftung. Dort werden 13 Punkte aufgestellt, die als Appell an die niederländische Regierung gerichtet sind und als Voraussetzung für einen zügigen Ausbau der Kernkraftwerke (bisher nur ein Druckwasserreaktor mit 482 MWel in Borssele seit 1973 in Betrieb) angesehen werden können. Die Punkte sind so grundsätzlich, daß sie im Folgenden wiedergegeben und kritisch gewürdigt werden sollen.

1 Garantien gegen politische Schwankungen anbieten

Richtig, aber traurig ist die Feststellung, daß immer mehr Investoren unwillig sind, Milliarden in langfristige Energieprojekte zu investieren. Ausdrücklich angeführt als schädliches Beispiel wird der „Atomausstieg“ (wörtlich im Original und in der englischen Übersetzung) in Deutschland. Es ist schon beängstigend, wie schon wieder in Europa ≫Privateigentum≪ und ≫Rechtssicherheit≪ als Grundwerte einer freien und demokratischen Gesellschaft gefordert werden müssen. Wie wir heute wissen, war der „Atomausstieg“ nur der erste Schritt in die dunklen Nebel des Sozialismus. Es folgte der „Dieselskandal“, der „Kohleausstieg“ und jüngst in Berlin der „Mietendeckel“. Zwar alles noch irgendwie durch Gerichte geglättet, aber bereits abschreckend genug. Man sollte deshalb mit der Forderung nach besonderen Bürgschaften für Kernkraftwerke äußerst vorsichtig sein. Es geht hier längst nicht mehr um Energieformen, sondern um nichts weniger als um Freiheit und Wohlstand.

Richtig ist, daß die Dramen um den EPR (Olkiluoto, Flamanville gegenüber Taishan) das Vertrauen der Investoren zerstört haben. Richtig ist auch die Feststellung, daß die Politik durch ständige Verschärfung der Anforderungen maßgeblich verantwortlich ist. Insofern ist eine vollständige Genehmigung vor Baubeginn mit über die Bauzeit eingefrorenen Bedingungen zwingend notwendig. Nur so sind Verzögerungen eindeutig zu zu ordnen. Versäumnisse der Verwaltung werden genauso schonungslos aufgezeigt, wie mangelnde Planung (Olkiluoto) und Pfusch der Hersteller (Flamanville). Nur so können Mehrkosten – notfalls vor Gericht – eingetrieben werden. Behörden müssen genau wie Privatunternehmen für Fehlverhalten finanziell haften.

2 Neue Wege finden, damit staatlich gestützte Kredite mit niedrigen Zinsen für den Neubau bereitgestellt werden können

Vordergründig richtig ist die Feststellung eines überdehnten „Marktes“ für elektrische Energie. Die zufällige wetterabhängige Überproduktion verursacht nicht kostendeckende oder sogar negative Preise (Entsorgungskosten). Man sollte endlich aufhören mit dem ökosozialistischen Neusprech vom „Strommarkt“. Bezüglich „alternativer Energien“ handelt es sich um reinrassige Planwirtschaft mit politisch vorgegebenen Produktionsquoten, staatlich garantierten Preisen, Anschlusszwang, Abnahmezwang, alles das bei kostenloser Infrastruktur. Kostenlos wohlgemerkt nur für die politisch gewünschten Neureichen. Die Kosten fallen natürlich an, werden aber voll und ausschließlich zu Lasten der Stromkunden umgelegt. Der Markt fängt erst an der Strombörse an. Dort findet – wenn auch unvollständig – eine Preisbildung durch Angebot und Nachfrage statt. Planwirtschaft und Markt lassen sich aber schon von der Theorie her nicht miteinander verknüpfen. Irgendwann erfolgt – wie bereits in Texas geschehen – die Explosion des Systems durch Mondpreise ($US9 für eine kWh zur Zeit des Kälteeinbruchs). Weitere staatliche Eingriffe werden nötig. Die Todesspirale wird immer enger, wie man es schon von der untergegangenen „DDR“ oder UDSSR her kannte.

Richtig – wenngleich trivial – ist die Feststellung, daß die spezifischen Kosten stark abhängig vom Zinssatz und der Laufzeit der Kredite sind. Da ein Kraftwerk erst Einnahmen erzielt, wenn es ans Netz gehen kann, ist hier Laufzeit mit Bauzeit gleich zu setzen. Dies erklärt schon mal wesentlich, warum die Baukosten von Flamanville gegenüber Taishan (EPR) bzw. Vogtle gegenüber Sanmen (AP1000) mehr als doppelt so hoch sind. Vor allem der Zinseszinseffekt schlägt bei langen Bauzeiten gnadenlos durch. Der Zinssatz für eine Investition setzt sich aus dem allgemeinen Zins (maßgeblich durch die Notenbank bestimmt) und dem individuellen Ausfallrisiko – quasi eine Versicherungsprämie – zusammen. Vereinfachend gesagt: Je höher die Wahrscheinlichkeit ist, daß die Bank ihr Geld nicht wiedersieht, um so höher der Zinssatz. Aus diesem Zusammenhang schlagen die Autoren drei Finanzierungsmodelle vor:

  1. Der Staat tritt als Bauherr auf und finanziert zu den günstigen Zinsen seiner Staatsanleihen (z. Zt. in Deutschland sogar negativer Zins). Bei Fertigstellung verkauft er das Kraftwerk an private Investoren. Entweder zu einem vorher vereinbarten Preis oder nach Angebot und Nachfrage.
  2. Der Staat übernimmt für die erforderlichen Kredite eine Bürgschaft. Der Investor muß für die Bürgschaften eine übliche Gebühr entrichten, bekommt dafür aber nahezu Konditionen einer Staatsanleihe am Kapitalmarkt.
  3. Der Energieversorger arbeitet nach dem RAB-Modell (Regulated Asset Based Finanzierungsmodell). Dabei werden – wie in guter alter Zeit – die Strompreise für die Endkunden staatlich kontrolliert. Alle Kosten müssen nachgewiesen werden (in diesem Fall die vereinbarten Zwischenrechnungen) und werden in vollem Umfang an die Stromkunden weitergegeben. Für seine Kosten und sein Risiko erhält der Energieversorger einen festgelegten „Zinssatz“ vergütet.

Bei Modell 1 übernimmt der Steuerzahler – wie bei vielen anderen Infrastrukturmaßnahmen auch – das volle Risiko. Dies kann nur politisch gerechtfertigt werden, wenn man die Stromversorgung als unverzichtbare Grundleistung für alle Bürger betrachtet. Die Übernahme einer staatlichen Bürgschaft ist rechtlich zweifelhaft (unerlaubte Subvention nach EU-Beihilferecht). Modell 3 ist ein Schritt zurück in – gar nicht so schlechte – alte Zeiten. Dazu müßte sich die Politik aber eingestehen, daß die Sprüche von „Deregulierung“ und „Strommarkt“ nichts als Neusprech oder Luftnummern waren. Da es inzwischen eine ganze neue Klasse Energiewende-Gewinner gibt wohl nur möglich, wenn ein entsprechender Politikerwechsel stattfinden würde.

Gar nicht diskutiert wird eine Aufforderung an die Finanzwirtschaft zur Entwicklung innovativer Modelle. Kraftwerke im Allgemeinen sind Investitionen mit hohem Anlagewert, sehr langen Laufzeiten und über Jahrzehnte genau kalkulierbaren Rückflüssen (bei entsprechender politischer Sicherheit). Also genau das, was beispielsweise Versicherungen und Pensionsfonds benötigen. In der guten alten Zeit nannte man Aktien deutscher Versorger gern „Papiere für Witwen und Waisen“. Heute stellt man mehr oder weniger erstaunt fest, daß der Hersteller Westinghouse (Neubau, Wartung und Reparatur, Brennelemente etc.) kein Pleite-Unternehmen, sondern unter neuer Führung von Brookfield eine unerwartete Ertragsperle ist. Wenn der Staat seinen Klassenkampf-Modus bei der „Atomkraft“ aufgeben würde, wäre auch jede Menge „Risikokapital“ vorhanden. Manch ein Investor würde sein Geld lieber in ein innovatives Kraftwerk stecken, als in einen Lieferservice auf Fahrrädern. Aber auch der Staat könnte Modelle entwickeln, wie im Ausland bereits bei Pipelines (Master Limited Partnership) und dem finnischen Kernkraftwerk Hanhikivi (Mankala-Kooperative; Anteilseigner kommen entsprechend ihrem Kapitalanteil für die Kosten auf und erhalten dafür die entsprechende Energiemenge geliefert) erprobt.

3 Eine Makroökonomische Analyse über die Kosteneinsparungen infolge Kernenergie durchführen

Kernkraftwerke sind sehr kapitalintensiv. Der Bau erfordert unmittelbar eine große Investition, liefert dafür aber über die Laufzeit (60+ Jahre) kontinuierlich und bedarfsgerecht elektrische Energie zu geringsten Produktionskosten. Wegen der langen Planungs- und Bauzeiten erwarten Investoren, daß die Regierung diese Investitionen absichert. Da aber Prognosen über Jahrzehnte nur schwer erstellbar sind, ergeben sich durch die notwendigen konservativen Annahmen vermeintlich hohe Preise im Vergleich zu kurzlebigen Investitionen wie Windmühlen oder Photovoltaik. Die Autoren meinen, daß eine erhebliche Kapitalbeteiligung des Staates Vertrauen schaffen könnte, da dadurch private und öffentliche Investoren im selben Boot sitzen würden und politische Ekstasen weniger verlockend wären.

Die Einsparung von CO2 – Abgaben durch Kernenergie ist trivial. Je höher diese sind, desto (relativ) günstiger ist die damit erzeugte elektrische Energie. Billiger Strom ergibt einen erheblichen Nutzen für private und industrielle Verbraucher. Dabei ist aber zu beachten, daß CO2 – Abgaben politisch sind und damit zeitlich und gesellschaftlich höchst variabel. Viel wichtiger wäre eine Analyse der über die Strompreise hinausgehenden Vorteile der Kernenergie (Versorgungssicherheit, technische Innovationen, überdurchschnittlich attraktive Arbeitsplätze etc.). „Gesellschaftlicher Nutzen“ ist aber prinzipiell ein Wiesel-Wort und damit mit Vorsicht zu genießen. Nicht ohne Grund werden solche Begriffe bevorzugt von Sozialisten erschaffen, um ihren Utopien einen wissenschaftlichen Anspruch zu geben.

4 Zusammenarbeit zwischen Energieversorgern und Lieferanten um eine ausgewogenere Kostenstruktur zu erzielen

Wenn man die Investitionen im „Westen“ (Europa, USA) und „Osten“ (China, Rußland, aber auch Süd-Korea, Indien) für Kernkraftwerke vergleicht, fällt sofort der extreme Unterschied auf. Abgesehen von der schon besprochenen unterschiedlichen Finanzierung fallen aber weitere gravierende Unterschiede auf. Die internen (zusätzlichen) Kosten (Bauüberwachung, Abwicklung der Finanzierung, Rechnungsprüfung etc.) der Eigentümer sind im „Westen“ wesentlich höher. Ebenso die indirekten Kosten (Genehmigungsverfahren, Rechtsstreitigkeiten etc.) für den Eigentümer. Und nicht zuletzt – aber weitaus geringer als wahrscheinlich vermutet – die unterschiedlichen Lohnkosten. Die extrem geringeren Baukosten in China sind auf eine Serienbauweise (erfahrenes und geübtes Personal auf allen Stufen) und nur noch zwei integrierte Konzerne, die sich ihre (unterschiedlichen) Kernkraftwerke „selber“ bauen, zurückzuführen. Hier ist noch eine Menge Einsparpotential im „Westen“ vorhanden. Für integrierte Konzerne gibt es allenfalls noch in den USA eine Perspektive. In Europa ist die industrielle Basis schon viel zu weit weggebrochen. Es kann nur eine engere Zusammenarbeit zwischen Energieversorgern, Herstellern und öffentlicher Verwaltung angestrebt werden.

5 Möglichkeiten zur nationalen und internationalen Zusammenarbeit mit dem Ziel von Serienfertigung ausfindig machen

Es wird richtig festgestellt, daß die massive politische Unterstützung und die immensen Subventionen bei Wind und Sonne das Investitionsrisiko verkleinert haben. Durch diesen seit Jahrzehnten anhaltenden Zustand waren die Kostensenkungen durch Serienproduktion und Prozessoptimierung erst möglich. Es ist allerdings mehr als fragwürdig, wollte man dieses Vorgehen nun auch für die Kerntechnik fordern. Vielmehr sollte man die sofortige Einstellung der Subventionen und Sonderrechte fordern. Der Spuk wäre in kürzester Zeit vorbei. Wie schnell das gehen könnte, zeigt in Deutschland gerade das Auslaufen der ersten Förderprogramme nach 20 Jahren. Obwohl längst bezahlt, werden die Mühlen überwiegend abgerissen, weil mit den erzielbaren Strompreisen nicht einmal die laufenden Betriebskosten abgedeckt werden können! Deutlicher kann man keine Fehlinvestition darstellen – selbst wenn der Wind keine Rechnung schickt.

Ein erster, wesentlicher Schritt wäre die Harmonisierung der Genehmigungsverfahren. Man verlangt auch nicht für jedes Flugzeug oder Auto eine komplett neue Zulassung. Selbstverständlich wird die Genehmigung in anderen Ländern bzw. die Zulassung durch internationale Gremien anerkannt – sonst setzt man sich sehr schnell dem Vorwurf von „Handelshemmnissen“ mit allen Konsequenzen aus. Das heißt nicht, daß man nicht länderspezifische Vorschriften (z. B. über Kühlwasser) einhalten muß. Mit dem nötigen politischen Willen läßt sich das sehr schnell umsetzen, denn in keinem anderen Industriezweig ist die internationale Zusammenarbeit und die laufende Kontrolle durch supranationale Institutionen enger als in der Kerntechnik. Aus dieser Standardisierung ergibt sich folgerichtig auch eine Arbeitsteilung über die Grenzen hinweg. Sind erstmal kalkulierbare Stückzahlen für Komponenten vorhanden, finden sich auch (konkurrierende) Lieferanten. Innerhalb von Europa zeichnet sich für SMR eine enge Kooperation zwischen GB, Polen, Estland, Tschechien, Rumänien, Finnland, Schweden und Irland ab. Die vermeintlich „kleinen Länder“ können als Verband eine mächtige Nachfragemacht entwickeln.

6 Den Verwaltungseinheiten ermöglichen, durch den gemeinsamen Bau von Kernkraftwerken ihre regionalen Energiestrategien umzusetzen.

Dieses Kapitel ist sehr speziell auf die föderale Struktur der Niederlande zugeschnitten. Wichtig ist jedoch die Widerlegung des „grünen Arguments“, daß der Bau von Kernkraftwerken viel zu lange dauert um „klimawirksam“ zu sein und man deshalb mit Wind und Sonne schnellstens Fakten schaffen müsse. Hilfreich für alle „Atomkraftgegner“ ist der Hinweis auf die Bauzeit von fünf Jahren für das KKW Borssele, Fertigstellung 1973. Ebenso die unterschiedlichen natürlichen Vorraussetzungen verschiedener Regionen (Wind an der Nordsee oder in Süddeutschland usw.) und die deshalb notwendigen verschiedenen Lösungsansätze.

7 Energieversorger ermutigen ihre fossilen und Biomassekraftwerke durch Kernkraftwerke zu ersetzen

In den Niederlanden wurden 13 Kraftwerksstandorte (Kohle, Biomasse, Gas) ermittelt, die durch neue Kraftwerke ersetzt werden müssen. Die Leistung beträgt überwiegend unter 1000 MWel und ist damit für SMR geeignet. An neun Standorten könnten jeweils zwei SMR gebaut werden. An diesen Standorten ist die Infrastruktur (Netzanschlüsse, Kühlwasser etc.) bereits vollständig vorhanden. Da an diesen Standorten bereits über längere Zeiten Kraftwerke in Betrieb sind, gibt es gute Kenntnisse über die Umweltbedingungen und reichhaltige Daten und Dokumentationen. Das sind beste Vorraussetzungen für ein schnelles Genehmigungsverfahren. Man Vergleiche dies beispielsweise mit der Situation bei einem Offshore-Windpark.

8 Forschung zum Einsatz der Kernenergie außerhalb der Stromerzeugung anregen

Es wird der Primärenergiebedarf hinterfragt. Elektroenergie ist nicht alles. Es gibt auch einen großen Wärmebedarf für Heizung und Industrie (Rotterdam ist ein großes petrochemisches Zentrum in Europa). Forschung bezieht sich hier auf die Verknüpfung der unterschiedlichen Verbraucher mit verschiedenen Reaktortypen. Auf der Verbrauchsseite gilt es Wasserstoffgewinnung, synthetische Kraftstoffe, Meerwasserentsalzung, Raumwärme, Industriewärme, Stahlerzeugung und Großchemie abzudecken. Bezüglich der Reaktoren sind die notwendigen Temperaturen bereitzustellen und langfristig die Wiederverwendung von „Atommüll“ in schnellen Reaktoren zu ermöglichen (Neudeutsch: cradle-to-cradle strategy).

9 Genehmigungsverfahren für innovative Reaktorkonzepte

Ein grundsätzliches Problem für ein Genehmigungsverfahren besteht in der mangelnden Ausstattung der öffentlichen Verwaltung und der Überwachungsinstitutionen (mit Personal und Technik), sowie mangelnder Erfahrung. Diese Mängel führen zu holprigen und langwierigen Verfahren. Die (unnötig langen) Verfahren wiederum zu mangelnder Unterstützung durch die Öffentlichkeit. Gegenmaßnahmen sind die Übernahme bereits erfolgreicher Zulassungen im Ausland. Es muß nicht alles von vorn gemacht werden, sondern es reicht ein Nachvollziehen im Austausch mit den ursprünglichen Institutionen. Eine sogenannte Module Design Certification (MDC), bei der die Zulassung zweigeteilt ist: Ein Reaktor wird im ersten Schritt grundsätzlich sicherheitstechnisch zugelassen und erst im zweiten Schritt werden die standortspezifischen Einflüsse berücksichtigt. Dabei können international zugelassene Berechnungsverfahren, Spezifikationen usw. übernommen werden. Übergang zu einer risikoorientierten Betrachtung, bei der Industriestandards übernommen werden (z. B der Reaktor muß „nuclear grade“ sein, für die Turbine reicht der übliche und erprobte Standard).

10 Das Wissen über Kernenergie in den Verwaltungen verbessern

Es wird darauf hingewiesen, daß Kerntechnik und Strahlenschutz mehr als den Bau von Kernkraftwerken umfassen. Im Gegenteil wird die Anwendung in Forschung, Medizin und Industrie beständig umfangreicher. Auch in den Niederlanden sind die Fachabteilungen in den Verwaltungen beständig verkleinert bzw. an den Rand gedrängt worden. In Deutschland kam seit Rot/Grün noch die Vereinnahmung durch die „Atomkraftgegner“ hinzu: Funktionierende und mit ausgewiesenen Fachleuten besetzte Behörden wurden systematisch zerstört, indem man gerade die Besten durch Schikanen, Entzug der Mittel usw. in die innere bzw. tatsächliche Kündigung trieb. Die „lukrativen Posten“ wurden anschließend mit ausgewählt unfähigen, aber um so festerer ideologischen Grundhaltung besetzt. Ein probates Mittel: Fachlich überforderte, sind stets besonders fügsam gegenüber Anweisungen von oben. Woher sollten sie auch bei einer Kündigung eine vergleichbar vergütete Position wieder her bekommen? Wie zerstörerisch und nachhaltig das wirkt, zeigt sich gerade wieder im Zusammenhang mit der „Endlagersuche“ in Deutschland. Fachleute der Kerntechnik sind längst in andere Sparten bzw. ins Ausland abgewandert.

11 Seelenfrieden beim Strahlenschutz herstellen

Strahlenschutz gründet auf Berechtigung, Optimierung und Grenzwerten. Die Berechtigung von „Strahlung“ ist z. B. im Bereich der Medizin ethisch allgemein gerechtfertigt. Bei der friedlichen Nutzung der Kernenergie scheiden sich plötzlich die Gemüter. Die Optimierung – lediglich ein anderes Wort für die Abwägung von (angeblichem) Schaden und Nutzen – ist unter Fachleuten selbstverständlich. ALARA (As Low as Reasonably Achievable) ist das täglich Brot eines jeden Strahlenschutzbeauftragten. Beim Arbeitsschutz muß ständig „Strahlengefahr“ gegen andere Gefahren abgewägt werden. Allerdings ist es in unserer europäischen (teilweise) saturierten Wohlstandsgesellschaft dringend notwendig, die „sozioökonomischen“ (wie man heute so sagt) Gesichtspunkte wieder in den Mittelpunkt zu rücken. Spätestens nach den Evakuierungen in Fukushima sollte auch der „Strahlenängstigste“ ins Nachdenken gekommen sein.

Völlig zu Recht, wird von den Autoren die fatale Konsequenz der Linear No Threshold (LNT) Hypothese für die Festlegung von Grenzwerten angeführt. Wenn man fälschlicherweise annimmt, es gäbe keinen Schwellwert für die Strahlungsdosis, ist ein Rennen gegen Null in sich logisch. Schon bei den „Atomkraftgegnern“ gehörte das Narrativ von den wenigen Gramm Plutonium, die ausreichen die ganze Menschheit auszurotten zum festen Bestandteil der Propaganda, mit dem sich trefflich schlichte Gemüter ängstigen ließen. Nur wegen des LNT-Irrglaubens kann man sich vor der Einleitung von Wasser in den Pazifik fürchten, dessen Gehalt an Tritium neunfach unter dem Wert für Trinkwasser (bei lebenslangem Gebrauch) liegt. Nur wegen des LNT-Irrglaubens glaubten tatsächlich viele Menschen an Millionen zusätzlicher Krebstote durch Tschernobyl und Fukushima. Nur wegen des LNT-Irrglaubens konnte der Irrsinn um den Endlagerstandort Gorleben bis heute am Kochen gehalten werden. Nur wegen des LNT-Irrglaubens gruseln sich manche Deutsche vor den Kernkraftwerken in den Nachbarländern.

12 Seelenfrieden in der Gesellschaft herstellen – die „Atommüllfrage“ selbst stellen

Hier wird speziell auf die Situation in den Niederlanden eingegangen. Auch in Deutschland wird der „Atommüll“ gern als Totschlagargument gegen die friedliche Nutzung der Kernenergie eingesetzt. Es ist dringend notwendig, sprachlich präziser mit den auftretenden Formen umzugehen. „Abgebrannte Brennelemente“ sind noch lange kein Müll, genau so wenig wie Altpapier. Sie bestehen aus rund 95% noch weiter verwendbarem Brennstoff in der Form von Uran und Plutonium. Kernenergie ist die einzige Industrie, die von Anbeginn an das „Recycling“ in alle Planungen einbezogen hat. Selbst die Reststoffe der Wiederaufbereitung (Spaltprodukte und Minore Aktinoide) sind nicht unbedingt Restmüll. Schließlich enthalten sie das gesamte Periodensystem mit zahlreichen Wertstoffen. Letztendlich ist die Aufbereitung oder Endlagerung eine rein wirtschaftliche Frage, deren Antwort deshalb von Brennelemente komplett endlagern (Finnland, Schweden) über die Rückgewinnung der Brennstoffe (Frankreich) bis hin zur Gewinnung von Elementen aus dem Restmüll der Wiederaufbereitung (USA, Russland) geht. Für alle Formen der Abfälle gibt es erprobte Lagerkonzepte von geologischen Endlagern (Bergwerk oder Tiefbohrung) bis technischer Langzeitlagerung (Trockenlagerung von Brennelementen). Die ständig wiedergekäute Parole von der ungelösten Atommüllfrage wird durch ihre beständige Beschwörung keinesfalls richtiger. Leider wahr ist allerdings, daß die kerntechnische Industrie zu wenig zur Aufklärung darüber beigetragen hat.

13 Sicherstellen, daß Kernenergie als nachhaltig in die EU-Taxonomie aufgenommen wird

Die EU-Taxonomie ist eine kulturmarxistische Schöpfung um das alte Gespenst des Sozialismus in Europa unter dem neuen Namen „Great Reset“ wieder hoffähig zu machen. Die Illusion der Verelendung der Arbeiterklasse und die daraus resultierende revolutionäre Kraft ist im Wohlstand des Kapitalismus untergegangen (Pol Pot im Pariser Mai 68). Wenn die Zerstörung des gehaßten Systems also nicht von unten erfolgt, muß man es von oben versuchen. Man glaubt soviel vom Kapitalismus verstanden zu haben, daß das über staatlich gelenkte Kreditvergabe gelingt: Private Finanzinvestoren sollen nur noch Kredite für als nachhaltig definierte Energien vergeben dürfen. Was die alte Försterweisheit (wenn man mehr Bäume fällt, als nachwachsen, hat man bald keinen Wald mehr) mit fossilen oder Kernenergie zu tun hat, mögen die Funktionäre wissen. Man hat es allerdings schon mal vor gar nicht all zu langer Zeit als „Peak Oil“ zu verkaufen versucht. Spätestens seit der „Shale Revolution“ in der Gas und Ölindustrie ist es auch um dieses Untergangsszenario still geworden. Im Gegenteil, für kurze Zeit wurde das Erdgas sogar als Heilsbringer gegen die böse Kohle und Kernenergie gepuscht. Das reichte aber noch nicht aus, um die Gesellschaft durchdringend zu schädigen. Deshalb glaubt man nun die Atmosphäre als endlich entdeckt zu haben. Alles ist schädlich, nur Wind und Sonne führen ins (kommunistische) Paradies. Auch das wird wieder scheitern, spätestens wenn die breite Masse merkt, wie sie um ihren hart erarbeiteten und bescheidenen Wohlstand gebracht werden soll.

Es ist zwar legitim sich eine Gleichbehandlung mit Wind und Sonne zu wünschen, aber nicht auf Kosten anderer Energieformen. Wohin die Reise geht, ist klar. Als man in Deutschland aus der Kernenergie ausstieg, stand die Braunkohle (freudig) abseits. Woher sollte der Strom denn sonst kommen? Heute geht auch die Steinkohle in die Arbeitslosigkeit und über die „Klimaschädlichkeit“ von Erdgas wird schon diskutiert. Die Öko-Sozialisten haben ihre Hausaufgaben gemacht: Alles ist mit preisgünstiger Energie möglich – ohne geht nichts. Also äußerste Vorsicht vor falschen Freunden. Es ist an der Zeit, die Stärken der Kerntechnik offensiv in der Gesellschaft zu vertreten und nicht von einer grünen Dividende am Katzentisch der Gesellschaftsveränderer zu träumen.

Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: „So wenig Strahlung, als vernünftig erreichbar“. Das Wort „vernünftig“ wird – wegen der angeblichen Krebsgefahr – als „so gering wie möglich“ überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine „normale“ Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes : „Die Dosis macht’s“. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche „auf ex“ haben soll. Bestenfalls ist dieser Irrglaube auf ein „physikalisches“ Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz „eine Mutation = ein Krebs“ ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der „Strahlenschutz“ ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der „Walschützer“ ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen „Klimaschutz“ und andere Machenschaften der „Ökoindustrie“ ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle „Gutmenschen“ mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich „harte moralische Fakten“ von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus „Angst vor Strahlung“ verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die „Strahlung“ so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von „Strahlenkrankheiten“. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im „kalten Krieg“ die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein „gut“ und kein „schlecht“, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis „die Dosis macht’s“, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der „Angstmensch“ als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den „Klimawissenschaften“, bei denen „Welt-Temperaturen“ mit (bekannt fehlerhaften) „Weltmodellen“ berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Braucht das Leben Strahlung?

Die Erkenntnisse über die Wirkung niedriger Strahlungsdosen schreiten immer weiter voran. Die radikalste Fragestellung dabei ist die Frage nach dem Verhalten von Zellen bei Abwesenheit von ionisierender Strahlung. Die Ergebnisse sind verblüffend – aber der Reihe nach…

Das LNT-Modell

In den 1950er-Jahren einigte man sich weltweit auf einen linearen Zusammenhang, ohne einen Schwellwert (linear no-threshold model; LNT), für den Strahlenschutz. Es ist simpel und damit leicht anwendbar: Man unterstellte, daß die biologischen Schäden (gemeint ist Krebs), die durch ionisierende Strahlung (umgangssprachlich durch Radioaktivität) ausgelöst werden, direkt proportional zur Dosis sind: Die mathematische Funktion ist eine einfache Gerade mit der Steigung 0,05/Sv. Etwas anschaulicher ausgedrückt, wenn man 100 Menschen einer Dosis von 1 SV (Sievert) aussetzt, erkranken davon fünf Menschen (zusätzlich) an Krebs. Mehr steckt nicht dahinter und damit fangen schon die Schwierigkeiten an.

Wie ist man zu dieser einfachen Zahl gekommen? Hauptsächlich durch die Auswertung der Opfer der Bomben auf Hiroshima und Nagasaki. Man hat zehntausende Menschen über Jahre beobachtet und ihre Erkrankungen dokumentiert. Das war der einfache Teil der Aufgabe. Wesentlich schwieriger war schon die Ermittlung der individuellen Strahlendosis, da diese Menschen natürlich keine Meßgeräte getragen haben. Hinzu kamen noch jeweils verschiedene Lebensumstände, Vorerkrankungen etc. Wenn man nun jeden einzelnen Fall in einem Diagramm (Krebserkrankungen über Dosis) aufträgt, kann man streng genommen keinen Punkt eintragen, sondern muß eher einen Klecks verwenden: Weder ist die genaue Dosis zu ermitteln, noch sind die Krebsarten alle gleich, noch kann man sonstige Belastungen (z. B. krebserregende Chemikalien, Umwelteinflüsse, genetische Prägungen etc.) genau erfassen.

In solchen Fällen helfen nur die Methoden der Statistik. Vereinfachend gesagt braucht man eine Wolke aus möglichst vielen Fällen, die möglichst eng zusammenliegen. Sieht das sich ergebende Band nach einer Geraden aus, kann man in guter Näherung eine solche hindurch legen und deren Steigung bestimmen.

Hier ergibt sich aber das Problem, welches seit über 80 Jahren zu heftigsten Diskussionen auch in der Fachwelt führt: Im unteren Teil (kleine Dosen und damit eine geringe Anzahl von Krebsfällen) gibt es kaum Punkte und die streuen auch noch sehr stark. Es ist damit äußerst fragwürdig, den gesamten Bereich – von keiner meßbaren Wirkung, bis zum garantiert kurzfristig eintretendem Strahlentod – durch ein und dieselbe Gerade nachbilden zu wollen. Schon die geringe zusätzliche Anzahl von den ohnehin auftretenden Krebsfällen trennen zu wollen, ist eine schier unlösbare Aufgabe. Hier rächt sich die Statistik: Sie arbeitet stets nur mit Wahrscheinlichkeiten. In dem vorherigen Zahlenbeispiel kann man weder voraussagen, welche fünf Personen von den betrachteten 100 Personen Krebs bekommen, noch ob es exakt fünf Fälle sind. Lediglich, wenn man sehr, sehr viele Menschen mit einem Sievert bestrahlen würde, würde sich die Anzahl der zusätzlichen Krebsfälle (bei diesem Modell!) der Zahl von fünf Prozent annähern.

Schwellwert oder nicht?

Man bezeichnet einen Wert als Schwellwert, wenn sich der Zusammenhang bei einem Modell wesentlich ändert. Für einen Ingenieur ist es nichts ungewöhnliches, Messreihen z. B. abschnittsweise durch unterschiedliche Geraden anzunähern.

Im Arbeitsschutz ist es üblich, für Giftstoffe Schwellwerte zu definieren. Üblicherweise sind dies Dosen, bei denen man auch über ein ganzes Arbeitsleben keine Schädigung feststellen kann. Dahinter steckt eine Alltagserfahrung: Nicht jeder Umgang mit einem Stoff führt sogleich zu einem Schaden. Andrerseits führt ein zu viel – bei jedem Stoff – irgendwann, zu irgendwelchen Schäden.

Bis zur Politisierung der Strahlung durch die „Atombomben“, ist man auch mit ionisierender Strahlung sehr erfolgreich so pragmatisch umgegangen. Man hatte schon wenige Jahre nach der segensreichen Erfindung der Röntgenstrahlung festgestellt, daß diese zu Erkrankungen bei dem medizinischen Personal führen konnte. Man analysierte die Fälle und definierte einen (zulässigen) Schwellwert für den Arbeitsschutz.

Energie und Leistung

Schon jedem Schüler sollte der Zusammenhang von Energie und Leistung vertraut sein. Es macht einen gewaltigen Unterschied, ob ich eine Leistung (W oder J/s) für Bruchteile einer Sekunde aufbringe oder über Stunden verteilt. Eindrucksvolles Beispiel hierfür, ist ein Laser-Strahl: Eine relativ geringe Energie reicht aus, um zwei Stahlplatten miteinander zu verschweißen. Der „Trick“ ist, die Energie in einem sehr kurzzeitigen Blitz zu senden. Über Stunden angewendet, würde sie den Stahl nicht einmal zum glühen bringen.

Warum glaubte man nun, diese Erfahrungstatsachen bei der ionisierenden Strahlung außer Kraft setzen zu können? Es war schlicht ein unvollständiges und damit leider falsches Verständnis der biologischen Zusammenhänge. Man hatte erkannt, daß bei der Zellteilung die DNA kopiert und damit die Erbinformationen weitergegeben würden. Man wußte, daß bereits ein Partikel einen DNA-Strang zerschlagen konnte. Man glaubte, wenn nun der Fehler beim kopieren an die Tochterzelle weitergegeben würde, müßten die Fehler irgendwann so häufig sein, daß eine „Krebszelle“ entstanden wäre. Eine übervorsichtige oder abstruse Vorstellung – ganz nach Standpunkt des Betrachters. Der gesunde Menschenverstand sagt einem schon, daß es einen gewaltigen Unterschied macht, ob man täglich nur einen Schnaps trinkt oder gleich die Flasche „auf ex“ leert. Die ganze Pharmakologie müßte neu geschrieben werden, wenn es keinen Unterschied machte, ob man seine Tabletten nach Anwendungsvorschrift einnimmt oder gleich die ganze Schachtel auf einmal in der Apotheke schluckt. Ausgerechnet bei der ionisierenden Strahlung sollte der seit Jahrhunderten bekannte Grundsatz: Die Dosis macht das Gift, nicht gelten.

Die Kollektivdosis ist schlichtweg Unsinn. Nach dem Motto, wenn wir einer Million Menschen je einen Aspirin geben, haben wir X Tote, weil wir ja wissen und nachweisen können, daß die Einnahme von y Schachteln Aspirin zum Tode führt. Ganz im Gegenteil nehmen Millionen Menschen weltweit täglich eine Tablette Aspirin ein, um z. B. das Risiko von Herzinfarkten drastisch zu senken.

Hormesis

Damit kommen wir zur Hormesis. Darunter wird verstanden, daß ein und derselbe Stoff, in geringen Mengen verabreicht, eine genau gegenteilige Wirkung haben kann. Seit Anbeginn zeigte sich bei „Niedrigstrahlung“ das Phänomen deutlich geringerer Krebsfälle, als nach dem LNT-Modell zu erwarten waren. Fast alle Studien mit Arbeitern aus der kerntechnischen Industrie, Opfern von „Atombomben“ und nicht zuletzt den Reaktorunglücken von Tschernobyl und Fukushima zeigten sogar unter dem Erwartungswert für die entsprechende Bevölkerungsgruppe liegende Werte. Jahrzehntelang versuchte man sich besonders bei Bergleuten mit der besonderen medizinischen Fürsorge und der Vorauswahl („Survival of the Fittest“) aus der Affäre zu stehlen. Bis man sich die Frage stellte, ob nicht ionisierende Strahlung in bestimmten geringen Dosen sogar eine den Krebs verhindernde Wirkung zeigte. Plötzlich war auch die „Radontherapie“ keine Esoterik mehr.

Seit man in der Molekularbiologie große Fortschritte erzielt hat und Gene und die DNA praktisch beobachten kann, kann man diese Phänomene sogar naturwissenschaftlich erklären. Es passieren ständig, in jeder Zelle, zehntausende DNA-Fehler. Hauptsächlich sind dafür Radikale verantwortlich. Es gibt daher einen Reperaturmechanismus, der die DNA größtenteils wieder repariert. Darüberhinaus existiert noch eine weitere Ebene, die Zerstörung entarteter Zellen. Erst wenn alle Reparatur- und Schutzmechanismen versagen, kann sich „Krebs“ ausbilden. Hieraus ergibt sich auch der Zusammenhang von (permanenten) kleinen und kurzzeitig hohen Dosen: Mit einer geringen Anzahl von Fehlern wird das Reparatursystem leicht fertig. Ab einer gewissen Dosis entsteht ein „Sättigungsangriff“, der die Abwehr schlicht weg überfordert.

Ohne diese „Selbstheilungskräfte“ wäre überhaupt kein Leben möglich. Man kann nun in Versuchen zeigen, daß diese Kräfte durch ionisierende Strahlung (in der richtigen Dosis!) motiviert und unterstützt werden. Ein Umstand, der bereits in der Strahlentherapie Anwendung findet. Um Krebszellen zu zerstören, braucht man punktuell sehr hohe Dosen, die natürlich das umliegende gesunde Gewebe stark belasten. Deshalb trainiert man in bestimmten Fällen vor der eigentlichen Behandlung das gesunde Gewebe durch mehrere Bestrahlungen mit niedrigen Dosen.

Der Ultimative Test

Wenn es eine Hormesis gibt, was passiert eigentlich, wenn man von Zellen die Strahlung fern hält? Eine einfache Fragestellung, aber ein schwer durchführbares Experiment. Es gibt nämlich überall ionisierende Strahlung: Aus dem All und aus der Erde – die sogenannte Hintergrundstrahlung. Dieser Strahlung war und ist jedes Leben seit Milliarden Jahren ausgesetzt. Leben hätte sich gar nicht entwickeln können, wäre es nicht gegen ionisierende Strahlung überlebensfähig gewesen. Gott sei es gedankt, ist die Natur etwas einfallsreicher, als die Anhänger des LNT-Modells meinen.

Schon in den 1990er Jahren wurde in Italien ein Experiment mit Hefezellen durchgeführt. Hefezellen sind ein Standardobjekt der Molekularbiologen. Sie wurden in ein Labor 1300 m tief unter einem Bergmassiv gezüchtet. Hier unten war die Strahlung tausendfach kleiner, als in dem oberirdischen Vergleichslabor. Anschließend wurden beide Versuchsgruppen Chemikalien ausgesetzt, die starke genetische Veränderungen auslösen können. Es zeigte sich, daß die Fehlerrate bei den „vor Strahlung geschützten“ Zellen höher war.

Inzwischen werden solche Experimente ausgeweitet. In den USA hat man z . B. in einem Salzstock in Carlsbad ein Labor in 650m Tiefe eingerichtet. Die dortige Salzschicht besteht aus sehr reinem Kochsalz und enthält damit nur sehr wenig „radioaktive Stoffe“. Die Deckschicht schirmt die kosmische Strahlung entsprechend ab. Die „Bakterienzucht“ wird in einem Tresor mit 15 cm dicken Stahlwänden aus Stahl vor dem II. Weltkrieg durchgeführt. Solch alter Schrott wird inzwischen hoch gehandelt, da er noch nicht mit Fallout aus „Atombombenversuchen“ etc. belastet ist. Durch diese Maßnahmen gelang es, eine Strahlung von 0,17 mSv pro Jahr innerhalb des Tresors zu erreichen. Dies ist der geringste Wert, der bisher auf der Erde erzeugt werden konnte.

In der Versuchsanordnung wurden nun als besonders strahlenempfindlich bekannte Bakterien Shewanella oneidensis und als besonders strahlungsresistente Bakterien Deinococcus radioduruans gezüchtet. In regelmäßigen Abständen wurde die DNA der Versuchsgruppen auf Schäden untersucht. Um andere Einflüsse ausschließen zu können, wurden die Bakterien mehrfach zwischen den Orten mit verringerter Strahlung und normaler Strahlung hin und her getauscht.

An dieser Stelle müssen wir uns noch einmal die zentrale Aussage des LNT-Modells verdeutlichen:

  • Jedes „Strahlungsereignis“ schädigt die DNA. Deshalb gilt: Je weniger Strahlung, um so weniger Schäden. Nach dem LNT-Modell gibt es einen Nullpunkt, an dem es infolge der nicht vorhandenen Strahlung auch keine Schäden geben dürfte.
  • Die aufgetretenen Schäden addieren sich. Je länger man eine Probe bestrahlt, um so mehr Schäden treten auf.

Demgegenüber stehen die Messergebnisse des Versuches: Beide Bakterienarten weisen „ohne Strahlung“ mehr Schäden auf als „mit Strahlung“. Besonders verblüffend ist, daß sich die Schäden innerhalb von 24h normalisieren, wenn man die Proben wieder der Hintergrundstrahlung aussetzt. Schützt man die Probe wieder vor Strahlung, nehmen die Schäden auch wieder zu. Dies scheint in beliebigem Wechsel möglich.

Sollten sich diese Erkenntnisse weiter verdichten, würde es bedeuten, daß das LNT-Modell schlicht weg, falsch ist. Benutzt man den gesunden Menschenverstand, ist dies auch nicht besonders überraschend: Es hat immer schon Strahlung auf der Erde gegeben. Früher sogar mehr als heute (Halbwertszeit z. B. von Uran, Kalium etc., Sonnenaktivitäten und unterschiedliche Atmosphäre). Vielleicht wäre ohne Strahlung gar kein Leben möglich?

ALARA

Bei diesen Forschungsergebnissen handelt es sich nicht einfach um irgendwelche Trivialitäten, sondern sie sind hoch brisant. Bisher galt weltweit das Prinzip beim Strahlenschutz, die Strahlenbelastung so gering wie möglich zu halten (As Low As Reasonably Archievable; ALARA). Eine ganze Industrie mit Milliardenumsätzen lebt davon. Geld, das man nutzbringender hätte einsetzen können. Konnte man bisher noch mit Fürsorglichkeit und Vorsicht argumentieren, ist es spätestens nach dem Unglück von Fukushima endgültig damit vorbei. Dort hat man eindeutig das Kind mit dem Bade ausgeschüttet. Es sind viel mehr Menschen seelisch und körperlich durch ALARA zu Schaden gekommen, als durch die vorhandene Strahlung. Es wäre besser gewesen, die Menschen hätten in ihrer Umgebung verbleiben können. Evakuierungen wären nur in ganz wenigen Fällen und auf freiwilliger Basis nötig gewesen. Gut gemeint, war auch hier nicht, gut gemacht. Ideologie kann töten. Die Aufklärung der Bevölkerung ist daher dringend notwendig.

LNT – Drei Buchstaben, die die Welt bestimmen

Diese drei Buchstaben sind die Abkürzung für: linear no-threshold (LNT) model. Wohl die teuerste und verhängnisvollste Buchstabenkombination in der Menschheitsgeschichte. Nun sieht es für einen Augenblick so aus, als könnte sie an den Ort ihrer Erschaffung zurückkehren. Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das „nicht vertreten sein“ von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei „We the people, your voice in our government“ (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem „Randthema“ eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte „Gesunde Menschenverstand“ plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel – im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, daß man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut – ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: „Auf der Baustelle besteht Helmpflicht“. Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hudert Meter durch eifache Addition berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar – jedenfalls spätestens nach dem ersten „Muskelkater“. Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, daß sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, daß, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. „tausende Tote“ durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, daß es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, daß energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war – und ist heute eigentlich noch immer – der Meinung, daß bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen „Qualitätsmedien“ zur „Reaktorkatastrophe in Fukushima“.

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, daß unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das „Klein gedruckte“ des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

„…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose… Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities“.

Soll wohl heißen, wir wissen selbst, daß das Blödsinn ist was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, daß es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte „Atomkraftgegner“ wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger „Atomexperten“ mögen öffentlich an ihre Prophezeiungen über „Millionen von zusätzliche Krebstoten in ganz Europa“ infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur „Atomkraftgener“, sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine „Chemiefabrik“ in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden – in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Krebs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, daß die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem bricht auch in den USA eine erneute Diskussion zur „Atommüllfrage“ los. Interessant ist hierbei, daß die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem gefordert.

Eine jährliche Strahlenbelastung von 15 mrem entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu Atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht in die durch unsere Sinne unmittelbar erfahrene Alltagswelt übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der „Schutzzone“ evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die „Wohnumstände“. Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von „freigemessenen“ Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in „Greenpeace-Sprech“ gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, daß dadurch etwa 100 „virtuelle Leben“ gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa, in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach „billiger“ Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, daß es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu „As High As Reasonably Safe (AHARS)“ (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute „soziale Schäden“ bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, daß der oberste Wunsch bei den „Vertriebenen“, die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, daß der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser als der, der zwangsweise Umgesiedelten ist. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem „verseuchten“ Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Kariereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen „Ausstieg aus der Kernenergie“ verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.