Die Kugelhaufen sind zurück

Weltweit tauchen Meldungen über Hochtemperaturreaktoren (HTR) mit Kugelhaufen als Kern auf. Es könnte eine Renaissance geben, wenn man es richtig anpackt.

Geschichte

Die Verwendung eines Gases als Kühlmittel geht bis auf die Anfänge der Kerntechnik zurück: 1956 ging in Calder Hall in Großbritannien das erste Magnox-Kraftwerk mit einer elektrischen Leistung von 50 MW ans Netz. Die Bezeichnung Magnox leitete sich aus dem Material für die Brennstabhüllen Magnesium und dem Kühlmittel Kohlendioxid ab. Bei dieser Werkstoffkombination ergab sich nur ein geringer Wirkungsgrad von rund 20%. Später ging man zu Brennstabhüllen aus Stahl, angereichertem Uran, höheren Drücken beim CO2 und höheren Betriebstemperaturen über. Dieser Advanced Gas Reactor (AGR) Typ ist teilweise heute noch in Betrieb, wird aber schon lange nicht mehr neu gebaut.

Das „Helium-Zeitalter“ begann 1965 in Großbritannien mit dem Dragon-Reaktor (20 MWth) und in Deutschland 1966 mit dem AVR Kugelhaufenreaktor in Jülich – eine 21 jährige Erfolgsgeschichte. Der AVR als Versuchskraftwerk ist weltweit die Mutter aller Kugelhaufen-Reaktoren bis zum heutigen Tag geblieben. Man kann mit Fug und Recht sagen, daß in Deutschland dieser mit Helium gekühlte Hochtemperaturreaktor bis zur Anwendungsreife entwickelt worden ist. Analog zu den Leichtwasserreaktoren in den USA. Ganz besonders betrifft dies die Forschung und Entwicklung der TRISO Brennelemente. Nicht auszudenken, wo der Entwicklungsstand heute wäre, wenn nicht die Wahnvorstellungen der Ökosozialisten aus SPD und Grünen über Deutschland hereingebrochen wären. Inhärent sichere Reaktoren, hohe Temperaturen auch zur Prozeßwärme, Trockenkühlung, kalte Fernwärme, Kohleveredelung: Alles deutsche Produkte, die heute weltweit (mühselig) nachvollzogen werden.

Der Unterschied

Bei Leichtwasserreaktoren (LWR) ist das Wasser Kühlmittel, Moderator („Neutronenbremse“) und Arbeitsmedium in einem. Dadurch kann man sehr kleine Kerne – nicht unbedingt Reaktoren – mit sehr hoher Leistungsdichte bauen. Genau diese hohe Leistungsdichte ist aber sicherheitstechnisch ein Problem bzw. Nachteil.

Bei den Hochtemperaturreaktoren ist das Gas ein reines Kühlmittel. Da es keinen Phasenübergang mehr gibt (vom Wasser als Flüssigkeit zum Dampf als Gas) ist der Temperatur- und Druckanstieg kontinuierlich und gemäßigt. Physikalische Explosionen sind damit ausgeschlossen. Verwendet man ein Edelgas wie Helium, sind auch chemische Reaktionen auszuschließen. Anders als bei den Störfällen von Harrisburg und Fukushima: Durch hohe Temperaturen und Trockenfallen der Brennstäbe kam es zur Wasserstoffbildung. Wie die Explosionen in Fukushima zeigten, ein ernsthaftes Sicherheitsrisiko.

Da Helium kaum mit Neutronen reagiert, wird es auch nicht aktiviert. Anders als z. B. die Kühlmittel CO2 und Wasser. Man braucht allerdings einen zusätzlichen Moderator. In diesem Falle das Reaktorgraphit der Brennelemente. Da das Bremsvermögen kleiner ist, benötigt man entsprechend mehr Volumen. Sicherheitstechnisch ist dies wiederum ein Vorteil: Man gewinnt bei einem Störfall wegen der Speicherfähigkeit wertvolle Zeit. Reaktorgraphit verträgt sehr hohe Temperaturen, ohne sich wesentlich zu verändern. Die möglichen hohen Temperaturen sind ein weiterer Sicherheitsgewinn durch passive Kühlung. Die unmittelbar nach einer Schnellabschaltung entstehende große Wärmeleistung durch den Zerfall der kurzlebigen Spaltprodukte, kann im Graphit zwischengespeichert werden. Die hohen – ohne Festigkeitseinbußen, Druckanstiege etc. – möglichen Temperaturen ergeben zur Umwelt eine große treibende Temperaturdifferenz. Die Wärmeabgabe durch Konvektion erfolgt proportional zur Temperaturdifferenz. Die Wärmeabgabe durch Strahlung sogar mit der vierten Potenz. Bei kleinen Reaktoren (Verhältnis von Oberfläche zu Volumen) ist dies ohne zusätzliche Sicherheitseinrichtungen beherrschbar. Können Brennelemente, Einbauten und Kühlmittel eine hohe Temperatur vertragen, kommt man damit automatisch zu einer inhärenten Sicherheit auch nach der Abschaltung. Ein Störfall wie in Fukushima ist – auch ohne Nachkühlung – ausgeschlossen. Es gibt keine – nicht einmal eine theoretische – Kernschmelze.

Das Arbeitsmedium

Grundsätzlich gibt es zwei Wege zur Erzeugung mechanischer Energie aus der Reaktorwärme: Über eine Heliumturbine oder eine Dampfturbine. Auch die Chinesen haben sich wie einst die Deutschen, zu einem konventionellen Dampfkreislauf entschieden. Man verfügt damit ab dem Wärmeübertrager über eine konventionelle und erprobte Kraftwerkstechnik. Wenn man unbedingt will, kann man damit einen Wirkungsgrad von nahezu 50% erzielen, wie es in modernsten Kohlekraftwerken üblich ist. Ein reines Optimierungsproblem, was bei den geringen Brennstoffpreisen eines Kernkraftwerks nicht unbedingt erforderlich ist. Wenn man bewußt auf etwas elektrischen Wirkungsgrad verzichtet, kann man Abwärme mit höherer Temperatur auskoppeln zur Verwendung in Fernwärmenetzen oder einen Trockenkühlturm verwenden. Dies wurde bereits beim THTR in Hamm-Uentrop erfolgreich vorgeführt. Die Stromerzeugung in ariden Gebieten ist ein nicht zu unterschätzender Markt. Aktuell ist z. B. Saudi Arabien und Südafrika brennend an Hochtemperaturreaktoren interessiert.

Südafrika ist bei dem Versuch einer Heliumturbine gescheitert. Zumindest die Lösung einer doppelten Aufgabe: Neuer Reaktor und neues System zur Energiewandlung, war absehbar eine Überforderung. Die unvermeidbare Verunreinigung des Heliums durch Graphitabrieb und Spaltprodukte führt zu dauerhaften Wartungsproblemen. Es sprechen aber auch grundsätzliche thermodynamische Überlegungen gegen eine Heliumturbine. Helium hat eine sehr geringe Dichte bei hoher Schallgeschwindigkeit. Bei der Entspannung in einer Düse ergeben sich sehr hohe Strömungsgeschwindigkeiten bzw. sehr hohe Schaufelgeschwindigkeiten im Verdichter. Beides führt zu notwendig hohen Drehzahlen. Ferner benötigt man bei Helium für ein vorgegebenes Druckverhältnis wesentlich mehr Stufen und Zwischenkühler als z. B. bei Luft. Zusätzlich muß man wegen der geringeren spezifischen Wärmekapazität des Heliums auch noch wesentlich größere Volumenströme umwälzen. (Hinweis für Thermodynamiker: Abschätzung über die Adiabatengleichung unter Berücksichtigung der unterschiedlichen Exponenten vornehmen.) Vermeintliche Vorteile hoher Temperaturen und Einkreissysteme werden so schnell wieder aufgefressen.

Der Brennstoff

Wie schon die Bezeichnung Kugelhaufenreaktor vermuten läßt, besteht der Kern aus Kugeln. Basis dieser Kugeln sind die TRISO (Tri-coated Isotropic) Elemente. Ein winzig kleiner Kern aus Brennstoff ist von mehreren Schichten Reaktorgraphit und einer Schutzschicht aus Siliciumcarbid ummantelt. Dies ist ein sehr flexibles Konzept. Das Brennstoffpartikel hat einen Durchmesser von weniger als einem halben Millimeter und besteht chemisch aus Oxiden oder Karbiden. Es kann aus Uran-, Plutonium- oder Thoriumisotopen im geeigneten Mischungsverhältnis bestehen. Die Kohlenstoffschichten dienen als Moderator und als Puffer für Spaltgase. Die Siliciumcarbid-Schicht dient als „Brennstoffhülle“ zur Zurückhaltung der Spaltprodukte. Das fertige TRISO-Element ist ein Kügelchen von etwa einem Millimeter Durchmesser. Aus diesen Kügelchen preßt man nun Kugeln von 50 mm Durchmesser, die noch mit einer weiteren Schutzschicht aus Graphit überzogen werden. Es ergeben sich – chemisch wie mechanisch – sehr widerstandsfähige, tennisballgroße Brennelemente.

An dieser Stelle sei vermerkt, daß man diese TRISO-Elemente auch zu Brennstäben pressen kann. Diese werden in hexagonale „Bausteine“ aus Graphit eingesetzt, aus denen man einen Kern „aufmauern“ kann. Diese Bausteine enthalten Kanäle in denen das Gas gerichtet strömen kann und auch Kontrollstäbe etc. eingesetzt werden können. Das ist das andere derzeit verfolgte Konzept für gasgekühlte Hochtemperaturreaktoren. Mit ihm lassen sich auch größere Reaktoren bauen.

Ein Haufen ist ein Haufen

Die Idee, einen schlanken Silo zu bauen und den von oben kontinuierlich mit Kugeln zu befüllen, erscheint als eine verblüffend einfache Idee. Die sich ergebenden Hohlräume zwischen den Kugeln dienen dabei dem Kühlmittel Helium zur Durchströmung. Aber wo Licht ist, ist auch Schatten. Jeder Kern eines Reaktors hat unterschiedliche Zonen mit unterschiedlichem Neutronenfluß und damit unterschiedlicher Leistung. Bei ortsfesten Brennelementen kann man z. B. über eine unterschiedliche Anreicherung diese Effekte ausgleichen. Bei einem stetig rutschenden Kugelhaufen geht das nicht.

  • Die Wege und die Durchlaufzeit einer einzelnen Kugel sind nicht vorhersagbar.
  • Man kann in dieser Schüttung praktisch keine Regelstäbe oder Meßsonden einbauen.
  • Die Strömungsverhältnisse des Kühlgases sind unbestimmt.

Dies führt alles zu stark unterschiedlichen Temperaturen, der eine Kugel bei einem Durchlauf ausgesetzt war. Auch wenn die Austrittstemperatur stets im grünen Bereich war, sind einzelne Kugeln sehr stark erwärmt worden. Je höher die gewünschte Austrittstemperatur, um so höher auch die Anzahl überlasteter Kugeln und dadurch in das Kühlmittel freigesetzte Spaltprodukte.

Nur bei kleinen Kernen kann man die unterschiedliche Leistungsverteilung durch Reflektoren an den Behälterwänden ausreichend kompensieren. In diese Reflektorschicht kann man auch Regelstäbe zur sicheren Abschaltung einführen. Zwar braucht ein Kugelhaufen nicht so viele Regelstäbe, da er ja kontinuierlich mit frischen Elementen beschickt wird und nicht den gesamten Brennstoff für den Zyklus schon am Anfang in sich haben muß (Überschußreaktivität), aber ganz kann man nicht darauf verzichten. An dieser Stelle wird klar, daß Kugelhaufenreaktoren nur als Kleinreaktoren (SMR) geeignet sind. Mit zunehmender Größe, kehren sich die Vorteile schnell in Nachteile um. Deshalb auch die andere Entwicklungsschiene, aus TRISO-Kügelchen Brennelemente als Bausteine herzustellen.

Die Sicherheit

Wenn man sich auf kleine Leistungen und moderate Austrittstemperaturen beschränkt, erhält man einen nahezu „unkaputtbaren“ Kernreaktor. Der Versuchsreaktor AVR hatte eine Leistung von 46 MWth und eine elektrische Leistung von 15 MWel. Die in China in Bau befindliche Weiterentwicklung eine thermische Leistung von 250 MWth pro Modul bei noch vernünftigen Austrittstemperaturen von 750 °C. Was spricht eigentlich wirklich gegen diese Bandbreite? Es gibt zwei riesige Märkte für „kleine“ Reaktoren: Alle dünn besiedelten Gebiete von Alaska bis Afrika und den Markt der Kraft-Wärme-Kopplung (einschließlich Fernkälte) in Ballungsgebieten. Hier kommt es auf geringen Personalaufwand für den Betrieb (möglichst automatisch) und Robustheit (Sicherheit, Zuverlässigkeit und geringe Wartung) an. Wer ein Kernkraftwerk, wie einen Schiffsdiesel baut, dem stehen hier alle Türen offen. Es ist kein Zufall, daß sich gerade Saudi Arabien für den chinesischen HTR interessiert: Ein riesiges Land, was konventionelle Stromnetze sehr teuer macht. Lokaler Bedarf nicht nur an elektrischer Energie, sondern immer auch gleichzeitig an Kälte (Klimatisierung) und Trinkwasser, bei gleichzeitigem Mangel an Kühlwasser für konventionelle Kraftwerke. Ähnliches gilt für Südafrika: Es mangelt nicht an Energie (riesige Kohlevorräte), sondern an Kühlwasser für Kraftwerke.

Die Temperaturfrage

Wir verfügen noch mindestens für Jahrhunderte über ausreichend billige fossile Energien. Je weniger man davon für Stromerzeugung und Heizung verfeuert, je länger kann man die Preise stabil halten. Es besteht also für Jahrzehnte gar keine Notwendigkeit für nukleare Prozeßwärme mit hohen Temperaturen und damit auch kein Markt! Schon allein, wenn man das Erdgas, was man heute in Kraftwerken verfeuert, zur (billigen) Wasserstoffproduktion verwendet, kann man damit die Weltmärkte überschwemmen.

Mit der Temperatur steigt der technische Aufwand exponentiell an. Temperatur ist in der Kraftwerkstechnik der Kostentreiber Nummer eins. Die Kerntechnik leidet aber bereits unter den Investitionskosten. Es ist dringend ein umlenken in die andere Richtung notwendig. Keine exotischen Experimente (Heliumturbine), sondern Einsatz erprobter Technik. Dampfturbinen mit unter 600 °C Eintrittstemperaturen um bei handhabbaren Werkstoffen zu bleiben.

Nimmt man dies als Richtwert, kommt man beim Reaktor deutlich unter 800 °C Austrittstemperatur an. Bei TRISO-Elementen ist die im Störfall freigesetzte Menge an Spaltprodukten stark temperaturabhängig. Nicht nur die maximale Temperatur im Störfall, sondern auch durchaus der Temperaturverlauf im Betrieb sind bestimmend. Je weiter man von den Grenzwerten Abstand hält, um so geringer ist die Freisetzung ins Helium. Je sauberer das Helium ist, je kleiner die potentielle Strahlenbelastung der unmittelbaren Umgebung.

Dies muß ja niemanden von der Jagd nach Temperaturrekorden abhalten. Es wird hier nur für einen ingenieurmäßigen, evolutionären Weg plädiert. Kein Ingenieur hat bei der Entwicklung der Verkehrsflugzeuge gleich Schallgeschwindigkeit gefordert. Vielleicht von geträumt, aber realistischer Weise nicht unmittelbar angestrebt.

Zusammenfassung

Wenn man konsequent die (derzeitigen) Grenzen der Technik akzeptiert und sich auf die Vorteile der Kugelhaufenreaktoren besinnt, kann man sehr schnell einen Durchbruch erzielen. Der PC hat seinen Siegeszug nicht angetreten, weil er in Konkurrenz zu Großrechnern angetreten ist, sondern weil er das „persönliche“ in den Vordergrund gestellt hat. Rausgekommen sind heute Rechner, die mehr leisten, als Großrechner in den 1960er Jahren und das zu einem „Mitnahmepreis“.

Für die Kugelhaufenreaktoren heißt das:

  • Konsequente Betonung der Sicherheit. Es ist möglich einen Rektor zu bauen, der so sicher ist, daß man ihn in einem Wohngebiet bedenkenlos aufstellen könnte.
  • Schwerpunkt auf einen automatischen Betrieb mit Fernüberwachung und geringem Wartungsaufwand.
  • Senkung der Investitionskosten durch Besinnung auf handelsübliche Technik.

Für die öffentliche Akzeptanz sind medienwirksame Vorführungen an Demonstrationskraftwerken notwendig: Trennung bei voller Last vom Netz, völliger Verlust des Kühlgases usw. Nachweis ist dabei, daß nicht mehr an Strahlung als aus einem konventionellen Kraftwerk die Grundstücksgrenze übertritt. Nur so, kann der Angstindustrie und ihrer Propaganda wirksam entgegen getreten werden.

Für die Fachwelt der Kunden (Stadtwerke, Industrie, usw.) steht die Bedienbarkeit und die Kosten im Vordergrund. Nichts ist vertrauenserweckender, als eine vertraute Technik (z. B. konventionelle Dampfturbine), mit der man sich auskennt und Erfahrung (Werkstofftechnik, Schweißtechnik etc.) hat. In diesem Sinne, kann man den Kollegen in China nur viel Erfolg auf ihrem eingeschlagenen Weg wünschen.

Wie wird eigentlich Strahlung gemessen?

Der Mensch hat keine Sinne für Strahlung, wir sind deshalb auf Meßgeräte angewiesen die uns warnen können.

Verfahren

Es gibt zwei Arten von Instrumenten: Zählende und Dosimeter. Die Zählenden bestimmen die spezifischen atomaren Zerfälle in Bq/kg für Feststoffe, Bq/l für Flüssigkeiten, Bq/m3 für Gase und Bq/m2 für Oberflächen. Die Dosimeter ermitteln die Energie der absorbierten Strahlung in Gray.

Beide Meßgeräte bestehen aus einem Volumen und einer Messwerterfassung, die die durch die Strahlung verursachte Veränderung im Volumen erkennt und in ein Signal umwandelt. Das Volumen muß dabei die Photonen oder Partikel überhaupt erfassen können. Dies setzt ein Mindestvolumen und besonders empfindliche Materialien voraus. Wenn entsprechend viele Teilchen und Photonen das Volumen passieren können ohne eine Reaktion zu verursachen, spricht man von geringer Empfindlichkeit (low efficiency).

Methoden

Man unterscheidet technische Verfahren und biologische Methoden. So kann man z.B die durch Strahlung ausgelöste Veränderung von Chromosomen benutzen, um verabreichte Dosen bei Lebewesen nachträglich zu ermitteln. Technische Verfahren geben idealerweise einen linearen Verlauf zwischen Dosis und Wirkung wieder. Bei den biologischen Verfahren liegt eher ein linear-quadratischer Verlauf (chromosome aberrations) vor.

Filmdosimeter sind sehr verbreitet. Das Maß für die empfangene Strahlung ist die Schwärzung des Films. Die Filme werden lichtdicht in Gehäuse eingeklebt. Durch unterschiedliche Materialien kann man sogar unterschiedliche Strahlungen oder (thermische) Neutronen unterscheiden und durch unterschiedliche Empfindlichkeit die Genauigkeit steigern. Sie sind billig in der Herstellung und wirken integrierend über den gesamten Zeitraum, in dem sie getragen werden. Typische Anwendung ist daher der Arbeitsschutz.

Thermolumineszenzdosimeter (TLD) senden nach Erhitzung einen der Dosis proportionalen Lichtschein aus. Sie sind so stabil, daß sie sogar in der Archäologie zur Altersbestimmung genutzt werden. Gerne werden sie auch in der Strahlentherapie eingesetzt. Für den Arbeitsschutz werden meist Kristalle aus Lithiumfluorid verwendet, da ihre Absorption der von Gewebe sehr ähnlich ist. Die Strahlung verursacht Fehlstellen in der Kristallstruktur. Werden sie auf ca. 200 °C erhitzt, bilden sich die Fehlstellen zurück und es wird dabei Licht ausgesendet. Die Menge ist dabei proportional zur empfangenen Strahlung. Über die Lithium-6 Isotope kann man auch empfangene Neutronen erfassen.

Ionisation, bekanntester Vertreter ist das Geiger-Müller Zählrohr. Ionisierende Strahlung erzeugt positive und negative Ionen. Jeder Zerfall löst einen Impuls aus, der verstärkt und z. B. hörbar gemacht werden kann. Das bekannte „Geknatter“ ist ein typisches Maß für die Strahlung. Der Geiger-Müller Zähler zeigt unmittelbar die momentane Strahlung an. Er ist deshalb ein gutes Hilfsmittel, um vor gefährlichen Bereichen zu warnen. Für die Überwachung ist er jedoch ungeeignet, da er nicht die gesamte Dosis die während der (z.B.) Arbeitszeit aufgenommen wurde, registrieren kann. Er liefert keine Information über die Art der Strahlung oder deren Energie.

Scintillation nutz den physikalischen Effekt, daß manche Stoffe auf Strahlung durch das Aussenden von Licht reagieren. Die Intensität des ausgesendeten Lichts ist mit einem Lichtverstärker (photomultiplier) leicht sichtbar zu machen, wobei die „Helligkeit“ für die Energie der γ-Strahlung steht. In Kliniken verwendet man aus Einkristallen aus Natrium-Jod hergestellte Detektoren mit einem Halben Meter Kantenlänge als „Bildschirme“.

Halbleiter erzeugen beim Auftreffen von Strahlung eine elektrische Spannung. Sie ermitteln die Energie sehr genau, sind jedoch nicht besonders empfindlich. Halbleiter auf der Basis von Germanium werden deshalb meist auf -196°C mit flüssigem Stickstoff gekühlt. Sie werden in Labors zur qualitativen und quantitativen Bestimmung von „Isotopen Cocktails“ verwendet.

Freie Radikale werden durch Strahlung erzeugt. Sie reagieren in Flüssigkeiten sehr schnell, sind aber in Feststoffen erstaunlich stabil. Die Anzahl der erzeugten Radikale ist ein Maß für die empfangene Dosis. Eine Methode mit der man z.B. in Zähnen auch noch nach sehr langer Zeit die empfangene Dosis nachweisen kann.

Redox Produkte. Strahlung reduziert durch Aufnahme von Elektronen bzw. oxidiert durch Verlust von Elektronen Moleküle. Damit können gezielt chemische Reaktionen ausgelöst werden, die zu stabilen chemischen Verbindungen führen können. Diese sind dann ein (dauerhaftes) Maß für die empfangene Dosis.

Die Nachweisgrenze

Ein Klassiker in der kerntechnischen Ausbildung ist die Frage, ob man ein einzelnes Gramm Jod-131 noch nachweisen könnte, wenn man dieses gleichmäßig über die gesamte Erdoberfläche verteilen würde. Jod-131 hat eine Halbwertszeit von 8,04 Tagen. Es zerfällt recht schnell und hat damit eine hohe Aktivität. Es ist ein Leitisotop für Reaktorunfälle, da es gasförmig ist und sich besonders in der Schilddrüse anreichert.

Jod-131 ist ein β-Strahler mit einer maximalen Teilchenenergie von 0,606 MeV und sendet gleichzeitig noch γ-Photonen mit einer Energie von 0,364 MeV aus. Letztere kann man gut mit einem Halbleiterdetektor messen und sie wirkt wie ein „Fingerabdruck“ zur eindeutigen Identifizierung auch in beliebigen Isotopengemischen.

Ein einzelnes Gramm Jod-131 besteht aus 4,6 x 1021 Atomen. Das Gesetz über den radioaktiven Zerfall und seine Halbwertszeit ergeben somit eine Aktivität von 4,59 x 1015 Bq. Die Erdoberfläche beträgt ungefähr 5,1 x 1014 m2. Die sich ergebende Aktivität von rund 10 Bq/m2 ist einfach nachweisbar.

Im Februar geisterte eine Meldung durch die Medien, zahlreiche automatische Überwachungsstationen zwischen Norwegen und Spanien hätten Aktivitäten zwischen 0,1 und 5,9 microBq/m3 in der Luft gemessen. Was war geschehen? Tatsächlich hatte es im Forschungsreaktor Halden in Norwegen einen Unfall beim Hantieren mit einem Brennelement gegeben. Wie dieser Vorfall zeigt, entgeht der Fachwelt nichts: Kein illegaler Kernwaffentest und kein noch so kleiner Unfall in einem Reaktor. Gemessen an den Nachweisgrenzen der Chemie, sind die Messmethoden der Kerntechnik geradezu atemberaubend empfindlich. Hinzu kommt, daß man beliebige Isotopenzusammensetzungen messen kann. Bei einer Probe ergibt sich daraus – auch bei kleinsten Mengen – ein „Fingerabdruck“ des Täters.

Dosismessung

Die Aktivität (in Bq) und die Energie (in eV) sind physikalische Größen, die gemessen werden können. Die Dosis ist hingegen die Energie, die im Medium aufgenommen wird. Wir betrachten meist den Menschen. In diesem Sinne ist die Dosis die vom menschlichen Körper aufgenommene Energie der ionisierenden Strahlung. Sie hängt von zahlreichen (biologischen) Faktoren ab. Es ist schwierig, die Absorption von Strahlung im Gewebe zu beobachten. Wie gesagt, es ist nicht das Problem Teilchen oder Photonen zu messen, sondern es ist schwierig, die Energie, die im menschlichen Gewebe absorbiert wurde zu erfassen:

  • Man kann die Energie von Röntgen oder γ-Strahlung recht einfach in einer mit Gas gefüllten Ionisationskammer (z.B. Geiger-Müller Zählrohr) messen. Die Maßeinheit Röntgen (1R) ist auf Luft bezogen. Wieviel von der Strahlung absorbiert wird, hängt aber von der Elektronendichte ab. So wird z. B. in Knochen (schwere Atome mit vielen Elektronen in ihren Hüllen) sehr viel mehr Energie, als im Gewebe (besteht hauptsächlich aus Wasser) absorbiert. Das erklärt das Bild einer „Röntgenaufnahme“. Die Dosis für Knochen und Gewebe ist deshalb völlig verschieden, auch wenn die Strahlung exakt gleich war.
  • Die Dosis hängt bei menschlichem Gewebe stark von der Eindringtiefe ab. Trägt man die absorbierte Energie über die Wegstrecke auf, ergeben sich konvexe Kurven: Auf den ersten Millimetern ist die absorbierte Energie klein, dann steigt sie steil bis zu einem Maximum an und nimmt dann mit größerer Entfernung wieder ab. Die Dosis ist ortsabhängig. Besonders extrem ist dies bei Teilchenstrahlung. Abhängig von der Art der Ionen, durchdringen diese zig Zentimeter mit sehr geringer Energieabgabe. Wird ein charakteristischer Wert erreicht, wird an diesem Ort (Bragg-peak) fast die gesamte Energie umgesetzt. Die Dosis ist örtlich eng begrenzt sehr hoch.
  • Was im Sinne des Arbeitsschutzes nachteilig ist, ist für die Medizin von großem Vorteil. Man will gezielt die Krebszellen belasten und nicht das umliegende gesunde Gewebe. Kennt man die Kurven für die absorbierten Energien in Abhängigkeit von der Strahlungsenergie, kann man über die gewählte Energie der Strahlung die Wirksamkeit (Dosis) sehr genau steuern. Für Tumore, die z. B. in einer Tiefe von etwa 6 cm im menschlichen Gewebe sitzen, muß man eine Röntgenstrahlung von mindestens 20 MeV wählen um optimale Ergebnisse (Kleine Dosis für das durchdrungene gesunde Gewebe, aber eine hohe Dosis im Tumor) zu erzielen.

Wir Eigenstrahler

Kalium ist überall vorhanden: Im Boden, im Wasser, in Pflanzen, in Tieren und am Ende der Nahrungskette in uns selbst. Kalium entspricht 2,4 Gewichtsprozenten aller Elemente der Erde. Die Häufigkeit des radioaktiven Isotops Ka-40 beträgt 0,0118%. Ka-40 hat eine Halbwertszeit von fast 1,3 Milliarden Jahren. Nur deshalb ist es noch überall auf der Erde vorhanden. Beim Zerfall sendet es β- und γ-Strahlung aus. Mit der Nahrung nehmen wir durchschnittlich 2,5 Gramm Kalium pro Tag auf. Dies ergibt rund 75 Bq Ka-40 pro Tag. Kalium ist in allen Zellen unseres Körpers eingebaut. Die Menge unterscheidet sich nach Geschlecht und Alter. Sie schwankt etwa zwischen 75 Bq pro kg Körpergewicht bei jungen Männern und 40 Bq/kg bei einer älteren Frau. Mit anderen Worten: Ein Fußballstadion, voll mit überwiegend jungen Menschen, ist eine ganz schöne „Atommülldeponie“. Jedenfalls verglichen mit den aus den Medien bekannten Wassertanks in Fukushima.

Eine einfache Abschätzung ergibt folgende Daten: Aus dem Zerfallsschema entnimmt man, daß 89,3 % der beim Zerfall entfallenden Energie auf die β-Teilchen entfallen. Da β-Strahlung nur eine sehr kurze Reichweite hat, verbleiben damit im Mittel 429.200 eV im Körper. Bei der γ-Strahlung sieht es etwas anders aus: Man nimmt an, daß nur 50% im Körper verbleiben, die andere Hälfte aber den Körper verläßt. Damit ergibt sich eine Energie von 78.100 eV. für die γ-Photonen. Somit kann man eine vom Körper absorbierte Energie von ungefähr 510.000 eV unterstellen. Pro Becquerel und kg und Jahr ergibt sich eine Energie von 2,6 μGy. Bei 70 Bq/kg ergibt sich somit eine Belastung von 182 μGy pro kg Körpergewicht jährlich. Diese Abschätzung deckt sich gut mit den von UNSCEAR angegebenen 0,165 – 0,185 mSv per year. Da es sich um die aufgenommene Dosis handelt, kann man auch die Einheit mSv verwenden.

Hinzu kommt noch Kohlenstoff-14. Er wird ständig in der Atmosphäre durch die kosmische Strahlung aus Stickstoff gebildet. Pflanzen lagern diesen Kohlenstoff über die Photosynthese ein. Wir wiederum nehmen dieses C-14 direkt über pflanzliche Nahrung oder indirekt über Fleisch auf. Durchschnittlich tragen wir alle etwa 35 Bq pro kg Körpergewicht in uns. C-14 sendet β-Strahlung mit (im Mittel) einer Energie von 52 keV bei jedem Zerfall aus. Das ergibt eine Strahlenbelastung von weiteren 0.01 mGy bzw. 0.01 mSv pro Jahr, die wir uns – ganz natürlich – selbst zufügen.

Hinzu kommen noch – je nach Bodenverhältnissen – die kompletten Zerfallsreihen von Uran und Thorium. Je nach Ernährungsgewohnheiten, Geschlecht und Lebensalter ergeben sich unterschiedliche Mengen die wir vornehmlich in unseren Knochen einlagern. Man setzt nach umfangreichen Analysen und Berechnungen als durchschnittliche Belastung hierfür eine effektive jährliche Dosis von 0,12 mSv an.

Somit setzt man eine durchschnittliche effektive Dosis für diese drei Wege von 310 μSv an. Wichtig dabei ist, nie den langen Weg vom Isotop bis zur Strahlenbelastung des Menschen zu vergessen. Die Energien beim Zerfall eines radioaktiven Elements sind leicht zu messen. Wieviel von diesem Stoff in den Körper gelangt, wie lange es dort verbleibt und wo und wie genau es im Körper wirkt, ist von unzähligen Einflüssen abhängig. Jede Angabe von irgendwelchen μSv (d h. dem millionsten Teil eines Sv) ist daher mindestens mit Gelassenheit zu betrachten.