Medikamente gegen Strahlenschäden

Eine Betrachtung zur Strahlung

In der deutschen Öffentlichkeit wird γ-Strahlung auf immer seltsamere Art und Weise doppeldeutig diskutiert: Stammt sie aus einer medizinischen Apparatur (Krebstherapie), wird sie als gut und hilfreich empfunden, stammt sie aus der Nutzung der Kernenergie („Atommüll“), wird sie durchweg abgelehnt. Selbst die Alltagserfahrung des „die Menge macht’s“, scheint hier außer Kraft gesetzt zu sein. Wie anders soll man es sonst deuten, daß geringste Dosen bei einem Reaktorstörfall (Fukushima, Tschernobyl) als lebensbedrohlich angesehen werden, aber um einige Zehnerpotenzen höhere Dosen mancher Therapie, als segensreich empfunden werden? Naturwissenschaftlich jedenfalls, läßt sich das nicht erklären. Es handelt sich eher um Okkultismus.

Nicht nur physikalisch läßt sich nachweisen, daß die Strahlung von z. B. Co60 immer die gleiche ist, egal ob sie aus „Atommüll“, einem Reaktor oder einer Apparatur zur Bestrahlung stammt. Auch die biologische Wirkung ist immer gleich, lediglich abhängig von der Dosisleistung und der Bestrahlungszeit. Bei hohen Dosen – wie sie z. B. bei einer Krebstherapie verlangt werden – kann man die Auswirkungen schon bei Blutproben nachweisen. Die Ergebnisse sind immer die gleichen, sie sind reproduzierbar und unabhängig von der Strahlenquelle. Es sind die gleichen meßbaren Effekte, wie sie z. B. schon bei den Opfern von Hiroshima und Nagasaki festgestellt werden konnten. Es ist also nicht so, daß wir nicht über ausreichende Erfahrungen verfügen würden. Mögen wir auch (noch) nicht alle Effekte bis ins letzte Detail einer jeden Zelle verstehen, so sind doch die Dinge auf der Ebene des „biologischen Systems Mensch und Tier“ gut vorhersehbar und nachvollziehbar.

Behandlungsmethoden

Es ist, wie immer in der Medizin: Auch wenn man den Ablauf einer Krankheit nicht bis ins letzte versteht, kann man doch helfen. Anders als bei biologischen Krankheiten ist es bei einer Verstrahlung sehr einfach den „Erreger“ zu finden. Eine Untersuchung, ob sich radioaktive Stoffe im Körper befinden (sog. Inkorporation) ist mit physikalischen Meßgeräten zuverlässig und schnell durchzuführen. Hat man Stoffe gefunden, kann man den Körper unterstützen, diese schnell wieder auszuscheiden. Man kann heute die sog. „biologische Halbwertszeit“ meist beträchtlich verkürzen. Im übertragenen Sinne kommt es der Tötung von Krankheitserregern gleich.

Hat die Strahlung nur von außen gewirkt, sollte die Person möglichst schnell aus dem Bereich der Strahlung herausgebracht werden, um weitere Schäden zu vermeiden. Diese Maßnahme ist besser unter den Begriffen „Evakuierung und Sperrgebiet“ bekannt.

Leider ist es damit nicht getan. Der Krankheitsverlauf ist mit einem Biss durch eine Giftschlange vergleichbar. Die Ursache kann sehr schnell und kurzeitig (Kritikalitätsunfall) wirksam sein. Man merkt erst nach einigen Minuten oder Stunden irgendwelche Symptome. Das „Gift“ ist schnell verschwunden, aber die zerstörerischen Prozesse, die es im Körper ausgelöst hat, laufen erst richtig an. Trotzdem kann man Strahlenopfern vielfach wirksam helfen, in dem man die „Selbstheilungskräfte“ unterstützt und vor allem den Körper vor weiteren Schäden (Infektionsgefahr) und Belastungen bewahrt.

An diesem Punkt überschneiden sich „Strahlentherapie“ und „Strahlenunfall“. Die Krebszellen sollen sicher zerstört werden, gleichwohl ist für die „gesunden“ Körperteile die Bestrahlung eine „nukleare Katastrophe“. Gelingt es, die Regeneration der belasteten Zellen zu unterstützen, kann man die Strahlendosis erhöhen und damit den „Krebs“ sicherer bekämpfen.

Es gibt also ein großes Forschungsinteresse „Medikamente gegen Strahlenkrankheit“ zu entwickeln. Solche Medikamente können dann auch zur Behandlung nach kerntechnischen Unfällen verwendet werden. Um es gleich vorweg zu nehmen, für eine militärische Verwendung sind solche Medikamente sinnlos, wenn nicht sogar kontraproduktiv. Ein Soldat, der nicht durch eine Kernwaffe getötet wurde, aber weiß, daß er erheblich verstrahlt wurde, ist in des Wortes Bedeutung ein todesmutiger Krieger. Wäre das nicht so, wären wahrscheinlich bereits erhebliche Mittel in die Entwicklung solcher Medikamente geflossen.

Heute kommt der Anstoß für Forschung und Entwicklung aus dem Bereich Nuklearmedizin. Gelingt es, die unvermeidlichen Nachteile einer Bestrahlung weiter zu senken, erschließen sich wahrscheinlich weitere Anwendungen für Strahlentherapien. Folgerichtig untersucht man besonders Medikamente, die bereits in der Krebstherapie eingesetzt werden. Bei diesen Medikamenten kennt man bereits sehr gut die Wirkungen auf den menschlichen Körper und etwaige Nebenwirkungen. Man will ja vermeiden, daß man den Teufel mit Beelzebub austreibt.

Ein solcher Stoff ist DIM (3,3′-diindolylmethane). Er kommt in der Natur in manchen Kreuzblütlern, wie Rotkohl, Blumenkohl und Brokkoli vor und wird schon länger zur Krebsbehandlung eingesetzt. Die Georgetown University hat diesen Stoff nun zum Patent für die Behandlung von Strahlenopfern angemeldet. In einer aktuellen Veröffentlichung werden die Forschungsergebnisse vorgestellt. Es wurden Ratten mit einer Dosis von 13 Gy (1300 rad) bestrahlt. Diese Dosis ist für Ratten normalerweise zu 100% tödlich. Sie sterben in wenigen Tagen. Ein Teil der Tiere wurde mit DIM behandelt. Ihn wurde täglich DIM gespritzt (Anmerkung: Bei so hohen Strahlendosen wird der gesamte Verdauungstrakt förmlich durchlöchert, wodurch eine normale Nahrungsaufnahme unmöglich wird. Also kein Versuch für Tierschützer!). Über 60% der behandelten Ratten haben auch noch nach 30 Tagen überlebt. Diese Tiere sollen bis zum natürlichen Ableben ohne erkennbare Schäden weitergelebt haben. In einer weiteren Versuchsreihe wurden Ratten mit 7 Gy (700 rad) bestrahlt. Unbehandelt, sind 50% nach 30 Tagen verstorben, behandelt haben rund 90% überlebt. Insofern hoffnungsvolle Ergebnisse.

Es ist aber nicht nur eine Erhöhung der Überlebenswahrscheinlichkeit fest zu stellen, sondern es sind auch andere Veränderungen meßbar. Dies betrifft einzelne Zellkulturen genau so, wie Blutuntersuchungen. Ein wesentlicher Effekt scheint auf der Anregung der Fähigkeit einer Zelle zur Reparatur von DNA-Brüchen zu liegen. Es werden aber auch die Symptome einer Strahlenkrankheit (Störung der Elektrolyte-Bilanz, zunehmende Entzündungen etc.) deutlich gesenkt. Gerade hierin, wird eine potentielle Anwendung als unterstützendes Medikament bei hoher Strahlenbelastung gesehen.

Ausblick

Es geht hier nicht um die Vorstellung eines neuen „Wundermedikaments“. Vielmehr geht es darum, auf die laufende Forschung aufmerksam zu machen. Ein Gebiet, das sich weitgehend unbeachtet von der Öffentlichkeit vollzieht. Die Nuklearmedizin hat sich in nur hundert Jahren zu einem bedeutenden Zweig der Medizin entwickelt. Dies ist der entscheidende Punkt: Diese Fachrichtung gibt es überhaupt erst, seit die Röntgenstrahlung und die Kernspaltung entdeckt wurden. In Kombination mit Molekularbiologie etc. hat sie eine rasante Entwicklung vollzogen und führt ganz neben bei, zu einem immer besseren Verständnis von der Wirkung jeglicher Strahlung auf lebende Organismen. Je weiter diese Erkenntnisse fortschreiten, um so weiter wird der „Aberglauben“ zurück gedrängt werden. Entscheidend ist eine ganz andere Frage. Welche Konsequenzen hat es für eine Gesellschaft, wenn sie sich aus diesem Prozeß ausklinken will? Geht das überhaupt? Der Weg zurück ins Mittelalter, mag manchen schlichten Gemütern sehr verlockend erscheinen. Die Strahlenphobie, wird genau wie der „Hexenwahn“, durch zunehmende Aufklärung verschwinden. Die Geschwindigkeit wird – heute wie damals – maßgeblich durch wirtschaftliche Interessen bestimmt. Die „Angst vor Strahlung“ wird sich in eine „Angst vor Blitz und Donner“ verwandeln: Man versteht die dahinter verborgenen physikalischen Effekte, respektiert die möglichen Gefahren und kann deshalb hervorragend mit dem „unvermeidlichen“ Problem umgehen.

Erdgas oder Kernenergie

oder Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

  1. Welche Brennstoffe oder sonstige „Rohstoffe“ (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?
  2. Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?
  3. Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die „Energiewende“ eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese „Erstanwender“ finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese durch die sog. „Ölpreisbindung“ im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine „Gasblase“, die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen – wie z. B. in Rußland und dem Iran – kann das Jahrzehnte andauern ohne daß die Fördermenge merklich absinkt. Weit aus größer sind jedoch die Vorkommen von sog. „unkonventionellem Gas“. Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der „Shale Gas Revolution“ wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer wie in den USA. Preisunterschiede – sofern sie hoch genug sind und längerfristig erscheinen – werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das „neue Gas“ unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an dem lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran – aus den vorgenannten Gründen – nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis – wie in Teilen der USA – wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis – wie in Deutschland und den Niederlanden – werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen „Träumen vom Elektromobil“.

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die „Verwerter“ kommen auf den Plan. Typische „Verwerter“ sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen wie z. B. in der Schifffahrt.

Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage – insbesondere nach sauberen Energieträgern – weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Neuer Temperaturrekord für Brennstoffe gemeldet

Forscher am Idaho National Laboratory (INL) und beim Oak Ridge National Laboratory (ORNL) meldeten einen neuen Meilenstein bei der Entwicklung von Brennstoffen für einen Reaktor der sog. vierten Generation. Sie erreichten einen neuen Rekord von 1800 °C . „Ein sicherer und effizienterer Kernbrennstoff zeichnet sich am Horizont ab“ war die Meldung betitelt. Der weiterentwickelte TRISO-Brennstoff (tristructural-isotropic, Bilderstrecke hierzu) hätte sich als noch robuster als gedacht erwiesen. Die Entwicklung dieses Brennstoffes ist Bestandteil einer Reaktorentwicklung für besonders hohe Betriebstemperaturen (Very High Temperature Reactor Technology Development Office). Es ist die Wiederaufnahme einer Entwicklungsschiene zur Nutzung von Kernenergie in der Chemie. Insbesondere zur Umwandlung von Kohle in umweltfreundlichere Produkte oder zur großtechnischen (chemischen) Wasserstoffgewinnung. Am konsequentesten und weitesten wurde diese Schiene einst in Deutschland (THTR) entwickelt. Mußte aber – wie so vieles andere – aus politischen Gründen aufgegeben werden. Inzwischen wurde auch die Entwicklung in Südafrika mangels finanzieller Möglichkeiten fast vollständig eingestellt. Nur das andere „Kohleland“ China, verfolgt noch mit merklichem Einsatz die Weiterentwicklung. Die USA – auch das Saudi Arabien der Kohle genannt – betreiben mit allen eine enge Kooperation, insbesondere auf dem Sektor der Brennstoffentwicklung.

Der heutige Stand, ist das Ergebnis von 11 Jahren Entwicklung am INL und ORNL. Wobei diese Forschung, schon auf den deutschen Ergebnissen aus den 1980er Jahren aufbauen konnte. Dies nur mal so am Rande, wie lang Entwicklungszeiträumen in der Kerntechnik dauern. Dabei handelt es sich hier nur um ein Teil – dem Brennelement – eines neuen, gasgekühlten Hochtemperaturreaktors. Alle Teile koppeln aber später im Betrieb gegenseitig aufeinander zurück. Erinnert sei nur, an das Einfahren der Steuerstäbe in den Kugelhaufenreaktor in Hamm-Üntrop, welches zu unerwartetem Verschleiß geführt hatte. Die hier beschriebenen TRISO-Elemente waren drei Jahre zur Bestrahlung in einem Testreaktor (im Advanced Test Reactor des INL). Ziel war ein Abbrand von etwa 20%. Dies entspricht etwa dem doppelten Wert, der damals in Deutschland verwendeten Brennelemente. Je höher der Abbrand ist, um so mehr Spaltprodukte sind in den Brennelementen vorhanden und um so höher war die Strahlenbelastung.

Nach der Bestrahlung wurden sie in einem Ofen auf die Testtemperatur erhitzt. Hauptzweck eines solchen Versuches ist, zu messen, wieviel Spaltprodukte, von welcher Sorte, „ausgeschwitzt“ werden und wie stark die anderen Eigenschaften (Festigkeit, Korrosion etc.) nachlassen. Aus solchen Versuchen kann man wertvolle Erkenntnisse für die Optimierung des Herstellungsprozesses ableiten. Die Meßergebnisse sind so positiv, daß man sogar Tests bei noch höheren Temperaturen erwägt. Wichtig für die Sicherheitstechnik ist, daß bereits die jetzigen Temperaturen etwa 200 Grad über den möglichen Höchsttemperaturen bei einem Störfall liegen.

Unterschiede zu konventionellen Brennelementen

Ein Brennelement enthält den Spaltstoff (Uran, Plutonium) und soll später die bei der Kernspaltung entstehenden Produkte möglichst gut festhalten. Das Brennelement muß gekühlt werden. Bei einem Leichtwasserreaktor ist das Kühlmittel auch das Arbeitsmedium (Dampfturbine). Bei einem klassischen Hochtemperaturreaktor, dient Helium als Wärmeübertrager zwischen den Brennelementen und dem eigentlichen Dampfkreislauf. Verwendet man Helium als Kühlmittel und wünscht trotzdem ein thermisches Neutronenspektrum, benötigt man noch einen zusätzlichen Moderator. Diese Funktion übernimmt der Kohlenstoff in den TRISO-Elementen.

Ein Brennelement eines Druck- oder Siedewasserreaktors besteht aus vielen einzelnen Brennstäben (üblich 14 x 14 und 17 x 17). Jeder Brennstab ist mit Tabletten (kleine Zylinder mit etwa 1 cm Durchmesser und Höhe) aus Uranoxid gefüllt. Die Hülle besteht aus einem beidseitig verschlossenen Rohr aus einer Zirkonlegierung. Uranoxid ist in Wasser praktisch unlöslich und hat einen hohen Schmelzpunkt von über 2800 °C. Dies erscheint sehr hoch, kann aber relativ schnell im Innern eines Brennstabs erreicht werden, da Uranoxid ein schlechter Wärmeleiter ist. Es kommt deshalb bei einem Verlust des Kühlwassers – wie in Harrisburg und Fukushima – partiell zur „Kernschmelze“. Infolgedessen reagiert die Brennstabhülle mit Wasserdampf bei hoher Temperatur und es bilden sich beträchtliche Mengen Wasserstoff, die in Verbindung mit Luft explodieren können. Die ursprünglich im Brennstab zurückgehaltenen Spaltprodukte können freigesetzt werden. Dabei ist zu beachten, daß viele Spaltprodukte bei den hohen Temperaturen gasförmig sind. Sie breiten sich deshalb zumindest im Reaktor aus. Dies führt zu einer erheblichen Strahlenbelastung, die menschliche Eingriffe für lange Zeit unmöglich macht. Man muß also längere Zeit warten, bis man mit den Aufräumarbeiten beginnen kann. Dies war das Problem in Harrisburg und ist heute das Problem in Fukushima.

Die Kombination Uranoxid, eingeschweißt in einer Hülle aus einer Zirkonlegierung (Zirkalloy) ist für den „normalen“ Betrieb eine sehr gute Lösung. Solche Brennelemente sind sogar für Jahrzehnte problemlos in Wasserbecken oder Spezialbehältern (trocken) lagerbar. Anders verhält es sich, wenn sie – insbesondere aus dem vollen Betrieb heraus – „trocken fallen“: Die Temperatur des Brennstabs steigt sofort über den gesamten Querschnitt an. Dies liegt an der relativ gleichmäßigen Verteilung der Spaltprodukte (Nachzerfallswärme) und der schlechten Wärmeleitung von Uranoxid. Der Brennstab fängt regelrecht an zu glühen und kann in seinem Inneren bereits aufschmelzen. Ohne den Phasenübergang von Wasser zu Dampf (Verdampfungsenthalpie) ist der gewaltige Wärmestrom (dafür reicht schon die Nachzerfallswärme kurz nach Abschaltung) nicht aus dem Brennstab zu transportieren. Mit anderen Worten: Ist der Brennstab erst einmal von Dampf umgeben, heizt er sich immer weiter auf. Nun setzen zwei fatale Prozesse ein: Infolge der steigenden Temperatur verliert das Brennelement seine mechanische Festigkeit und das Material der Brennstoffhülle „verbrennt“ im heißen Wasserdampf und produziert dadurch beträchtliche Mengen Wasserstoff. In diesem Moment wird ein Teil der vorher eingeschlossenen radioaktiven Stoffe zumindest im Reaktordruckgefäß (Unfall in Harrisburg) oder sogar im Sicherheitsbehälter (Fukushima) freigesetzt. Die produzierte Menge Wasserstoff kann so groß sein, daß sie ein ganzes Kraftwerk zerstört. Die Bilder von der Explosion in Fukushima sind hinlänglich bekannt. Ist das passiert, wird auch eine beträchtliche Menge radioaktiver Stoffe in die Umwelt freigesetzt.

Man kann also zusammenfassend sagen: Die Konstruktion der Brennelemente eines Leichtwasserreaktors funktioniert nur so lange, wie sie ständig von flüssigem Wasser umgeben sind. Sind sie nicht mehr vollständig von Wasser benetzt, nimmt die Katastrophe innerhalb von Sekunden ihren Lauf und endet – zumindest – im Totalschaden des Reaktors. Die Sicherheit steht und fällt mit der Aufrechterhaltung einer „Notkühlung“. Ein „trocken fallen“ muß sicher verhindert werden. Dabei spielt es keine Rolle, ob dies von außen ausgelöst wird (Tsunami), durch technisches Versagen im Kraftwerk (Rohrbruch) oder auch durch menschliches Versagen (Bedienungsfehler). In diesen Zusammenhängen liegt die Begründung für die passiven Sicherheitseinrichtungen bei Reaktoren der sog. Generation III+.

Das TRISO-Konzept

Beim Tristructural-isotropic (TRISO) Brennstoff geht man nicht von einer Tablette mit einem Durchmesser von etwa 1 cm als Baustein aus, sondern von winzigen Körnern, im Bereich von zehntel Millimetern. Diese Körnchen werden mit vier Schichten umhüllt und besitzen anschließend einen Durchmesser von etwa einem Millimeter. Die erste Schicht besteht aus porösem Kohlenstoff. Sie kann wie ein Schwamm die Ausdehnungen des Brennstoffkerns ausgleichen und kann aus ihm entwichene Spaltprodukte (Gase) aufnehmen. Diese Schicht ist von einer weiteren Schicht aus dichtem pyrolitischem Kohlenstoff (PyC) umgeben. Nun folgt eine Schutzschicht aus Siliziumkarbid (SiC). Dieses Material ist sehr hart und chemisch widerstandsfähig. Außen folgt eine weitere Schicht Kohlenstoff. Ein solches Korn „Verbundwerkstoff“ ist gleichzeitig nahezu unzerbrechlich und äußerst temperaturbeständig. In diesem „Tresor“ sind Spaltstoff und Spaltprodukte für Jahrzehnte fest eingeschlossen. In Deutschland plante man die „abgebrannten“ Kugeln in Edelstahlbehälter einzuschweißen und diese dann in ein Endlager zu bringen.

Aus diesen kleinen TRISO-Körnern kann man in einem weiteren Verfahrensschritt handhabbare Brennelemente „backen“. Bei einem Kugelhaufenreaktor sind das etwa Tennisball große Kugeln aus solchen TRISO-Körnern, die durch weiteren Kohlenstoff miteinander verbunden sind. Das erforderliche Verhältnis, ist durch die Neutronenphysik vorgegeben, da bei diesem Reaktortyp der Kohlenstoff auch die Funktion des Moderators übernehmen muß. Das durch den Kugelhaufen strömende Helium dient nur dem Wärmetransport. Da weder Zirkalloy, noch Wasser vorhanden ist, kann bei einem Störfall auch keine größere Menge Wasserstoff gebildet werden. Eine Explosion, wie im Kraftwerk Fukushima, wäre ausgeschlossen.

Wie diverse Versuche mit Kugelhaufenreaktoren eindrucksvoll gezeigt haben, sind sie „inhärent sicher“. In China hat man beispielsweise in einem öffentlichen Versuch dem Reaktor bei voller Leistung die Wärmesenke entzogen. Der Reaktor „ging von alleine aus“ und verharrte in einem stabilen Zustand. Die Kettenreaktion wurde durch den extrem negativen Temperaturkoeffizienten des Reaktorgraphit und dem Dopplereffekt des Brennstoffs augenblicklich unterbrochen. Durch die Nachzerfallswärme verharrt der Reaktor in diesem „überhitzten Zustand“ für viele Stunden, ohne jedoch eine für den Brennstoff kritische Temperatur zu überschreiten (Eine maximale Brennstofftemperatur von 1600 °C wurde nach drei Tagen erreicht). Der Reaktor blieb unbeschädigt und konnte nach dem Versuch wieder in Betrieb gesetzt werden. Diese Demonstration war wichtig, da dieser Reaktortyp unmittelbar in Raffinerien als Wärmequelle eingesetzt werden soll.

Ein Reaktor mit TRISO-Brennstoff und Helium als Kühlmittel macht hauptsächlich zur Erzeugung von Hochtemperatur-Prozeßwärme Sinn. Der gegenüber Leichtwasserreaktoren höhere Kapitalaufwand, wiegt die Brennstoffeinsparung durch höhere Wirkungsgrade bei der Stromerzeugung nicht auf. Bei kleinen Reaktoren dieses Typs, ist wegen des günstigen Verhältnisses von Volumen zu Oberfläche, eine „Notkühlung“ nicht notwendig. Die geringe Leistung (einige Hundert Megawatt) ist für die Anwendung „Prozeßwärme“ kein Nachteil, da der Bedarf von Hochtemperaturwärme an einem Standort ohnehin begrenzt ist. Wegen der relativ geringen Stückzahlen ist eine Wiederaufbereitung eher unwirtschaftlich. Die Stabilität der TRISO-Elemente kommt einer direkten „Endlagerung“ entgegen. Geschieht diese rückholbar, kann das irgendwann bei Bedarf geschehen.

Wie in Deutschland eindrucksvoll gezeigt wurde, eignet sich dieses Reaktorkonzept hervorragend, um Thorium nutzbar zu machen. Bei Kugelhaufen ist eine Anreicherung von 8 bis 10% Spaltmaterial und für das US-Konzept der Prismenanordnung von 14 bis 19% erforderlich. Es wäre sogar eine Verwendung von „teilaufgearbeitetem“ Leichtwasserbrennstoff möglich. Wegen des hohen Abbrandes wären hiermit etwa 70% des vorhandenen „Atommülls“ nutzbar. Ein Konzept, ähnlich dem koreanischen DUPIC-Verfahren (Nachnutzung in Schwerwasserreaktoren).