Archiv der Kategorie: Physik, Chemie, Technik

CO2 als Wertstoff effektiver gewonnen durch Abscheidung aus Luft der Atmosphäre

(pte) – Forscher der Universitäten Tsukuba http://www.tsukuba.ac.jp/en und Osaka http://www.osaka-u.ac.jp/en haben die Effektivität von porösen Zinn-Katalysatoren zur Abtrennung von CO2 aus der Atmosphäre und folglich Umwandlung in Treibstoffe oder Rohstoffe für die chemische Industrie um das 24-Fache verbessert.

Umwandlung in Formiat

Katalysatoren dieser Art werden genutzt, um CO2 in Formiat umzuwandeln, ein Salz der Ameisensäure. Es setzt Wasserstoff frei, der eine Brennstoffzelle versorgen kann, die Strom erzeugt. Doch die Ausbeute ist zu gering, und es entstehen unerwünschte Nebenprodukte. Die japanischen Forscher haben den Zinn-Katalysator mit dem Kunststoff Polyethylenglycol (PEG) beschichtet.

„Wir wollten ein katalytisches System entwickeln, das CO2 aus der Luft einfängt und in Formiat umwandelt“, sagt Forschungsgruppenleiter Yoshikazu Ito. „Es ist jedoch schwierig, nur das gewünschte Produkt mit hoher Ausbeute zu erhalten. Daher mussten wir das Katalysator-Design verfeinern.“ Dies gelang. Mit dem neuen Katalysator liegt die Formiat-Ausbeute laut den Experten bei 99 Prozent.

Optimale Dicke wichtig

Zuerst hatten es die Forscher mit einer Polyethylenimin-Beschichtung versucht, einem anderen Kunststoff. Das brachte eine Verbesserung, weil er sehr effektiv im Einfang von CO2-Molekülen war. Doch er hielt sie zu lange fest, sodass die Umsetzung in Formiat mit Verzögerung geschah.

Entscheidend für den Erfolg war die Optimierung der PEG-Dicke. Zu dünn aufgetragen, lockte der Kunststoff zu wenige CO2-Moleküle an, die aber leicht zum katalysierenden Zinn vordringen konnten. War die Kunststoffschicht zu dick, fing sie zwar viele CO2-Moleküle ein, doch sie hatten Mühe, zum Zinn vorzudringen. Mit einer optimalen Dosierung des PEG erreichten die Forscher die richtige Balance.

Möglicher Nutzen der Kernenergie – ein Bericht aus der NZZ vom Juli 2021

(NZZ) – «Wir müssen uns beim Kampf gegen den Klimawandel sputen», sagte die deutsche Kanzlerin Angela Merkel, als sie die Unwettergebiete in ihrem Land besuchte. Und sie ist damit keineswegs allein: Allenthalben wird nach den jüngsten Überschwemmungen eine Beschleunigung der Klimapolitik gefordert.

In dieser Diskussion ist bis jetzt aber ein Thema in weiten Kreisen tabu: der Ausstieg diverser Industriestaaten aus der Kernkraft nach dem Reaktorunfall von Fukushima. Deutschland stellt als vermeintlicher Musterknabe bereits nächstes Jahr seine letzten Kernreaktoren ab – während Kohlekraftwerke weiterlaufen. Das ist absurd.

Die Schweiz ist zwar etwas weniger rigoros, weil sie nicht gleich alle Kernkraftwerke vom Netz nimmt, aber auch das Schweizer Stimmvolk hat 2017 den schrittweisen Ausstieg gutgeheissen. Gerade in der Wirtschaft macht man sich deshalb Sorgen um die längerfristige Versorgungssicherheit – Magdalena Martullo-Blocher von der Ems-Chemie ist im «Blick» mit der Unterstützung der Atomkraft zwar vorgeprescht, aber unter Industriellen ist sie mit ihrer Meinung keineswegs allein.

Gewiss, die Erinnerungen an Fukushima und hier in Europa besonders an Tschernobyl sind haften geblieben. Dennoch gehört die Kernkraft zusammen mit den Erneuerbaren Wind, Sonne und Wasserkraft nicht nur zu den saubersten Energiequellen, sie ist auch vergleichsweise sicher – jedenfalls wenn man die verursachten Todesfälle in Beziehung zur produzierten Strommenge setzt.

Kernkraftwerke haben zudem den Vorteil, dass sie im Gegensatz zu den riesigen Wind- oder Solarfarmen kaum die Landschaft verschandeln, da sie auf wenig Fläche Platz haben. Das ist im Hinblick auf eine 10-Millionen-Einwohner-Schweiz ein Vorteil.

Es ist keine Frage: Soll die Dekarbonisierung auch im Verkehr und im Wärmesektor gelingen, braucht es künftig nicht weniger, sondern mehr Strom, und dieser sollte möglichst nicht mehr aus fossilen Energieträgern stammen. Wenn man nun vor allem auf Wind und Sonne setzt, wird Elektrizität für Konsumenten und Unternehmen viel teurer als nötig, weil deren Stromerzeugung stark schwankend ist.

Betreiber bestehender Kernkraftwerke sollten diese deshalb so lange wie von der Sicherheit her möglich laufen lassen können. In vielen Fällen werden das sechzig Jahre sein, zuweilen auch achtzig Jahre. Deutschland hat sich dieser Möglichkeit jedoch bereits beraubt – ein kapitaler Fehler.

In Industrieländern kann es zwar nicht darum gehen, dass der Staat nun selbst in die Kernkraft investiert. Das müssen, wenn schon, private Investoren übernehmen. Geld sollte die öffentliche Hand aber weiterhin in die Forschung stecken. Und Regierungen können die Rahmenbedingungen ändern, so dass Kernkraftwerke überhaupt eine Chance haben – dort, wo sie noch zugelassen sind. Erstens wird zuverlässige Leistung heute nicht angemessen honoriert. Und zweitens macht eine spürbare CO2-Abgabe auch Kernkraft konkurrenzfähiger.

Es ist eines, wenn sich wohlstandsverwöhnte Länder wie die Schweiz und Deutschland dazu entscheiden, ganz auf die Kernenergie zu verzichten. Man sollte aber nicht auch noch Schwellenländer erziehen wollen. Es wäre jedenfalls fürs Klima viel gewonnen, wenn China statt der vielen geplanten Kohlekraftwerke stärker auf Kernkraft setzen würde.

Das Hauptwachstum des CO2-Ausstosses findet in den Schwellenländern statt. Doch etwa die Weltbank, die Energieprojekte in diesen Staaten mit Milliarden unterstützt, hat kürzlich gerade bekräftigt, dass sie weiterhin keine Kredite für Kernkraft vergibt. Einer Fussnote in ihrem Aktionsplan entnimmt man, es mangle der Institution an entsprechender Expertise.

Der möglichst rasche Ausstieg aus der Kernenergie ist keine gute Politik, sondern scheint angesichts der gewaltigen Herausforderung des Klimawandels zunehmend rückwärtsgewandt. Es gilt vielmehr, Vor- und Nachteile der Kernkraft neu abzuwägen. Sie hat einen frischen Blick verdient.

Miserable Öko-Bilanz der Elektroautos

(Focus) – Elektro-Gate, Runde zwei: Nach ihrer Kritik an der Berechnungsmethode von Elektroauto-Emissionen erhalten Wissenschaftler viel Zuspruch, jedoch auch viel Gegenwind. FOCUS Online fasst den Stand der Diskussion zusammen.

Der wissenschaftliche Exkurs um die Elektromobilität ist selten wissenschaftlich. Gerade in Deutschland handelt es sich um ein hochpolitisches Thema. Das bekam Thomas Koch vom Karlsruher Institut für Technologie zu spüren. Der hatte sich bemüht, einen mathematischen Beweis zu führen, dass sich die EU bei der Kalkulation der zukünftigen CO2 Emissionen schlicht um ungefähr 100% verrechnet hatte, seine Hypothese bei einer wissenschaftlichen Zeitschrift eingereicht, um sie im Rahmen der “Peer Review” überprüfen zu lassen und anschließend 170 Wissenschaftler weltweit gefunden, die seine Meinung teilten. Stellvertretend für die in Gründung befindliche „IASTEC“-Gruppe, die mehr Technologieoffenheit bei der Verkehrswende fordert, schrieben dann die führenden Köpfe einen offenen Brief an die EU-Kommission .

Die Kritik kam prompt – und zielte meistens darauf ab, dass Koch als einer der bekanntesten Experten für Verbrennungsmotoren ja nur seine Pfründe sichern wolle. Abgesehen davon, dass dieser Vorwurf, wenn man denn in derlei Argumentationsmustern denkt, auf die Elektro-Branche genauso zutreffen würde, driftete die Diskussion über das Thema schnell ins übliche Lagerdenken „Pro E-Mobilität“ und „Contra E-Mobilität“ ab. Dabei zeigt sich bei einer genauen Betrachtung, wie tief das Problem eigentlich geht, auf das die Wissenschaftler die EU-Kommission hingewiesen haben.

Elektroauto: In Frankreich sauber, in Deutschland weniger

Koch und seine Kollegen wählten ausgerechnet die heilige Kuh der deutschen Verkehrswende aus, um ihre Punkte zu veranschaulichen – das Elektroauto ID3 des semi-staatlichen Volkswagenkonzerns. Der erforderliche Strom emittiere mehr als doppelt soviel CO2 wie von der EU-Kommission angenommen. Der EU-Irrtum basiere auf einem Rechenfehler, so die Wissenschaftler

Es zeigt sich schon an der Tatsache, dass Autohersteller bei der CO2-Flottenanrechnung ihre Stromer mit 0 Gramm bilanzieren dürfen. Dass das vorne und hinten nicht stimmt, zeigte jüngst die Fachzeitschrift „Auto Motor & Sport“ durch einen anschaulichen Vergleich: Während in Frankreich E-Autos dank Atomstrom tatsächlich sehr CO2-arm unterwegs sind, sieht die Bilanz in Deutschland deutlich schlechter aus, wenn man den je nach Wetterlage nur geringen Beitrag regenerativer Energien zum Strommix berücksichtigt.

„Autopapst“ Dudenhöffer will keine Technologieoffenheit

Die Wissenschaftler um Thomas Koch zogen sich unter anderem den Ärger von Deutschlands bekanntestem Autoexperten zu, dem emeritierten Professor Ferdinand Dudenhöffer. Der betreibt mittlerweile eine Kombination aus Auftragsforschungs-, Kongressveranstaltungs- und Eventagentur und veranstaltet Kongresse rund um die Elektromobilität von Braunschweig bis China. Eine von der “European Climate Foundation” mitfinanzierte Studie Dudenhöffers kam zu dem Schluss, durch E-Mobilität würden kaum Arbeitsplätze verloren gehen. Auch zu diesem Feld gibt es diverse Prognosen, die stark voneinander abweichen. So gehen andere Publikationen davon aus, dass zwischen 200.000 und 400.000 Arbeitsplätze der Transformation zur Elektromobilität zum Opfer fallen

An der IASTEC-Meinung ließ Dudenhöffer kein gutes Haar. Wenn er schon das Wort “Technologieoffenheit” höre, dann mutmaße er, dass man noch länger dem Verbrennungsmotor die Stange halte. Andere Kritiken gerieten noch schriller und unsachlicher. Unter dem Titel “Vorsicht Fake News” behauptet die „Wirtschaftswoche“, Kochs Berechnungsmethoden seien falsch und realitätsfern, die “International Association of Sustainable Drivetrain and Vehicle Technology Research” existiere nicht, ihre Gründung sei lediglich von Koch geplant und das Schreiben sei auch nur von 6 Wissenschaftlern unterschrieben.

„Elektro-Gate“? Zahlreiche Unterstützer für Kritik an der Emissionsberechnung

Nun ist die Richtigkeit einer wissenschaftlichen Hypothese weder von einem Eintrag ins Vereinsregister noch von der Anzahl der Unterzeichner eines offenen Briefes abhängig. Koch hätte durchaus deutlicher machen können, dass die aktuelle Diskussion ihn zur Eile zwingt. Die EU will diverse Richtlinien beschließen und auch der Beschluss der EURO 7 Norm für Verbrennungsmotoren steht unmittelbar bevor.

Die Darstellung allerdings, dass die Kritiker der CO2-Berechnung nur aus sechs Personen bestünden, die quasi andere vor den Karren spannen, lässt sich nicht halten. FOCUS Online liegt nicht nur der offene Brief der Wissenschaftler an die EU-Kommission vor, sondern auch nach einer ersten Nachfrage über 60 Mails von zukünftigen IASTEC-Mitgliedern und Unterstützern von Koch, die die Richtigkeit der Hypothesen bestätigen. Darunter sind unter anderem Wissenschaftler, Forscher und Antriebsexperten aus Deutschland, Brasilien, Kanada, Südkorea, China, England, Frankreich, Polen, Spanien, Tschechien und Griechenland. Sie bestätigen auch, dass sie sich an der IASTEC-Gründung beteiligen wollen. “Wir fühlen uns geehrt, gemeinsam mit den 170+ Repräsentanten aus dem automobilen Antriebsfeld hinter dem Papier zu stehen”, schreibt zum Beispiel Seongsoo Kim von der koreanischen Silla Universität. Der Strommix in Südkorea sei vergleichbar mit dem in Deutschland, Österreich und der Schweiz und erlaube ebenfalls keine vollständige klimaneutrale Elektromomobilität. Ohne ReFuels (das ist der Fachbegriff für biologische und synthetische Kraftstoffe) sei Klimaneutralität nicht zu erreichen.

„Ohne synthetische Kraftstoffe ist Klimaneutralität nicht zu erreichen“

Neben zahlreichen Unterstützern gibt es aber auch viel Kritik, die fachlich durchaus fundierter ist als etwa die Ferdinand Dudenhöffers. Das Science Media Center Germany (SMCG), eine gemeinnützige GmbH mit einem Jahresbudget von 1,7 Mio Euro , die sich der „Vernetzung von Wissenschaft und Presse“ verschrieben hat, hat sich die Mühe gemacht, die Koch-kritischen Statements zusammenzustellen.

Zu den Förderern des SCMG gehört neben der Klaus-Tschira-Stiftung eines verstorbenen SAP-Gründers das Bundesministerium für Bildung und Forschung, das deutsche Zentrum für Luft- und Raumfahrt oder die Deutsche Akademie der Naturforscher Leopoldina sowie diverse Universitäten. Geschäftsführer Volker Stollorz sagt zur Auswahl der entsprechenden Wissenschaftler: “Wir sprechen zu Studien, Veröffentlichungen und auch Gesetzvorschlägen grundsätzlich Forscherinnen und Forscher an, in deren domainspezifischen Fachbereich das jeweilige Thema fällt. Diese sind fachlich besonders in der Lage, auf dem aktuellen Stand der Forschung Arbeiten und Thesen einzuschätzen, die in ihre Disziplin fallen. Die jeweiligen Positionen der Wissenschaftler und Wissenschaftlerinnen zu bestimmten Forschungsfragen sind weder bei der Akquise noch bei einzelnen Anfragen das entscheidende Auswahlkriterium. Es steht den angefragten Forscherinnen und Forschern frei, auf unsere Fragen zu antworten. Im Falle der Veröffentlichung von Prof. Thomas Koch im Zusammenhang mit der Frage, welche CO2-Emissionen welchen Verbrauchern zuzuordnen sind, waren das Wissenschaftler und Wissenschaftlerinnen, die seit vielen Jahren Energiesystemanalysen erstellen und auf dem derzeitigen Stand der wissenschaftlichen Forschung argumentieren.”

 

Wasserstoff ist die Lösung – Der Energieträger hat ein gutes Image

Norbert Lossau ist Doktor der Physiker und Wissenschaftsjournalist. Er leitet bei der ‚Welt‘ die Redaktion ‚Technik und Wissenschaft‘ und hat seinerzeit in meiner Redaktion im WDR-Fernsehen seine Laufbahn begonnen und gehört zu den Wissenschaftlern, die wie ich die notwendige Klimarettung kritisch verfolgen. Er ist wie ich Realist und nicht gesponsert durch staatliche Subventionen und sonstige Zwänge. Auch er sieht Wasserstoff und seine Weiterverarbeitung zu Methanol und zu synthetischen Kraftstoffen als eigentliche Lösung einer realistischen CO2-Neutralität. Allerdings reicht die auf deutschem Territorium gewonnene regenerative Energie nicht aus und setzt ebenfalls auf internationale Kooperation z. B. mit Ländern der 3. Welt.

Jean Pütz

Hier geht’s zu seinem Artikel

Textilfasern extrem zugfestig, produziert durch genmanipulierte Bakterien

Was heutzutage durch die Technologie alles möglich ist. Noch so viele Proteste der Gen-Gegner können die Entwicklung nicht verhindern. Ich hoffe, die Wissenschaft ist ihrer Verantwortung bewusst, und bezieht die Nebenwirkungen und Risiken in ihr Kalkül mit ein.

Goethe schrieb in seiner Ballade ‚Der Zauberlehrling‘: ‚Die Geister die ich rief, die werde ich nicht mehr los‘. Diese Erkenntnis steht heute über vielen Technologien, doch leider auch unberücksichtigt bei vielen Gesetzesvorhaben. Jedes einzelne Gesetz in demokratischen Staaten sollte stets unter der Berücksichtigung von Nebenwirkungen und Risiken gefasst werden. Doch leider fällt das oft dem grassierenden Populismus zum Opfer.

Jean Pütz

Hier nun ein Forschungsergebnis menschlicher Kreativität, welches durchaus verblüffend ist

(pte) – Ingenieure der Washington University haben sogenannte Amyloid-Seiden-Hybridproteine entwickelt, die fester und widerstandsfähiger sind als natürliche Spinnenseiden. Die Proteine werden allerdings nicht im Labor hergestellt, sondern von Bakterien, deren Gene der Forscher Fuzhong Zhang verändert hat.

Kristallanordnung optimiert

Zhang arbeitet seit Jahren daran, Spinnenseide für technische Anwendungen im Labor biotechnisch herzustellen. 2018 konnte er einen ersten Erfolg melden. Er hatte Bakterien so manipuliert, dass sie Spinnenseide produzierten, deren Leistung in allen wichtigen mechanischen Eigenschaften mit ihren natürlichen Gegenstücken vergleichbar war.

„Dann fragte ich mich, ob wir nicht ein noch besseres Material produzieren können“, so Zhang. Gemeinsam mit seinem Doktoranden Jingyao Li machte er sich daran, die Aminosäuresequenz von natürlicher Spinnenseide zu verändern. Die Forscher erkannten, dass die Festigkeit der Spinnenseide nicht zuletzt auf eingebauten Nanokristallen beruht. Im Laufe der Evolution hätten sich die Zahl und die Anordnung dieser Kristalle immer weiter verbessert. Es sei kaum möglich, ausreichende Mengen an Nanokristallen dieser Art in künstlich hergestellter Spinnenseide zu platzieren.

Umbau des Seidenproteins

Um dieses Problem zu lösen, haben die Experten das Seidenprotein umgebaut, indem sie die Reihenfolge seiner Bausteine veränderten und sogenannte Amyloidsequenzen einbauten, die eine starke Tendenz zur Bildung der gewünschten Nanokristalle aufweisen. Es entstand ein Seidenprotein mit zahlreichen aneinandergereihten Bausteinen. Je länger diese Kette ist, desto stärker und zäher ist die Faser.

Eine Kette mit 128 Gliedern kam auf einen Wert im Gigapascal-Bereich. Zum Vergleich: Die Zugfestigkeit von Metallen liegt im Megapascal-Bereich. Trotz ihrer überragenden Eigenschaften ist diese künstliche Spinnenseide einfacher aufgebaut als natürliche, sodass sie von genmanipulierten Bakterien leichter herzustellen ist. Zhang glaubt, dass er bei der Entwicklung von Hochleistungsfasern noch lange nicht am Ende ist. „Wir können die Biologie so weiterentwickeln, dass wir die Natur übertreffen“, meint der Forscher.

Regenerative synthetische Kraftstoffe, die CO2-neutrale Verbrennungsmotoren oder Turbinen ermöglichen

(KIT) – Der Einsatz synthetischer Kraftstoffe könnte zukünftig Treibhausgasemissionen von Flugreisen und Schwertransporten minimieren. Mit einer Power-to-Liquid Anlage von INERATEC, die das Karlsruher Institut für Technologie (KIT) gemeinsam mit dem Spin-off am Energy Lab 2.0 betreibt, rückt das in greifbare Nähe. Die modulare Anlage ist in einem Container untergebracht und soll nun von der Ausgründung in Serie gefertigt werden.

„Das ist der letzte Ausbauschritt auf dem Weg zu einem industriellen Einsatz“, sagt Professor Roland Dittmeyer vom Institut für Mikroverfahrenstechnik des KIT. „Anlagen dieser Bauweise werden weltweit dazu beitragen, den Transportsektor und die chemische Industrie mit E-Fuels sowie E-Chemicals nachhaltiger zu gestalten.“ Die Anlage steht auf dem Gelände des Energy Lab 2.0 am Campus Nord des KIT. Sie produziert aus Kohlendioxid (CO2) und erneuerbarem Wasserstoff (H2) ein synthetisches Kraftstoffgemisch, auch SynCrude genannt, das zu synthetischem Kerosin, Diesel und Benzin weiterverarbeitet werden kann. „Dafür sind zwei Reaktorstufen notwendig, die wir zum ersten Mal gekoppelt, mit einem verbesserten Design und in einem für die Technologieentwicklung relevantem Maßstab betreiben“, sagt Dittmeyer. „Wir können bis zu 200 Liter Kraftstoff pro Tag erzeugen.“

Innovative Technologie von INERATEC

Die langkettigen Kohlenwasserstoffe des SynCrudes werden in einer der Reaktorstufen mittels Fischer-Tropsch-Synthese (FT-Synthese) aus Synthesegas hergestellt, das hauptsächlich aus Kohlenstoffmonoxid (CO) und H2 besteht. Es wird in dem anderen der FT-Synthese vorgeschalteten Reaktor durch die rückwärtige Wassergas-Shift-Reaktion (RWGS) erzeugt. Der RWGS-Reaktor ist aus mikrostrukturierten Platten aufgebaut, die einen flexiblen Betrieb der Anlage ermöglichen und für mehr Leistungsfähigkeit sorgen. Das neue Design dieser Platten wurde nun im gekoppelten Betrieb erfolgreich demonstriert. „Mit dem optimierten RWGS-Reaktor lassen sich die Reaktionen jetzt noch präziser steuern, und so konnten wir den Prozess signifikant verbessern“, sagt Dr. Tim Böltken, einer der Geschäftsführer von INERATEC. Jede Stunde könne bis zu drei Kilogramm Wasserstoff aus Elektrolyseuren verarbeitet werden. „Das entspricht einer Anschlussleistung von 125 Kilowatt, und das setzt weltweit Maßstäbe“, so Böltken.

Im nächsten Schritt erfolgt die Serienproduktion

Die Demonstration der RWGS Reaktor-Technologie von INERATEC auf dieser Skalierungsstufe stellt den letzten wichtigen Schritt in einem universitären Forschungsumfeld dar. Über weitere Skalierung, Standardisierung und Vervielfältigung will das Unternehmen die Power-to-X-Technologie danach schnell und kostengünstig mit einer Serienproduktion bereitstellen können. Über das Projekt IMPOWER2X wird das Spin-off des KIT von der Europäischen Union mit 2,5 Millionen Euro gefördert.

Bereits 2019 wurde in der ersten Förderphase des Kopernikus-Projekts P2X die weltweit erste vollintegrierte Anlage zur Produktion von „Sprit aus Luft und grünem Strom“ am KIT in Betrieb genommen. Die Anlage produzierte täglich ungefähr zehn Liter synthetische Kraftstoffe und kombinierte die CO2-Abscheidung aus der Luft, eine Hochtemperaturelektrolyse zur Synthesegaserzeugung, die FT-Synthese sowie die Produktaufbereitung zum fertigen Kraftstoff. Aktuell, in der zweiten Förderphase von P2X, wird diese Prozesskette in der Skalierung von 250 Kilowatt im Energy Lab 2.0 aufgebaut und soll dann ab 2022 etwa 200 bis 300 Liter Kraftstoff pro Tag direkt aus dem CO2 der Luft erzeugen. (mhe)

 

Zur Hochwasserkatastrophe 2021

(KIT) – Um Hochwassergefahren besser einschätzen zu können, sollen Gefahrenkarten historische Daten einbeziehen. Dafür plädieren Forschende am CEDIM – Center for Disaster Management and Risk Reduction Technology des Karlsruher Instituts für Technologie (KIT). Das CEDIM hat einen ersten Bericht zur Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen vorgelegt. Was die Rolle des Klimawandels betrifft, birgt die Kombination aus mehr verfügbarem Wasser in der Atmosphäre und einer zunehmenden Beständigkeit von Großwetterlagen ein steigendes Potenzial für extreme Niederschlagsereignisse.

Die Hochwasserkatastrophe in der vergangenen Woche hat in Deutschland mehr als 170 Todesopfer gefordert (Stand: 21. Juli 2021). Immer noch werden Menschen vermisst. Die Schäden an Gebäuden und Infrastruktur lassen sich erst grob bestimmen und gehen in die zweistelligen Milliarden – davon allein mindesten zwei Milliarden Euro für Verkehrsinfrastrukturen. Inzwischen hat der Gesamtverband der Deutschen Versicherungswirtschaft e.V. (GDV) den versicherten Schaden auf vier bis fünf Milliarden Euro nur in Rheinland-Pfalz und Nordrhein-Westfalen geschätzt. Wie kam es zu den Überflutungen, die vor allem Rheinland-Pfalz und Nordrhein-Westfalen betrafen? Wie lassen sich Hochwassergefahren – besonders seltene, extreme Ereignisse – vorab besser abschätzen? Mit diesen Fragen hat sich die Forensic Disaster Analysis (FDA) Group des CEDIM befasst und einen ersten Bericht vorgelegt.

Wie die Forschenden erläutern, führten enorme Niederschlagsmengen dazu, dass beispielsweise der Pegel an der Ahr (Altenahr) seinen bisherigen Rekord von 2016 (3,71 Meter, Abfluss: 236 m³/s) deutlich überstieg. Überflutungsbedingt fiel die Messstation bei einem Wert von 5,05 Metern (Abfluss: 332 m³/s) allerdings aus. Das Landesamt für Umwelt Rheinland-Pfalz kalkulierte aus Modellrechnungen für die Katastrophennacht einen Pegel von bis zu sieben Metern, basierend darauf schätzten die Expertinnen und Experten einen Abfluss zwischen 400 bis 700 m³/s ab.

Mehrere Faktoren führten zu den extrem hohen Niederschlagssummen

Aus meteorologischer Perspektive führten verschiedene Faktoren zu den extrem hohen Niederschlagssummen. „Innerhalb von 48 Stunden fiel in Teilen von Nordrhein-Westfalen und Rheinland-Pfalz mehr Regen, als dort üblicherweise im gesamten Monat Juli niedergeht; der Hauptanteil ging sogar innerhalb von nur rund zehn Stunden nieder“, berichtet CEDIM-Sprecher Professor Michael Kunz. Außerdem verstärkte das stark gegliederte Gelände der betroffenen Regionen, besonders im Landkreis Ahrweiler, mit teils tief eingeschnittenen Flusstälern den Oberflächenabfluss. Der bereits annähernd gesättigte Boden durch teils kräftige Niederschläge in den vorangegangenen Tagen verschärfte die Situation zusätzlich.

Um die Überflutungsflächen in den am schwersten betroffenen Gebieten Kreis Ahrweiler und Rhein-Erft-Kreis abzuschätzen, kombinierte das Forschungsteam Satellitendaten mit Luftaufnahmen von (Amateur-)Drohnen und Helikoptern sowie Fotos aus sozialen Medien. Nach diesen geschätzten Überflutungsflächen befinden sich in den betroffenen Gebieten knapp über 19 000 Gebäude mit einem Wert von rund neun Milliarden Euro. In Verbindung mit empirischen Daten vergangener Hochwasserkatastrophen (Infrastrukturschäden, Elementarschäden und andere Schäden) schätzten die Forschenden einen Gesamtschaden zwischen elf und 24 Milliarden Euro (erste CEDIM-Schätzung: 21. Juli 2021). Dabei ist allerdings zu berücksichtigen, dass die Überflutungsflächen nur einen Teil der gesamten betroffenen Fläche ausmachen.

Mehr verfügbares Wasser in der Atmosphäre und zunehmende Beständigkeit von Großwetterlagen steigern Gefahr

Ob ein einzelnes Extremereignis oder die Abfolge mehrerer Extreme bereits auf den Klimawandel zurückzuführen sind, lässt sich nach Aussage der Karlsruher Katastrophenforschenden weder exakt belegen noch komplett verneinen, besonders wenn es um Ereignisse auf kurzen Zeit- und Raumskalen geht, die stark von lokalen Faktoren beeinflusst sind. Für die großräumigen Prozesse in der Atmosphäre, die zur Entstehung von Extremereignissen führen, gilt jedoch: Die Kombination aus mehr verfügbarem Wasser in der Atmosphäre infolge der Temperaturzunahme und einer zunehmenden Beständigkeit von Großwetterlagen mit einem sich tendenziell nach Norden verlagerndem Jetstream, dem Starkwindband in der oberen Troposphäre, birgt ein hohes Gefahrenpotenzial. „Da für diese drei Faktoren ein positiver Trend zu erwarten ist, wird auch das Potenzial für extreme Niederschlagsereignisse in Zukunft zunehmen“, erklärt Kunz.

Bereits 1804 und 1910 bedeutende Hochwasserereignisse im Ahrtal

„Im Ahrtal gab es bereits in der Vergangenheit zwei besonders bedeutende Hochwasserereignisse, nämlich 1804 und 1910. Ein Vergleich mit historischen Aufzeichnungen lässt annehmen, dass die diesjährigen Werte allerdings niedriger einzuordnen sind als die von 1804“, sagt der stellvertretende CEDIM-Sprecher Dr. James Daniell. Für das Hochwasserereignis von 1804 wurde der Abfluss von der Universität Bonn bereits auf ca. 1 100 m³/s geschätzt. Das diesjährige Ereignis könnte hydrologisch betrachtet ein ähnliches Ausmaß wie das von 1910 mit einem Abfluss von 500 m³/s gehabt haben. „Die aktuellen Hochwasserkarten für das Ahrtal basieren derzeit auf einer Abflussstatistik mit Daten seit 1947, da seit diesem Zeitpunkt homogene Messreihen zur Verfügung stehen. Dadurch werden die beiden historischen Ereignisse bei der Gefährdungsabschätzung bisher jedoch nicht berücksichtigt“, sagt Dr. Andreas Schäfer, Erstautor des Berichts. So liegt die aktuelle Schätzung eines hundertjährlichen Hochwassers als Bemessungsgrundlage für den Hochwasserschutz für die Ahr bei 241 m³/s.

Die FDA Group des CEDIM plädiert dringend dafür, in Hochwasser-Gefahrenkarten historische Daten einbeziehen, auch aus der Zeit vor der kontinuierlichen Messaufzeichnung, um Hochwassergefahren besser abschätzen zu können. „Zwar müssen wir bei den Analysen und Interpretationen der Daten grundsätzlich beachten, dass sich sowohl Infrastrukturen als auch Hochwasserschutzmaßnahmen in den vergangenen Jahren verändert haben. Daher lassen sich die Messwerte direkt schwerer vergleichen, und wir sollten uns weniger auf die Pegelstände fokussieren“, erklärt Daniell. „Wir können die Pegelstände von 1804 und 1910 als indirekte Anzeiger heranziehen, um Hochwasserjahre zu identifizieren. Messwerte zum Abfluss, über die zeitliche Entwicklung und über die Niederschlagsummen sind für die Interpretation jedoch wichtiger. Letztendlich sollten aber beide historische Größen – Pegel und Abfluss – beim Erstellen von Gefahrenkarten einbezogen werden.“ (or)

Regenerative Kraftstoffe für den Verbrennungsmotor

(KIT) – reFuels umfassen erneuerbare Kraftstoffe, die über unterschiedliche Wege hergestellt werden können. Wenn diese so gemischt und aufbereitet werden, dass sie die bestehenden Kraftstoffnormen erfüllen, können damit alle verbrennungsmotorischen Anwendungen bedient werden. Zu diesem Ergebnis kommen aktuelle Fahrzeug- und Flottentests im Projekt „reFuels – Kraftstoffe neu denken“ am Karlsruher Institut für Technologie (KIT). Im Vergleich zu rein fossilen Kraftstoffen ermöglichen die reFuels-Kraftstoffgemische eine mindestens 25-prozentige CO₂-Reduktion. Zusätzlich bieten sie leichte Vorteile bei den Schadstoffemissionen.

„Flüssige Kraftstoffe werden im Mobilitäts-Mix noch länger erforderlich sein, etwa im Bereich des Langstrecken-Schwerlastverkehrs, der Schiff- und Luftfahrt, aber auch in der Bestandsflotte der Pkw. Hier können synthetische Kraftstoffe eine komplementäre Lösungsmöglichkeit zur ‚Defossilisierung‘ des Verkehrs bieten“, so Dr. Uwe Wagner vom Institut für Kolbenmaschinen (IFKM) des KIT. „Dafür müssen sie nachhaltig erzeugt werden können und möglichst schnell verfügbar sein“, sagt Professor Nicolaus Dahmen, im reFuels-Projekt zuständig für die Bereitstellung der Kraftstoffe. Für alle Arten heute üblicher Kraftstoffe gibt es etablierte und neue Prozesse, die den jeweiligen Kraftstoff liefern. „Die derzeit erprobten reFuels-Kraftstoffgemische ermöglichen bereits jetzt eine mindestens 25-prozentige CO₂-Reduktion im Vergleich zu rein fossilen Kraftstoffen“, so Dahmen. Im Projekt reFuels konnte dies für einige Beispiele, für die das KIT Technologien betreibt oder – wie im Fall des Hydrotreated Vegetable Oil (HVO) – eine andere Quelle für die Kraftstoffe gefunden hat, gezeigt werden.

Praxistests zeigen positive Ergebnisse
„Die bisher bei uns untersuchten reFuels-Kraftstoffgemische halten bestehende Kraftstoffnormen für Benzin- und Dieselkraftstoffe ein. Bei Anwendungstests in Pkw der Bestandsflotte konnten wir bei reFuels keine nachteiligen Eigenschaften feststellen. In einzelnen Fällen zeigten sich hinsichtlich der Schadstoffemissionen sogar leichte Vorteile – sowohl bei den Diesel- als auch den Benzinfahrzeugen“, fasst Wagner die bisherigen Ergebnisse der RDE-Fahrten (Real Driving Emissions) mit kommerziell erhältlichem R33 und am KIT synthetisiertem G40 zusammen. Er und sein Team am IFKM untersuchten bei RDE-Fahrten in Karlsruhe und Umgebung, wie sich reFuels im realen Fahrbetrieb verhalten. Diese Fahrten fanden auf Streckenabschnitten in der Stadt, auf der Landstraße und der Autobahn statt, die aktuellen gesetzlichen Vorgaben zur Zertifizierung von Neufahrzeugen entsprechen. Für die Testfahrten des KIT wurden vier verschiedene Pkw mit einem mobilen Emissionsmessgerät (Portable Emission Measurement System, PEMS) ausgerüstet. Mit diesem Gerät, das auch im europäischen Forschungsprojekt MetroPEMS zum Einsatz kommt, können Stickoxid-, Partikel- und CO₂-Emissionen während der Fahrt gemessen werden. Zudem wurden Flottentests mit sechs Lkw durchgeführt. Diese haben mit dem Kraftstoff C.A.R.E Diesel® aus 100 Prozent kommerziell verfügbarem HVO über 350 000 Kilometer zurückgelegt. „Auch hier zeigten die Ergebnisse keinerlei Probleme in der Anwendung“, sagt Wagner. Für weitere Tests ist eine Ausweitung der Flotte und eine Verlängerung des Dauerlaufs bis 2024 geplant. „Auch Versuche an einem Bahnmotor mit R33 und reinem HVO zeigten dieselben Ergebnisse wie die Straßenversuche“, so der Experte.

Umweltbilanzierung zeigt potenzielle Vorteile
Im Rahmen des ganzheitlichen Projektkonzeptes wurden die regenerativen Kraftstoffe einer Umweltbilanzierung unterzogen. Dazu wurden alle wesentlichen Energie- und Stoffströme im Zusammenhang mit der Bereitstellungs- und Nutzungskette der reFuels und ihrer fossilen Pendants erfasst und ausgewertet. „Die Ergebnisse zeigen, dass die reFuels nennenswertes CO₂-Einsparpotenzial besitzen“, sagt Dr. Andreas Patyk vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT.  „Um die Treibhausgas-Reduktionspotenziale der auf Elektrolyse basierenden eFuels auszuschöpfen, muss der Strom zu 100 Prozent regenerativ erzeugt werden.“ Das für die Synthese notwendige CO₂ kann aus der Luft abgeschieden werden oder aus Abgasströmen von beispielsweise Biogas- und Kläranlagen oder auch Zementwerken stammen. „Für die Etablierung der Technologie müssen die PtX-Anlagen mit ausreichend hohen Volllaststundenzahl betrieben werden können“, so Patyk.

reFuels werden am KIT hergestellt
Am KIT wurden zunächst mittels unterschiedlicher Prozesse verschiedene Kraftstoffmischungen aus regenerativ synthetisierten Kraftstoffkomponenten (reFuels) und fossilen Kraftstoffen hergestellt. Diese Kraftstoffmischungen erfüllen bestehende Normen. Für Dieselkraftstoffe gilt die Norm EN590, für Ottokraftstoffe die EN228. Diese Kraftstoffmischungen sind drop-in-fähig, das heißt sie können in bestehenden Verbrennungsmotoren eingesetzt werden. „Damit geben wir uns aber noch nicht zufrieden“, so Dahmen, „denn Ziel der Entwicklung müssen eigenständige Kraftstoffe ganz ohne fossile Anteile sein.“

Für die Herstellung von reFuels gibt es am KIT zwei Syntheseanlagen: In der bioliq®-Anlage auf dem Campus Nord des KIT wird beispielsweise Stroh verarbeitet, um synthetisches Benzin aus Biomasse der zweiten Generation, sogenannte advanced biofuels, zu produzieren. Anders als bei Biokraftstoffen der ersten Generation konkurriert die Synthese dieser fortschrittlichen Kraftstoffe aus Biomasse nicht mit dem Anbau von Nahrungs- und Futtermitteln auf landwirtschaftlichen Flächen. „Wir müssen die Teller-oder-Tank-Diskussion vermeiden. Deshalb setzen wir auf Rohstoffe, die nicht in diesem Konflikt stehen“, sagt der Projektkoordinator, Dr. Olaf Toedter. Im benachbarten Energy Lab 2.0 des KIT entstehen eFuels aus der Elektrolyse von Wasser mithilfe von regenerativ gewonnenem Strom und CO₂. Ziel ist vor allem Kerosin, daneben entstehen auch Diesel- sowie Benzinfraktionen. Das bei der Verbrennung von eFuels entstehende CO₂ wird dadurch kompensiert, dass für ihre Herstellung CO₂ aus der Umgebungsluft oder aus biogenen Quellen verwendet wird.

Das Projekt „reFuels – Kraftstoffe neu denken“
Das Projekt betrachtet seit Januar 2019 Herstellung und Einsatz von erneuerbaren Kraftstoffen ganzheitlich. Solche Kraftstoffe können bestehende Verbrennungsmotoren zukünftig antreiben – in Pkw, Nutz- und Schienenfahrzeugen sowie in Flugzeugen. Sechs Institute des KIT arbeiten gemeinsam mit zahlreichen Partnern aus Energiewirtschaft, Mineralöl-, Automobil- und Zulieferindustrie unter dem Dach des Strategiedialogs Automobilwirtschaft des Landes Baden-Württemberg an der Bereitstellung und Einführung von reFuels. Zwei Pilot- und weitere Technikumsanlagen des KIT lieferten regenerative Kraftstoffe, die aufbereitet, charakterisiert und in Versuchsmotoren getestet wurden. So konnten Syntheseverfahren für reFuels optimiert werden, um Rohemissionen zu reduzieren. (cko)

 

Was Erdgas wirklich kostet – Roadmap für den Gasausstieg – Mit einer Einführung von Jean Pütz

Sehr geehrte Damen oder Herren,

ich habe früher Herrn Sladek sehr geschätzt, denn seine Initiativen habe ich immer unterstützt. Leider ist dem diese Diskussion überhaupt nicht gerecht geworden. Ich habe sie von Anfang bis zum Ende verfolgt und selten so unqualifizierte, ideologisch gefärbte, einseitige Diskussionen erlebt wie diese. Jetzt weiß ich auch, warum der Vertreter des Ministeriums mit Abwesenheit glänzte und die Bundestags-Abgeordnete der SPD nur Allgemeinplätze verkündete, ganz im Sinne des Mainstreams der glaubt, aus Deutschland heraus könnten wir die Welt retten. Das ärgert mich um so mehr, als dass ich Klimaschützer der ersten Stunde bin. Vielleicht hätte es Ihnen geholfen, wenn Sie meine damaligen Sendungen in der ARD-Reihe ‚Bilder aus der Wissenschaft‘ zwei Folgen mit dem Titel ‚Der Sonne eine Chance‘, ausgestrahlt 1990, sich einmal angeschaut hätten. Sie können sie bei YouTube runterladen.

Ich bedaure sehr, dass nicht nur Schönau, sondern vor allem die sogenannte FÖS sich mit ihrem wissenschaftlich verbrämten Rechnereien in die Sekte der Realitäts-Verweigerer verabschiedet hat.

Bitte streichen Sie mich aus Ihrem Abonnement-Kreis.

Jean Pütz

(EWS) – Die am heutigen Mittwoch veröffentlichte Studie «Was Erdgas wirklich kostet – Roadmap für den Gasausstieg im Wärmesektor» zeigt deutlich, dass die Klimakosten von Erdgas weit höher sind als bisher angenommen und in erheblichem Maße zu den Treibhausgas-Emissionen beitragen. Die vom Forum Ökologisch Soziale Marktwirtschaft (FÖS) im Auftrag der EWS Elektrizitätswerke Schönau durchgeführte Untersuchung kommt zu dem Ergebnis, dass durch die Verwendung von Erdgas im Wärmesektor in Deutschland jährliche Treibhausgas (THG)-Emissionen in Höhe von 91,5 bis 107,2 Millionen Tonnen CO2-Äquivalenten anfallen – wovon 87,1 Tonnen verbrennungsbedingt aus CO2-Emissionen stammen und rund 4,4 bis 20 Millionen Tonnen aus Methanleckagen entweichen. Zum Vergleich: die gesamten CO2-Emissionen des Landes Berlin betrugen im Jahr 2019 etwa 17 Millionen Tonnen CO2.

Nach dem Schadenskostenansatz für 2021 bedeutet das: Durch die Nutzung von Erdgas im Gebäudesektor entstehen Klimakosten von rund 18 bis 21 Milliarden Euro, wobei auf die besonders klimawirksamen Methanleckagen rund 0,9 bis vier Milliarden Euro entfallen.

Klimaneutrale Wärmeversorgung bis 2030 möglich

«Die Studie macht mehr als deutlich, dass wir einen baldigen Ausstieg aus dem Erdgas in der Wärmeerzeugung brauchen», sagt Sebastian Sladek, Vorstand der EWS Elektrizitätswerke Schönau. Vor dem Hintergrund, dass die Treibhausgas-Emissionen im Gebäudesektor ­- mit 16 Prozent für die Emissionen insgesamt in Deutschland verantwortlich – zu mehr als 60 Prozent auf die Erzeugung von Wärme auf Basis von Erdgas zurückgehen, betont Sladek: «Wir können und müssen in Deutschland schnellstmöglich klimaneutral werden und daher auch im Wärmesektor auf regenerative Lösungen setzen. Dass dies möglich ist, zeigt die Studie sehr eindrucksvoll.»

Isabel Schrems, Autorin der Studie und Wissenschaftliche Referentin beim FÖS, hob bei der Vorstellung ihrer Analyse hervor, dass das Potenzial aus Solarthermie, Biomasse, Geothermie, Umweltwärme und Abwärme aus der Industrie im Jahr 2030 bei 1.403 bis 2.183 Terrawattstunden liege. Damit sei es fast doppelt so hoch wie der heutige Endenergieverbrauch im Gebäudewärmesektor. Zusammen mit der erwarteten weiteren Zunahme der Energieeffizienz sei sehr wahrscheinlich, dass in Deutschland bis Ende des Jahrzehnts genügend erneuerbare Wärme erzeugt werden kann. Ein Ausstieg aus der Nutzung aller fossilen Energieträger im Gebäudebereich, inklusive Erdgas, machbar sei.

Klimakosten von Erdgas noch nicht eingepreist

«Die Studie zeigt, dass die wahren Klimakosten durch Erdgas weit höher sind als der aktuelle Preis», betonte Carolin Schenuit, geschäftsführende Vorständin des FÖS, «denn drei Viertel dieser Kosten sind bisher nicht im Preis berücksichtigt. Diese Kosten über den Brennstoffemissionshandel schnellstmöglich einzupreisen ist klimapolitisch dringend angezeigt und logische Konsequenz aus dem Klima-Urteil des Bundesverfassungsgerichtes. Wir brauchen auf dem Weg zum Erdgas-Ausstieg aber auch ordnungspolitische und planungsrechtliche Maßnahmen, um schnell voranzukommen. Mit kommunalen Wärmeplänen und einem Neubauverbot für Gasheizungen können dezentrale, nachhaltige Wärmenetze gefördert werden. Das wird z. B. in Dänemark bereits praktiziert.»

Verena Graichen, Stellvertretende Vorsitzende des Bundes für Umwelt- und Naturschutz Deutschland, drängte bei der Podiumsdiskussion im Anschluss an die Studienvorstellung auf mehr Energieeffizienz bei der Umsetzung der Wärmewende. Ein großes und schnell ausbaubares Potenzial liege in der energetischen Gebäudesanierung. Die per Video zugeschaltete SPD-Bundestagsabgeordnete Nina Scheer betonte, dass Erdgas allenfalls noch für eine kurze Übergangszeit als Brücke zum Ausstieg aus der Nutzung fossiler Energien dienen dürfe. Vor allem müsse der Ausbau der Erneuerbaren Energien – auch im Wärmesektor – deutlich beschleunigt werden. Dies müsse, so waren sich die Podiumsteilnehmer:innen weitestgehend einig, vor allem auch über eine grundsätzliche Reform des Systems der Steuern, Abgaben, Entgelte und Umlagen auf Energie geschehen.

 

Über das FÖS
Das Forum Ökologisch-Soziale Marktwirtschaft (FÖS) e.V. ist ein unabhängiger politischer Think Tank für marktwirtschaftliche Instrumente in der Umwelt- und Klimapolitik. Das FÖS erstellt ökonomische Studien und politische Expertisen. Seit 1994 setzt es sich für die Weiterentwicklung der sozialen Marktwirtschaft zu einer ökologisch-sozialen Marktwirtschaft ein.

Über die EWS Elektrizitätswerke Schönau
Seit 2009 firmiert die heutige EWS Elektrizitätswerke Schönau eG als Genossenschaft mit ca. 9.000 Mitgliedern. Die EWS-Gruppe setzt sich für die Energiewende und eine vollständige, effiziente Energieversorgung auf Basis Erneuerbarer Energien ein. Bürgerliches Engagement, Mitbestimmung und Dezentralisierung gehören dabei zu den Grundpfeilern des unternehmerischen Handelns. Aktuell werden bundesweit ca. 220.000 Kunden mit Ökostrom und Biogas versorgt.

 

Auf dem Weg zur unendlich verfügbaren Energie? – Mit einer Einleitung von Jean Pütz

1971 habe ich der Fusions-Energie im Rahmen meiner Sendereihe ‚Energie, die treibende Kraft‘ eine der 13 Folgen gewidmet. Sollte es möglich sein, die Energie-Prozesse in der Sonne, das heißt, die Fusion von Wasserstoff und Helium auf die Erde zu holen, ist der Verfügbarkeit der Energie keine Grenzen mehr gesetzt. Damals, Anfang der 70er Jahre erklärten die Wissenschaftler mir, man bräuchte noch etwa 40 Jahre, um diesen Traum zu verwirklichen. Um eine Fusion in Gang zu setzen, benötigt man mindestens Temperaturen von 150 bis 200 Millionen Grad Celsius. Dem können keine Materialien Stand halten. Aber, ähnlich wie in der Sonne, gibt es das Plasma, das heißt, Gase, in denen sich Elektronen unabhängig von ihrem Kern bewegen. Ein Plasma ist deswegen durch magnetische oder elektrische Felder beeinflussbar. Die Forschungen laufen darauf hinaus es so zu beeinflussen, dass es wie in einem Behälter, sogar unter höchstem Druck, eingefangen wird. Das war wissenschaftlich so schwierig, dass die Vorhersage mehr Wunschdenken als Realität entsprach, denn die Geometriefelder so zu gestalten, das dies möglich wird, zieht so komplizierte Rechenvorgänge nach sich, dass erst heute extreme Super-Computer dazu in der Lage sind, das zu simulieren. Dies scheint nun gelungen zu sein, z. B. in dem man 100 Millionen Grad heißes Plasma gezielt bündeln kann. Darüber berichtet die folgende Mitteilung des Max-Planck-Instituts für Plasmaphysik in Greifswald und Garching. Um dies real umzusetzen, gibt es dort riesige Apparaturen, bei einem dieser Versuche, die einen Weltrekord von über 50 Millionen Grad Celsius heißes Plasma realisierte, war ich als Beobachter dabei.

Die weitere Forschung in ganz Europa macht Hoffnung, dass der Fusionsreaktor realisierbar ist. Die größten Super-Computer der Welt sind dabei involviert, aber mindestens 30 Jahre müssen wir uns noch gedulden, so lange sind wir verpflichtet, die Sonnenenergie noch durch Fotovoltaik, Solarthermie, Wind oder Wasserkraft in herkömmlicher Weise einzufangen.

Jean Pütz

Eine aktuelle Veröffentlichung aus dem Max-Planck-Institut für Plasmaphysik (IPP) zur theoretischen Vorhersage einer neuartigen Transportbarriere im Plasma und ihrer anschließenden experimentellen Bestätigung (Physical Review Letters) zeigt beispielhaft, wie dramatisch die Leistungsfähigkeit von Plasma-Simulationen und -Modellierungen in den letzten Jahren gewachsen ist. Ein europaweites Projekt zu Plasmatheorie und Simulation soll diese Entwicklung verstärken. Ziel sind virtuelle Plasma-Modelle als digitale Zwillinge wirklicher Plasmen.

Eine neuartige Transportbarriere in Fusionsplasmen, die den magnetischen Einschluss des Plasmas verbessert, hatte ein Theoretiker-Team des IPP mit Hilfe modernster Simulationen vorhergesagt. Hervorgerufen durch schnelle Plasma-Teilchen, sollte die Barriere Turbulenzen im Plasma lokal stark unterdrücken können. Ein nach entsprechenden Vorgaben geplantes Experiment in der Garchinger Fusionsanlage ASDEX Upgrade konnte diese theoretische Prognose anschließend bestätigen: Schnelle Teilchen, die durch die zielgenau eingesetzte Heizung des Plasmas mit Radiowellen erzeugt wurden, ließen im Zentrum des Plasmas einen Bereich mit den erwarteten verbesserten Einschlusseigenschaften entstehen. Die Arbeit wurde jetzt von der Fachzeitschrift Physical Review Letters zur Veröffentlichung angenommen (A. Di Siena et al.,

„Dieser große Erfolg der Theorie“, sagt Professor Frank Jenko, Leiter des Bereichs Tokamaktheorie im IPP in Garching, „ist nur eines von zahlreichen Beispielen dafür, wie dramatisch sich Plasma-Simulationen und -Modellierungen in den letzten Jahren verbessert haben.“ Auch die zur Verfügung stehende Computerleistung hat stark zugenommen, so dass raffinierte Modelle die komplexe Plasmaphysik inzwischen rechnerisch gut beschreiben können. Möglich werden damit quantitative Vorhersagen – ein „Riesenfortschritt“ im Vergleich zu den vergangenen zwanzig Jahren: „Statt wie früher bloße Interpretation von Messdaten“, so Frank Jenko, „liefern Theorie und Simulation inzwischen auf vielen Themenfeldern Modelle mit verlässlicher Vorhersagekraft“. Außerdem kann die Theorie bislang getrennt untersuchte Erscheinungen – wie die Physik schneller Teilchen und die Turbulenz – jetzt im Supercomputer zusammenbringen und so immer komplexere Zusammenhänge aufklären.

Im europäischen Fusionsprogramm, das durch das EUROfusion-Konsortium koordiniert wird, will man die neuen Möglichkeiten nutzen, um den Betrieb des internationalen ITER-Experiments und den Entwurf des nachfolgend geplanten Demonstrationskraftwerks DEMO optimal vorzubereiten. Mit strategisch ausgewählten Projekten gibt dazu die E-TASC-Initiative (EUROfusion – Theory and Advanced Simulation Coordination) diesem Teil der Forschung eine neue Struktur. Ein europaweit abgestimmtes Arbeitsprogramm zu offenen Schlüsselfragen in Theorie, Simulation, Verifizierung und Validierung soll – unterstützt durch neu zu entwickelnde Standard-Software – die Entwicklung der Vorhersagekraft in Plasmaphysik, Materialwissenschaft und Ingenieurwesen vorantreiben.

Von den in diesem Rahmen für den Arbeitsplan von 2021 bis 2025 ausgewählten vierzehn Forschungsprojekten, die EUROfusion an Wissenschaftlerinnen und Wissenschaftler in ganz Europa vergeben hat, gingen fünf an das IPP nach Garching und Greifswald. Auch eines der fünf Expertenteams für Hochleistungsrechnen und Codeoptimierung wird hier angesiedelt. „Das ehrgeizige Ziel, das wir mit E-TASC verfolgen, sind virtuelle Plasma-Modelle als digitale Zwillinge wirklicher Plasmen“, erklärt Frank Jenko, einer der beiden Vorsitzenden des Wissenschaftlichen Beirats von E-TASC. Zu diesem „Plasma im Computer“ sollen schrittweise Modelle weiterer DEMO-Teilsysteme hinzukommen, um nach und nach eine möglichst umfassende digitale Entwurfs- und Simulationsfähigkeit für das Kraftwerk aufzubauen.