Archiv der Kategorie: Erde, Klima, Umweltschutz

Neuronale Netze in der Wettervorhersage

(KIT) – Gewitter, Sonne, Kälte, Hitze – wie unbeständig das Wetter sein kann, zeigte der diesjährige Mai. Verantwortlich ist das „chaotische System“ Atmosphäre: physikalische Eigenschaften wie Temperatur, Luftfeuchtigkeit oder Bewölkung ändern sich ständig. Wetterprognosen versuchen, das Chaos vorherzusehen und zuverlässige Aussagen zu machen. Wissenschaftlerinnen und Wissenschaftler aus Meteorologie und Mathematik des Karlsruher Instituts für Technologie (KIT) haben gemeinsam eine neue Methode entwickelt, die auf Basis von Künstlicher Intelligenz Fehler in der Wettervorhersage unter Berücksichtigung nicht-linearer Zusammenhänge korrigiert.

Luftmassen, die ständig in Bewegung sind, Temperaturen, die schwanken und sich ändernde Luftdruckverhältnisse machen die Atmosphäre über uns schwer berechenbar. Doch eben dies tun Meteorologen, um verlässliche Wettervorhersagen zu treffen. Als Grundlage nutzen sie dabei Messungen vom aktuellen Zustand der Atmosphäre und simulieren ausgehend davon alternative Szenarien: Sie verändern bewusst zum Beispiel die Temperatur oder die Luftfeuchtigkeit, und berechnen, wie sich diese Modifikation auf das Wetter auswirken könnte. Für jede Messgröße vergleichen sie bis zu 50 Szenarien. „Ähneln sich die Ergebnisse, deutet das darauf hin, dass eine Prognose mit diesen Werten relativ sicher und der Zustand der Atmosphäre in diesem Bereich stabil und gut vorhersagbar ist“, sagt Peter Knippertz vom Institut für Meteorologie und Klimaforschung des KIT.

Diese Methode unterliegt jedoch systematischen Unsicherheiten, welche die Ergebnisse verzerren: „Die Computerszenarien können manche physikalischen Zusammenhänge nicht in der notwendigen Detailtiefe oder räumlichen Auflösung abbilden“, sagt Sebastian Lerch vom Institut für Stochastik des KIT, der eng mit Knippertz zusammenarbeitet. So fallen beispielsweise Vorhersagen über die Temperatur an bestimmten Orten stets zu mild, an anderen zu hoch aus, weil lokale, teils zeitlich variable Gegebenheiten den Modellen nicht mitgegeben werden können. Deshalb sei es nötig, die Ergebnisse der Simulationen mit aufwendigen statistischen Verfahren und Expertenwissen nachzubearbeiten, um bessere Prognosen und Eintrittswahrscheinlichkeiten für Wetterereignisse zu erhalten.

„Wir haben einen Ansatz entwickelt, der bessere Vorhersagen als etablierte Standardverfahren liefert“, so Lerch, der zugleich auch am Heidelberger Institut für Theoretische Studien (HITS) in der Gruppe von Tilmann Gneiting arbeitet, der am KIT einen Lehrstuhl innehat. Grundlage hierfür sind neuronale Netze, also Computerprogramme, die Informationen nach dem Vorbild des Gehirns verarbeiten. Die künstlichen Neuronen sind in Schichten angeordnet. So können die Mathematiker dem Netzwerk „antrainieren“, wie es bestimmte Daten optimal verarbeiten kann. Mit jeder Information, die in der Trainingsphase durch das Netzwerk fließt, sammelt es „Erfahrung“, kann sich kontinuierlich verbessern und so beispielsweise die Eintrittswahrscheinlichkeit von lokalen Wetterereignissen präzise bestimmen.

„Wir haben in unser Netzwerk eine Zwischenschicht eingefügt, in der die Neuronen die chaotischen, nicht-linearen Wechselwirkungen zwischen den Daten aus den Wettermessstationen und den physikalischen Zuständen der Atmosphäre in der Simulation analysieren und bewerten“, sagt Lerch. „So kann es eigenständig lernen, wie sich Veränderungen beispielsweise auf die Temperatur an einer bestimmten Messstation auswirken.“ Um ihr Netz zu trainieren, nutzen die Mathematiker Wetterdaten aus Deutschland, die 537 Wetterstationen von 2007 bis 2016 aufzeichneten. Eingangsgrößen für das neuronale Netz waren unter anderem die Bewölkung, Bodenfeuchte und Temperatur.

Die Prognosen, die das Netz getroffen hat, haben die Mathematiker mit Prognosen aus etablierten Techniken verglichen. „Unser Ansatz hat für fast alle Wetterstationen deutlich genauere Vorhersagen getroffen und ist wesentlich weniger rechenaufwendig“, fasst Lerch zusammen. Die Vorteile von neuronalen Netzen als Nachbearbeitungsverfahren lägen vor allem darin, dass sie nicht-lineare Zusammenhänge eigenständig erkennen und ihr Wissen darüber kontinuierlich anpassen können. Zudem können sie schneller große Datenmengen verarbeiten als bisherige Methoden und menschliche Experten. „Wir konnten so erstmals zeigen, dass sich neuronale Netze bestens dafür eignen, Wettervorhersagen zu verbessern und Informationen über meteorologische Prozesse zu erhalten.“

Überregionale Forschung für bessere Wettervorhersagen
Lerchs Forschung ist Teil des SFB/Transregios 165 „Waves to Weather“ (W2W), dessen Ko-Sprecher Knippertz ist. Wissenschaftler des KIT, der Ludwig-Maximilians-Universität (LMU) München als Koordinator und der Johannes-Gutenberg-Universität (JGU) arbeiten hier überregional und interdisziplinär zusammen, um Wettervorhersagen noch genauer und zuverlässiger zu machen. Damit stellt sich W2W der aktuell größten Herausforderung in der Wettervorhersage: die Grenzen der Vorhersagbarkeit in verschiedenen Situationen zu identifizieren und jeweils die physikalisch bestmögliche Prognose zu erstellen. Die Deutsche Forschungsgemeinschaft fördert den SFB seit 2015 und hat seine Förderung vor einigen Wochen für weitere vier Jahre verlängert.

Gift im Boden lässt sich einfach auswaschen

(pte) – Mit Schwermetallen verseuchte Böden lassen sich mit einer Chemikalie namens Ethylendiamintetraessigsäure (EDTA) vollkommen reinigen. Das haben Forscher der Stanford University herausgefunden. Bisher werden solche Böden, die auch in Deutschland vor allem auf früheren Industriegeländen zu finden sind, meist in Deponien gelagert.

Schneller und viel billiger
Das Team um Materialwissenschaftler Yi Cui vermischt EDTA mit Wasser. Der dann folgende Prozess ähnelt dem Aufbrühen von Kaffee, witzelt der Forscher. Die Flüssigkeit rieselt wie Wasser durchs Kaffeemehl hindurch den verseuchten Boden. Das EDTA bindet Metallionen an sich und reißt sie mit. Sie sammeln sich, wie der Kaffee in der Kanne, in einem Gefäß unterhalb des Erdreichs.

„Das ist ein neuer Ansatz, verseuchten Boden zu reinigen“, sagt Cui. Bisher funktioniert das Verfahren nur im Labor. Im nächsten Schritt wollen die Forscher eine Pilotanlage bauen, um die Technik unter realen Bedingungen zu erproben. „Dann finden wir auch heraus, wie teuer die Bodenreinigung ist“, so Cui. Wobei er jetzt schon überzeugt ist, dass es billiger ist als alle bisher getesteten Verfahren – und schneller geht.

Blei, Cadmium und Kupfer
Die Forscher haben bisher Böden gereinigt, die mit den hochgiftigen Schwermetallen Blei und Cadmium sowie mit Kupfer verseucht waren, das nur in hohen Konzentrationen gesundheitsgefährdend ist. Diesem ersten Schritt musste ein zweiter folgen, die Rückgewinnung von Wasser, EDTA und Schwermetallen. Dabei kam den Experten zugute, dass EDTA negativ geladen bleibt, auch wenn die positiv geladenen Ionen darauf fixiert waren.

In einem elektrischen Feld konnten die beiden Materialien voneinander getrennt werden. Übrig blieb EDTA in Wasser gelöst, das erneut zur Bodenreinigung verwendet werden kann. Cui will es jetzt mit anderen noch gefährlicheren Metallen versuchen, etwa mit Quecksilber, das so giftig ist, dass die experimentierenden Forscher Schutzkleidung tragen müssen.

Deutschlands Bedarf an Reserve-Kraftwerken verdoppelt sich

(WELT) – Die Zahl der Kraftwerke, die als Folge von Energiewende und Atomausstieg ausschließlich für den Notfall bereitgehalten werden müssen, steigt in den nächsten Jahren erneut auf Rekordwerte. „Es gibt nach wie vor einen Bedarf an Netzreserve, um das deutsche Stromnetz in kritischen Situationen stabil zu halten“, kommentierte Jochen Homann, Präsident der Bundesnetzagentur, die neueste Prognose. „Das macht die Bedeutung eines zügigen Netzausbaus deutlich.“

Laut der Bonner Behörde steigt der Bedarf an Reservekraftwerken bis zum Winter 2022/2023 auf den Rekordwert von 10.647 Megawatt. Damit muss eine Erzeugungskapazität, die umgerechnet der von zehn Atomkraftwerken entspricht, nur zum Zwecke der Stromnetzstabilisierung in Betrieb gehalten werden.

Zwar hatte es im Winter 2017/2018 einen noch höheren Reservebedarf von 11.400 Megawatt gegeben: Damals war allerdings auch noch Österreich Teil einer gemeinsamen Netzzone mit Deutschland. Durch den vom europäischen Netzbetreiberverband verfügten Hinauswurf Österreichs aus dem gemeinsamen Marktgebiet sank der Reservebedarf in Deutschland seither – ein Rückgang, der aber offenbar nur kurzfristig Bestand hat, wie sich jetzt zeigt.

Bei hoher Stromnachfrage und gleichzeitig hoher Erzeugung aus Windkraftanlagen muss das überlastete Netz in der Regel stabilisiert werden. Dann wird die Erzeugungsleistung vor dem Engpass vermindert und gleichzeitig die Erzeugungsleistung hinter dem Engpass erhöht. Das geschieht meist, indem die Stromnetzbetreiber Kraftwerke nördlich der Mainlinie drosseln und Anlagen südlich des Mains hochfahren.

In 27 Fällen hat Netzagentur Abschaltung untersagt
In der Regel greifen Netzbetreiber wie Amprion oder Tennet dabei auf Kraftwerke zu, die am normalen Strommarkt teilnehmen. In manchen Situationen reichen diese jedoch als Re-Dispatch-Kapazitäten nicht aus. Dann müssen Kraftwerke aus der eigens vorgehaltenen Netzreserve einspringen.

Diese Netzreserve besteht aus Kraftwerken, die von ihren Betreibern aus Wirtschaftlichkeitsgründen eigentlich stillgelegt werden sollten. Die Bundesnetzagentur kann die Stilllegung jedoch untersagen, wenn die Anlagen für den Betrieb des Stromnetzes unverzichtbar sind. Die Turbinen müssen dann gegen eine reine Kostenentschädigung ständig in Betriebsbereitschaft gehalten werden.

Bislang haben Energiekonzerne 110 Kraftwerksblöcke mit einer Kapazität von 22.000 Megawatt zur Stilllegung angemeldet. In 27 Fällen hat die Bundesnetzagentur die Abschaltung bereits untersagt. Aus diesem Pool wird auch die Netzreserve für den kommenden Winter gebildet, die von der Regulierungsbehörde mit 5126 Megawatt angegeben wird.

Für den Winter 2022/2023 rechnet die Bundesnetzagentur nun allerdings mit einer Verdopplung des Netzreservebedarfs auf den besagten Rekordwert von 10.647 Megawatt. Denn wenn Ende 2022 das letzte deutsche Atomkraftwerk abgeschaltet wird, vergrößert sich das Gefälle der installierten Stromerzeugungskapazitäten zwischen Nord- und Süddeutschland. Entsprechend häufiger muss mit Re-Dispatch in den Markt eingegriffen werden, um die Überlastung der Leitungen zu vermeiden.

Zudem verlangt eine neue Stromhandelsverordnung der EU, dass die Netzbetreiber mehr grenzüberschreitende Leitungen dem internationalen Stromhandel zur Verfügung stellen müssen. Auch dadurch steigt der Re-Dispatch-Bedarf.

Kurzfristig ausländische Kraftwerke anmieten
Woher die nötigen Reservekraftwerke im Winter 2022 kommen sollen, ist einstweilen noch unklar. Der Bedarf von mehr als zehn Gigawatt übersteigt bei Weitem das, was an inländischen Kraftwerken zu diesem Zeitpunkt der Netzreserve zur Verfügung stehen wird. Womöglich müssen dann erneut ausländische Kraftwerke zur Sicherung des deutschen Stromnetzes angemietet werden.

Die deutschen Stromnetzbetreiber sollen allerdings noch warten, heißt es bei der Bundesnetzagentur. Schließlich sei der tatsächliche Bedarf im Winter 2022/2023 noch mit Unsicherheiten behaftet. Auch wisse man noch nicht, ob der „Aktionsplan Stromnetze“, der aktuell von der Bundesregierung erarbeitet wird, bis dahin das Problem abmildert. „Die Bundesnetzagentur hält daher an der Praxis fest, Netzreserve im Ausland erst zu kontrahieren, wenn die Bedarfsanalyse für den unmittelbar folgenden Winter einen entsprechenden Bedarf ergibt.“

Dem Grundwasserspiegel mit vereinfachten Methoden auf der Spur

(KIT) – Wasser ist eine lebenswichtige Grundlage für Mensch und Umwelt. Eine der wichtigsten Quellen ist Grundwasser, das von Niederschlägen oder oberirdischen Gewässern erneuert wird. Bevölkerungswachstum sowie Landwirtschaft und Industrie beeinflussen stark die Menge und Qualität des Grundwassers. Um Grundwasserressourcen kostengünstiger, einfacher und flächendeckender als bisher untersuchen zu kann, haben Forscherinnen und Forscher des Karlsruhers Institut für Technologie (KIT) gemeinsam mit australischen Kollegen eine neue Methode entwickelt, die sie nun im Fachmagazin Reviews of Geophysics vorstellen.

Mehr als 70 Prozent des Trinkwassers stammen laut Umweltbundesamt allein in Deutschland aus Grundwasser. Weltweit nimmt die Gewinnung so rasant zu, dass die Grundwasserspiegel fallen, sich die Qualität verschlechtert und ganze Städte absinken. Dementsprechend wichtig ist es, die Untergrundeigenschaften zu erforschen um die Reserven nachhaltiger zu bewirtschaften.

„Derzeitige Testmethoden wie etwa der klassische Pumpversuch erfordern, dass Wasser aus speziell angelegten Brunnen aktiv abgepumpt und gleichzeitig der Wasserstand in nahegelegenen Brunnen beobachtet wird“ sagt Dr. Gabriel Rau vom Institut für Angewandte Geowissenschaften (AGW) des KIT. Hierfür müssten zwei bis drei Personen eine entsprechenden Pumpversuch einrichten und für einen längeren Zeitraum für Messungen betreuen. Dieses Verfahren ist äußerst kostspielig, kann je nach Untergrundeigenschaften von einigen Stunden bis zu mehreren Monaten dauern und das Ergebnis ist nur für den getesteten Standort gültig. „Unterirdische Grundwasserspeicher unterscheiden sich jedoch räumlich stark voneinander und es wäre viel zu teuer und umständlich, überall Förderbrunnen zu bauen.“

Gemeinsam mit den australischen Universitäten University of New South Wales (UNSW) in Sydney und der Deakin University in Melbourne hat das KIT nun eine neue Methode entwickelt. Diese wertet Informationen über die Gezeiteneinwirkung auf den Grundwasserspiegel aus. Ähnlich wie bei Ebbe und Flut im Ozean, verändern die Gezeiten auch den Grundwasserstand: So drückt die sich ändernde Gravitation beispielsweise poröse Gesteine im Untergrund zusammen und beeinflussen dadurch den Porendruck. Zusätzlich gibt es atmosphärische Gezeiten, die den Druck im Untergrund zyklisch verändern. „Diese Veränderung können wir mit geringem technischem, personellem und finanziellem Aufwand messen, um die Beschaffenheit des Untergrunds zu quantifizieren“, sagt Rau. Hierfür müssen die Ingenieure keine speziellen Gewinnungsbrunnen anlegen, sondern können einen automatischen Wasserdruck-Datenlogger in eine gewöhnliche Grundwassermessstelle platzieren. Der Drucksensor misst dann für mindestens einen Monat regelmäßig den Grundwasserspegel. Anhand der Messungen können die Forscher die physikalischen Eigenschaften des Untergrundes wie zum Beispiel Porösität, hydraulische Leitfähigkeit und Kompressibilität berechnen und die Erkenntnisse in eine nachhaltige Nutzung der Grundwasserressourcen umsetzen. „Da die Bohrungen der Beobachtungsstellen deutlich günstiger sind als das Anlegen von ganzen Brunnen, können wir an mehr Standorten messen und somit die Anzahl der bestimmten Untergrundeigenschaften deutlich und flächendeckend erhöhen“, so Rau.

Für ihre Methode haben die Forscher internationale Studien und Fachartikel aus verschiedenen Disziplinen untersucht und zusammengefasst: „Dabei haben wir gesehen, dass die jüngsten Fortschritte in der Grundwasserforschung das Potenzial für wesentlich kostengünstigere Langzeituntersuchungen des Grundwassers aufzeigen“, sagt Timothy McMillan vom Connected Waters Initiative Research Centre der UNSW Sydney. „Mit unserer Methode kombinieren wir Ingenieurwesen, Naturwissenschaften und Mathematik und können so durch die Auswirkungen der Gezeiten auf das Grundwasser die Untergrundeigenschaften berechnen.“ Diese Erkenntnisse können auch dazu beitragen, räumliche und zeitliche Schwankungen des Klimasystems und dessen Einfluss auf die Grundwasserreserven vorherzusagen. „Hier stehen wir in Zukunft vor gewaltigen Herausforderungen. Mit unserer Methode können wir die Ressourcen unter der Oberfläche einfacher untersuchen und damit auch nachhaltiger verwalten“, sagt Rau.

14.06.2019 Sägen wir in der Umweltdiskussion den Ast ab, auf dem wir sitzen ?

Liebe Besucher meiner Homepage !

Eine Stellungnahme eines intelligenten Facebook-Freundes möchte ich Ihnen nicht vorenthalten. Felix Küdde ist ein ehemaliger Manager der Firma Hösch, einem bekannt Stahlwerk der deutschen Industrie, das aber im Laufe der Ruhrgebiets-Umgestaltung entsorgt wurde. Danach hat er eine Firma im Bausektor aufgebaut, die seinesgleichen sucht. Er nennt sich Gaubenmeister und es ist ihm gelungen, mit neuen Methoden sowohl kreative Dächer als auch Dachausbau handwerklich in alter Zimmermann-Manier in unnachahmlicher Weise im Münsterland mit weitem Aktionsradius bis hin nach Köln sich einen Namen zu machen.
Außerdem ist er Innungsmeister in der Zimmermannszunft, die immer noch tradionell ihre Handwerksgesellen ein bis zwei Jahre wie im Mittelalter auf Wanderschaft schickt. Gelegentlich begegnet man einem solchen mit breitem Hut, schmucker Weste und Beinkleid mit breitem Schlag. Er hat eine philosophische Antwort auf unseren Zeitgeist gegeben.
Ihr Jean Pütz

Selektive Wahrnehmung – Das Pippi Langstrumpf Prinzip
Unsere Welt bietet uns einmalige Informations- Meinungsäußerungs- und Gestaltungsmöglichkeiten. Dennoch scheint es so, dass wir immer einfacher in den Sog von vermeintlich einfachen Wahrheiten ziehen lassen und damit Rattenfängern nachlaufen. Pippi Langstrumpfs scheinbar einfache wie bestechende Lebenseinstellung ist: „Ich mach mir meine Welt, wie sie mir gefällt“. – Da kann man schon neidisch werden. Wer möchte nicht der Held im eigenen Film sein? Auch ist es doch schön, wenn man Schwarz und Weiß, Gut und Böse einfach sortieren kann. Verschiedene Influencer im Internet und manche Politiker suggerieren uns dieses. Instrument dazu ist eine Lupe oder sogar ein Mikroskop, womit man einen isolierten Teilaspekt der Wirklichkeit zoomt und beleuchtet, bis er Schwarz oder Weiß ist.
Mit dieser vermeintlich gewonnenen einfachen Wahrheit lässt sich ordentlich Rabatz machen. Und wenn sich der Protestzug dann einmal in Bewegung gesetzt hat, ist es ein Einfaches, die öffentliche Meinung zu kapern. Dass so manches Gewächs am Wegesrand im Sinne der vermeintlich guten Sache platt getreten wird, ist folglich als Kollateralschaden anzusehen. Wenn dieses selektiv gewonnene Weltbild noch in Staatsräson gegossen wird, dann zeigt das, wie viel Geisel wir alle in dem Spiel geworden sind. Da ist die Forderung, „der Vernunft eine Chance“ zu geben, wie es in dieser Zeit zum Beispiel der Wissenschaftsjournalist Jean Pütz mit Verve fordert, wichtiger denn je. Glauben wir nicht den vermeintlich einfachen Wahrheiten. Würde Karl Marx heute leben, so würde er mit Sicherheit konstatieren, dass nicht Religion, sondern Internet Opium für das Volk ist.

Übrigens: Pippi Langstrumpf ist bei genauerem Hinsehen nicht eindimensional, sondern vielschichtig und klug: „Nicht?“, sagte Pippi. „Aber genau das tu ich. Ich lüge so, dass meine Zunge schwarz wird, hörst du das nicht? Du musst doch merken, dass das gelogen ist. Du darfst dir doch nicht alles Mögliche von den Leuten einreden lassen!“
Felix Küdde

Erwärmung der Arktis führt zu Wetterextremen in unseren Breiten

Atmosphärenforscher des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) haben ein Klimamodell entwickelt, das den immer öfter beobachteten Schlängelkurs des Jetstreams, einer großen Luftströmung über der Nordhalbkugel, richtig abbilden kann. Dieser Durchbruch gelang, nachdem die Wissenschaftler ihr globales Klimamodell mit einem neuen Machine-Learning-Algorithmus zur Ozonchemie kombiniert hatten. Mithilfe dieses neuen Kombi-Modells können die Forscher also nun zeigen, dass der wellenförmige Verlauf des Jetstreams im Winter und die damit verbundenen Extremwetterlagen wie Kälteeinbrüche in Mitteleuropa und Nordamerika eine direkte Folge des Klimawandels sind. Die neuen Forschungsergebnisse erscheinen am 28. Mai 2019 im Nature-Online-Portal Scientific Reports.

Klimaforscher aus der ganzen Welt gehen seit Jahren der Frage nach, ob der immer häufiger beobachtete Schlängelkurs des Jetstreams über der Nordhalbkugel eine Folge des Klimawandels ist, oder aber ein zufälliges Phänomen, dessen Ursachen auf natürliche Schwankungen im Klimasystem zurückzuführen sind. Als Jetstream wird ein starkes Westwindband über den mittleren Breiten bezeichnet, welches die großen Wettersysteme von West nach Ost schiebt. Der Wind weht in etwa 10 Kilometern Höhe rund um die Erde, wird von den Temperaturunterschieden zwischen Tropen und Arktis angetrieben und erreichte früher Spitzengeschwindigkeiten von bis zu 500 Kilometer pro Stunde.

Mittlerweile aber, so zeigen Beobachtungen, schwächt sich der Wind immer wieder ab. Er weht dann seltener auf einem geradlinigen Kurs parallel zum Äquator, sondern schlängelt sich öfter in Riesenwellen über die Nordhalbkugel. Diese Wellen wiederum führen im Winter zu ungewöhnlichen Kaltlufteinbrüchen aus der Arktis in die mittleren Breiten – so geschehen zum Beispiel Ende Januar 2019 als der Mittlere Westen Nordamerikas von extremer Kälte heimgesucht wurde. Im Sommer dagegen verursacht ein schwächelnder Jetstream langanhaltende Hitzewellen und Trockenheit wie sie Europa unter anderem in den Jahren 2003, 2006, 2015 und 2018 erlebte.

Machine Learning lässt Klimamodell die Rolle des Ozons verstehen
Diese grundsätzlichen Zusammenhänge sind seit einiger Zeit bekannt. Forschern war es bislang aber nicht gelungen, den Schlängelkurs des Jetstreams in Klimamodellen realistisch zu reproduzieren und einen Zusammenhang zwischen dem schwächelnden Wind und den globalen Klimaänderungen herzustellen. Diese Hürde haben die Potsdamer Atmosphärenforscher am AWI nun genommen, indem sie ihr globales Klimamodell um einen innovativen Baustein der Ozonchemie ergänzt haben. „Wir haben einen Machine-Learning-Algorithmus entwickelt, welcher es uns erlaubt, die Ozonschicht als interaktives Element im Modell darzustellen und daher die Wechselwirkungen aus der Stratosphäre und der Ozonschicht mit zu berücksichtigen“, sagt Erstautor und AWI-Atmosphärenforscher Erik Romanowsky. „Mit diesem Modellsystem sind wir jetzt in der Lage, die beobachteten Veränderungen im Jetstream realistisch zu reproduzieren.“

Demnach führt der Meereisrückgang und die damit verbundene größere Aktivität atmosphärischer Wellen zu einer durch das Ozon verstärkten deutlichen Aufheizung der polaren Stratosphäre. Da die tiefen polaren Temperaturen der Antrieb für den Jetstream sind, schwächt dieser sich durch diese Temperaturerhöhung in der Stratosphäre ab. Diese Abschwächung des Jetstreams setzt sich nun ausgehend von der Stratosphäre nach unten durch, was zu Wetterextremen führt.

Schwächelnder Jetstream ist Folge des Klimawandels
Mithilfe des neuen Modells können die Forscher nun auch die Ursachen des mäandrierenden Jetstreams genauer untersuchen. „Unsere Studie zeigt, dass die Veränderungen im Jetstream zumindest teilweise vom Rückgang des arktischen Meereises verursacht werden. Sollte die Eisdecke weiter schrumpfen, gehen wir davon aus, dass die bislang beobachteten Extremwetterereignisse in den mittleren Breiten in ihrer Häufigkeit und Intensität zunehmen werden“, sagt Prof. Dr. Markus Rex, Leiter der Atmosphärenforschung des AWI. „Unsere Ergebnisse untermauern zudem, dass die häufiger auftretenden winterlichen Kaltphasen in den USA, Europa und Asien der Klimaerwärmung nicht widersprechen, sondern vielmehr Teil des menschengemachten Klimawandels sind.“

Ein Fortschritt sind die Arbeiten auch aus technologischer Sicht: „Nach dem erfolgreichen Einsatz von Machine Learning in dieser Studie setzen wir nun erstmals künstliche Intelligenz in der Klimamodellierung ein und erreichen damit realistischere Klimamodellsysteme. Hier liegt ein riesiges Potenzial für die Klimamodelle der Zukunft, von welchen wir uns verlässlichere Klimaprojektionen und damit robustere Grundlagen für politische Entscheidungen erwarten“, sagt Markus Rex.

Auf der im September beginnenden Arktis-Expedition MOSAiC, bei welcher der deutsche Forschungseisbrecher Polarstern ein Jahr lang mit dem Meereis durch die zentrale Arktis treiben wird, wollen die Forscher nun aktuelle Eis- und Atmosphärendaten sammeln. Diese sollen helfen, das neue Klimamodell in die Zukunft laufen zu lassen, um so die künftige Entwicklung des arktischen Klimas und Meereises zu simulieren „Wir wollen im Detail verstehen, wie der Meereisrückgang in der Arktis weitergehen wird. Denn erst auf Basis dieses Wissens können wir genauer beurteilen, wie und in welchem Ausmaß die Veränderungen in der Arktis zu Wetterextremen in den mittleren Breiten führen werden“, so Markus Rex.

Glossar:
Der von den Forschern entwickelte künstliche Intelligenz-Algorithmus SWIFT ist ein lernendes Ozonmodul. Es stellt dem globalen Klimamodell innerhalb kurzer Zeit präzise Daten zum Verhalten der Ozonschicht zur Verfügung. Sein Wissen über die Ozonchemie wiederum stammt vom großen AWI-Chemie-Prozessmodell ATLAS. Dieses berücksichtigt bei seinen Simulationen der Ozonschicht nahezu 200 detaillierte Prozesse, die in der Atmosphäre ablaufen und welche alle mit komplexen mathematischen Formeln beschrieben werden, und ist deshalb viel zu langsam, um es in globale Klimamodelle einzubinden. SWIFT aber wird immer wieder zu Trainingszwecken mit ATLAS verbunden. Auf diese Weise lernt der Algorithmus durch die Beobachtung von ATLAS-Rechnungen für Hunderttausende verschiedene atmosphärische Bedingungen, zu welchen Ergebnissen das Prozessmodell kommt und kann diese anschließend im globalen Klimamodell reproduzieren – allerdings um mehrere Größenordnungen schneller als ATLAS. Nur so ist es möglich, die Ozonchemie als interaktives Element effizient in ein globales Klimamodell einzubinden. Hätten die Wissenschaftler versucht, ATLAS direkt in dem globalen Klimamodell mitlaufen zu lassen, so hätten die dafür benötigte Rechenleistung und -zeit alle verfügbaren Ressourcen um ein Vielfaches übertroffen.

Originalpublikation

Die Studie erscheint am 28. Mai 2019 als Open Access-Artikel im Nature-Online-Portal Scientific Reports. Ihr Originaltitel lautet:

Erik Romanowsky, Dörthe Handorf, Ralf Jaiser, Ingo Wohltmann, Wolfgang Dorn, Jinro Ukita, Judah Cohen, Klaus Dethloff, and Markus Rex: The role of stratospheric ozone for Arctic-midlatitude linkages, Scientific Reports, DOI: https://doi.org/10.1038/s41598-019-43823-1

Sonne als gigantischer Lebensspender

Es ist eine der großen Fragen der Sonnenphysik, warum die Aktivität der Sonne einem regelmäßigen 11-Jahres-Rhythmus folgt. Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) präsentieren nun neue Hinweise darauf, dass die Gezeitenwirkung von Venus, Erde und Jupiter das Magnetfeld der Sonne beeinflusst und so den Sonnenzyklus steuert. Über seine Ergebnisse berichtet das Forscherteam in der Fachzeitschrift Solar Physics (DOI: 10.1007/s11207-019-1447-1).

Für einen Stern wie die Sonne ist es an sich nicht ungewöhnlich, dass die magnetische Aktivität zyklisch schwankt. Allerdings können bisherige Modelle den sehr regelmäßigen Zyklus der Sonne nicht zufriedenstellend erklären. Dem Forscherteam vom HZDR gelang es jetzt zu zeigen, dass die Gezeitenwirkung der Planeten auf die Sonne als eine äußere Uhr den entscheidenden Ausschlag für deren gleichförmigen Rhythmus gibt. Die Forscher verglichen dafür historische Beobachtungen der Sonnenaktivität über die letzten tausend Jahre systematisch mit Planetenkonstellationen und wiesen statistisch die Kopplung der beiden Phänomene nach. „Die Übereinstimmung ist erstaunlich genau: Wir sehen eine völlige Parallelität mit den Planeten über 90 Zyklen hinweg“, freut sich Dr. Frank Stefani, der Erstautor der Studie. „Alles deutet auf einen getakteten Prozess hin.“

Ähnlich wie die Anziehungskraft des Mondes die Gezeiten auf der Erde hervorruft, so können Planeten das heiße Plasma auf der Sonnenoberfläche verschieben. Die Gezeitenwirkung ist am stärksten, wenn die Planeten Venus, Erde und Jupiter in einer Linie stehen; eine Konstellation, die alle 11,07 Jahre auftritt. Doch der Effekt ist zu schwach, um die Strömung im Sonneninneren signifikant zu stören, weswegen die zeitliche Koinzidenz lange nicht weiter beachtet wurde.

Dann fanden die HZDR-Forscher jedoch Indizien für einen möglichen indirekten Mechanismus, über den die Gezeitenkräfte das Sonnen-Magnetfeld beeinflussen könnten: Schwingungen der Tayler-Instabilität, ein physikalischer Effekt, der ab einem gewissen Strom das Verhalten einer leitfähigen Flüssigkeit oder eines Plasmas verändern kann. Auf dieser Idee aufbauend konstruierten die Wissenschaftler 2016 ein erstes Modell, das sie in ihrer jetzigen Arbeit nochmals zu einem realistischeren Szenario weiterentwickeln. Die Sonne wäre demnach ein ganz normaler, älterer Stern, dessen innere Uhr aber zusätzlich durch die Gezeiten synchronisiert wird.

Kleiner Auslöser mit großer Wirkung: Gezeiten nutzen Instabilität
Im heißen Plasma der Sonne erzeugt die Tayler-Instabilität Störungen der Strömung und des Magnetfelds. Sie reagiert dabei selbst auf sehr geringe Kräfte empfindlich. Ein kleiner Energieschubs genügt, damit die Störungen zwischen einer rechtshändigen und linkshändigen Verschraubungsrichtung (Helizität) hin- und herpendeln. Den notwendigen Impuls könnte die Gezeitenwirkung der Planeten alle elf Jahre geben – und so letztendlich auch den Rhythmus vorgeben, in dem das Magnetfeld der Sonne umpolt.

„Als ich das erste Mal von Ideen las, die den Sonnendynamo mit Planeten in Verbindung bringen, war ich äußerst skeptisch“, berichtet Stefani. „Als wir jedoch in unseren Computersimulationen Helizitäts-Schwingungen der stromgetriebenen Tayler-Instabilität entdeckten, fragte ich mich: Was passiert, wenn man mit einer leichten, gezeitenartigen Störung auf das Plasma einwirkt? Das Ergebnis war phänomenal. Die Schwingung wurde richtig angefacht und mit dem Takt der äußeren Störung synchronisiert.“ Mit ihrem erweiterten Modell können die Forscher auch Effekte erklären, die bisher nur schwierig zu modellieren waren, beispielsweise „falsche“ Helizitäten, wie sie bei Studien von Sonnenflecken beobachtet werden, oder das bekannte Doppel-Maximum in der Aktivitätskurve der Sonne.

Langfrist-Prognose für die Sonne?
Die Gezeitenkräfte der Planeten könnten neben ihrer Rolle als Taktgeber für den 11-Jahres-Zyklus auch weitere Effekte auf die Sonne haben. Zum Beispiel wäre denkbar, dass sie die Schichtung des Plasmas im Grenzbereich zwischen innerer Strahlungszone und äußerer Konvektionszone der Sonne, der Tachokline, so verändern, dass der magnetische Fluss leichter abgeführt werden kann. Unter diesen Bedingungen könnte auch die Stärke

der Aktivitätszyklen verändert werden, so wie einst beim „Maunder Minimum“ die Sonnenaktivität über eine längere Phase deutlich zurückging.

Ein besseres Verständnis des Sonnenmagnetfeldes würde langfristig helfen, klimarelevante Prozesse wie das Weltraumwetter besser zu quantifizieren und vielleicht sogar eines Tages Klimaprognosen zu verbessern. Die neuen Modellrechnungen bedeuten aber auch, dass neben der Gezeitenwirkung potenziell weitere, bislang unbeachtete Mechanismen in Modelle des Sonnenmagnetfeldes integriert werden müssen, deren Kräfte klein sind, und die – wie die Forscher jetzt wissen – dennoch eine große Wirkung entfalten können. Um diese grundsätzliche Fragestellung auch im Labor untersuchen zu können, bereiten die Forscher zurzeit ein neues Flüssigmetall-Experiment am HZDR vor.

Klimawandel treibt Malariamücken nach Europa

(pte016/27.05.2019/10:30) – Malaria-übertragende Mücken-Arten profitieren vom Klimawandel und werden sich infolgedessen in Europa und dem Mittelmeerraum weiter ausbreiten. In welchem Ausmaß diese Ausbreitung voranschreitet, lässt sich nach einer aktuellen Studie von Forschern der Universität Augsburg ziemlich genau vorhersagen.

Verbreitungsfreundliches Wetter
Ein Aspekt des Klimawandels, der in der öffentlichen Debatte bislang wenig Beachtung fand, ist die Ausbreitung sogenannter vektorübertragener Krankheiten. Als solche werden Krankheiten bezeichnet, die von einem erregertragenden Organismus übertragen werden. Dazu zählt zum Beispiel die Malaria, die von Anopheles, einer Stechmücken-Gattung, übertragen wird.

Das verstärkte Auftauchen Anopheles-freundlicher Wetterlagen könnte zur Ausbreitung dieser Stechmücken und damit zum Erstarken von Malaria in Europa und dem Mittelmeerraum führen. Wie genau diese Ausbreitung aussehen und in welchem Tempo sie vor sich gehen könnte, war bislang nicht genau prognostizierbar.

BRT ermöglicht genaue Prognosen
Die Geografin Elke Hertig von der Universität Augsburg hat ein Modell vorgelegt, das genauere Aussagen ermöglicht. Mit dem geostatistischen Ansatz BRT lässt sich das Vorkommen der Mücken in Europa bis zum Ende dieses Jahrhunderts modellieren. Hertig kommt zu dem Ergebnis, dass Veränderungen in Temperatur und Niederschlag zum deutlichen Ausbreiten von Malariamücken in Richtung Norden führen werden.

Günstig für die Insekten sind vor allem die zu erwartenden wärmeren Frühlingstemperaturen und die kräftigeren Niederschläge in Sommer und Herbst. Die deutlichsten Zuwächse der Mückenpopulationen sind gegen Ende dieses Jahrhunderts in Süd- und Südosteuropa zu erwarten. Nur in einzelnen Gebieten des Mittelmeerraums, für die sinkende Niederschlagsmengen vorausgesagt werden, wird das Mückenvorkommen sinken.

Kohlendioxid (CO2) als Wertstoff für die chemische Industrie und zur Energiespeicherung

Spaltung von CO2 im Plasma
Für die Umsetzung der Kohlenstoffdioxidspaltung haben Wissenschaftlerinnen und Wissenschaftler am Institut für Grenzflächenverfahrenstechnik und Plasmatechnologie IGVP der Universität Stuttgart einen elektrodenlosen Reaktor entwickelt, bei der – angeregt über eine Mikrowelle – mittels starker elektrischer Felder ein Atmosphärendruckplasma erzeugt wird. »Stoßen in diesem Plasma angeregte Elektronen auf CO2-Moleküle, bewirkt dies, dass CO2 in das gewünschte Produkt Kohlenmonoxid CO und Sauerstoff zerfällt«, erläutert IGVP-Wissenschaftler Dr. Andreas Schulz, der das Projekt koordiniert.

Perowskitmembran zur Entfernung von Sauerstoff
Damit CO nicht mit dem im Plasma entstehenden Sauerstoff zu CO2 zurückreagiert, muss Sauerstoff stetig aus dem Reaktionsgleichgewicht entfernt werden. Hierzu hat das Fraunhofer IGB eine neue Keramikmembran entwickelt, die Sauerstoff selektiv abtrennen kann. »Da die Membran zugleich temperatur- und CO2-stabil sein muss, verspinnen wir spezielle keramische Materialien, sogenannte Perowskite, zusammen mit Polymeren zu einer dünnwandigen Kapillare«, erklärt Dr. Thomas Schiestel, Membranexperte und Projektleiter am Fraunhofer IGB. Die resultierende Grünfaser wird bei hohen Temperaturen zu einer dichten keramischen Kapillarmembran gesintert. »Unsere Perowskitmembran ist stabil in einer CO2-Atmosphäre und bei Temperaturen von 800 bis 1000 °C durchlässig für Sauerstoff, nicht aber für Kohlenmonoxid und Kohlendioxid«, so der Fraunhofer-Forscher. Eine solche Membran wurde bisher noch nicht beschrieben.

Erfolgreiche Kohlendioxidspaltung und Sauerstoffabtrennung im Plasma-Membran-Reaktor
Dass die Idee des kombinierten Plasma-Membran-Prozesses funktioniert, konnten die Forscher in dem am IGVP entwickelten Plasmareaktor bereits demonstrieren. Mithilfe einer speziellen Apparatur im Plasmareaktor wird die Kapillarmembran an einer exakt definierten Stelle in der Plasmaflamme justiert. Über die Kontrolle von CO2-Gasfluss und Mikrowellenleistung wird dabei die Temperatur des Plasmas auf Höhe der Membran auf 800 – 1000 °C eingestellt, sodass diese Sauerstoff optimal durchlässt.

Die neue Kapillarmembran zeigte unter diesen Bedingungen sowohl eine sehr gute thermische Stabilität als auch eine sehr gute Sauerstoffdurchlässigkeit: Bei einem Kilowatt Mikrowellenleistung, das entspricht einer Temperatur von etwa 1000 °C, wurden 2,3 Milliliter Sauerstoff pro Minute und Quadratzentimeter Membranfläche abgetrennt. Rund ein Drittel der Mikrowellenenergie wurden bisher in chemische Energie umgewandelt und dabei 22 Prozent des Kohlenstoffdioxids gespalten.

Flexible Leistungsregelung und einfache Skalierbarkeit
Sowohl der Prozess als auch der Plasma-Membran-Reaktor lassen sich einfach skalieren und flexibel regeln, was von großem Vorteil für die technische Umsetzung ist. »Der Betrieb der Anlage kann an die zur Verfügung stehende regenerative Energieressource angepasst werden und schnell auf das aktuelle Energieangebot reagieren«, so Schulz. Der nächste Schritt auf dem Weg zur Demonstration der technischen Machbarkeit ist, die Trennleistung des Plasma-Membran-Reaktors zu erhöhen. »Für ein solches Scale-up erhöhen wir die Anzahl der im Plasma eingebauten Kapillarmembranen«, schildert Schiestel. In Kombination mit einem verbesserten Gasmanagement sollte sich so auch die Energieeffizienz des Prozesses weiter steigern lassen.

Das Verfahren lässt sich überall dort einsetzen, wo CO2 in angereicherter Form entsteht: bei Verbrennungsprozessen in Kraftwerken, in der Zement- und Glasindustrie, aber auch in Brauereien, wo CO2 im Zuge der alkoholischen Gärung als Nebenprodukt anfällt. Die Nutzung von CO2 als Rohstoff kann so helfen, natürliche Ressourcen zu schonen und das Klima zu schützen. Für die Weiterentwicklung in einer zweiten Förderphase und die sich daran anschließende technische Umsetzung suchen die Forscher bereits jetzt interessierte Firmen.
(Fraunhofer-Institut)

Klimawandel treibt Malariamücken nach Europa

(pte016/27.05.2019/10:30) – Malaria-übertragende Mücken-Arten profitieren vom Klimawandel und werden sich infolgedessen in Europa und dem Mittelmeerraum weiter ausbreiten. In welchem Ausmaß diese Ausbreitung voranschreitet, lässt sich nach einer aktuellen Studie von Forschern der Universität Augsburg  ziemlich genau vorhersagen.

Verbreitungsfreundliches Wetter
Ein Aspekt des Klimawandels, der in der öffentlichen Debatte bislang wenig Beachtung fand, ist die Ausbreitung sogenannter vektorübertragener Krankheiten. Als solche werden Krankheiten bezeichnet, die von einem erregertragenden Organismus übertragen werden. Dazu zählt zum Beispiel die Malaria, die von Anopheles, einer Stechmücken-Gattung, übertragen wird.

Das verstärkte Auftauchen Anopheles-freundlicher Wetterlagen könnte zur Ausbreitung dieser Stechmücken und damit zum Erstarken von Malaria in Europa und dem Mittelmeerraum führen. Wie genau diese Ausbreitung aussehen und in welchem Tempo sie vor sich gehen könnte, war bislang nicht genau prognostizierbar.

BRT ermöglicht genaue Prognosen
Die Geografin Elke Hertig von der Universität Augsburg hat ein Modell vorgelegt, das genauere Aussagen ermöglicht. Mit dem geostatistischen Ansatz BRT lässt sich das Vorkommen der Mücken in Europa bis zum Ende dieses Jahrhunderts modellieren. Hertig kommt zu dem Ergebnis, dass Veränderungen in Temperatur und Niederschlag zum deutlichen Ausbreiten von Malariamücken in Richtung Norden führen werden.

Günstig für die Insekten sind vor allem die zu erwartenden wärmeren Frühlingstemperaturen und die kräftigeren Niederschläge in Sommer und Herbst. Die deutlichsten Zuwächse der Mückenpopulationen sind gegen Ende dieses Jahrhunderts in Süd- und Südosteuropa zu erwarten. Nur in einzelnen Gebieten des Mittelmeerraums, für die sinkende Niederschlagsmengen vorausgesagt werden, wird das Mückenvorkommen sinken.