Archiv der Kategorie: Erde, Klima, Umweltschutz

Klimawandel treibt Malariamücken nach Europa

(pte016/27.05.2019/10:30) – Malaria-übertragende Mücken-Arten profitieren vom Klimawandel und werden sich infolgedessen in Europa und dem Mittelmeerraum weiter ausbreiten. In welchem Ausmaß diese Ausbreitung voranschreitet, lässt sich nach einer aktuellen Studie von Forschern der Universität Augsburg ziemlich genau vorhersagen.

Verbreitungsfreundliches Wetter
Ein Aspekt des Klimawandels, der in der öffentlichen Debatte bislang wenig Beachtung fand, ist die Ausbreitung sogenannter vektorübertragener Krankheiten. Als solche werden Krankheiten bezeichnet, die von einem erregertragenden Organismus übertragen werden. Dazu zählt zum Beispiel die Malaria, die von Anopheles, einer Stechmücken-Gattung, übertragen wird.

Das verstärkte Auftauchen Anopheles-freundlicher Wetterlagen könnte zur Ausbreitung dieser Stechmücken und damit zum Erstarken von Malaria in Europa und dem Mittelmeerraum führen. Wie genau diese Ausbreitung aussehen und in welchem Tempo sie vor sich gehen könnte, war bislang nicht genau prognostizierbar.

BRT ermöglicht genaue Prognosen
Die Geografin Elke Hertig von der Universität Augsburg hat ein Modell vorgelegt, das genauere Aussagen ermöglicht. Mit dem geostatistischen Ansatz BRT lässt sich das Vorkommen der Mücken in Europa bis zum Ende dieses Jahrhunderts modellieren. Hertig kommt zu dem Ergebnis, dass Veränderungen in Temperatur und Niederschlag zum deutlichen Ausbreiten von Malariamücken in Richtung Norden führen werden.

Günstig für die Insekten sind vor allem die zu erwartenden wärmeren Frühlingstemperaturen und die kräftigeren Niederschläge in Sommer und Herbst. Die deutlichsten Zuwächse der Mückenpopulationen sind gegen Ende dieses Jahrhunderts in Süd- und Südosteuropa zu erwarten. Nur in einzelnen Gebieten des Mittelmeerraums, für die sinkende Niederschlagsmengen vorausgesagt werden, wird das Mückenvorkommen sinken.

Kohlendioxid (CO2) als Wertstoff für die chemische Industrie und zur Energiespeicherung

Spaltung von CO2 im Plasma
Für die Umsetzung der Kohlenstoffdioxidspaltung haben Wissenschaftlerinnen und Wissenschaftler am Institut für Grenzflächenverfahrenstechnik und Plasmatechnologie IGVP der Universität Stuttgart einen elektrodenlosen Reaktor entwickelt, bei der – angeregt über eine Mikrowelle – mittels starker elektrischer Felder ein Atmosphärendruckplasma erzeugt wird. »Stoßen in diesem Plasma angeregte Elektronen auf CO2-Moleküle, bewirkt dies, dass CO2 in das gewünschte Produkt Kohlenmonoxid CO und Sauerstoff zerfällt«, erläutert IGVP-Wissenschaftler Dr. Andreas Schulz, der das Projekt koordiniert.

Perowskitmembran zur Entfernung von Sauerstoff
Damit CO nicht mit dem im Plasma entstehenden Sauerstoff zu CO2 zurückreagiert, muss Sauerstoff stetig aus dem Reaktionsgleichgewicht entfernt werden. Hierzu hat das Fraunhofer IGB eine neue Keramikmembran entwickelt, die Sauerstoff selektiv abtrennen kann. »Da die Membran zugleich temperatur- und CO2-stabil sein muss, verspinnen wir spezielle keramische Materialien, sogenannte Perowskite, zusammen mit Polymeren zu einer dünnwandigen Kapillare«, erklärt Dr. Thomas Schiestel, Membranexperte und Projektleiter am Fraunhofer IGB. Die resultierende Grünfaser wird bei hohen Temperaturen zu einer dichten keramischen Kapillarmembran gesintert. »Unsere Perowskitmembran ist stabil in einer CO2-Atmosphäre und bei Temperaturen von 800 bis 1000 °C durchlässig für Sauerstoff, nicht aber für Kohlenmonoxid und Kohlendioxid«, so der Fraunhofer-Forscher. Eine solche Membran wurde bisher noch nicht beschrieben.

Erfolgreiche Kohlendioxidspaltung und Sauerstoffabtrennung im Plasma-Membran-Reaktor
Dass die Idee des kombinierten Plasma-Membran-Prozesses funktioniert, konnten die Forscher in dem am IGVP entwickelten Plasmareaktor bereits demonstrieren. Mithilfe einer speziellen Apparatur im Plasmareaktor wird die Kapillarmembran an einer exakt definierten Stelle in der Plasmaflamme justiert. Über die Kontrolle von CO2-Gasfluss und Mikrowellenleistung wird dabei die Temperatur des Plasmas auf Höhe der Membran auf 800 – 1000 °C eingestellt, sodass diese Sauerstoff optimal durchlässt.

Die neue Kapillarmembran zeigte unter diesen Bedingungen sowohl eine sehr gute thermische Stabilität als auch eine sehr gute Sauerstoffdurchlässigkeit: Bei einem Kilowatt Mikrowellenleistung, das entspricht einer Temperatur von etwa 1000 °C, wurden 2,3 Milliliter Sauerstoff pro Minute und Quadratzentimeter Membranfläche abgetrennt. Rund ein Drittel der Mikrowellenenergie wurden bisher in chemische Energie umgewandelt und dabei 22 Prozent des Kohlenstoffdioxids gespalten.

Flexible Leistungsregelung und einfache Skalierbarkeit
Sowohl der Prozess als auch der Plasma-Membran-Reaktor lassen sich einfach skalieren und flexibel regeln, was von großem Vorteil für die technische Umsetzung ist. »Der Betrieb der Anlage kann an die zur Verfügung stehende regenerative Energieressource angepasst werden und schnell auf das aktuelle Energieangebot reagieren«, so Schulz. Der nächste Schritt auf dem Weg zur Demonstration der technischen Machbarkeit ist, die Trennleistung des Plasma-Membran-Reaktors zu erhöhen. »Für ein solches Scale-up erhöhen wir die Anzahl der im Plasma eingebauten Kapillarmembranen«, schildert Schiestel. In Kombination mit einem verbesserten Gasmanagement sollte sich so auch die Energieeffizienz des Prozesses weiter steigern lassen.

Das Verfahren lässt sich überall dort einsetzen, wo CO2 in angereicherter Form entsteht: bei Verbrennungsprozessen in Kraftwerken, in der Zement- und Glasindustrie, aber auch in Brauereien, wo CO2 im Zuge der alkoholischen Gärung als Nebenprodukt anfällt. Die Nutzung von CO2 als Rohstoff kann so helfen, natürliche Ressourcen zu schonen und das Klima zu schützen. Für die Weiterentwicklung in einer zweiten Förderphase und die sich daran anschließende technische Umsetzung suchen die Forscher bereits jetzt interessierte Firmen.
(Fraunhofer-Institut)

Klimawandel treibt Malariamücken nach Europa

(pte016/27.05.2019/10:30) – Malaria-übertragende Mücken-Arten profitieren vom Klimawandel und werden sich infolgedessen in Europa und dem Mittelmeerraum weiter ausbreiten. In welchem Ausmaß diese Ausbreitung voranschreitet, lässt sich nach einer aktuellen Studie von Forschern der Universität Augsburg  ziemlich genau vorhersagen.

Verbreitungsfreundliches Wetter
Ein Aspekt des Klimawandels, der in der öffentlichen Debatte bislang wenig Beachtung fand, ist die Ausbreitung sogenannter vektorübertragener Krankheiten. Als solche werden Krankheiten bezeichnet, die von einem erregertragenden Organismus übertragen werden. Dazu zählt zum Beispiel die Malaria, die von Anopheles, einer Stechmücken-Gattung, übertragen wird.

Das verstärkte Auftauchen Anopheles-freundlicher Wetterlagen könnte zur Ausbreitung dieser Stechmücken und damit zum Erstarken von Malaria in Europa und dem Mittelmeerraum führen. Wie genau diese Ausbreitung aussehen und in welchem Tempo sie vor sich gehen könnte, war bislang nicht genau prognostizierbar.

BRT ermöglicht genaue Prognosen
Die Geografin Elke Hertig von der Universität Augsburg hat ein Modell vorgelegt, das genauere Aussagen ermöglicht. Mit dem geostatistischen Ansatz BRT lässt sich das Vorkommen der Mücken in Europa bis zum Ende dieses Jahrhunderts modellieren. Hertig kommt zu dem Ergebnis, dass Veränderungen in Temperatur und Niederschlag zum deutlichen Ausbreiten von Malariamücken in Richtung Norden führen werden.

Günstig für die Insekten sind vor allem die zu erwartenden wärmeren Frühlingstemperaturen und die kräftigeren Niederschläge in Sommer und Herbst. Die deutlichsten Zuwächse der Mückenpopulationen sind gegen Ende dieses Jahrhunderts in Süd- und Südosteuropa zu erwarten. Nur in einzelnen Gebieten des Mittelmeerraums, für die sinkende Niederschlagsmengen vorausgesagt werden, wird das Mückenvorkommen sinken.

Antibiotika-Werte in Flüssen besorgniserregend

(pte001/28.05.2019/06:00) – Die Konzentration von Antibiotika in manchen Flüssen der Welt überschreitet laut einer Studie der University of York die „sicheren“ Höchstwerte um bis das 300-Fache. Die Forscher haben eine Analyse für 14 der am häufigsten eingesetzten Medikamente in 72 Ländern auf sechs Kontinenten durchgeführt. Antibiotika konnten bei 65 Prozent der untersuchten Standorte nachgewiesen werden.

Trimethoprim am häufigsten
Metronidazol, ein Wirkstoff, der zur Behandlung bakterieller Infektionen eingesetzt wird, überschritt die sicheren Höchstwerte mit dem größten Abstand. Er wird vor allem bei der Behandlung von Infektionen der Haut und im Mund eingesetzt. Die Konzentrationen an einem Ort in Bangladesch waren um das 300-Fache erhöht. In der Themse und einem ihrer Nebenflüsse konnte eine maximale Antibiotikakonzentration von 233 Nanogramm pro Liter (ng/l) nachgewiesen werden. In Bangladesch war die Konzentration 170 Mal höher.

Trimethoprim war das am häufigsten auftretende Antibiotikum. Es wurde an 307 der 711 Standorte nachgewiesen. Es wird vor allem zu Behandlung von Harnwegsinfektionen eingesetzt. Die Forscher verglichen die Kontrolldaten mit den kürzlich von der AMR Industry Alliance festgelegten Höchstwerten. Je nach Antibiotikum liegen diese zwischen 20 und 32.000 ng/l. Ciprofloxacin war der Wirkstoff, der am häufigsten die sicheren Höchstmengen überschritt. Die Grenzwerte wurden an 51 Orten überschritten.

Österreich in Europa betroffen
Laut den Forschern wurden die Grenzwerte am häufigsten in Asien und Afrika überschritten. Aber auch Standorte in Europa, Nordamerika und Südamerika wiesen besorgniserregende Werte auf. Die größten Überschreitungen der Grenzwerte konnten in Bangladesch, Kenia, Ghana, Pakistan und Nigeria festgestellt werden. Ein Standort in Österreich wurde als der in Europa am stärksten belastete eingestuft. Standorte mit hohem Risiko befanden sich typischerweise nahe an Abwassereinigungsanlagen, Kläranlagen oder Mülldeponien. Betroffen waren auch Regionen mit politischen Unruhen wie das Grenzgebiet von Israel und Palästina.

Das Projekt hat eine große logistische Herausforderung dargestellt. 92 Probenentnahme-Sets wurden zu den internationalen Partnern geflogen. Sie wurden ersucht, Proben entlang ihrer Flüsse zu entnehmen. Diese wurden dann eingefroren und für die Untersuchung zurück an die Universität geschickt. Zu den untersuchten Flüssen gehörten einige der bekanntesten Ströme wie der Chao Phraya, die Donau, der Mekong, die Seine, die Themse sowie Tiber und Tigris.

„Bisher wurde der Großteil der Untersuchungen in Europa, Nordamerika und China durchgeführt. Häufig wurde dabei nur auf eine Handvoll Antibiotika untersucht“, unterstreicht Studienkoordinator John Wilkinson. Über die weltweite Dimension dieses Problems sei bisher nur wenig bekannt gewesen. Die Studie helfe, diese Wissenslücken mit Daten zu bisher noch nie untersuchten Ländern zu schließen. Insgesamt seien die Ergebnisse besorgniserregend und zeigten, wie weitverbreitet die Verunreinigung der Flüsse mit Antibiotika ist.

Künstliche Intelligenz verbessert Erdbebenanalyse

(KIT) Die Herausforderung, Erdbebensignale optimal zu analysieren, wächst zusammen mit der Menge der verfügbaren seismischen Daten an. Am Karlsruher Institut für Technologie haben Forschende nun ein neuronales Netz eingesetzt, um die Ankunftszeit von seismischen Wellen zu bestimmen und dadurch Erdbebenzentren genau zu lokalisieren. Sie berichten im Fachjournal Seismological Research Letters, dass Künstliche Intelligenz die Daten ebenso genau auswerten kann wie ein erfahrener Seismologe.

Die Ankunft der vielen Erdbebenwellen an der Seismometerstation, den sogenannten Phaseneinsatz, genau zu bestimmen, ist wichtig für das präzise Lokalisieren der Erdbebenereignisse, was weitere exakte seismologische Auswertungen erst ermöglicht. Diese können unter anderem dazu dienen, Nachbeben vorherzusagen, die manchmal schwerere Schäden verursachen können als das erste Beben. Durch genaue Lokalisation von Erdbebenzentren lassen sich auch physikalische Prozesse in der Tiefe besser unterscheiden, was wiederum Rückschlüsse auf den Aufbau des Erdinnern erlaubt. „Unsere Ergebnisse zeigen, dass Künstliche Intelligenz die Erdbebenanalyse wesentlich verbessern kann – nicht nur bei großen Datenmengen, sondern auch bei begrenzter Datenlage“, erklärt Professor Andreas Rietbrock vom Geophysikalischen Institut (GPI) des KIT.

Durch Auswertung der Seismogramme, dem sogenannten Picken, lassen sich die Einsatzzeiten der einzelnen Phasen ermitteln. Dies geschieht traditionell von Hand. Doch beim manuellen Picken kann die Subjektivität des jeweiligen Seismologen die Genauigkeit beeinträchtigen. Vor allem aber erfordert die manuelle Auswertung mittlerweile einen nicht mehr zu vertretenden Zeit- und Personalaufwand, weil die Menge der verfügbaren seismischen Daten immer größer wird und die Seismometer-Netzwerke immer dichter werden. Um alle Informationen schnell zu nutzen, bedarf es einer automatischen Auswertung. Die bisher entwickelten Pickeralgorithmen erreichen allerdings nicht die Genauigkeit des manuellen Pickens durch einen erfahrenen Seismologen, weil Entstehung und Ausbreitung von Erdbeben äußerst komplexe Vorgänge sind und verschiedene physikalische Prozesse das seismische Wellenfeld beeinflussen.

Künstliche Intelligenz (KI) aber kann die Daten ebenso genau auswerten wie der Mensch. Dies haben Wissenschaftler am GPI, an der University of Liverpool und an der University of Granada nun gezeigt. Wie die Forscher in der Zeitschrift Seismological Research Letters berichten, setzten sie ein faltendes neuronales Netz (Convolutional Neural Network – CNN) ein, um Phaseneinsätze eines seismisches Netzwerk in Chile zu bestimmen. CNNs sind von biologischen Nervensystemen inspiriert und bestehen aus verschiedenen Schichten von miteinander verbundenen künstlichen Neuronen. Beim sogenannten Deep Learning, einer Methode des Maschinellen Lernens, werden die erkannten und gelernten Merkmale von Schicht zu Schicht weitergereicht und dabei immer weiter verfeinert.

Bei einem Erdbeben breiten sich seismische Wellen verschiedenen Typs durch die Erde aus. Haupttypen sind die Kompressions- oder Primärwellen (P-Wellen) und die Scher- oder Sekundärwellen (S-Wellen). Zunächst treffen die schnelleren P-Wellen an einer seismologischen Station ein, dann die langsameren S-Wellen. Erdbebenwellen lassen sich in Seismogrammen aufzeichnen. Die Forscher trainierten das CNN mit einem relativ kleinen Datensatz zu 411 Erdbebenereignissen im Norden von Chile. Daraufhin bestimmte das CNN die Einsatzzeiten von unbekannten P-Phasen und S-Phasen mindestens so genau wie ein erfahrener Seismologe beim manuellen Picken und genauer als ein klassischer Pickeralgorithmus.

Ein Plädoyer für die CO2-Steuer. Irrtumer werden ausgeräumt

Fraunhofer – In der aktuellen Debatte um die Einführung einer CO2-Steuer wird oftmals auf mögliche negative Verteilungswirkungen hingewiesen. Es wird befürchtet, dass ärmere Haushalte stärker von einer solchen Steuer betroffen sein könnten als Haushalte in höheren Einkommensschichten. Tatsächlich ist genau das Gegenteil der Fall – zumindest bei einer zusätzlichen CO2-Steuer nur auf Pkw-Kraftstoffe, deren Gesamterlös der Fiskus im Rahmen einer jährlichen Pro-Kopf-Pauschale vollständig an die Bevölkerung zurückerstattet. Dies zeigen die Ergebnisse einer Analyse der Abteilung Mikrosimulationsmodelle des Fraunhofer FIT.

Der untersuchte Vorschlag umfasst eine Erhöhung der Energiesteuersätze um eine CO2-Komponente in Höhe von 20 Euro pro Tonne CO2. Unter Berücksichtigung der Mehrwertsteuer wäre eine Erhöhung des Literpreises von Diesel um etwa 6,3 Cent und von Benzin um etwa 5,5 Cent zu erwarten.

»Dabei zeigt sich, dass gerade Haushalte mit geringem Einkommen unterdurchschnittlich von der zusätzlichen Besteuerung betroffen wären. Verteilt der Fiskus das von uns auf etwa 2,2 Mrd. Euro bezifferte Mehraufkommen der Energie- und Mehrwertsteuer in Form eines Verkehrswendebonus in Höhe von rund 28 Euro pro Kopf zurück an die Bevölkerung, so gewinnen diese Haushalte unter dem Strich«, sagt Dr. Sven Stöwhase, Leiter der Abteilung Mikrosimulationsmodelle am Fraunhofer-Institut für Angewandte Informationstechnik FIT.

Wie die Analyse verschiedener Einkommensgruppen in der Abbildung veranschaulicht, würden unter den ärmsten Haushalten in Deutschland fast 80 Prozent von einer solchen CO2-Steuer profitieren. Lediglich die reichsten Haushalte würden mehrheitlich belastet werden. Die beobachtete Verteilungswirkung ist dabei unabhängig von der konkreten Höhe der CO2-Steuer. Insgesamt würde dieser Reformvorschlag für 60 Prozent der Haushalte eine Entlastung bedeuten.

Dabei wären sowohl die finanziellen Ent- als auch Belastungen zumindest im Durchschnitt über alle Haushalte überschaubar: Während Haushalte im untersten Einkommensquartil um durchschnittlich 20 Euro entlastet werden, käme es bei den Haushalten im obersten Einkommensquartil im Durchschnitt zu einer Belastung in Höhe von 20 Euro. Getrieben werden die Ergebnisse, neben der individuellen Fahrleistung, insbesondere auch durch die durchschnittlich stärkere Motorisierung und einen damit einhergehenden höheren Kraftstoffverbrauch der Fahrzeuge in den einkommensstärkeren Haushalten. Ein Vier-Personen-Haushalt, der im Jahr weniger als 32.000 Kilometern mit einem durchschnittlichen Benzin-Pkw fährt, würde demnach zu den Gewinnern der CO2-Abgabe gehören.

Weitere Differenzierungen, beispielsweise hinsichtlich der Mehrbelastung von Familien oder der geographischen Verteilung der Haushalte, deuten darauf hin, dass der hier untersuchte Reformvorschlag zum Einstieg in die verursachergerechte Verteilung der Kosten von CO2-Emissionen sozialpolitisch insgesamt tragfähig wäre. Wie eine bereits im August 2018 von Fraunhofer FIT im Wirtschaftsdienst veröffentlichte Studie aufzeigen konnte, hätte selbst eine vollständige Umwandlung der bisherigen Energiesteuer für Kraftstoffe in eine CO2-Steuer eher positive Verteilungseffekte zur Folge.

Als Datengrundlage für die Mikrosimulationsrechnung des Automobilsteuer-Modells (ASt-Modell) dienen das Deutsche Mobilitätspanel 2017 sowie die Einkommens- und Verbrauchsstichprobe 2013. Simuliert werden die direkten kurzfristigen Effekte auf die privaten Haushalte, ohne Berücksichtigung etwaiger Verhaltensanpassungen in der mittleren bis längeren Frist. Indirekte Effekte, beispielsweise über höhere Preise für transportkostenintensive Konsumgüter, sind nicht berücksichtigt.

Kommt die CO2-Steuer?

Ertüchtigung des Emissionshandels und Energiesteuerreform sind kein Widerspruch

CO2 Abgabe e.V. Berlin/Freiburg. In der aktuellen Diskussion um eine CO2-Bepreisung mahnt der CO2 Abgabe e.V. eine längst überfällige Neuausrichtung der bisherigen Steuern und Umlagen auf Energie am Klimaschutz nicht gegen den Europäischen Emissionshandel auszuspielen. Während Teile der Union und die FDP die Ausweitung des Emissionshandels fordern, befürworten SPD, Grüne und andere Teile der Union eine Energiesteuerreform.

„Die Ertüchtigung des Emissionshandels und eine Reform der Steuern und Umlagen auf Energie mit einem CO2-Preis stellen keinen Widerspruch dar“, sagte Dr. Jörg Lange, geschäftsführender Vorstand des CO2 Abgabe e.V. in Berlin. Allerdings sei eine europaweite Ausweitung des Emissionshandels auf die Bereiche Wärme und Verkehr erst ab 2030 eine realistische Option. Als Grund nannte Lange die langen Vorlaufzeiten für Entscheidungen in der Europäischen Union, die gerade erst erfolgte Überarbeitung bestehender Richtlinien sowie zahlreiche ungeklärte Fragen, wie die Zulässigkeit der Ausweitung des Handels auf Wärme und Verkehr. „Wer den Klimaschutz ernst nimmt geht mit den Willigen in Europa voran und wartet nicht auf die Bremser. Ein wirksamer Preis auf CO2 darf nicht mehr länger auf die lange Bank geschoben werden“, forderte Lange.

Dem CO2 Abgabe e.V. zufolge sollten zu einer Reform der Steuern und Umlagen auf Energie zum 1. Januar 2020 mittelfristig die Weichen für einen funktionierenden Emissionshandels gestellt werden. „Die maßgebliche Bedingung für die europaweite Ausweitung des ETS ist, die Obergrenze für Emissionen (Cap-Setting) an den Klimaschutzzielen von Paris auszurichten“, erklärte Lange. Erst durch die Begrenzung der Menge an Emissionsberechtigungen, die Löschung überschüssiger Zertifikate und keine kostenlosen Berechtigungen mehr auszugeben könne der Emissionshandel ausreichend wirksam für den Klimaschutz werden. Alle diese Maßnahmen benötigten jedoch Zeit. Zeit, die ein schnelles Handeln und das Erreichen der Klimaziele 2030 verhindere, so Lange.

Der CO2 Abgabe e.V. fordert daher mehr Tempo bei der Reform bestehender Steuern und Umlagen auf Energie zugunsten des Klimaschutzes. „Zahlreiche belastbare Analysen mit klaren Handlungsempfehlungen an die Politik zeigen, dass eine Reform staatlich veranlasster Preisbestandteile der Energiekosten durch Anpassung der Verbrauchssteuersätze auf fossile Energieträger wie Kohle, Erdgas und Erdöl im bestehenden Energiesteuerrecht schnell und unbürokratisch umgesetzt werden kann“, erläuterte Lange. Die Einführung einer neuen Steuer sei dafür nicht erforderlich.

Notwendig ist nach dem CO2 Abgabe e.V. ein transparenter Vergleich der vorliegenden Vorschläge zur Umsetzung einer CO2-Bepreisung hinsichtlich Lenkungs- und, Verteilungswirkung, Bürokratieaufwand und Akzeptanz. Die Einnahmeverwendung durch eine CO2-Bepreisung entscheidet über die Sozialverträglichkeit und den Mehr- oder Minderaufwand an Bürokratie. „Ein ergebnis- und konzeptoffener Vergleich ist die Grundlage für die Politik zur Bewertung der Vorschläge und ebnet den Weg zu einem politischen Beschluss“, hält Lange fest. Ein solcher könne in wenigen Monaten vorliegen.

Hintergrund:

Der CO2 Abgabe e.V. ist eine Gruppe von bislang rund 1.000 Unternehmen, Verbänden, Kommunen und Einzelpersonen, die für eine wirksame Lenkungsabgabe auf Treibhausgase (CO2 u.a.) eintritt, um die zahlreichen Umlagen und Steuern auf Energie in Deutschland am Klimaschutz neu auszurichten. Dazu setzen wir uns für eine verursachergerechte, sozialverträgliche und technologieoffene Umsetzung ein, die Bürokratie abbaut sowie Planungssicherheit und Innovationen fördert. Zu den Gründungsmitgliedern gehören u.a. Prof. Dr. Ernst Ulrich von Weizsäcker, Ursula Sladek (Deutsche Umweltpreisträgerin 2013), Thomas Jorberg (Vorstandssprecher der GLS Bank und Rudolf Kastner (Vorstand im Bundesverband der Energie- und Wasserwirtschaft).

Gewitter: Blitze und Donner und ihre Entstehung

Was genau beim Ausbilden von Blitzen passiert, ist noch immer unklar. Ein internationales Forscherteam hat jetzt mittels hochauflösender Daten des Radioteleskops LOFAR nadelförmige Strukturen entdeckt, die Licht in die Entladungsprozesse bringen könnten. Wichtige Grundlagen für die Messung von Blitzen mit dem weltweit größten Antennen-Array wurden am Karlsruher Institut für Technologie (KIT) gelegt. Mit den bislang unbekannten Nadeln lässt sich möglicherweise erstmals erklären, warum ein Blitz sich nicht wie lange Zeit angenommen mit einem Mal entlädt – sondern binnen Sekunden mehrfach einschlägt. Seine Ergebnisse veröffentlicht das Team heute in der Fachzeitschrift Nature (DOI: 10.1038/s41586-019-1086-6).

Wenn in einer Gewitterwolke Eiskristalle gegeneinander prallen, laden sie sich elektrisch auf. Winde können die Kristalle trennen, sodass ein Teil der Wolke positiv, der andere negativ geladen ist. Wird das so entstehende elektrische Spannungsfeld zu groß, kommt es zu einer heftigen Entladung – die wir als Blitz und Donner wahrnehmen. Die Entladung beginnt mit einem kleinen Volumen von Luft, in dem Elektronen sich von den Luftmolekülen trennen. Diese ionisierte Luft, auch Plasma genannt, ist elektrisch leitend. Das Plasma breitet sich als verzweigte Kanäle aus, bis es auf die Erde trifft und sich die elektrische Spannung der Wolken als Blitz entlädt. Über die genauen Prozesse in diesen Kanälen bis hin zur jüngsten Entdeckung der „Blitznadeln“, geben hochauflösende, aus Radiosignalen von Blitzen abgeleitete Daten Aufschluss. Gemessen haben die Forscherinnen und Forscher sie mit dem niederländischen Radioteleskop LOFAR (steht für Low Frequency Array), an dem auch das KIT beteiligt ist.

Die aktuellen Beobachtungen des LOFAR-Forscherteams zeigen, dass positiv geladene Plasmakanäle sich bei der Entladung anders verhalten als negativ geladene. Der Grund hierfür sind offenbar nadelförmige Strukturen, die nun erstmals sichtbar werden: Sie führen senkrecht von den positiv geladenen Kanälen weg, sind rund 100 Meter lang und haben einen Durchmesser von weniger als fünf Metern. Die Wissenschaftler vermuten, dass Teile der Ladung eines positiven Plasmakanals nicht direkt in den Boden abfließen, sondern über die Nadeln in die Gewitterwolke zurückgehen und von dort erst bei späteren Entladungen abfließen. Dies würde erstmals erklären, warum ein Blitz sich nicht wie lange Zeit angenommen mit einem Mal entlädt, sondern binnen Sekunden mehrfach einschlägt.

„Dank der hohen räumlichen und zeitlichen Auflösung von LOFAR können wir die Ausbildung von Blitzen in einer völlig neuen Größenordnung bis hinein in die primären Prozesse untersuchen“, erklärt Dr. Brian Hare von der Universität Groningen und Erstautor der Veröffentlichung im Fachjournal Nature. LOFAR besteht aus tausenden Antennen, die über Europa verteilt sind – ein Array, das in erster Linie für astronomische Beobachtungen entwickelt wurde, mit dem mittlerweile aber auch die kosmische Strahlung gemessen wird. Hierbei werden die in der Atmosphäre von den kosmischen Teilchen ausgelösten Signale an den einzelnen Antennen in Puffern zwischengespeichert und anschließend für verschiedene Analysen ausgelesen. „Diese am KIT vorangetriebene Technologie kommt nun auch bei der Messung und Speicherung von Radiosignalen zum Einsatz, die von Blitzen ausgehen“, erläutert Dr. Tim Huege vom Institut für Kernphysik des KIT und Mitglied des „LOFAR Cosmic Ray Key Science Projects“.

Bei den Blitzmessungen erlaubt LOFAR eine räumliche Genauigkeit von bis zu einem Meter und die Erfassung eines Signals pro Mikrosekunde. So entstehen hochauflösende 3D-Filme, die neue Erkenntnisse über die Entladung von Blitzen ermöglichen. Mit seinen Forschungen hat das KIT maßgeblich dazu beigetragen, dass Blitzbeobachtungen mit einer solchen Präzision möglich sind. Den Grundstein für die Messung kosmischer Teilchen und somit auch für eine detailliertere Erforschung von Blitzen legten Experimente mit dem digitalen Antennenfeld „LOPES“ (LOfar PrototypE Station), die bis 2013 im Rahmen der Forschungen auf dem Gelände des KIT als Teil des KASCADE-Grande-Teilchendetektorfelds liefen.

Umweltschutz: Plastik Irritiert auch Wasserflöhe

Bayreuther Wissenschaftler sehen natürlichen Schutz vor Fressfeinden nicht länger gegeben

Bayreuth (pte023/15.04.2019/10:30) – Plastikmüll beeinträchtigt die Kommunikation von im Wasser lebenden Organismen massiv. Denn hierzu eigentlich notwendigen Botenstoffe reichern sich an der Oberfläche von Plastikteilchen an und können dadurch ihre ökologischen Funktionen nicht mehr erfüllen. Dies zeigen Wissenschaftler der Universität Bayreuth http://uni-bayreuth.de am Beispiel von Wasserflöhen der Gattung Daphnia. Details wurden in „Scientific Reports“ publiziert.

Keine „Kopfhaube“ mehr

Den Wissenschaftlern zufolge bilden die winzigen Tiere Verteidigungsstrukturen aus, wenn Botenstoffe ihnen signalisieren, dass sie von Fressfeinden bedroht sind. Die Verteidigungen sind jedoch deutlich schwächer ausgebildet, sobald sich Plastikmüll im Wasser befindet. „Wir haben an einem Fallbeispiel nachgewiesen, welche potenziellen Risiken die bloße Anwesenheit von Plastikmüll in Ökosystemen hat“, erklärt Forschungskoordinator Christian Laforsch.

Von den kleinen im Plankton lebenden Krebsen ist bekannt, dass sie sich vor Fressfeinden durch vergrößerte körpereigene Strukturen schützen: Beispielsweise entwickelt die Art Daphnia longicephala eine große „Kopfhaube“ und einen langen Stachel. Dadurch sind sie vor Angriffen ihrer Fressfeinde, in diesem Fall Wasserwanzen, geschützt. Botenstoffe, sogenannte Kairomone, bewirken, dass sich diese Strukturen ausbilden. Sie werden von natürlichen Fressfeinden im Wasser abgegeben und signalisieren den Daphnien die Anwesenheit der Räuber.

Geringere Gefahr signalisiert

Die Bayreuther Biologen haben untersucht, wie es um dieses körpereigene Verteidigungssystem bestellt ist, falls sich in der Umwelt der Wasserflöhe auch Plastikpartikel befinden. Für diese Tests haben sie zwei Kunststoffsorten ausgewählt, die besonders häufig in Gewässern gefunden werden. In den Versuchsansätzen, in denen Plastikpartikel im Wasser waren, wurden die der Verteidigung dienenden Strukturen deutlich schwächer ausgebildet.

„Die Ergebnisse deuten darauf hin, dass sich die Kairomone zu einem erheblichen Teil an den Plastikpartikeln anlagern – ein Vorgang, der als Adsorption bezeichnet wird. Dadurch können sie im Wasser nicht mehr detektiert werden, so dass den Wasserflöhen fälschlicherweise eine geringere Gefahr signalisiert wird“, sagt der Erstautor der Studie, Benjamin Trotter, Doktorand an der Universität Bayreuth.

Die Folgen für die Tiere sind verheerend: Die Wasserflöhe unterschätzen die Gefahren, die ihnen von natürlichen Fressfeinden drohen, entwickeln keine ausreichende Abwehr und fallen daher ihren Fressfeinden häufiger zum Opfer. Eine derartige Fehlanpassung, bedingt durch das bloße Vorkommen von Plastik in der Umwelt, könnte das gesamte Nahrungsnetz beeinflussen und somit Auswirkungen auf das entsprechende Ökosystem haben.

Dramatische Folgen der Klimaerwärmung zeigen sich bereits heute in der Arktis

Transpolardrift geschwächt – Meereis schmilzt bereits in seiner Kinderstube

Neue AWI-Meereis-Studie offenbart extremes Ausmaß der Meereisschmelze in der Arktis

Der starke Eisrückgang in der Arktis beeinflusst das Meereis auf seiner Wanderung über den Arktischen Ozean. Wie Forschende des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung in einer neuen Studie berichten, erreichen heutzutage nur noch 20 Prozent des Meereises, welches in den flachen, russischen Randmeeren des Arktischen Ozeans entsteht, tatsächlich die zentrale Arktis und begeben sich dort auf die sogenannte Transpolardrift. 80 Prozent des jungen Eises dagegen schmelzen, bevor es seine Kinderstube verlassen hat. Vor dem Jahr 2000 waren es nur 50 Prozent. Damit rückt nicht nur ein eisfreier Sommer in der Arktis einen weiteren Schritt näher. Mit dem Meereis geht dem Arktischen Ozean auch ein wichtiges Transportmittel für Nährstoffe, Algen und Sedimente verloren, berichten die Wissenschaftler. Die neue Studie erscheint am 2. April als Open-Access-Artikel im Online-Fachmagazin Scientific Reports und ist frei zugänglich.

Die flachen russischen Schelf- oder Randmeere des Arktischen Ozeans gelten als Kinderstube des arktischen Meereises. In der Barentssee, der Karasee, der Laptewsee und in der Ostsibirischen See wird im Winter nämlich am laufenden Band Meereis produziert. Verantwortlich dafür sind extrem niedrige Lufttemperaturen von bis zu minus 40 Grad Celsius sowie ein starker, ablandiger Wind, der das im Flachwasserbereich gebildete junge Eis auf das Meer hinausschiebt. Im Verlauf des Winters wird das junge Meereis dann von der Transpolardrift erfasst, einer der zwei Hauptströmungen des Arktischen Ozeans. Sie transportiert die Eisschollen innerhalb von zwei bis drei Jahren aus dem sibirischen Teil des Nordpolarmeeres quer durch die zentrale Arktis bis in die Framstraße, wo das Meereis schließlich schmilzt. Vor zwei Jahrzehnten trat noch rund die Hälfte des Eises aus den russischen Schelfmeeren diese transarktische Reise an. Mittlerweile aber sind es nur noch 20 Prozent. Die restlichen 80 Prozent des jungen Eises schmelzen, noch bevor es älter als ein Jahr ist und die zentrale Arktis erreichen konnte.

Zu diesem besorgniserregenden Ergebnis kommen Wissenschaftler des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), nachdem sie die Wanderung des Meereises mit Hilfe von Satellitendaten für den Zeitraum von 1998 bis 2017 verfolgt und analysiert haben. „Unsere Studie zeigt extreme Veränderungen in der Arktis: Das Meereis in der Karasee, der Laptewsee und der Ostsibirischen See schmilzt mittlerweile so schnell und flächendeckend, dass der Eisnachschub für die Transpolardrift nachhaltig abnimmt. Jenes Eis, welches heutzutage die Framstraße erreicht, wird zum größten Teil nicht mehr in den Randmeeren gebildet, sondern stammt aus der zentralen Arktis. Wir werden derzeit Zeuge, wie ein wichtiger Transportstrom abreißt und die Welt einem meereisfreien Sommer in der Arktis einen großen Schritt näherkommt“, sagt Erstautor Dr. Thomas Krumpen, Meereisphysiker am Alfred-Wegener-Institut.

Bestätigt wird dieser Trend durch die Ergebnisse von Meereisdicken-Messungen in der Framstraße, welche die AWI-Meereisphysiker regelmäßig durchführen. „Eis, das heutzutage die Arktis durch die Framstraße verlässt, ist rund 30 Prozent dünner als noch vor 15 Jahren. Gründe dafür sind zum einen die steigenden Wintertemperaturen in der Arktis sowie eine deutlich früher einsetzende Schmelzsaison. Zum anderen wurde dieses Eis eben nicht mehr in den Schelfmeeren gebildet, sondern viel weiter nördlich. Es hatte demzufolge deutlich weniger Zeit, durch die Arktis zu treiben und zu mächtigerem Packeis heranzuwachsen“, erklärt Thomas Krumpen.

Jene Eisschollen, welche die Transpolardrift heute noch bis in die Framstraße trägt, werden größtenteils auf hoher See, also in küstenfernen Regionen des Arktischen Ozeans gebildet. Im Gegensatz zum Eis aus den Schelfmeeren enthalten sie daher deutlich weniger Partikel wie zum Beispiel Algen, Schweb- und Nährstoffe. Denn Wellen, Wind und Gezeiten wirbeln in flachen Küstenzonen deutlich mehr Partikel vom Meeresboden auf als auf hoher See. Außerdem tragen Flüsse wie die Lena und der Jenissei viele Schwebstoffe und Mineralien in den Küstenbereich ein, die dann beim Gefrieren des Wassers im Eis eingeschlossen werden.

Transportierte das Meereis aus den Schelfmeeren diese mineralische Fracht früher bis in die Framstraße, so entlassen die schmelzenden Schollen sie heute bereits auf ihrem Weg in die zentrale Arktis. In der Framstraße dagegen kommt weniger Material in einer anderen Zusammensetzung an. Diese Erkenntnis resultiert unter anderem aus Sinkstoffanalysen, die AWI-Biologen seit etwa zwei Jahrzehnten in der Framstraße durchführen. „Anstelle sibirischer Mineralien landen mittlerweile mehr Überreste abgestorbener Algen und Kleinstlebewesen in unseren Sedimentfallen“, sagt Co-Autorin Eva-Maria Nöthig. Langfristig sei zu erwarten, dass die Veränderung des Partikeltransportes durch das Meereis die biogeochemischen Kreisläufe und ökologischen Prozesse im zentralen Arktischen Ozean nachhaltig verändern werde.

Die Entwicklung des Meereises und die ökologischen Prozesse im Arktischen Ozean sind auch Forschungsfragen auf der MOSAiC-Expedition, die im September startet. Dabei wird der deutsche Eisbrecher Polarstern in die Arktis aufbrechen und ein Jahr lang fest eingefroren im arktischen Eis durch das Nordpolarmeer driften. Versorgt von weiteren Eisbrechern und Flugzeugen werden insgesamt 600 Menschen aus 17 Ländern an der Expedition teilnehmen. Ein Vielfaches an Wissenschaftlern wird mit den Daten arbeiten, um die Klima- und Ökosystemforschung auf ein neues Niveau zu heben. Geleitet wird diese größte Arktis-Forschungsexpedition aller Zeiten vom Alfred-Wegener-Institut.

Original-Publikation:
Thomas Krumpen, H. Jakob Belter