Archiv der Kategorie: Erde, Klima, Umweltschutz

Antibiotika-Werte in Flüssen besorgniserregend

(pte001/28.05.2019/06:00) – Die Konzentration von Antibiotika in manchen Flüssen der Welt überschreitet laut einer Studie der University of York die „sicheren“ Höchstwerte um bis das 300-Fache. Die Forscher haben eine Analyse für 14 der am häufigsten eingesetzten Medikamente in 72 Ländern auf sechs Kontinenten durchgeführt. Antibiotika konnten bei 65 Prozent der untersuchten Standorte nachgewiesen werden.

Trimethoprim am häufigsten
Metronidazol, ein Wirkstoff, der zur Behandlung bakterieller Infektionen eingesetzt wird, überschritt die sicheren Höchstwerte mit dem größten Abstand. Er wird vor allem bei der Behandlung von Infektionen der Haut und im Mund eingesetzt. Die Konzentrationen an einem Ort in Bangladesch waren um das 300-Fache erhöht. In der Themse und einem ihrer Nebenflüsse konnte eine maximale Antibiotikakonzentration von 233 Nanogramm pro Liter (ng/l) nachgewiesen werden. In Bangladesch war die Konzentration 170 Mal höher.

Trimethoprim war das am häufigsten auftretende Antibiotikum. Es wurde an 307 der 711 Standorte nachgewiesen. Es wird vor allem zu Behandlung von Harnwegsinfektionen eingesetzt. Die Forscher verglichen die Kontrolldaten mit den kürzlich von der AMR Industry Alliance festgelegten Höchstwerten. Je nach Antibiotikum liegen diese zwischen 20 und 32.000 ng/l. Ciprofloxacin war der Wirkstoff, der am häufigsten die sicheren Höchstmengen überschritt. Die Grenzwerte wurden an 51 Orten überschritten.

Österreich in Europa betroffen
Laut den Forschern wurden die Grenzwerte am häufigsten in Asien und Afrika überschritten. Aber auch Standorte in Europa, Nordamerika und Südamerika wiesen besorgniserregende Werte auf. Die größten Überschreitungen der Grenzwerte konnten in Bangladesch, Kenia, Ghana, Pakistan und Nigeria festgestellt werden. Ein Standort in Österreich wurde als der in Europa am stärksten belastete eingestuft. Standorte mit hohem Risiko befanden sich typischerweise nahe an Abwassereinigungsanlagen, Kläranlagen oder Mülldeponien. Betroffen waren auch Regionen mit politischen Unruhen wie das Grenzgebiet von Israel und Palästina.

Das Projekt hat eine große logistische Herausforderung dargestellt. 92 Probenentnahme-Sets wurden zu den internationalen Partnern geflogen. Sie wurden ersucht, Proben entlang ihrer Flüsse zu entnehmen. Diese wurden dann eingefroren und für die Untersuchung zurück an die Universität geschickt. Zu den untersuchten Flüssen gehörten einige der bekanntesten Ströme wie der Chao Phraya, die Donau, der Mekong, die Seine, die Themse sowie Tiber und Tigris.

„Bisher wurde der Großteil der Untersuchungen in Europa, Nordamerika und China durchgeführt. Häufig wurde dabei nur auf eine Handvoll Antibiotika untersucht“, unterstreicht Studienkoordinator John Wilkinson. Über die weltweite Dimension dieses Problems sei bisher nur wenig bekannt gewesen. Die Studie helfe, diese Wissenslücken mit Daten zu bisher noch nie untersuchten Ländern zu schließen. Insgesamt seien die Ergebnisse besorgniserregend und zeigten, wie weitverbreitet die Verunreinigung der Flüsse mit Antibiotika ist.

Künstliche Intelligenz verbessert Erdbebenanalyse

(KIT) Die Herausforderung, Erdbebensignale optimal zu analysieren, wächst zusammen mit der Menge der verfügbaren seismischen Daten an. Am Karlsruher Institut für Technologie haben Forschende nun ein neuronales Netz eingesetzt, um die Ankunftszeit von seismischen Wellen zu bestimmen und dadurch Erdbebenzentren genau zu lokalisieren. Sie berichten im Fachjournal Seismological Research Letters, dass Künstliche Intelligenz die Daten ebenso genau auswerten kann wie ein erfahrener Seismologe.

Die Ankunft der vielen Erdbebenwellen an der Seismometerstation, den sogenannten Phaseneinsatz, genau zu bestimmen, ist wichtig für das präzise Lokalisieren der Erdbebenereignisse, was weitere exakte seismologische Auswertungen erst ermöglicht. Diese können unter anderem dazu dienen, Nachbeben vorherzusagen, die manchmal schwerere Schäden verursachen können als das erste Beben. Durch genaue Lokalisation von Erdbebenzentren lassen sich auch physikalische Prozesse in der Tiefe besser unterscheiden, was wiederum Rückschlüsse auf den Aufbau des Erdinnern erlaubt. „Unsere Ergebnisse zeigen, dass Künstliche Intelligenz die Erdbebenanalyse wesentlich verbessern kann – nicht nur bei großen Datenmengen, sondern auch bei begrenzter Datenlage“, erklärt Professor Andreas Rietbrock vom Geophysikalischen Institut (GPI) des KIT.

Durch Auswertung der Seismogramme, dem sogenannten Picken, lassen sich die Einsatzzeiten der einzelnen Phasen ermitteln. Dies geschieht traditionell von Hand. Doch beim manuellen Picken kann die Subjektivität des jeweiligen Seismologen die Genauigkeit beeinträchtigen. Vor allem aber erfordert die manuelle Auswertung mittlerweile einen nicht mehr zu vertretenden Zeit- und Personalaufwand, weil die Menge der verfügbaren seismischen Daten immer größer wird und die Seismometer-Netzwerke immer dichter werden. Um alle Informationen schnell zu nutzen, bedarf es einer automatischen Auswertung. Die bisher entwickelten Pickeralgorithmen erreichen allerdings nicht die Genauigkeit des manuellen Pickens durch einen erfahrenen Seismologen, weil Entstehung und Ausbreitung von Erdbeben äußerst komplexe Vorgänge sind und verschiedene physikalische Prozesse das seismische Wellenfeld beeinflussen.

Künstliche Intelligenz (KI) aber kann die Daten ebenso genau auswerten wie der Mensch. Dies haben Wissenschaftler am GPI, an der University of Liverpool und an der University of Granada nun gezeigt. Wie die Forscher in der Zeitschrift Seismological Research Letters berichten, setzten sie ein faltendes neuronales Netz (Convolutional Neural Network – CNN) ein, um Phaseneinsätze eines seismisches Netzwerk in Chile zu bestimmen. CNNs sind von biologischen Nervensystemen inspiriert und bestehen aus verschiedenen Schichten von miteinander verbundenen künstlichen Neuronen. Beim sogenannten Deep Learning, einer Methode des Maschinellen Lernens, werden die erkannten und gelernten Merkmale von Schicht zu Schicht weitergereicht und dabei immer weiter verfeinert.

Bei einem Erdbeben breiten sich seismische Wellen verschiedenen Typs durch die Erde aus. Haupttypen sind die Kompressions- oder Primärwellen (P-Wellen) und die Scher- oder Sekundärwellen (S-Wellen). Zunächst treffen die schnelleren P-Wellen an einer seismologischen Station ein, dann die langsameren S-Wellen. Erdbebenwellen lassen sich in Seismogrammen aufzeichnen. Die Forscher trainierten das CNN mit einem relativ kleinen Datensatz zu 411 Erdbebenereignissen im Norden von Chile. Daraufhin bestimmte das CNN die Einsatzzeiten von unbekannten P-Phasen und S-Phasen mindestens so genau wie ein erfahrener Seismologe beim manuellen Picken und genauer als ein klassischer Pickeralgorithmus.

Ein Plädoyer für die CO2-Steuer. Irrtumer werden ausgeräumt

Fraunhofer – In der aktuellen Debatte um die Einführung einer CO2-Steuer wird oftmals auf mögliche negative Verteilungswirkungen hingewiesen. Es wird befürchtet, dass ärmere Haushalte stärker von einer solchen Steuer betroffen sein könnten als Haushalte in höheren Einkommensschichten. Tatsächlich ist genau das Gegenteil der Fall – zumindest bei einer zusätzlichen CO2-Steuer nur auf Pkw-Kraftstoffe, deren Gesamterlös der Fiskus im Rahmen einer jährlichen Pro-Kopf-Pauschale vollständig an die Bevölkerung zurückerstattet. Dies zeigen die Ergebnisse einer Analyse der Abteilung Mikrosimulationsmodelle des Fraunhofer FIT.

Der untersuchte Vorschlag umfasst eine Erhöhung der Energiesteuersätze um eine CO2-Komponente in Höhe von 20 Euro pro Tonne CO2. Unter Berücksichtigung der Mehrwertsteuer wäre eine Erhöhung des Literpreises von Diesel um etwa 6,3 Cent und von Benzin um etwa 5,5 Cent zu erwarten.

»Dabei zeigt sich, dass gerade Haushalte mit geringem Einkommen unterdurchschnittlich von der zusätzlichen Besteuerung betroffen wären. Verteilt der Fiskus das von uns auf etwa 2,2 Mrd. Euro bezifferte Mehraufkommen der Energie- und Mehrwertsteuer in Form eines Verkehrswendebonus in Höhe von rund 28 Euro pro Kopf zurück an die Bevölkerung, so gewinnen diese Haushalte unter dem Strich«, sagt Dr. Sven Stöwhase, Leiter der Abteilung Mikrosimulationsmodelle am Fraunhofer-Institut für Angewandte Informationstechnik FIT.

Wie die Analyse verschiedener Einkommensgruppen in der Abbildung veranschaulicht, würden unter den ärmsten Haushalten in Deutschland fast 80 Prozent von einer solchen CO2-Steuer profitieren. Lediglich die reichsten Haushalte würden mehrheitlich belastet werden. Die beobachtete Verteilungswirkung ist dabei unabhängig von der konkreten Höhe der CO2-Steuer. Insgesamt würde dieser Reformvorschlag für 60 Prozent der Haushalte eine Entlastung bedeuten.

Dabei wären sowohl die finanziellen Ent- als auch Belastungen zumindest im Durchschnitt über alle Haushalte überschaubar: Während Haushalte im untersten Einkommensquartil um durchschnittlich 20 Euro entlastet werden, käme es bei den Haushalten im obersten Einkommensquartil im Durchschnitt zu einer Belastung in Höhe von 20 Euro. Getrieben werden die Ergebnisse, neben der individuellen Fahrleistung, insbesondere auch durch die durchschnittlich stärkere Motorisierung und einen damit einhergehenden höheren Kraftstoffverbrauch der Fahrzeuge in den einkommensstärkeren Haushalten. Ein Vier-Personen-Haushalt, der im Jahr weniger als 32.000 Kilometern mit einem durchschnittlichen Benzin-Pkw fährt, würde demnach zu den Gewinnern der CO2-Abgabe gehören.

Weitere Differenzierungen, beispielsweise hinsichtlich der Mehrbelastung von Familien oder der geographischen Verteilung der Haushalte, deuten darauf hin, dass der hier untersuchte Reformvorschlag zum Einstieg in die verursachergerechte Verteilung der Kosten von CO2-Emissionen sozialpolitisch insgesamt tragfähig wäre. Wie eine bereits im August 2018 von Fraunhofer FIT im Wirtschaftsdienst veröffentlichte Studie aufzeigen konnte, hätte selbst eine vollständige Umwandlung der bisherigen Energiesteuer für Kraftstoffe in eine CO2-Steuer eher positive Verteilungseffekte zur Folge.

Als Datengrundlage für die Mikrosimulationsrechnung des Automobilsteuer-Modells (ASt-Modell) dienen das Deutsche Mobilitätspanel 2017 sowie die Einkommens- und Verbrauchsstichprobe 2013. Simuliert werden die direkten kurzfristigen Effekte auf die privaten Haushalte, ohne Berücksichtigung etwaiger Verhaltensanpassungen in der mittleren bis längeren Frist. Indirekte Effekte, beispielsweise über höhere Preise für transportkostenintensive Konsumgüter, sind nicht berücksichtigt.

Kommt die CO2-Steuer?

Ertüchtigung des Emissionshandels und Energiesteuerreform sind kein Widerspruch

CO2 Abgabe e.V. Berlin/Freiburg. In der aktuellen Diskussion um eine CO2-Bepreisung mahnt der CO2 Abgabe e.V. eine längst überfällige Neuausrichtung der bisherigen Steuern und Umlagen auf Energie am Klimaschutz nicht gegen den Europäischen Emissionshandel auszuspielen. Während Teile der Union und die FDP die Ausweitung des Emissionshandels fordern, befürworten SPD, Grüne und andere Teile der Union eine Energiesteuerreform.

„Die Ertüchtigung des Emissionshandels und eine Reform der Steuern und Umlagen auf Energie mit einem CO2-Preis stellen keinen Widerspruch dar“, sagte Dr. Jörg Lange, geschäftsführender Vorstand des CO2 Abgabe e.V. in Berlin. Allerdings sei eine europaweite Ausweitung des Emissionshandels auf die Bereiche Wärme und Verkehr erst ab 2030 eine realistische Option. Als Grund nannte Lange die langen Vorlaufzeiten für Entscheidungen in der Europäischen Union, die gerade erst erfolgte Überarbeitung bestehender Richtlinien sowie zahlreiche ungeklärte Fragen, wie die Zulässigkeit der Ausweitung des Handels auf Wärme und Verkehr. „Wer den Klimaschutz ernst nimmt geht mit den Willigen in Europa voran und wartet nicht auf die Bremser. Ein wirksamer Preis auf CO2 darf nicht mehr länger auf die lange Bank geschoben werden“, forderte Lange.

Dem CO2 Abgabe e.V. zufolge sollten zu einer Reform der Steuern und Umlagen auf Energie zum 1. Januar 2020 mittelfristig die Weichen für einen funktionierenden Emissionshandels gestellt werden. „Die maßgebliche Bedingung für die europaweite Ausweitung des ETS ist, die Obergrenze für Emissionen (Cap-Setting) an den Klimaschutzzielen von Paris auszurichten“, erklärte Lange. Erst durch die Begrenzung der Menge an Emissionsberechtigungen, die Löschung überschüssiger Zertifikate und keine kostenlosen Berechtigungen mehr auszugeben könne der Emissionshandel ausreichend wirksam für den Klimaschutz werden. Alle diese Maßnahmen benötigten jedoch Zeit. Zeit, die ein schnelles Handeln und das Erreichen der Klimaziele 2030 verhindere, so Lange.

Der CO2 Abgabe e.V. fordert daher mehr Tempo bei der Reform bestehender Steuern und Umlagen auf Energie zugunsten des Klimaschutzes. „Zahlreiche belastbare Analysen mit klaren Handlungsempfehlungen an die Politik zeigen, dass eine Reform staatlich veranlasster Preisbestandteile der Energiekosten durch Anpassung der Verbrauchssteuersätze auf fossile Energieträger wie Kohle, Erdgas und Erdöl im bestehenden Energiesteuerrecht schnell und unbürokratisch umgesetzt werden kann“, erläuterte Lange. Die Einführung einer neuen Steuer sei dafür nicht erforderlich.

Notwendig ist nach dem CO2 Abgabe e.V. ein transparenter Vergleich der vorliegenden Vorschläge zur Umsetzung einer CO2-Bepreisung hinsichtlich Lenkungs- und, Verteilungswirkung, Bürokratieaufwand und Akzeptanz. Die Einnahmeverwendung durch eine CO2-Bepreisung entscheidet über die Sozialverträglichkeit und den Mehr- oder Minderaufwand an Bürokratie. „Ein ergebnis- und konzeptoffener Vergleich ist die Grundlage für die Politik zur Bewertung der Vorschläge und ebnet den Weg zu einem politischen Beschluss“, hält Lange fest. Ein solcher könne in wenigen Monaten vorliegen.

Hintergrund:

Der CO2 Abgabe e.V. ist eine Gruppe von bislang rund 1.000 Unternehmen, Verbänden, Kommunen und Einzelpersonen, die für eine wirksame Lenkungsabgabe auf Treibhausgase (CO2 u.a.) eintritt, um die zahlreichen Umlagen und Steuern auf Energie in Deutschland am Klimaschutz neu auszurichten. Dazu setzen wir uns für eine verursachergerechte, sozialverträgliche und technologieoffene Umsetzung ein, die Bürokratie abbaut sowie Planungssicherheit und Innovationen fördert. Zu den Gründungsmitgliedern gehören u.a. Prof. Dr. Ernst Ulrich von Weizsäcker, Ursula Sladek (Deutsche Umweltpreisträgerin 2013), Thomas Jorberg (Vorstandssprecher der GLS Bank und Rudolf Kastner (Vorstand im Bundesverband der Energie- und Wasserwirtschaft).

Gewitter: Blitze und Donner und ihre Entstehung

Was genau beim Ausbilden von Blitzen passiert, ist noch immer unklar. Ein internationales Forscherteam hat jetzt mittels hochauflösender Daten des Radioteleskops LOFAR nadelförmige Strukturen entdeckt, die Licht in die Entladungsprozesse bringen könnten. Wichtige Grundlagen für die Messung von Blitzen mit dem weltweit größten Antennen-Array wurden am Karlsruher Institut für Technologie (KIT) gelegt. Mit den bislang unbekannten Nadeln lässt sich möglicherweise erstmals erklären, warum ein Blitz sich nicht wie lange Zeit angenommen mit einem Mal entlädt – sondern binnen Sekunden mehrfach einschlägt. Seine Ergebnisse veröffentlicht das Team heute in der Fachzeitschrift Nature (DOI: 10.1038/s41586-019-1086-6).

Wenn in einer Gewitterwolke Eiskristalle gegeneinander prallen, laden sie sich elektrisch auf. Winde können die Kristalle trennen, sodass ein Teil der Wolke positiv, der andere negativ geladen ist. Wird das so entstehende elektrische Spannungsfeld zu groß, kommt es zu einer heftigen Entladung – die wir als Blitz und Donner wahrnehmen. Die Entladung beginnt mit einem kleinen Volumen von Luft, in dem Elektronen sich von den Luftmolekülen trennen. Diese ionisierte Luft, auch Plasma genannt, ist elektrisch leitend. Das Plasma breitet sich als verzweigte Kanäle aus, bis es auf die Erde trifft und sich die elektrische Spannung der Wolken als Blitz entlädt. Über die genauen Prozesse in diesen Kanälen bis hin zur jüngsten Entdeckung der „Blitznadeln“, geben hochauflösende, aus Radiosignalen von Blitzen abgeleitete Daten Aufschluss. Gemessen haben die Forscherinnen und Forscher sie mit dem niederländischen Radioteleskop LOFAR (steht für Low Frequency Array), an dem auch das KIT beteiligt ist.

Die aktuellen Beobachtungen des LOFAR-Forscherteams zeigen, dass positiv geladene Plasmakanäle sich bei der Entladung anders verhalten als negativ geladene. Der Grund hierfür sind offenbar nadelförmige Strukturen, die nun erstmals sichtbar werden: Sie führen senkrecht von den positiv geladenen Kanälen weg, sind rund 100 Meter lang und haben einen Durchmesser von weniger als fünf Metern. Die Wissenschaftler vermuten, dass Teile der Ladung eines positiven Plasmakanals nicht direkt in den Boden abfließen, sondern über die Nadeln in die Gewitterwolke zurückgehen und von dort erst bei späteren Entladungen abfließen. Dies würde erstmals erklären, warum ein Blitz sich nicht wie lange Zeit angenommen mit einem Mal entlädt, sondern binnen Sekunden mehrfach einschlägt.

„Dank der hohen räumlichen und zeitlichen Auflösung von LOFAR können wir die Ausbildung von Blitzen in einer völlig neuen Größenordnung bis hinein in die primären Prozesse untersuchen“, erklärt Dr. Brian Hare von der Universität Groningen und Erstautor der Veröffentlichung im Fachjournal Nature. LOFAR besteht aus tausenden Antennen, die über Europa verteilt sind – ein Array, das in erster Linie für astronomische Beobachtungen entwickelt wurde, mit dem mittlerweile aber auch die kosmische Strahlung gemessen wird. Hierbei werden die in der Atmosphäre von den kosmischen Teilchen ausgelösten Signale an den einzelnen Antennen in Puffern zwischengespeichert und anschließend für verschiedene Analysen ausgelesen. „Diese am KIT vorangetriebene Technologie kommt nun auch bei der Messung und Speicherung von Radiosignalen zum Einsatz, die von Blitzen ausgehen“, erläutert Dr. Tim Huege vom Institut für Kernphysik des KIT und Mitglied des „LOFAR Cosmic Ray Key Science Projects“.

Bei den Blitzmessungen erlaubt LOFAR eine räumliche Genauigkeit von bis zu einem Meter und die Erfassung eines Signals pro Mikrosekunde. So entstehen hochauflösende 3D-Filme, die neue Erkenntnisse über die Entladung von Blitzen ermöglichen. Mit seinen Forschungen hat das KIT maßgeblich dazu beigetragen, dass Blitzbeobachtungen mit einer solchen Präzision möglich sind. Den Grundstein für die Messung kosmischer Teilchen und somit auch für eine detailliertere Erforschung von Blitzen legten Experimente mit dem digitalen Antennenfeld „LOPES“ (LOfar PrototypE Station), die bis 2013 im Rahmen der Forschungen auf dem Gelände des KIT als Teil des KASCADE-Grande-Teilchendetektorfelds liefen.

Umweltschutz: Plastik Irritiert auch Wasserflöhe

Bayreuther Wissenschaftler sehen natürlichen Schutz vor Fressfeinden nicht länger gegeben

Bayreuth (pte023/15.04.2019/10:30) – Plastikmüll beeinträchtigt die Kommunikation von im Wasser lebenden Organismen massiv. Denn hierzu eigentlich notwendigen Botenstoffe reichern sich an der Oberfläche von Plastikteilchen an und können dadurch ihre ökologischen Funktionen nicht mehr erfüllen. Dies zeigen Wissenschaftler der Universität Bayreuth http://uni-bayreuth.de am Beispiel von Wasserflöhen der Gattung Daphnia. Details wurden in „Scientific Reports“ publiziert.

Keine „Kopfhaube“ mehr

Den Wissenschaftlern zufolge bilden die winzigen Tiere Verteidigungsstrukturen aus, wenn Botenstoffe ihnen signalisieren, dass sie von Fressfeinden bedroht sind. Die Verteidigungen sind jedoch deutlich schwächer ausgebildet, sobald sich Plastikmüll im Wasser befindet. „Wir haben an einem Fallbeispiel nachgewiesen, welche potenziellen Risiken die bloße Anwesenheit von Plastikmüll in Ökosystemen hat“, erklärt Forschungskoordinator Christian Laforsch.

Von den kleinen im Plankton lebenden Krebsen ist bekannt, dass sie sich vor Fressfeinden durch vergrößerte körpereigene Strukturen schützen: Beispielsweise entwickelt die Art Daphnia longicephala eine große „Kopfhaube“ und einen langen Stachel. Dadurch sind sie vor Angriffen ihrer Fressfeinde, in diesem Fall Wasserwanzen, geschützt. Botenstoffe, sogenannte Kairomone, bewirken, dass sich diese Strukturen ausbilden. Sie werden von natürlichen Fressfeinden im Wasser abgegeben und signalisieren den Daphnien die Anwesenheit der Räuber.

Geringere Gefahr signalisiert

Die Bayreuther Biologen haben untersucht, wie es um dieses körpereigene Verteidigungssystem bestellt ist, falls sich in der Umwelt der Wasserflöhe auch Plastikpartikel befinden. Für diese Tests haben sie zwei Kunststoffsorten ausgewählt, die besonders häufig in Gewässern gefunden werden. In den Versuchsansätzen, in denen Plastikpartikel im Wasser waren, wurden die der Verteidigung dienenden Strukturen deutlich schwächer ausgebildet.

„Die Ergebnisse deuten darauf hin, dass sich die Kairomone zu einem erheblichen Teil an den Plastikpartikeln anlagern – ein Vorgang, der als Adsorption bezeichnet wird. Dadurch können sie im Wasser nicht mehr detektiert werden, so dass den Wasserflöhen fälschlicherweise eine geringere Gefahr signalisiert wird“, sagt der Erstautor der Studie, Benjamin Trotter, Doktorand an der Universität Bayreuth.

Die Folgen für die Tiere sind verheerend: Die Wasserflöhe unterschätzen die Gefahren, die ihnen von natürlichen Fressfeinden drohen, entwickeln keine ausreichende Abwehr und fallen daher ihren Fressfeinden häufiger zum Opfer. Eine derartige Fehlanpassung, bedingt durch das bloße Vorkommen von Plastik in der Umwelt, könnte das gesamte Nahrungsnetz beeinflussen und somit Auswirkungen auf das entsprechende Ökosystem haben.

Dramatische Folgen der Klimaerwärmung zeigen sich bereits heute in der Arktis

Transpolardrift geschwächt – Meereis schmilzt bereits in seiner Kinderstube

Neue AWI-Meereis-Studie offenbart extremes Ausmaß der Meereisschmelze in der Arktis

Der starke Eisrückgang in der Arktis beeinflusst das Meereis auf seiner Wanderung über den Arktischen Ozean. Wie Forschende des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung in einer neuen Studie berichten, erreichen heutzutage nur noch 20 Prozent des Meereises, welches in den flachen, russischen Randmeeren des Arktischen Ozeans entsteht, tatsächlich die zentrale Arktis und begeben sich dort auf die sogenannte Transpolardrift. 80 Prozent des jungen Eises dagegen schmelzen, bevor es seine Kinderstube verlassen hat. Vor dem Jahr 2000 waren es nur 50 Prozent. Damit rückt nicht nur ein eisfreier Sommer in der Arktis einen weiteren Schritt näher. Mit dem Meereis geht dem Arktischen Ozean auch ein wichtiges Transportmittel für Nährstoffe, Algen und Sedimente verloren, berichten die Wissenschaftler. Die neue Studie erscheint am 2. April als Open-Access-Artikel im Online-Fachmagazin Scientific Reports und ist frei zugänglich.

Die flachen russischen Schelf- oder Randmeere des Arktischen Ozeans gelten als Kinderstube des arktischen Meereises. In der Barentssee, der Karasee, der Laptewsee und in der Ostsibirischen See wird im Winter nämlich am laufenden Band Meereis produziert. Verantwortlich dafür sind extrem niedrige Lufttemperaturen von bis zu minus 40 Grad Celsius sowie ein starker, ablandiger Wind, der das im Flachwasserbereich gebildete junge Eis auf das Meer hinausschiebt. Im Verlauf des Winters wird das junge Meereis dann von der Transpolardrift erfasst, einer der zwei Hauptströmungen des Arktischen Ozeans. Sie transportiert die Eisschollen innerhalb von zwei bis drei Jahren aus dem sibirischen Teil des Nordpolarmeeres quer durch die zentrale Arktis bis in die Framstraße, wo das Meereis schließlich schmilzt. Vor zwei Jahrzehnten trat noch rund die Hälfte des Eises aus den russischen Schelfmeeren diese transarktische Reise an. Mittlerweile aber sind es nur noch 20 Prozent. Die restlichen 80 Prozent des jungen Eises schmelzen, noch bevor es älter als ein Jahr ist und die zentrale Arktis erreichen konnte.

Zu diesem besorgniserregenden Ergebnis kommen Wissenschaftler des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), nachdem sie die Wanderung des Meereises mit Hilfe von Satellitendaten für den Zeitraum von 1998 bis 2017 verfolgt und analysiert haben. „Unsere Studie zeigt extreme Veränderungen in der Arktis: Das Meereis in der Karasee, der Laptewsee und der Ostsibirischen See schmilzt mittlerweile so schnell und flächendeckend, dass der Eisnachschub für die Transpolardrift nachhaltig abnimmt. Jenes Eis, welches heutzutage die Framstraße erreicht, wird zum größten Teil nicht mehr in den Randmeeren gebildet, sondern stammt aus der zentralen Arktis. Wir werden derzeit Zeuge, wie ein wichtiger Transportstrom abreißt und die Welt einem meereisfreien Sommer in der Arktis einen großen Schritt näherkommt“, sagt Erstautor Dr. Thomas Krumpen, Meereisphysiker am Alfred-Wegener-Institut.

Bestätigt wird dieser Trend durch die Ergebnisse von Meereisdicken-Messungen in der Framstraße, welche die AWI-Meereisphysiker regelmäßig durchführen. „Eis, das heutzutage die Arktis durch die Framstraße verlässt, ist rund 30 Prozent dünner als noch vor 15 Jahren. Gründe dafür sind zum einen die steigenden Wintertemperaturen in der Arktis sowie eine deutlich früher einsetzende Schmelzsaison. Zum anderen wurde dieses Eis eben nicht mehr in den Schelfmeeren gebildet, sondern viel weiter nördlich. Es hatte demzufolge deutlich weniger Zeit, durch die Arktis zu treiben und zu mächtigerem Packeis heranzuwachsen“, erklärt Thomas Krumpen.

Jene Eisschollen, welche die Transpolardrift heute noch bis in die Framstraße trägt, werden größtenteils auf hoher See, also in küstenfernen Regionen des Arktischen Ozeans gebildet. Im Gegensatz zum Eis aus den Schelfmeeren enthalten sie daher deutlich weniger Partikel wie zum Beispiel Algen, Schweb- und Nährstoffe. Denn Wellen, Wind und Gezeiten wirbeln in flachen Küstenzonen deutlich mehr Partikel vom Meeresboden auf als auf hoher See. Außerdem tragen Flüsse wie die Lena und der Jenissei viele Schwebstoffe und Mineralien in den Küstenbereich ein, die dann beim Gefrieren des Wassers im Eis eingeschlossen werden.

Transportierte das Meereis aus den Schelfmeeren diese mineralische Fracht früher bis in die Framstraße, so entlassen die schmelzenden Schollen sie heute bereits auf ihrem Weg in die zentrale Arktis. In der Framstraße dagegen kommt weniger Material in einer anderen Zusammensetzung an. Diese Erkenntnis resultiert unter anderem aus Sinkstoffanalysen, die AWI-Biologen seit etwa zwei Jahrzehnten in der Framstraße durchführen. „Anstelle sibirischer Mineralien landen mittlerweile mehr Überreste abgestorbener Algen und Kleinstlebewesen in unseren Sedimentfallen“, sagt Co-Autorin Eva-Maria Nöthig. Langfristig sei zu erwarten, dass die Veränderung des Partikeltransportes durch das Meereis die biogeochemischen Kreisläufe und ökologischen Prozesse im zentralen Arktischen Ozean nachhaltig verändern werde.

Die Entwicklung des Meereises und die ökologischen Prozesse im Arktischen Ozean sind auch Forschungsfragen auf der MOSAiC-Expedition, die im September startet. Dabei wird der deutsche Eisbrecher Polarstern in die Arktis aufbrechen und ein Jahr lang fest eingefroren im arktischen Eis durch das Nordpolarmeer driften. Versorgt von weiteren Eisbrechern und Flugzeugen werden insgesamt 600 Menschen aus 17 Ländern an der Expedition teilnehmen. Ein Vielfaches an Wissenschaftlern wird mit den Daten arbeiten, um die Klima- und Ökosystemforschung auf ein neues Niveau zu heben. Geleitet wird diese größte Arktis-Forschungsexpedition aller Zeiten vom Alfred-Wegener-Institut.

Original-Publikation:
Thomas Krumpen, H. Jakob Belter

Klimageschichte im Eis

In der Antarktis wollen europäische Forscher wichtige Klimadaten aus den letzten 1,5 Millionen Jahren analysieren

Alfred-Wegener-Institut- In einem Projekt der Europäischen Union haben Forscher von 14 Institutionen in zehn europäischen Ländern im Eis der Antarktis drei Jahre lang nach einem Ort gesucht, an dem sie am besten die Klimageschichte der letzten 1,5 Millionen Jahre untersuchen können. Das Ergebnis hat das Konsortium Beyond EPICA – Oldest Ice (BE-OI) unter Leitung von Olaf Eisen vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in Bremerhaven heute auf einer Tagung der „European Geosciences Union“ in Wien vorgestellt.

Ausgewählt haben die Forscher einen der kältesten, trockensten und leblosesten Plätze, die es auf der Erde gibt: „Little Dome C“ liegt drei Stunden Schneemobil-Fahrt (30 Kilometer) von der Antarktis-Station Dome Concordia entfernt, die Frankreich und Italien auf dem Eis des Wilkes-Landes in einer Höhe von 3233 Meter über dem Meeresspiegel betreiben. Niederschläge beobachten die Forscher dort kaum einmal, und im Jahresdurchschnitt liegen die Temperaturen bei minus 54,5 Grad Celsius. Wärmer als minus 25 Grad wird es dort sehr selten und im Winter fallen die Temperaturen manchmal unter minus 80 Grad.

Wo heute die Concordia-Station steht, bohrten Forscher zwischen 1996 und dem Dezember 2004 im Rahmen des europäischen EPICA-Projektes (European Project for Ice Coring in Antarctica) 3270 Meter tief ins das Eis der Antarktis. Mit genauen Analysen der so erhaltenen Bohrkerne konnten Forscher die Klimageschichte der vergangenen 800.000 Jahre zuverlässig rekonstruieren. „In dieser Zeit wechselten sich lange Kaltzeiten mit kürzeren warmen Epochen in einem Rhythmus von ungefähr hunderttausend Jahren ab“, erklärt AWI-Forscher und BE-OI-Projektkoordinator Olaf Eisen. Da in diesem Eis auch winzige Bläschen eingeschlossen sind, die noch Luft aus der Zeit enthalten, in der das Eis sich bildete, können die Klimaforscher darin den Gehalt der wichtigen Treibhausgase Kohlendioxid und Methan messen. Und sie finden klare Zusammenhänge: War das Klima auf der Erde kalt, gab es viel weniger Kohlendioxid und auch weniger Methan in der Luft als in wärmeren Epochen.

Aus den Jahrhunderttausenden vor dieser Zeit haben die Forscher bisher allerdings keine Eisbohrkerne, in deren Luftbläschen sie den damaligen Gehalt der Treibhausgase messen könnten. Gerade in dieser Epoche aber hat sich der Rhythmus stark verändert, in dem sich Kaltzeiten und wärmere Perioden abwechseln: „Vor mehr als 1,2 Millionen Jahren dauerte ein solcher Zyklus nur etwa 40.000 Jahre, ausgelöst durch regelmäßige Änderungen in der Neigung der Erdachse. Danach folgte eine 300.000 Jahre lange Übergangszeit, bevor vor rund 900.000 Jahren dann der Hunderttausend-Jahre-Rhythmus begann“, erklärt Olaf Eisen.

Diese Entwicklung kennen Klimaforscher aus Untersuchungen der Sedimente, die sich in diesen Zeiten am Meeresgrund abgelagert haben. Solche Analysen liefern Hinweise auf die damaligen Temperaturen und auf die Massen der Eispanzer, die in diesen Zeiten über der Antarktis, über Grönland und zeitweise auch über Nordamerika und dem Norden Europas lagen. Daten zu den Treibhausgasen Kohlendioxid und Methan und deren Zusammenhänge mit der Entwicklung des Klimas erhalten die Forscher dagegen nur aus den Luftbläschen, die in dieser Zeit im Eis eingeschlossen wurden.

„Es gibt daher sehr gute Gründe, nach den 800.000 Jahre alten EPICA-Proben bis in mindestens 1,5 Millionen Jahre altes Eis zu bohren“, erklärt Olaf Eisen. Damit könnten die Forscher nicht nur die Klimazusammenhänge der „mittleren Pleistozän-Übergangszeit“ untersuchen, sondern auch den davor liegenden 40.000-Jahre-Rhythmus. Da die im Eis enthaltenen Moleküle im Laufe vieler Jahrtausende ein wenig diffundieren und so die Analysen „verschmieren“, suchen die Forscher Eis mit einer höheren Auflösung, in dem zehntausend Jahre Klimageschichte in einem mindestens einen Meter langen Bohrkern stecken, in dem das Verschmieren eine geringere Rolle spielt.

In den vergangenen drei Jahren suchten die Forscher aus zehn europäischen Ländern, unterstützt von Kollegen aus den USA, Australien, Japan und Russland, in der Antarktis im BE-OI-Projekt daher Eis, das diese Kriterien erfüllt. Bei Flügen über die Antarktis analysierten sie mit Radarstrahlen die unter der Oberfläche liegenden Schichten des Eises, die sie mit bis zu 400 Meter tiefen Probebohrungen auch direkt untersuchten. Aus diesen Ergebnissen schlossen die Forscher auf die Verhältnisse in tieferen und damit älteren Schichten. Dabei kristallisierte sich der „Little Dome C“ als bester Kandidat für mindestens 1,5 Millionen Jahre altes Eis heraus, das in seinen ältesten Bereichen noch eine gute Auflösung hat und das unter dem riesigen Druck der darüber liegenden Massen auch an seiner Basis nicht schmilzt.

Gibt die Europäische Union wie erhofft grünes Licht für die zweite Phase von BE-OI, werden die Forscher koordiniert von Carlo Barbante von der Universität von Venedig auf dem „Little Dome C“ ein Feldcamp aufbauen, in dessen Containern die Mannschaft während der Bohrungen in recht einfachen Verhältnissen leben wird. Voraussichtlich Mitte November 2021 kann dann eine Bohrung beginnen, mit der zehn Zentimeter dicke Eiskerne gewonnen werden. In drei Antarktissommern soll diese Bohrung dann jeweils von Mitte November bis Anfang Februar fortgesetzt werden, bis 2024 eine Tiefe von 2730 Metern erreicht wird, in der das Eis mindestens 1,5 Millionen Jahre alt sein dürfte. Im Jahr 2025 sollten die ersten Daten der Bohrkern-Analysen vorliegen, aus denen das internationale Forscherteam dann die Zusammenhänge zwischen den Treibhausgasen und dem Klima in der „mittleren Pleistozän-Übergangszeit“ und den davor liegenden Epochen untersuchen wollen.

Hintergrundinformationen:
BE-OI ist der europäische Beitrag für die weltweite Suche nach der geeigneten Stelle für eine Eisbohrung. Das Konsortium übernimmt die Vorstudien für die Standortwahl rund um Dome C und Dome Fuji, beides potentiell geeignete Regionen in der Ostantarktis. Weitere Wissenschafts-Konsortien untersuchen im Rahmen von IPICS (International Partnerships in Ice Core Sciences) andere Lokationen. Dieses Projekt wird gefördert von der Europäischen Union im Horizon 2020 Forschungs- und Innovationsprogramm unter der Förderungsnummer 730258.

Mitglieder im BE-OI-Konsortium:

• Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI, Deutschland), Koordination
• Institut Polaire Français Paul Émile Victor (IPEV, France)
• Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (ENEA, Italy
• Centre National de la Recherche Scientifique (CNRS, France)
• British Antarctic Survey (NERC-BAS, Great Britain)
• Universiteit Utrecht – Institute for Marine and Atmospheric Research (UU-IMAU, Netherlands)
• Norwegian Polar Institute (NPI, Norway)
• Stockholms Universitet (SU, Sweden)
• Universität Bern (UBERN, Switzerland)
• Università di Bologna (UNIBO, Italy)
• University of Cambridge (UCAM, Great Britain)
• Kobenhavns Universitet (UCPH, Denmark)
• Université Libre de Bruxelles (ULB, Belgium)
• Lunds Universitet (ULUND, Sweden)

Reinigungsanlagen mit Kohlefilter als Option

Im Kampf gegen Luftverschmutzung und Fahrverbote sind Reinigungsanlagen mit Kohlefilter eine Option. Technisch funktioniert das erstaunlich gut.

(FAZ) Wo hinten weniger rauskommt als vorn hineingeht, ist mit hoher Wahrscheinlichkeit ein Filter im Spiel. Das gilt für den Dieselmotor genauso wie für den Pollenfilter. Warum dieses bewährte Prinzip nicht anwenden, um die Feinstaubbelastung dort zu senken, wo ihr anders nicht beizukommen ist? Das fragten sich einige Ingenieure aus der Region Stuttgart. In der Landeshauptstadt hat es eine Kreuzung bar jeder touristischen Attraktivität zu bundesweiter Bekanntheit gebracht. Das Neckartor gehört zu jenen wenigen Messstationen, an denen die Grenzwerte für Feinstaub trotz großer Verbesserungen regelmäßig überschritten werden. Und wenn man schon Luftreinigungsanlagen installiert, so der nächste Gedanke, können die dann nicht gleich auch das Stickoxid aus der Luft fischen?

Technisch funktioniert das erstaunlich gut, wie sich am Beispiel einer Testinstallation von Mann+Hummel am Neckartor nachweisen lässt. Sie besteht im Kern aus 17 unscheinbaren Säulen, die aus drei gestapelten Würfeln von etwa einem Meter Kantenlänge aufgebaut sind. In jedem Würfel saugt ein Ventilator die den Filter durchströmende Luft von der Straßenseite an und spuckt sie gereinigt zum Bürgersteig hin wieder aus. Eine elektronische Regelung passt die Leistung des Ventilators permanent an den Schadstoffeintrag an. Selbst wenn die Anlage mit voller Leistung von 1500 Watt arbeitet, ist der Stromverbrauch nicht höher als bei einem Haushaltsstaubsauger. Der maximale Lärmpegel beträgt dabei weniger als 54 Dezibel, das ist deutlich leiser als jedes vorbeifahrende Auto.

Strömt die Luft ins Innere des Würfels, trifft sie zunächst auf das Filtermedium, ein Vlies aus Mikrofasern. Auch wenn die eigentlich filternde Schicht nur zwei bis drei Millimeter misst, ist das Vlies so geschickt gefaltet, dass die gesamte wirksame Oberfläche in einem einzigen Würfel rund 60 Quadratmeter beträgt. Die in der Luft schwebenden Partikel werden in den sich nach hinten verjüngenden Poren des Vlieses aufgefangen. Dort bleiben sie, bis die Durchlässigkeit des Filters nachlässt. Nach aktuellem Wissenstand muss der etwa alle zwei Monate ausgetauscht werden, abhängig natürlich davon, welche Schadstofflast wirklich auftritt. Die bisher am Neckartor durchgeführte Erprobung zeigt laut Mann+Hummel, dass sich die Feinstaubimmission durch die Säulen um 10 bis 30 Prozent vermindern lässt, je nachdem, in welchem Abstand zur Säule die Messung erfolgt. „Das entspricht der gleichen Minderung, die durch ein um 40 Prozent geringeres Verkehrsaufkommen erzielt würde“, erläutert ein Sprecher. Wer sich über die Zahlen wundert, dem sei in Erinnerung gerufen, dass der Straßenverkehr selbst an hochbelasteten Stellen wie dem Neckartor maximal für die Hälfte der Feinstaubbelastung verantwortlich ist.

Doch Anwohnern und von Fahrverboten bedrohten Autofahrern machen die feinen Stäube in den meisten deutschen Städten längst weniger Sorgen als die Stickoxide. Die schweben nämlich als einzelne Moleküle in der Luft und sind viel zu klein, um sie mit einem Filter einzufangen. Doch auch dafür will Mann+Hummel eine Lösung haben. Sie basiert auf einer hinter den Filter gelegten Schicht aus Aktivkohle. Dieses Material, das Rucksackreisende gern für die Trinkwasseraufbereitung nutzen, besteht aus reinem Kohlenstoff, der eine hochporöse Struktur aufweist. Dadurch lässt sich eine sehr große innere Oberfläche herstellen, konkret beträgt diese bei der Stuttgarter Lösung rund 600 Quadratmeter für jedes Gramm aktiven Materials. Trifft ein Stickoxidmolekül auf diese Oberfläche, bindet diese das Molekül über Van-der-Waals-Kräfte, die aus der ungleichen Verteilung elektrischer Ladungsträger in beiden Stoffen resultieren. Da es sich bei dem Anhaften nicht um eine chemische Reaktion handelt, wird dafür auch keine Energie benötigt. Dass die Stickoxidreinigung auf diese Weise funktioniert, ist an Kombifiltern für Auto-Klimaanlagen nachgewiesen. Diese Filter werden, unter anderem von Mann+Hummel, jährlich millionenfach produziert. Den konkreten Nachweis am Stuttgarter Neckartor will der Zulieferer mit der auf 23 Säulen erweiterten Testinstallation beweisen. Man geht von einer Verringerung der Stickoxidimmission um 20 Prozent aus.
Nicht nur Schwaben sind pfiffig. In Kiel erregte eine Demonstrationsanlage des Fünf-Mann-Unternehmens Purevento große Aufmerksamkeit. Was die eigentliche Luftreinigung betrifft, setzt das Start-up ebenfalls auf die Kombination von Vliesstoff-Filter und Aktivkohle. Der Unterschied liegt vor allem in der Verpackung: Hier kommt ein Container zum Einsatz, maximal zweieinhalb Meter breit und rund drei Tonnen schwer. Damit soll er auf einem Auto-Anhänger zu transportieren sein. Allerdings hatte es in Kiel schon während der ersten Demonstrationsphase Proteste gegen den Container gegeben, weil er die Verkehrsfläche für Fußgänger und Radfahrer einschränkt.

Geheimnisse unserre Planeten Neptun und Uranus im falschen Licht

In Planeten wie Neptun oder Uranus könnte es deutlich weniger freien Wasserstoff geben als angenommen. Um die hohen Temperaturen und Drücke im Inneren der Eisriesen nachzuahmen, haben Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) Schockwellen durch zwei Arten Kunststoff getrieben und mit ultrastarken Röntgenlasern die Wirkung auf die Proben untersucht. Das unerwartete Ergebnis: Statt aufzubrechen, hielt die Kristallstruktur einer Kunststoffart dem extremen Druck stand. Weil das hochdichte Innere der Planeten ähnliche Bestandteile wie der Kunststoff aufweist, müssen nun auch Planetenmodelle teilweise neu überdacht werden, wie die Forscher in der Fachzeitschrift Scientific Reports (doi: 10.1038/s41598-019-40782-5) berichten.

Kohlenstoff und Wasserstoff gehören zu den häufigsten Elementen im Universum. Die Eisriesen Neptun und Uranus bestehen zu großen Teilen aus diesen Zutaten – beispielsweise in Form von Methangas. Tiefer im Inneren der Planeten bilden sich durch den hohen Druck komplexere Strukturen aus Kohlenstoff und Wasserstoff. Ganz innen befindet sich ein fester Kern. Welche Zustände die Materie dazwischen annimmt, ist eine der großen Fragen der Planetenforschung.

Um den Aufbau der Eisriesen besser zu verstehen, hat ein internationales Team um die beiden HZDR-Forscher Dr. Nicholas Hartley und Dr. Dominik Kraus zwei Arten Kunststoff in einem Laborexperiment näher untersucht: Polystyrol und Polyethylen. Diese Materialien ähneln in ihrer Chemie dem Kohlenwasserstoff im Inneren der Planeten. Im SLAC National Accelerator Laboratory in den USA setzten die Wissenschaftler die Proben Bedingungen aus, wie sie etwa zehntausend Kilometer unter der Oberfläche von Neptun und Uranus vorhergesagt werden. Dort ist der Druck fast so hoch wie im Kern der Erde und zwei Millionen Mal höher als der Luftdruck auf der Erdoberfläche.

Extrem hohe Drücke

Die Forscher erwarteten, dass sich in beiden Materialien bei den sehr hohen Temperaturen und Drücken alle kristallartigen Strukturen auflösen würden. Tatsächlich beobachteten sie aber für das Polyethylen selbst bei sehr hohem Druck noch stabile Verbindungen von Kohlenstoff und Wasserstoff. „Dieses Ergebnis hat uns sehr überrascht“, meint Hartley. „Wir haben nicht geglaubt, dass der unterschiedliche Anfangszustand so einen großen Unterschied unter Hochdruck macht. Bis vor kurzem konnten wir diese Materialien nicht untersuchen, weil die Röntgenquellen nicht lichtstark genug waren. Wir waren die ersten, die das überhaupt für möglich gehalten haben – und es war möglich.“

Da sich die extremen Bedingungen im Inneren der Eisriesen auf der Erde nur als Momentaufnahme simulieren lassen, benötigen die Forscher blitzschnelle Messmethoden. Diese gibt es weltweit an wenigen ultraschnellen Röntgenlasern, an denen Zeit für Messungen rar und begehrt ist. Kraus und Hartley gelang es, ihrem Team insgesamt drei Mal zwölf Stunden für ihre Experimente zu sichern. Die Forscher nutzten jede Minute, um möglichst viele Messdurchgänge durchzuführen. Der eigentliche Schlüsselmoment, in dem sie die Proben mit dem Röntgenlaser beschießen, dauert dabei nur wenige Milliardstel Sekunden.

Eine unerwartete Struktur erscheint

Bereits während der Experimente konnten die Forscher erste Ergebnisse erkennen: „Wir waren sehr aufgeregt, weil sich für Polystyrol wie erhofft diamantartige Strukturen aus Kohlenstoff bildeten. Für Polyethylen aber sahen wir bei den in diesem Experiment erreichten Bedingungen keine Diamanten. Stattdessen war da eine neue Struktur, die wir uns anfangs nicht erklären konnten“, erinnert sich Hartley. Polyethylen in dieser Form beobachteten sie zuvor nur bei einem Fünftel des Drucks und der Raumtemperatur.

Die Entdeckung des Forscherteams zeigt, wie wichtig es ist, die Chemie und die Temperatur- und Druckbedingungen im Inneren der Eisriesen besser zu kennen, um deren Aufbau und physikalische Eigenschaften zu verstehen. Modelle für Uranus und Neptun gehen davon aus, dass die ungewöhnlichen Magnetfelder dieser Planeten durch den freien Wasserstoff entstehen. Die neuen Ergebnisse legen jedoch nahe, dass es weniger freien Wasserstoff geben dürfte als bislang angenommen. Im nächsten Schritt wollen die Forscher für ihre Experimente Sauerstoff zu der Mischung hinzufügen, um der Chemie im Inneren der Planeten noch besser zu entsprechen.

Neben den HZDR-Forschern waren an den Untersuchungen auch Wissenschaftler des SLAC National Accelerator Laboratory, der Osaka University, der TU Dresden, der TU Darmstadt, des GSI Helmholtzzentrum für Schwerionenforschung, des Lawrence Livermore National Laboratory, der University of California in Berkeley, der University of Warwick, des European XFEL, des LULI an der École Polytechnique in Paris und der Universität Rostock beteiligt.

Publikation:

N.J. Hartley, S. Brown, T.E. Cowan, E. Cunningham, T. Döppner, R.W. Falcone, L.B. Fletcher, S. Frydrych, E. Galtier, E.J. Gamboa, A. Laso Garcia, D.O. Gericke, S.H. Glenzer, E. Granados, P.A. Heimann, H.J. Lee, M.J. MacDonald, A.J. MacKinnon, E.E. McBride, I. Nam, P. Neumayer, A. Pak, A. Pelka, I. Prencipe, A. Ravasio, M. Rödel, K. Rohatsch, A.M. Saunders, M. Schölmerich, M. Schörner, A.K. Schuster, P. Sun, T. van Driel, J. Vorberger, D. Kraus: Evidence for crystalline structure in dynamically compressed polyethylene up to 200 GPa, in Scientific Reports, 2019 (DOI: 10.1038/s41598-019-40782-5)