Archiv der Kategorie: Erde, Klima, Umweltschutz

Stromnetze für die Energiewende fit machen

„Die Energiewende bedeutet für das deutsche
Energiesystem einen Paradigmenwechsel, der neben Herausforderungen in
starkem Maße auch wirtschaftliche Chancen bietet“, sagt Professor Holger
Hanselka, Präsident des KIT und Sprecher von ENSURE (Neue
EnergieNetzStruktURen für die Energiewende). „Unsere Forschung auf
diesem Gebiet wird maßgeblich dazu beitragen, dass die Energiewende
wirtschaftlich erfolgreich ist und Technologielieferanten,
Infrastrukturbetreiber und Stromkunden von ihr profitieren können.“
Holger Hanselka ist gleichzeitig Vizepräsident der
Helmholtz-Gemeinschaft für den Forschungsbereich Energie. „Wir wollen
zeigen, wie wir in Deutschland gleichzeitig Energie aus fluktuierenden
erneuerbaren Quellen wie Sonne und Wind in das Netz dezentral
integrieren und eine umweltschonende, zuverlässige und bezahlbare
Energieversorgung gewährleisten können.“

Strukturen für ein zukunftsweisendes Energienetz

Konkret will das Konsortium ENSURE die Frage
beantworten: Was ist eine sowohl unter technischen, wirtschaftlichen als
auch gesellschaftlichen Aspekten sinnvolle Energienetzstruktur und
welche Anteile aus zentraler und dezentraler Versorgung beinhaltet sie?
Dazu werden im Projekt effiziente neue Systemstrukturen, stabile
Systemführungsmechanismen sowie die Integration neuer Technologien auf
breiter Basis erforscht. Ein besonderes Augenmerk liegt auf dem zu
bewältigenden technischen und gesellschaftlichen Transformationsprozess.
Daher stehen Technologien zur Stromübertragung ebenso im Fokus wie
Informations- und Kommunikationstechnologien, die in Zukunft die
Bilanzierung und Stabilität in vernetzten Versorgungsstrukturen
gewährleisten sollen.

Das Kopernikus-Projekt ENSURE ist in drei
Phasen geplant. Nach der ersten Phase für die Erforschung der Grundlagen
(2016 bis 2019) und der darauf folgenden zweiten Phase für die
Umsetzung im Pilotmaßstab (2019 bis 2022), soll in der finalen dritten
Phase (2022 bis 2025) ein multimodaler Netzdemonstrator aufgebaut
werden. Dieser Großdemonstrator soll beispielhaft aufzeigen, wie die
zukünftige energetische Versorgung eines urbanen Systems mit Umland
aussehen kann. Dabei werden auch Möglichkeiten zur Flexibilisierung und
Effizienzsteigerung, beispielsweise durch die Energiesystemintegration
von Strom, Gas, Wärme und Speichertechnologien oder durch
Gleichstrom-Kupplungen zur Mittel- oder Hochspannungsebene, untersucht.

Direktorium und Partner von ENSURE

Das ENSURE-Konsortium setzt sich aus den im
Direktorium vertretenen sechs Kernpartnern und 15 weiteren
Projektpartnern zusammen. Kernpartner sind das KIT und die RWTH Aachen
als Vertreter von Forschung und Lehre, die Unternehmen E.ON
(Energieversorger und Verteilnetzbetreiber) und TenneT TSO GmbH
(Übertragungsnetzbetreiber) sowie die Unternehmen Siemens AG
(Integrierter Technologiekonzern) und ABB (Energie- und
Automatisierungstechnikkonzern). Die weiteren Projektpartner sind: (a)
die Technischen Universitäten Dortmund und Darmstadt sowie die
Universitäten Köln, Wuppertal, Hannover, Kiel, Erlangen-Nürnberg, (b)
die außeruniversitären Forschungseinrichtungen Forschungsgemeinschaft
für Elektrische Anlagen und Stromwirtschaft e.V. Mannheim,
Fraunhofer-Institut für Windenergie und Energiesystemtechnik sowie OFFIS
– Institut für Informatik Oldenburg, (c) die Projektpartner
Öko-Institut e.V., Deutsche Umwelthilfe e.V., DVGW e.V. sowie (d) die
Industrieunternehmen Nexans GmbH und Maschinenfabrik Reinhausen GmbH.
Von dem geplanten Budget von über 43 Millionen Euro für die ersten drei
Jahre trägt der Bund rund 30 Millionen Euro.

KIT an weiteren zwei Kopernikus-Projekten beteiligt

Im Kopernikus-Projekt „Systemintegration und Vernetzung der Energieversorgung (ENavi)“ ist das KIT im antragstellenden Direktorium vertreten. Das Projekt wird
den Fokus der „Energiewende“ auf einen gesamtgesellschaftlichen
Transformationsprozess erweitern, da der Umbau des Energiesystems
Herausforderungen erzeugt, die nur im Kontext einer ganzheitlichen
Betrachtung auf Systemebene bewältigt werden können. Ziele sind, unter
anderen ein besseres und tieferes Verständnis des komplex vernetzten
„Systems von Systemen“ im Energiebereich und den damit verbundenen
Bereichen wie Industrie und Konsum zu gewinnen und Optionen für
kollektiv wirksame Maßnahmen zu generieren.

Innerhalb des Kopernikus-Projekts „P2X: Erforschung, Validierung und Implementierung von Power-to-X-Prozessen“ koordiniert das KIT den Forschungscluster, der sich mit modularen und
autarken Technologien zur Umsetzung von Synthesegas auf Basis von
Kohlendioxid in Kohlenwasserstoffe und langkettige Alkohole beschäftigt.
Erforscht werden neue, für einen dezentralen Einsatz geeignete
Prozesstechnologien zur Herstellung von Kraftstoffen, synthetischem
Erdgas (SNG) und Chemikalien aus alternativer Energie. Darüber hinaus
ist das KIT an den Clustern "Dezentrale H2-Logistik: Speicherung und
Verteilung über flüssige Wasserstoffträger“ und "Oxomethylenether:
Kraft- und Kunststoffe auf Basis von Kohledioxid und Wasserstoff“
beteiligt.

Über die Förderinitiative „Kopernikus-Projekte für die Energiewende“

Mit dem Energiekonzept 2050 strebt die
Bundesregierung eine umweltschonende, zuverlässige und bezahlbare
Energieversorgung an. Ziel der Förderinitiative „Kopernikus-Projekte für die Energiewende“ ist es als ein Teil der Hightech-Strategie wichtige Weichen zu stellen,
um neue Wege in der Kooperation von Wirtschaft, Wissenschaft und
Gesellschaft zu gehen und die Energieforschung zukünftig effizient und
zielgerichtet aufzustellen. Grundgedanke ist, dass die Gestaltung der
Energiewende nur dann gelingt, wenn die Bedürfnisse und Erwartungen der
Bevölkerung angemessen reflektiert sowie Umweltverträglichkeit und
marktwirtschaftliche Erfordernisse berücksichtigt werden.

Mit der Initiative „Kopernikus-Projekte für
die Energiewende“ werden technologieorientierte Forschungsprojekte mit
systemischem und transdisziplinärem Ansatz gefördert. Das Ziel der
Projekte ist es, für die Umsetzung der Energiewende relevante
Technologien zu identifizieren und bis zur großskaligen Anwendung zu
entwickeln, also die Initiierung von Innovationen für die Energiewende.
Es sollen Forschungsfelder von starker Komplexität, einem hohen
Forschungsrisiko und besonderen Potenzialen für die Umstellung des
Energiesystems wirtschaftlich nutzbringend erschlossen werden. Forschung
und Entwicklung in den Kopernikus-Projekten sollen so dazu beitragen,
die sich aus den technologischen Fortschritten ergebenden Chancen auf
dem Weltmarkt zu nutzen.

Stromproduktion aus Erneuerbaren Energien auf Rekordniveau

Zu den Veröffentlichungen des VDEW stellt der BEE klar: Verbraucher zahlen weniger als im Vorjahr

30.01.2007 – Die Stromproduktion aus Erneuerbaren Energien ist im
vergangenen Jahr auf ein neues Rekordniveau gestiegen. Nach heute
veröffentlichten Zahlen des Verbandes der Elektrizitätswirtschaft
(VDEW) lieferten Wind, Wasser, Sonne, Bioenergie und Erdwärme in 2006
mehr als 73 Milliarden Kilowattstunden und deckten damit etwa 12
Prozent des deutschen Stromverbrauchs. "Dies bestätigt die uns
vorliegenden Branchenwerte", so Milan Nitzschke, Geschäftsführer des
Bundesverbandes Erneuerbare Energie (BEE). Allein der Zuwachs gegenüber
dem Vorjahr übersteige beispielsweise die Jahresproduktion eines
Kernkraftwerkes, wie das zur Disposition stehende AKW Brunsbüttel.

Dabei seien die Kosten, die die Verbraucher für die Förderung von
sauberem Strom aus Erneuerbaren Energien zahlen, gesunken. Hier
widerspricht der BEE der Verlautbarung des VDEW. Nitzschke: "Während
die Stromerzeugung aus Erneuerbaren Energien massiv gestiegen ist, sind
die Kosten für seine Förderung auf 2,2 Milliarden Euro gesunken. Das
sind 200 Millionen Euro weniger als im Vorjahr." Verbraucher müssten
für die Kostenumlage gemäß Erneuerbare-Energien-Gesetz (EEG) etwa einen
halben Cent pro Kilowattstunde zahlen. Am gesamten Strompreis mache das
gerade einmal 2,5 Prozent aus. "Das deutsche Förderinstrument ist das
effizienteste in ganz Europa: Maximaler Ausbau Erneuerbarer Energien
bei minimalen Kosten. Dies wird auch durch die Europäische Kommission
bestätigt."

Hintergrund: Produzenten von Strom aus Erneuerbaren Energien bekommen
für den eingespeisten Strom eine feste Vergütung, die im
Erneuerbare-Energien-Gesetz geregelt ist. Damit wird
Investitionssicherheit auch für kleine und mittelständische Erzeuger
gewährleistet. Durch diese Regelung hat Deutschland im internationalen
Vergleich die Spitzenstellung beim Ausbau Erneuerbarer Energien
einnehmen können. Die Mehrkosten gegenüber konventionell erzeugtem
Strom werden auf alle Stromverbraucher umgelegt. Während die
Einspeisevergütungen für Strom aus neuen Erneuerbare-Energien-Anlagen
in jedem Jahr sinken, steigen die Preise für Strom aus Gas, Kohle und
Kernenergie an der Strombörse weiter an. Zudem haben Erneuerbare
Energien einen dämpfenden Effekt auf den Strompreis. Beispielsweise
sinkt der Börsenpreis an der Leipziger Strombörse an Tagen mit einer
hohen Einspeisung aus Erneuerbaren Energien.

Bundesverband Erneuerbare Energie e.V. (BEE)

Marienstraße 19/20

10117 Berlin

www.bee-ev.de

„Beispielhaftes Projekt!! Ist das die Zukunft der dezentralen Energieversorgung?“

"Beispielhaftes Projekt!! Ist das die Zukunft der dezentralen Energieversorgung?"

Insel Pellworm wird energieautark

12.09.2013: Die nordfriesische Insel Pellworm, auf der 1983 der damals größte

Solarpark Europas installiert wurde, soll durch ein intelligentes Stromnetz mit

Großspeichern energieautark werden. Dazu wollen der Stromkonzern Eon und der

norddeutsche Netzbetreiber Schleswig-Holstein Netz AG in den kommenden Monaten

auf der Insel ein sogenanntes hybrides Speichersystem für die Stromproduktion aus

Windkraft-, Photovoltaik- und Biomasseanlagen errichten. Ziel ist es, die

Stromverbraucher über moderne Datenleitungen mit den Erzeugungsanlagen zu

verknüpfen, so dass Erzeugung und Verbrauch besser aufeinander abgestimmt sind.

Überschüsse können zukünftig direkt in Lithium-Ionen- und Redox-Flow- Batterien

sowie in dezentrale Haushaltsspeicher gespeist werden. Das von einem Verbund

verschiedener Partner aus Industrie und Wissenschaft getragene Projekt wird im

Rahmen der Energiespeicherinitiative der Bundesregierung gefördert. Das

Investitionsvolumen beträgt fast zehn Millionen Euro.

© PHOTON

Flugdrohnen jagen Erdölvorkommen

Flugdrohnen jagen Erdölvorkommen
Aufnahmen ermöglichen präzise geologische 3D-Modelle
 
Öl-Suchdrohne: macht sich ein Bild vom Gelände (Foto: Eivind Senneset)

Bergen (pte001/17.05.2013/06:00) – Forscher am Centre for Integrated Petroleum Research (CIPR) http://www.cipr.uni.no der Universität Bergen http://uib.no/en und der Forschungsorganisation Uni Research setzen auf Flugdrohnen für die Jagd nach Erdölreserven. "Wir hoffen, dass wir dank der Kamera auf der Drohne schnell Aufnahmen sammeln können, die es uns ermöglichen, sehr genaue, hochauflösende virtuelle 3D-Modelle von geologischen Aufschlüssen zu erstellen", erklärt Aleksandra Sima von der Gruppe Virtual Outcrop Geology (VOG) am CIPR gegenüber pressetext. Eben diese Modelle können dann helfen, Lagerstätten aufzuspüren.

Modelle statt Sprengungen

Während heute zum Aufspüren von Erdölvorkommen seismologische Methoden gängig sind, die oft Sprengungen erfordern, setzt das norwegische Team auf einen völlig anderen Zugang. Sie vermessen Gesteinsformationen so, dass sehr genaue digitale 3D-Karten des Gebiets entstehen. Denn die Oberfläche einer Landschaft gibt oft Aufschluss darüber, was darunter verborgen ist, so VOG-Gruppenleiter Simon Buckley. Wenn man einen genauen Überblick über Steine und Mineralien in einer Gegend hat, sei es viel leichter abzuschätzen, wo Öl zu finden ist und wie es im Untergrund fließt.

Bislang haben die Forscher mit Laser-Scannern (LIDAR), Infrarotsensoren und Kameras am Boden gearbeitet, was aber sehr zeitaufwendig ist und schlecht zugängliche Gebiete kaum abdecken kann. Aufnahmen mit Satelliten oder aus dem Flugzeug wiederum helfen nur bedingt, da sie kaum Details über annähernd vertikale Felswände enthalten, so Sima. Daher setzt das Team nun auf ferngesteuerte Flugdrohnen, um hochauflösendes Material auch von unzugänglichen Klippen zu sammeln, in der Hoffnung, dass das wirklich hochpräzise, möglichst optimale geologische 3D-Modelle – mit Auflösungen von etwa ein bis zehn Zentimetern pro Pixel – zu erstellen.

Virtuelle Feldarbeit möglich

Gelingt es, dieses Ziel zu erreichen, könnten die Flugdrohnen helfen, die Feldarbeit bei der Erdölsuche weitgehend zu virtualisieren. Denn Forscher könnten Informationen von der Gesteinsart bis zur Dicke von Sedimentablagerungen effektiv mit einigen Mausklicks abrufen, nachdem die ferngesteuerte Drohne das Gelände erkundet hat. Die eigentliche Herausforderung dabei ist Buckley zufolge dann gar nicht so sehr das Sammeln der Daten selbst, sondern deren sinnvolle Nutzung für geologische Analysen.

 

Tropischer Gürtel bewegt sich polwärts

Tropischer Gürtel bewegt sich polwärts
Klimawandel verschiebt trockenes Klima nach Norden und Süden
 
Dschungel: Tropen ziehen zum Nord- und Südpol (Foto: pixelio.de, Makrodepecher)

Riverside/Hamburg (pte036/24.05.2012/13:30) – Der tropische Gürtel der Erde verschiebt sich in die Richtung der beiden Pole. Das haben Forscher anhand eines Klimamodells errechnet. Verantwortlich dafür sind Ruß, Feinstaub und das Ozonloch. Die klimatischen Veränderungen wurden durch Menschen hervorgerufen. Der Treiber des tropischen Klimas ist in der südlichen Hemisphäre das Ozonloch. In der nördlichen Hemisphäre sind die Ozonbelastung und der Ruß verantwortlich für die Ausweitung des tropischen Klimas.

Subtropen werden trockener

"Ozon und Ruß haben beide die Eigenschaft, die Athmosphäre zu erwärmen", sagt Klimaforscherin Elina Marmer http://clisec.zmaw.de gegenüber pressetext. Studienleiter Robert J. Allen von der Riverside University of California http://ucr.edu beobachtet im Zuge des Klimamodells eine Expansion der tropischen Zone um 0,7 Grad pro Jahrzehnt.

"Wenn sich die Tropen polwärts bewegen, dann wird es in den Subtropen trockener. Das wird einen Effekt auf die regionale Landwirtschaft, Wirtschaft und Gesellschaft dieser Zonen haben", so Allen. "Das Ergebnis der Studie überrascht mich nicht – dieser Effekt ist in der Klimaforschung in aller Munde", sagt Marmer. Dass sich das tropische Klima in Richtung Nord- und Südpol verzieht, wussten die Forscher bereits.

Heißes Wetter am Mittelmeer

Das tropische Klima bringt Regen, es ist heiß und es regnet viel. In den Subtropen herrscht eigentlich ein trockenes Klima. "Wenn sich das verschiebt, wird es in den Subtropen feuchter und ein Teil des mittleren Klimas wird trockener – man vermutet, dass es rund um das Mittelmeer extrem trocken wird", erklärt Marmer. Man könne aber keine Aussagen über bestimmte Regionen treffen. Zum Effekt des Klimawandels kämen auch geografische Besonderheiten.

Gärreste nicht bedenklich – dennoch untersuchen

Biogasanlagen
Gärreste nicht bedenklich – dennoch untersuchen
***********************************************************
(aid) – Biogasanlagen sind in den vergangenen Jahren oft mit der Anreicherung pathogener Keime – und hier speziell mit Neurotoxin bildenden Clostridium botulinum-Stämmen in den Gärresten in Verbindung gebracht worden. Nach Ansicht von Professor Gerhard Breves von der Stiftung Tierärztliche Hochschule Hannover, Physiologisches Institut, jedoch zu Unrecht. "Dieses Thema wird in den Medien extrem hochgekocht, ohne Sachverstand", so begann Breves die Vorstellung seiner Untersuchungsergebnisse anlässlich der Fachtagung "Pflanzenbauliche Verwertung von Gärrückständen" zu der die Fachagentur Nachwachsende Rohstoffe (FNR) im März 2013 nach Berlin eingeladen hatte.

Breves untersuchte in einer für Niedersachsen repräsentativen Studie die Gärrückstände von 15 Biogasanlagen, jeweils fünf Anlagen aus Ackerbauregionen, aus Milchviehregionen und aus Veredelungsregionen. In keinem Fall war es möglich, Neurotoxin-Bildner nachzuweisen; auch Salmonellen wurden nicht gefunden. Dieses Ergebnis, so Breves, hat die gesamte Diskussion um dieses Thema extrem entlastet. Seine Ergebnisse ließen darauf schließen, dass durch den Fermentationsprozess bei der Biogasgewinnung die absolute Keimzahl stark reduziert wird und es zu einer Hygienisierung des Gärrückstandes kommt und nicht zu einer Verkeimung. Breves empfiehlt Biogasanlagenbetreibern dennoch aus Vorsorgegründen, in bestimmten Zeitabständen die Gärsubstrate und Gärreste einer mikrobiologischen Untersuchung zu unterziehen, um auf diesem Wege Sicherheit hinsichtlich des möglichen Risikopotenzials zu erreichen.

In einem Vortrag zu den phytosanitären Aspekten in Biogasanlagen sprach Dr. Martina Bandte, Humboldt-Universität zu Berlin, Fachgebiet Phytomedizin, von einer sogenannten Abreicherung von bakteriellen und pilzlichen Pathogenen. Ihre Untersuchungen ergaben, dass beim Fermentationsprozess z. B. verschiedene Clavibacter, Claviceps purpureum, verschiedene Fusarium-Arten und Alternaria und Rhizoctonia inaktiviert werden. Die Silierung des Ausgangssubstrats und auch die spätere Lagerung der Gärreste von mindestens vier Wochen tragen ebenfalls zur Inaktivierung und Reduktion von phytopathogenen Keimen bei.
Dr. Volker Bräutigam, www.aid.de

Neuer Satellit zeigt Meereis-Rückgang

Neuer Satellit zeigt genaues Ausmaß des Meereis-Rückganges in der Arktis

Bremerhaven 15. Februar 2013. Aktuelle Messungen des ESA-Eisdicken-Satelliten CryoSat-2 haben ergeben, dass die Gesamtmasse des arktischen Meereises im vergangenen Herbst 36 Prozent kleiner war als zur gleichen Zeit in den Jahren 2003 bis 2008. Betrug das Herbst-Volumen der Eisdecke bis vor fünf Jahren noch durchschnittlich 11900 Kubikkilometer, schrumpfte sie im vierten Quartal des Jahres 2012 auf 7600 Kubikkilometer. Zu diesem Ergebnis kommt ein internationales Forscherteam, nachdem es CryoSat-Daten der zurückliegenden zwei Jahre verglichen hat mit Messungen eines ehemaligen NASA-Satelliten sowie mit den Ergebnissen der Meereis-Untersuchungen des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung. Die Studie ist in der Online-Ausgabe des Fachmagazins Geophysical Research Letters erschienen und zeigt zum ersten Mal, wie genau Wissenschaftler die Entwicklung des arktischen Meereises mit CryoSat-2 beobachten können.

Als das arktische Meereis im Spätsommer des vergangenen Jahres so weit geschmolzen war, dass seine Fläche einen neuen Negativrekord aufstellte, war Meereisphysiker Stefan Hendricks genau am Ort des Geschehens – in der zentralen Arktis. Von Bord des Forschungsschiffes POLARSTERN aus starteten er und Kollegen mit Helikoptern, um mit einem Meereisdicken-Sensor im Schlepptau die Dicke des verbliebenen Eises zu vermessen; und das über eine Strecke von mehr als 3500 Kilometer. Daten wie diese haben Stefan Hendricks und Kollegen anschließend benutzt, um die Messmethode und die Messergebnisse des Eis-Satelliten CryoSat-2 zu überprüfen, den die ESA (European Space Agency) am 8. April 2010 in das Weltall gebracht hatte.

Der Satellit verfügt über einen Radar-Abstandsmesser, der erfasst, wie groß der Abstand zwischen der Eisoberfläche und dem darunterliegenden Meerwasser ist. CryoSat-2 umkreist die Erde zudem auf einer Umlaufbahn, die ihn dichter an den Nordpol heranführt als jeden seiner Vorgänger. Sein 1000 Meter breiter Radar-Strahl wandert dabei innerhalb eines Monats fast einmal über die gesamte Arktis, sammelt hochaufgelöste Daten und durchdringt im Gegensatz zu CryoSats Vorgänger ICESat auch die Wolkendecke. Technik, welche die Wissenschaftler begeistert und voranbringt: „Wir wissen jetzt, dass das CryoSat-Messverfahren gut funktioniert. Mit Hilfe des Satelliten ist es uns zum ersten Mal gelungen, eine nahezu vollständige Eisdicken-Karte der Arktis zu erstellen“, sagt Meereisphysiker und Mitautor Stefan Hendricks vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). AWI-Meereis-Experten messen seit dem Jahr 2003 in einem Projekt der ESA die Dicke von Meereis.

Die CryoSat-Daten aus den vergangenen zwei Jahren belegen, dass die Eisdecke in der Arktis im Herbst des Jahres 2012 etwa 36 Prozent und im Winter rund 9 Prozent kleiner war als in den gleichen beiden Zeiträumen in den Jahren 2003 bis 2008. Betrug das Herbst-Volumen der Eisdecke bis vor fünf Jahren noch durchschnittlich 11900 Kubikkilometer, schrumpfte sie im vierten Quartal des Jahres 2012 auf 7600 Kubikkilometer – ein Minus von 4300 Kubikkilometern. Das Winter-Volumen dagegen sank von 16300 Kubikkilometern (2003-2008) auf 14800 Kubikkilometer (2010-2012), ein Verlust von insgesamt 1500 Kubikkilometern.
Diese Einbußen führen die Wissenschaftler vor allem auf den Rückgang des drei bis vier Meter dicken, mehrjährigen Eises zurück. „Die CryoSat-Daten belegen, dass dieses dicke Meereis zum Beispiel in einer Region nördlich Grönlands, am Kanadisch-Arktischen Archipel sowie auch nordöstlich Spitzbergens verschwunden ist”, sagt Mitautorin Dr. Katharine Giles vom University College London.

Hochwasserschadensdatenbank online

Mit der Hochwasserschadensdatenbank HOWAS 21 wurde von Wissenschaftlern des Helmholtz-Zentrums Potsdam – Deutsches GeoForschungsZentrum eine Datengrundlage für Hochwasserschäden geschaffen.

Neues Informationssystem für den Hochwasserschutz in Bitterfeld
Ein internetgestütztes Entscheidungshilfesystem des UFZ ermöglicht jetzt bessere Vorhersagen, wie hoch das Wasser nach einem Deichbruch steht. Zusätzlich gibt das System Auskunft über Schadstoffbelastungen durch das Hochwasser.

Flächenversiegelung & Grundwasser
Durch die zunehmende Versiegelung steigt das Hochwasserrisiko, belegen Studien des UFZ.

Eingefroren in der Arktis

Gemeinsame Pressemitteilung AWI und BMBF

Ein Jahr eingefroren in der Arktis

Internationale MOSAiC-Expedition mit deutschem Forschungsschiff Polarstern startet im Herbst 2019

Bremerhaven/Berlin, 27. Juni 2018. Es wird die größte
Arktis-Forschungsexpedition aller Zeiten: Im September 2019 wird der
deutsche Forschungseisbrecher Polarstern vom norwegischen Tromsø in die
Arktis aufbrechen und ein Jahr lang fest eingefroren im arktischen Eis
durch das Nordpolarmeer driften. Versorgt von weiteren Eisbrechern und
Flugzeugen werden insgesamt 600 Menschen aus 17 Ländern an der
Expedition teilnehmen. Ein Vielfaches an Wissenschaftlern wird mit den
Daten arbeiten, um die Klima- und Ökosystemforschung auf ein neues
Niveau zu heben. Geleitet wird die Mission vom Alfred-Wegener-Institut,
Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).

Vor 125 Jahren brach Fridtjof Nansen mit seinem Segelschiff Fram zur
ersten Drift-Expedition dieser Art auf. Doch eine Expedition wie die
jetzt geplante hat es noch nie gegeben: MOSAiC bringt erstmals einen
modernen Forschungseisbrecher beladen mit wissenschaftlichen
Instrumenten im Winter in die Nähe des Nordpols. Vier weitere Eisbrecher
werden zur logistischen Unterstützung eingesetzt werden. Für
Versorgungsflüge und zwei Forschungsflugzeuge wird eigens eine Landebahn
eingerichtet. Darüber hinaus werden Helikopter, Raupenfahrzeuge und
Schneemobile zum Einsatz kommen. Diese aufwändige Polarmission ist
nötig, um in der im Winter nahezu unerreichbaren Region dringend
benötigte Daten für die Klimaforschung zu erheben. Diese werden der
Menschheit neue Einblicke in die Austauschprozesse zwischen Ozean, Eis
und Atmosphäre erlauben. Der Einfluss der arktischen Regionen auf unser
Klima ist gewaltig und derzeit unzureichend verstanden.

„Die Erkenntnisse, die aus der MOSAiC-Expedition resultieren, werden
unser Wissen über die Arktis auf ein neues Niveau heben. Wir brauchen
diese Daten dringend, um die Auswirkungen des weltweiten Klimawandels
genauer zu verstehen und unsere Prognosen zu verbessern“, sagt
Bundesforschungsministerin Anja Karliczek. Deutschland hat mit dem
Alfred-Wegener-Institut ein weltweit führendes Zentrum der
Polarforschung mit langjährigen internationalen Kontakten. „Dem AWI ist
es gelungen, führende Arktisforschungseinrichtungen der Welt zu diesem
einmaligen Vorhaben zusammenzubringen“, so die Ministerin weiter. Auch
auf politischer Ebene wird mit Blick auf die Arktisforschung
international zusammengearbeitet. Unter dem Motto „Arctic Science,
Challenges and Joint Actions“ werden Deutschland, die Europäische
Kommission und Finnland im Herbst 2018 in Berlin die zweite
Wissenschaftsministerkonferenz zur Arktisforschung ausrichten.
Repräsentanten aus 30 Nationen und Regionen, in der Mehrzahl
Ministerinnen und Minister, werden unter Beteiligung von Vertreterinnen
und Vertretern der indigenen Völker der Arktis die Arktisforschung der
Zukunft diskutieren.

Bei der MOSAiC-Expedition bestimmt allein die Naturgewalt des driftenden
Meereises die Route, auf der das Forschungsschiff Polarstern jenseits
des Polarkreises unterwegs sein wird. Eisbrecher aus Russland, China und
Schweden werden die Scholle anlaufen, um die Expedition mit Treibstoff
zu versorgen und Personal auszutauschen. „Ein solches Vorhaben gelingt
nur durch internationale Zusammenarbeit“, erläutert Prof. Antje Boetius,
Direktorin des Alfred-Wegener-Instituts. Neben der Polarstern entsteht
auf der mindestens 1,5 Meter dicken Eisscholle ein Netzwerk
verschiedener Forschungscamps. Hier richten die verschiedenen Teams
Messstellen ein, um Ozean, Eis und Atmosphäre sowie das arktische Leben
im Winter zu erforschen. „Was in der Arktis passiert, bleibt nicht in
der Arktis. Die Klimaentwicklung in unseren Breiten hängt entscheidend
vom Geschehen in der Wetterküche der Arktis ab. Wir müssen jetzt
hinsehen und die Wechselwirkung zwischen Atmosphäre, Eis und Ozean dort
erforschen“, sagt Expeditionsleiter und Koordinator des MOSAiC Projekts
Prof. Markus Rex, Leiter der Atmosphärenforschung am
Alfred-Wegener-Institut. „Und die arktische Polarnacht spielt eine
Schlüsselrolle für die Anpassung des Lebens, wir erwarten also auch für
die Biologie ganz neue Erkenntnisse“, ordnet Boetius das Großprojekt
ein. Die Expedition hat fünf Forschungsschwerpunkte: die Physik des
Meereises und der Schneeauflage, die Prozesse in der Atmosphäre sowie im
Ozean, die biogeochemischen Kreisläufe und das Ökosystem der Arktis.

Die Arktis gilt als Frühwarnsystem für den Klimawandel. Das dunkle
Wasser nimmt mehr Energie auf als Eis, welches die Sonnenstrahlung
reflektiert, und durch das dünnere Eis gelangt mehr Wärme aus dem
relativ warmen Ozean an die Oberfläche und in die Atmosphäre. So
verstärken Rückkopplungseffekte die Erwärmung der Arktis erheblich. Es
fehlen die Beobachtungen, um die einzelnen Vorgänge im Ozean, im Meereis
und in der Atmosphäre sowie deren Wechselwirkungen zu verstehen und in
unseren Klimamodellen quantitativ zu beschreiben. „Die Dramatik der
Erwärmung in der Arktis wird in den heutigen Klimamodellen nicht in
vollem Umfang wiedergegeben und die Unsicherheiten der Klimaprognosen
für die Arktis sind enorm“, beschreibt Markus Rex die aktuellen Lücken.
„Deshalb müssen wir vor allem im Winter die Prozesse im Klimageschehen
umfassend studieren“, so der AWI-Atmosphärenforscher. Und was in der
Arktis passiert, wirkt sich auch heute schon in Europa, Asien und
Nordamerika aus: Geringere Temperaturunterschiede zwischen Arktis und
Tropen destabilisieren die typischen Luftdruckmuster, sodass polare
Kaltluft in die gemäßigten Breiten gelangt und Vorstöße von warmer,
feuchter Luft in die zentrale Arktis hinein verstärkt zur Beschleunigung
der Erwärmung beitragen.

Das Budget der Expedition beträgt über 120 Millionen Euro, das von den
teilnehmenden internationalen Partnern, vor allem aber über die
Helmholtz-Gemeinschaft und damit zu 90 Prozent vom Bundesministerium für
Bildung und Forschung (BMBF) getragen wird. Auch wenn es bis zum
Expeditionsstart selbst noch etwa ein Jahr hin ist, begannen erste
Planungen bereits im Jahr 2011. Nun gehen die Vorbereitungen in die
letzte heiße Phase. Der Countdown für die spektakulärste
Arktisexpedition unserer Zeit beginnt.

Was den Bewohnern von Peking den Atem raubt

der Smog-Alarm in dieser Woche in
Peking zeigt, wie brisant das Thema Luftverschmutzung in der
chinesischen Hauptstadt ist. Welche Faktoren die Luftqualität in der
Megametropole bestimmen, untersuchen Forscher des Karlsruher Instituts
für Technologie (KIT) bereits seit zehn Jahren. In der Arbeitsgruppe
Umweltmineralogie und Umweltsystemanalyse um Professor Stefan Norra
befassen sich die Forscher unter anderem mit der Entwicklung der
Feinstaubbelastung. Vor wenigen Tagen richteten die chinesischen Partner
um Professor Kuang Cen von der China University of Geosciences in
Peking dazu ein Symposium aus.

Schlechte Sicht, Menschen mit Atemmasken,
Fahrverbote, geschlossene Fabriken und stillgelegte Baustellen: In
dieser Woche hat Chinas Hauptstadt Peking erstmals die höchste Stufe des
Smog-Alarms ausgerufen. Eine graue Dunstglocke hängt über der
Megametropole. Smog, das heißt eine stark erhöhte Konzentration von
Luftschadstoffen, die bei bestimmten meteorologischen Bedingungen über
dicht besiedelten Gebieten auftritt, stellt schon seit vielen Jahren
immer wieder ein Problem in chinesischen Metropolen dar.
Feinstaubpartikel von wenigen Mikrometern Größe können tief in die Lunge
eindringen, von dort in die Blutbahn gelangen und Entzündungen
auslösen. Mögliche Folgen sind Reizungen der Schleimhäute und Atemwege,
Herz-Kreislauf-Erkrankungen und sogar Krebs.

Die Arbeitsgruppe Umweltmineralogie und
Umweltsystemanalyse um Professor Stefan Norra am KIT befasst sich
bereits seit 2005 mit der Luftqualität in Peking. So untersuchen die
Forscherinnen und Forscher die langfristige Entwicklung der
Staubbelastung, Wechselwirkungen zwischen natürlichen und vom Menschen
verursachten Partikeln sowie die Auswirkungen der jeweiligen städtischen
Nutzungstypen auf die Luftbelastung. Die Arbeitsgruppe ist am Institut
für Angewandte Geowissenschaften (AGW) und am Institut für Geographie
und Geoökologie (IfGG) angesiedelt.

Jüngst untersuchten Professor Stefan Norra und Dr.
Nina Jasmin Schleicher vom KIT gemeinsam mit Wissenschaftlern aus
Bordeaux und Peking die zeitliche und räumliche Verteilung sowie die
Quellen von partikelgebundenem Quecksilber (HgP) in der Luft über Peking
(N. J. Schleicher, J. Schäfer, G. Blanc, Y. Chen, F. Chai, K. Cen, S.
Norra: Atmospheric particulate mercury in the megacity Beijing:
Spatio-temporal variations and source apportionment. Atmospheric
Environment 109, 2015. DOI: 10.1016/j.atmosenv.2015.03.018). Quecksilber
kann Mensch und Umwelt schädigen. „Wie unsere Messungen ergaben, sind
die Quecksilberkonzentrationen in Peking gerade in der Heizperiode
alarmierend hoch“, berichtet der Geoökologe Stefan Norra. Denn die
Konzentrationen waren zeitlich im Winter, räumlich in der Innenstadt
innerhalb der dritten Ringstraße am höchsten. Als Hauptquelle der
Quecksilberemissionen ermittelten die Forscher besonders die
Kohleverbrennung; außerdem tragen Industrie, Verkehr sowie in geringerem
Maße auch die rote Farbe an historischen Gebäuden dazu bei.
„Quecksilber in der Luft sollte aufgrund seiner Toxizität künftig
stärker im Fokus von Beobachtungsaktivitäten und Minderungsmaßnahmen
stehen“, erklärt Norra.

Welchen Erfolg Maßnahmen zur Verringerung
atmosphärischer Partikelbelastung haben können, zeigten die Olympischen
Spiele 2008 in Peking. Damals durften in der Stadt und den umliegenden
Provinzen nur halb so viele Fahrzeuge wie sonst fahren, Restaurants mit
Kohleherden sollten Rußfilter einsetzen, die Produktion in der
Schwerindustrie wurde teilweise unterbrochen. Stefan Norra und sein Team
nahmen täglich Proben von Partikeln in der Luft, untersuchten Masse und
chemische Zusammensetzung. Tatsächlich verringerten die Maßnahmen die
Staubbelastung, aber nur solange sie in Kraft waren. Nach dem Ende der
Olympischen Spiele nahm die Luftverschmutzung rasch wieder zu.

Vor einigen Tagen stiegen in Peking die Werte für
den besonders gesundheitsschädigenden PM 2,5-Feinstaub (Partikel mit
einem Durchmesser von 2,5 Mikrometern und weniger) auf über 600
Mikrogramm pro Kubikmeter – mehr als das 24-Fache des Grenzwerts der
Weltgesundheitsorganisation. Vor allem Industrie, Verkehr und private
Haushalte sind für die Feinstaubbelastung verantwortlich. Zu den vom
Menschen verursachten Partikeln kommt in Peking noch geogener Staub
hinzu, der durch natürliche Prozesse aus Trockengebieten
herantransportiert wird. Er verursacht vor allem in den Frühjahrsmonaten
weitere intensive Staubbelastungen, sogenannte Staubstürme.

Neben kontinuierlichen Messungen über Jahre zu
verschiedenen Tageszeiten und an verschiedenen Standorten wurden in
dieser Kooperation unter anderem die vertikale Ausdehnung der
Luftbelastung mit Kolleginnen und Kollegen vom Institut für Meteorologie
und Klimaforschung – Atmosphärische Umweltforschung und dem Institut
für Regionalwissenschaften des KIT untersucht sowie das von Dr. Heike
Vogel und  Dr. Bernhard Vogel  am Institut für Meteorologie und
Klimaforschung – Forschungsbereich Troposphäre am KIT entwickelte
Programm COSMO-ART angewendet, um die Ausbreitung der Partikel zu
modellieren. Für Peking ist ein wichtiges Ziel, Methoden zu entwickeln,
um die Feinstaubbelastung für die jeweils nächsten Tage vorhersagen zu
können.