Archiv der Kategorie: Erde, Klima, Umweltschutz

Himmel über Europa: Messkampagne zur Luftqualität

London, Rom, Madrid, Berlin: Was
aussieht wie eine Bucket List für Städtetrips, ist tatsächlich die
aktuelle Route des Forschungsflugzeugs HALO: Bis Ende Juli untersuchen
Atmosphärenforscher aus ganz Deutschland die Luftbelastung über
europäischen Ballungszentren. Ziel ist es, die Auswirkungen der
Verschmutzung auf die Erdatmosphäre besser verstehen und vorhersagen zu
können. Mit zwei Messinstrumenten haben die Forscher des Karlsruher
Instituts für Technologie (KIT) insbesondere die Konzentrationen von
Ozon und flüchtigen Kohlenwasserstoffen im Blick.

Fokus der aktuellen Messkampagne, welche die
Universität Bremen koordiniert, ist die chemische Charakterisierung der
Verschmutzungen und deren Einfluss auf die Luftqualität in den meist
ländlichen Regionen in den Abgasfahnen der Großstädte. Die
Wissenschaftlerinnen und Wissenschaftler nutzen dafür das
Forschungsflugzeug HALO des Deutschen Zentrums für Luft- und Raumfahrt
(DLR). Die Forschergruppe um Andreas Zahn und Marco Neumaier vom
Institut für Meteorologie und Klimaforschung des KIT ist mit zwei
speziell für Flugzeuge entwickelten Instrumenten vertreten. Eins misst
extrem genau und schnell – mit zehn Messungen pro Sekunde – das reaktive
Spurengas Ozon. „Bodennahes Ozon entsteht insbesondere an sonnigen
Tagen aus Stickoxiden, die beispielsweise aus Autoabgasen stammen, und
trägt maßgeblich zur Bildung des Sommersmogs bei. Interessanterweise
treten die höchsten Ozonkonzentrationen dabei nicht direkt in den
Ballungszentren auf, sondern in den angrenzenden ländlichen Gebieten“,
sagt Andreas Zahn vom IMK. Eine Schlüsselrolle dabei spielen flüchtige
organische Verbindungen, kurz VOCs (von engl. Volatile Organic
Compounds). „Diese Stoffe, dazu zählen unter anderem Aceton, Methanol
oder Benzol, werden entweder von Pflanzen in die Atmosphäre ausgestoßen
oder sind vom Menschen verursacht, etwa Abgase aus dem Verkehr“,
erläutert Marco Neumaier. Das zweite Instrument des KIT, ein
hochkomplexes Protonen-Transfer-Reaktions-Massenspektrometer, kann eine
Vielzahl dieser VOCs in kleinsten Spuren in Echtzeit messen. „Damit ist
das Gerät in der Lage, in 100 Milliarden Luftmolekülen ein einzelnes
Aceton-Molekül nachzuweisen“, so Neumaier.

Die aktuellen Messflüge – mit 52 Flugstunden
bis Ende Juli – sind die erste Phase der  internationalen Messkampagne
„EMeRGe” (steht für „Effect of Megacities on the transport and
transformation of pollutants on the Regional and Global scales”). An
Bord von HALO befinden sich dafür mehr als 15 hochempfindliche
Instrumente zum Messen von Spurengasen und Aerosolpartikeln. Sieben
deutsche Forschungszentren und Universitäten sind an der Kampagne
beteiligt, welche das Institut für Umweltphysik der Universität Bremen
leitet. Die Abkürzung HALO steht für „High Altitude and Long Range
Research Aircraft“ (deutsch: „Hochfliegendes Forschungsflugzeug mit
langer Reichweite“).

Europaweit ergänzende Messungen

Parallel laufen über ganz Europa zusätzliche
Messungen mit weiteren Flugzeugen sowie mit bodengestützten
Messsystemen. Die zweite Phase der Messkampagne wird dann im Frühjahr
2018 Asien in den Blick nehmen und in Taiwan stattfinden.

DFG fördert EMeRGe mit rund sechs Millionen Euro

Weitere Projektpartner sind das
Max-Planck-Institut für Chemie, die Universitäten Mainz und Heidelberg,
die Bergische Universität Wuppertal sowie das Forschungszentrum Jülich.
EMeRGe wird mit rund sechs Millionen Euro von der Deutschen
Forschungsgemeinschaft (DFG), der Max-Planck-Gesellschaft (MPG) und dem
DLR bis April 2018 finanziert.

Über HALO

Das Forschungsflugzeug HALO ist eine
Gemeinschaftsinitiative deutscher Umwelt- und
Klimaforschungseinrichtungen. HALO wurde aus Mitteln des
Bundesministeriums für Bildung und Forschung, der Helmholtz-Gemeinschaft
und der Max-Planck -Gesellschaft beschafft. Der Betrieb von HALO wird
von der DFG, der Max-Planck-Gesellschaft, dem Forschungszentrum Jülich,
dem Karlsruher Institut für Technologie, dem Deutschen
GeoForschungsZentrum GFZ in Potsdam und dem Leibniz-Institut für
Troposphärenforschung in Leipzig (TROPOS) getragen. Das DLR ist zugleich
Eigner und Betreiber des Flugzeugs.

Schmelzwassertümpel lassen Meereisdecke schmelzen

Schmelzwassertümpel lassen die arktische Meereisdecke schneller schmelzen

Bremerhaven, 15. Januar 2013. Die arktische Meereisdecke ist im zurückliegenden Jahrzehnt nicht nur geschrumpft, sondern auch deutlich jünger und dünner geworden. Wo früher meterdickes, mehrjähriges Eis trieb, finden Forscher heute vor allem dünne, einjährige Schollen, die in den Sommermonaten großflächig mit Schmelzwassertümpel bedeckt sind. Meereisphysiker des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) haben nun erstmals die Lichtdurchlässigkeit des arktischen Meereises großflächig vermessen und dabei diese Veränderung in Zahlen fassen können. Ihr Ergebnis: Überall dort, wo sich Schmelzwas ser auf dem Eis ansammelt, dringt viel mehr Sonnenlicht und somit Energie in das Eis ein als an wasserfreien Stellen. Die Folge: Das Eis schmilzt schneller und der Lebensraum im und unter dem Eis erhält mehr Licht. Diese neuen Erkenntnisse haben die Forscher im Fachmagazin Geophysical Research Letters veröffentlicht.

Schmelzwassertümpel zählen zu den Lieblingsmotiven der Eis- und Landschaftsfotografen in der Arktis. Mal schimmern sie in einem verführerischen Karibik-Meerblau, mal liegen sie dunkel wie ein See bei Regenwetter auf der Scholle. „Ihre Farbe hängt ganz davon ab, wie dick das verbleibende Eis unter dem Tümpel ist und wie stark der darunterliegende Ozean durch dieses Eis hind urchscheinen kann. Tümpel auf dickerem Eis sind eher türkis, jene auf dünnem Eis dunkelblau bis schwarz“, sagt Dr. Marcel Nicolaus, Meereisphysiker und Schmelztümpel-Experte vom Alfred-Wegener-Institut.

Er und sein Team haben in den zurückliegenden Jahren bei Expeditionen in die zentrale Arktis auffallend viele Schmelzwassertümpel gesichtet. Nahezu die Hälfte des einjährigen Eises war mit Tümpeln überzogen. Eine Beobachtung, welche die Wissenschaftler auf den Klimawandel zurückführen. „Die Eisdecke des Arktischen Ozeans verändert sich seit einigen Jahren grundlegend. Dickes, mehrjähriges Eis sucht man mittlerweile fast vergebens. Stattde ssen besteht die Eisdecke heutzutage zu mehr als 50 Prozent aus dünnem einjährigen Eis, auf dem sich Schmelzwasser besonders großflächig ausbreitet.

Ausschlaggebend dafür ist die glattere Oberfläche dieses jungen Eises. Sie erlaubt es dem Schmelzwasser, sich weit zu verteilen und ein Netz aus vielen einzelnen Tümpeln zu bilden“, erklärt Marcel Nicolaus. Das ältere Eis dagegen besäße eine verformte Oberfläche, die im Laufe der Jahre durch die ständige Schollenbewegung und unzählige Zusammenstöße entstanden sei. Auf diesem unebenen Untergrund bildeten sich viel weniger und kleinere Tümpel, die dann jedoch deutlich tiefer seien als die flac hen Teiche auf dem jüngeren Eis.

Die steigende Zahl der „Fenster zum Ozean“, wie Schmelztümpel auch genannt werden, warf für Marcel Nicolaus eine grundlegende Forschungsfrage auf: Inwieweit verändern die Tümpel und die abnehmende Eisdicke die Menge des Lichts unter dem Meereis? Immerhin stellt das Licht im Meer – wie auch an Land – die Hauptenergiequelle für die Photosynthese dar. Ohne Sonnenlicht wachsen weder Algen noch Pflanzen. Marcel Nicolaus: „Wir wussten, dass eine Eisscholle mit einer dicken, frischen Schneeschicht zwischen 85 und 90 Prozent des Sonnenlichtes in das Weltall zurückstrahlt und nur wenig in den Ozean durchlassen wür de. Im Gegensatz dazu konnten wir davon ausgehen, dass im Sommer, wenn der Schnee auf dem Eis geschmolzen und das Meereis mit Tümpeln bedeckt ist, wesentlich mehr Licht durch das Eis hindurchdringt.“

Um herauszufinden, in welchem Maß arktisches Meereis Sonnenstrahlen passieren lässt und wie groß der Einfluss der Schmelzwassertümpel auf diese Durchlässigkeit ist, statteten die AWI-Meereisphysiker einen ferngesteuerten Tauchroboter (ROV „Alfred“) mit Lichtsensoren und einer Kamera aus. Diesen Roboter schickten sie im Sommer 2011 während einer Arktis-Expedition des Forschungseisbrechers POLARSTERN an mehreren Stationen direkt unter das Eis. Das Gerät erfasste auf seinen Tauchgängen, wie v iel Sonnenenergie durch das Eis drang. Und das an insgesamt 6000 Einzelpunkten mit jeweils unterschiedlichen Eiseigenschaften!

Auf diese Weise entstand ein bisher einmaliger Datensatz, dessen Ergebnisse aufhorchen lassen. Marcel Nicolaus: „Das junge dünne Eis mit den vielen Schmelztümpeln lässt nicht nur dreimal mehr Licht passieren als das ältere. Es absorbiert auch doppelt so viel Sonnenstrahlung. Beides bedeutet im Umkehrschluss, dass dieses dünne, von Tümpeln überzogene Eis deutlich weniger Sonnenstrahlen reflektiert als das dicke Eis. Seine Rückstrahlquote liegt bei gerade mal 34 Prozent. Zudem nimmt das junge Eis mehr Sonnenenergie und somit Wärme auf, wodurch sein Schmelzen vora ngetrieben wird. Das Eis schmilzt gewissermaßen von innen“ sagt Marcel Nicolaus.

Welches Zukunftsbild lässt sich anhand dieser neuen Erkenntnisse zeichnen? Marcel Nicolaus: „Wir gehen davon aus, dass im Zuge des Klimawandels künftig mehr Sonnenlicht in den Arktischen Ozean gelangen wird – und das insbesondere auch in jenem Teil, der nach wie vor im Sommer vom Meereis bedeckt ist. Der Grund: Je größer der Anteil des einjährigen Eises an der Meereisdecke wird, desto mehr und größere Schmelztümpel werden sich bilden. Diese wiederum führen dazu, dass die Reflexionsfähigkeit des Eises sinkt, die Transmission steigt, das Eis poröser wird, mehr Sonnenstrahlung durch die Schollen dringt und zeitgleich mehr Wärme vom Eis aufgenommen wird. Eine Entwicklung, die das Abschmelzen der gesamten Eisfläche weiter beschleunigen wird.“ Gleichzeitig aber werde den Lebewesen im und unter dem Eis künftig mehr Licht zur Verfügung stehen. Ob und wie diese allerdings mit der neuen Helligkeit zurechtkommen, wird gegenwärtig noch in Zusammenarbeit mit Biologen untersucht.

Voraussetzung, wenn Energiewende funktionieren soll: Erneuerbare Energien chemisch speichern

2050 sollen 80
Prozent des Stroms in Deutschland aus erneuerbaren Energiequellen stammen. Um
dies zu erreichen, ist es notwendig, elektrische Energie in chemischen
Energieträgern zu speichern. Im Schwerpunktprogramm „Katalysatoren und
Reaktoren unter dynamischen Betriebsbedingungen für die Energiespeicherung und
-wandlung“ (SPP 2080, DynaKat) der Deutschen Forschungsgemeinschaft (DFG)
untersuchen zwölf große Forschungskonsortien, wie sich katalytische
Reaktionssysteme unter solchen Bedingungen verhalten. Das Karlsruher Institut
für Technologie (KIT) koordiniert das Schwerpunktprogramm.

Sonne und Wind
sind neben Biomasse die wichtigsten erneuerbaren Energieträger, aber sie stehen
nicht gleichmäßig zur Verfügung. An wind- und sonnenreichen Tagen fällt mehr
Strom an, als in die Netze eingespeist werden kann. Diese Überproduktionen aus
Windkraft- und Photovoltaikanlagen lassen sich in Chemikalien speichern. So
kann elektrische Energie zu einem späteren Zeitpunkt wieder zur Verfügung
stehen, die Chemikalien können aber auch als nachhaltige Bausteine genutzt
werden, um Treibstoffe oder Plattformmoleküle für die chemische Industrie
herzustellen.

Für die
Umwandlung von Kohlendioxid oder Wasserstoff in Speichermoleküle wie Methan,
Kohlenwasserstoffe oder Alkohole sind Katalysatoren, elektrochemische Zellen
und Reaktoren notwendig. Wie sich der Einfluss wechselhafter dynamischer
Gegebenheiten von außen – durch das Schwanken von Windstärke und Sonneneinstrahlung
– auf die katalytischen Reaktionssysteme auswirkt, wurde bislang kaum
betrachtet. „Man weiß jedoch, dass sich die Struktur fester Katalysatoren und
damit ihre katalytische Wirkung mit den Reaktionsbedingungen stark ändern kann.
Dies ist wissenschaftlich hochspannend“, sagt Professor Jan-Dierk Grunwaldt von
den Instituten für Technische Chemie und Polymerchemie (ITCP) sowie für
Katalyseforschung und -technologie (IKFT) des KIT. Der Inhaber des Lehrstuhls
für Chemische Technik und Katalyse koordiniert das DFG-Schwerpunktprogramm
DynaKat, an dem neben dem KIT zahlreiche weitere renommierte
Forschungseinrichtungen in ganz Deutschland beteiligt sind, darunter das
Forschungszentrum Jülich, die TU München und mehrere Max-Planck-Institute wie
das Berliner Fritz-Haber-Institut. Das Kick-off-Meeting fand im Februar mit
über 70 Teilnehmenden in Karlsruhe statt. Die deutschlandweit zwölf
interdisziplinären, überregionalen Forschungsprojekte untergliedern sich in 34
Teilprojekte, sieben von ihnen sind am KIT verortet, das sich mit dem ITCP, dem
IKFT sowie dem Institut für Mikroverfahrenstechnik (IMVT)
beteiligt.    

Die DFG fördert
das auf insgesamt sechs Jahre angelegte Schwerpunktprogramm DynaKat zunächst
für drei Jahre mit 8,5 Millionen Euro. Der projektstärkste Partner ist das KIT.

„Wir wollen
Veränderungen des Materials der Katalysatoren unter dynamischen Bedingungen
grundlegend verstehen und verbessern“, sagt Dr. Erisa Saraçi, wissenschaftliche
Mitarbeiterin am IKFT und Mitorganisatorin des Kick-off-Meetings am KIT. Dafür
werden alle beteiligten Prozesse untersucht, von den Vorgängen auf der atomaren
Ebene des Katalysators bis zur räumlichen Verteilung der Stoffkonzentrationen
und Temperaturen auf Reaktorebene. Für ein grundlegendes Verständnis der Prozesse
und um neue Ansätze im Material- und Reaktordesign zu entwickeln, kommen
klassische etablierte Experimente ebenso zum Einsatz wie neueste
spektroskopische Methoden und Möglichkeiten der Modellierung.

Das Einbeziehen
des wissenschaftlichen Nachwuchses spielt im DFG-Schwerpunktprogramm DynaKat
eine wichtige Rolle, so steht ein Blockkurs am KIT zum Thema „Technologien und
Ressourcen für Erneuerbare Energien: Von Wind und Solar zu Chemischen
Energieträgern“ interessierten Studierenden und Promovierenden offen. „In der
Forschung kommt man ohne Netzwerke und Teamarbeit nicht voran, da die einzelnen
Teildisziplinen sehr komplex sind“, sagt Sebastian Weber, Doktorand am
IKFT/ITCP. Gerade für den wissenschaftlichen Nachwuchs seien der Austausch und
das Zusammenbringen unterschiedlicher Expertisen wertvoll, betonen Saraçi und
Weber. „Es geht darum, Kompetenzen zu bündeln und das Themengebiet
deutschlandweit voranzutreiben, um darin international führend zu werden“, so
Programmkoordinator Grunwaldt.

Details zum Schwerpunktprogramm:
http://www.itcp.kit.edu/spp2080/

Weitere
Informationen zum Koordinator Jan-Dierk Grunwaldt: http://www.itcp.kit.edu/grunwaldt

 Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Wasserstoffgewinnung aus Biomüll

Clostridia-Bakterien sorgen für geringe Betriebstemperatur

Cagliari (pte/26.02.2008/13:43) – Eine Forschergruppe des Dipartimento di Geoingegneria e Tecnologie Ambientali an der Universität von Cagaliari http://geoing.unica.it/ hat ein Verfahren entwickelt, das die Gewinnung von 75 Litern Wasserstoff aus einem Kilogramm Biomüll ermöglicht. Die sogenannte HyMeC-Technologie ist in enger Zusammenarbeit mit Wissenschaftlern der römischen Universität La Sapienza entstanden.

"Problematisch bei der Herstellung von Wasserstoff ist, dass sie meist mit Hilfe von nicht erneuerbaren Energien geschieht und zudem sehr kostenaufwendig ist," erläutert Projektleiter Aldo Muntoni. "Unser biologisches Prinzip hingegen beruht im Wesentlichen auf dem Einsatz von Clostridia-Bakterien, die Abfälle unter Sauerstoffabschluss vergären und wenig Energiezufuhr benötigen. Im Gegensatz zu den an ähnlichen Verfahren arbeitenden Kollegen in Deutschland kommen wir mit 39 Grad Celsius und somit einer deutlich geringeren Betriebstemperatur aus."

"Ein weiterer Vorteil besteht darin, dass HyMeC ohne chemische Zusatze oder thermische Vorbehandlung der Biomasse funktioniert", meint Muntoni. Hinzu komme die Tatsache, dass neben dem Feuchtmüll auch die bei der getrennten Müllsammlung verbleibende Trockenfraktion weiterverarbeitet werden könne. Dieser Teil sei meist mit verschiedenen organischen Stoffen versetzt, die normalerweise in der Müllverbrennungsanlage oder Deponie landen würden.

Nach zwei bis vier Tagen anaerobischer Vergärung bei 39 Grad entsteht ein stabiles Gemsich aus Wasserstoff und Kohlendioxid. Die verbleibende Masse wird einem zweiten, ebenfalls unter anaeroben Bedingungen arbeitenden Reaktor zugeführt, der je Kilogramm 700 Liter Methangas und CO2 produziert. Um die flüssige Restmasse zu stabilisieren, wird sie mit Holz- und Sägespänen vermengt, um dann als Dünger in der Landwirtschaft oder im Gartenbau eingesetzt zu werden.

Der gewonnene Wasserstoff wird nach der Trennung von Kohlendioxid und Methan in Pemfc-Brennstoffzellen gefüllt. Kohlendioxid und Methan können in Form von Mcfc-Brennstoffzellen weiterverwendet werden. "Im Fall einer großindustriellen Anwendung wird die herkömmliche Verwertung von Biomasse nicht nur durch ein weiteres Element bereichert, sondern gleichzeitig auch die durch Müll hervorgerufene Umweltbelastung reduziert", meint Muntoni abschließend. (Ende)

Antarktis. Lebensraum der Pinguine

Pinguinkot zeigt Klimawandel in der Antarktis

Forscher nehmen Essgewohnheiten der Tiere auf NASA-Satellitenfotos genauer unter die Lupe

Antarktis: Lebensraum für Adeliepinguine (Foto: Catie Foley, lynchlab.com)
Antarktis: Lebensraum für Adeliepinguine (Foto: Catie Foley, lynchlab.com)

 

Forscher der Stony Brook University haben mit Unterstützung der NASA  Unmengen von Satellitenbildern ausgewertet, um einen guten Einblick in die Entwicklung der weltweiten Population von Adeliepinguinen zu bekommen und auch deren Essgewohnheiten zu erforschen. Die Aufnahmen aus dem Weltall zeigen nicht die Tiere selbst, aber ihre Exkremente, die aufgrund ihrer Einfärbung Rückschlüsse auf die Ernährung erlauben.

Gradmesser für Klimawandel

„Satellitenaufnahmen haben sich als sehr hilfreich erwiesen, wenn es darum geht, Veränderungen in den Ernährungsgewohnheiten von Adeliepinguinen in der Antarktis zu beobachten“, zitiert das chinesische Nachrichtenportal „Xinhua“ Heather Lynch vom Lynch Lab for Quantitative Ecology  , Associate Professor am Department of Ecology & Evolution der Stony Brook University. Diese Veränderungen seien ein guter Gradmesser, um die Folgen des Klimawandels auf den gesamten Lebensbereich der Antarktis zu untersuchen. „Auch wenn ihre Population global gesehen leicht zugenommen hat, sind die Bestände in einigen Regionen bereits signifikant zurückgegangen“, stellt die Forscherin klar.

Die Aufnahmen, die man von der NASA erhalten habe, seien allerdings nicht dazu geeignet, individuelle Tiere aufzuspüren, sondern nur die Überbleibsel deren Stoffwechselprozesse, die als „Guano“ bezeichnet werden. „Männliche und weibliche Pinguine wechseln sich beim Brüten ab. Das Guano, das sie zurücklassen, bleibt überall dort liegen, wo sie ihre
Nester haben“, erklärt Lynch. Wenn man also die Exkremente findet und zählt, könne man auch die Zahl der in einer Kolonie lebenden Tiere sehr gut abschätzen. „Wir kommen auf 3,8 Mio. Brutpaare“, so die Expertin.

Kot hat verschiedene Farben

Die Zusammensetzung des Speiseplans der Adeliepinguine ergibt sich wiederum aus der Farbe ihres Kots, der auch auf den Satellitenbildern zu erkennen ist. „Die Farbe von Pinguin-Guano reicht von weiß über rosa bis dunkelrot. Weißes Guano entsteht durch den Verzehr von Fisch, rosa und rotes dagegen kommt meist von Krill“, erläutert Lynch.

Nach der akribischen Auswertung der Aufnahmen aus der Antarktis zeigte sich, dass die untersuchte Pinguingattung ihre Essensvorlieben anscheinend immer wieder ändert. „Das war für uns eine große Überraschung. Wissenschaftler hatten eigentlich angenommen, dass ihre Nahrung im Laufe der vergangenen 40 Jahre eher gleich geblieben ist. Doch durch die gravierenden Veränderungen in ihrem physischen Lebensraum und die zunehmende Krillfischerei gehen wir davon aus, dass sich das in Zukunft dramatisch verändern wird“, meint Lynchs Kollegin Casey Youngflesh.

New York (pte003/13.12.2018/06:10) pte20181213003 Forschung/Technologie, Umwelt/Energie

Energiewende führt zur Umkehr der Strommarkt-Liberalisieru

26.09.2014: Die sich »auftürmenden ernsthaften
Probleme«, welche die Energiewende mit sich brächten und politisch nicht gelöst
würden, führten nach Auffassung der Boston Consulting Group dazu, dass »sich
die Stromerzeugung konsolidiert, die produzierende Industrie zunehmend unter
Druck gerät und die Liberalisierung des Strommarktes in Deutschland«
zurückgefahren werde. Zunehmend steigende Strompreise sowie Stromexporte und
das Weiterbetreiben einer kohlendioxid-intensiven Kohleverstromung, womit die
Ziele zur Reduktion der Treibhausgasemissionen verfehlt würden, seien
beträchtliche Herausforderungen, die dazu führten, dass der »ganze Sektor auf
eine grundlegende Umgestaltung« zusteuere, einschließlich »beträchtlicher
staatlicher Interventionen, einer Marktbereinigung und Konsolidierung«. Der
zunehmende Eingriff der Bundesregierung in den Strommarkt bedeute eine »Abkehr
vom offiziell verfolgten Deregulierungskurs« und führe zu einer »Umkehr der
Liberalisierung des Strommarktes in Deutschland und eventuell auch in anderen
Ländern«, da die Bundesrepublik »für ganz Europa eine Schlüsselrolle bei der
Stromerzeugung« spiele. Die Studie »Germany´s Energiewende: The End of Power
Market Liberalization?« ist kostenfrei auf der Homepage von BCG einzusehen. ©
PHOTON

Die persönliche Kohlendioxid-Bilanz

Den eigenen Lebensstil übersetzt der neue Klima-Rechner des Umweltbundesamtes in Treibhausgas-Emissionen. Unter der Internet-Adresse http://www.umweltbundesamt.de/energie/index.htm kann man sich so durch Eingabe weniger Daten einen Überblick über die persönliche Kohlendioxid-Bilanz verschaffen: Wie viel Kohlendioxid entsteht beim Heizen der Wohnung? Wie wirkt sich ein sparsameres Auto aus? Wie viel Treibhausgase lassen sich mit regionalen Lebensmitteln einsparen? Für die Bereiche Wohnen, Verkehr, Ernährung und Konsum zeigt der Rechner, wie viel Klimagase der individuelle Lebensstil im Vergleich zum deutschen Durchschnitt verursacht. Der liegt bei jährlich rund elf Tonnen Treibhausgas pro Person – also weit über dem weltweiten Durchschnitt von 3,8 Tonnen pro Kopf. Langfristig verträglich wären dagegen 2,5 Tonnen pro Kopf.

Entwickelt wurde das Rechenmodell von dem Heidelberger Institut für Energie- und Umweltforschung und der avantTime Consulting, unterstützt vom Umweltbundesamt. Demnächst soll das Modell um Handlungsempfehlungen ergänzt werden, die zeigen, wie man seine Emissionen mindern kann.
bal

Aus den Bergen an die Küste

Alfred-Wegener-Institut für Polar- und Meeresforschung in Bremerhaven übernimmt weltweites Archiv für Strahlungsdaten aus der Schweiz

Bremerhaven, den 3. Juli 2008. Das internationale Archiv für Strahlungsdaten World Radiation Monitoring Center (WRMC) stellt für die Klimaforschung hochgenaue, meteorologische Messreihen zur Verfügung. Nach 15 Jahren Laufzeit an der Eidgenössischen Technischen Hochschule in Zürich (ETHZ) wird ab Montag, den 7. Juli 2008 das Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft den Fortbestand und die Weiterentwicklung dieses einmaligen Archivs sicherstellen. Die Daten dienen der Klimabeobachtung, der Überwachung der Einflüsse des Menschen auf die Erdatmosphäre sowie der Verbesserung der Klimavorhersagen.

Ende der 80er Jahre befasste sich der Weltklimarat erstmalig mit der Zusammenstellung des damaligen Wissens der Klimaforschung. Unter anderem wurde festgestellt, dass die bodennahen Energieumsätze der Sonnenstrahlung sowie der Wärmestrahlung der Erdoberfläche und der Wolken nicht ausreichend bekannt waren. Um diesen Mangel zu beheben, wurde ein globales Netzwerk für bodennahe Strahlungsmessstationen (Baseline Surface Radiation Network – BSRN) gefordert. Die Genauigkeitsansprüche an die Messstationen waren sehr hoch, so dass anfänglich weltweit nur zehn Stationen teilnahmen. Dazu zählten die vom Alfred-Wegener-Institut betriebenen Observatorien an der Neumayer-Station in der Antarktis sowie der Koldewey-Station auf Spitzbergen in der Arktis. Mittlerweile speisen weltweit 43 Messstationen ihre Daten in das Netzwerk ein.

Kern des World Radiation Monitoring Centers (WRMC) ist sein zentrales Datenarchiv. Es wurde 1992 an der ETHZ unter der Leitung von Prof. Ohmura entwickelt und enthält auch alle begleitenden meteorologischen Beobachtungen, die zur Interpretation der im Minutentakt vorliegenden Strahlungsmessungen notwendig sind. Dazu gehören unter anderem die mit Wetterballonen gewonnenen vertikalen Profile der Lufttemperatur und Luftfeuchtigkeit, die Wolkenbeobachtungen und Wolkenhöhen.

Mittels Satelliten wird die bodennahe Strahlung ­ welche das Klima entscheidend beeinflusst – flächendeckend abgeschätzt. Die Genauigkeit wird durch Vergleich mit den direkten Messungen des World Radiation Monitoring Centers verbessert.

Auch Klimamodelle sind auf solche Verfahren angewiesen, die bodennahe Strahlung liefern. Diese Strahlungsberechnungen werden mit den Daten des World Radiation Monitoring Center überprüft und optimiert. Außerdem sind mit diesen Messungen Trendanalysen möglich, da einige Stationen bereits seit 15 Jahren kontinuierlich messen. Erste Ergebnisse deuten gegenwärtig eine leichte globale Erhöhung der von der Sonne stammenden Strahlung an, sehr wahrscheinlich als Folge einer verbesserten Luftreinhaltepolitik.

Im Rahmen des 10. BSRN-Workshops vom 7. bis 11. Juli in De Bilt, Niederlande, wird das Archiv von Dr. Gert König-Langlo, Meteorologe und Leiter des WRMC am Alfred-Wegener-Institut, offiziell eröffnet. Weitere Informationen unter: http://www.bsrn.awi.de.

Hinweise für Redaktionen:
Ihre Ansprechpartner am Alfred-Wegener-Institut sind Dr. Gert König-Langlo (Tel. 0471 4831-1806; E-Mail: Gert.Koenig-Langlo@awi.de) sowie in der Presse- und Öffentlichkeitsarbeit Dr. Ude Cieluch (Tel. 0471 4831-2008; E-Mail: Ude.Cieluch@awi.de). Druckbare Bilder finden Sie auf unserer Webseite unter http://www.awi.de.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der fünfzehn Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Polarstern startet 25. Arktisexpedition

Forschung in Grönlandsee, Framstraße und Baffin Bay

Bremerhaven, den 9. Juni 2010. Morgen bricht das Forschungsschiff Polarstern zu seiner 25. Arktisexpedition auf. Von Bremerhaven geht es zunächst in die Grönlandsee, wo überwiegend ozeanographische Arbeiten auf dem Programm stehen. Nach kurzem Zwischenstopp in Longyearbyen (Spitzbergen) fährt Polarstern am 30. Juni in den so genannten HAUSGARTEN des Alfred-Wegener-Instituts und in die Framstraße. Hier führen die Wissenschaftler biologische Langzeituntersuchungen und weitere ozeanographische Messungen durch. Am 31. Juli startet in Reykjavik, Island, der dritte Abschnitt zu geowissenschaftlichen Forschungen in die nördliche Baffin Bay (Kanada). Über 120 Wissenschaftler und Techniker von Instituten aus sechs Nationen nehmen an den drei Abschnitten der Expedition teil. Polarstern wird am 10. Oktober in Bremerhaven zurückerwartet.

“Die hydrographischen Arbeiten auf dem ersten Fahrabschnitt bilden einen wichtigen Mosaikstein zu Langzeit-Messreihen, wie sie für die klimabezogene Forschung unverzichtbar sind³, erklärt Fahrtleiter Dr. Gereon Budéus, Ozeanograph am Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft. In der Grönlandsee untersucht er mit seinen Kollegen schon seit über zehn Jahren Stärke und Einfluss der Winterkonvektion, welche die Verteilung von Wärme und Salz in der untersuchten Region bestimmt und die Erneuerung der tiefsten Schichten im Ozean steuert. Weiterhin beschäftigen sich Biologen mit dem Plankton im Untersuchungsgebiet, also Kleinstlebewesen, die in der Wassersäule schweben. Die mikroskopisch kleinen Tiere und Algen aus drei unterschiedlichen biogeographischen Klimazonen (polar, arktisch und atlantisch) kommen hier relativ dicht beieinander vor. Ob sich bestimmte Arten wegen veränderter Umweltbedingungen weiter ausbreiten oder weniger häufig vorkommen, ist Gegenstand der Forschung.

Im Tiefsee-Langzeitobservatorium des Alfred-Wegener-Instituts, dem so genannten HAUSGARTEN, untersuchen Wissenschaftler auf dem zweiten Fahrtabschnitt im Juli, wie das arktische marine Ökosystem auf den globalen Klimawandel reagiert. Eingebunden in zahlreiche nationale und internationale Projekte werden am Kontinentalhang vor Spitzbergen zwischen 1000 und 5500 Metern Wassertiefe seit über zehn Jahren regelmäßig Probennahmen und Experimente durchgeführt, in denen untersucht wird, wie das Tiefseeökosystem beispielsweise auf den Rückgang des Meereises und damit verbundene Veränderungen in der Nahrungsversorgung reagiert. Zusätzlich setzen die Wissenschaftler hydrographische Langzeituntersuchungen in der Framstraße fort, der einzigen Tiefenwasserverbindung zwischen dem Nord-Atlantik und dem zentralen arktischen Ozean. Hier zeichnen ozeanographische Verankerungen Daten über den Salzgehalt und die Temperatur des Wassers auf. Sie erlauben den Austausch von Wassermassen zwischen beiden Meeresgebieten zu quantifizieren.

Der dritte Abschnitt startet Ende Juli von Reykjavik und führt Polarstern in kanadische Gewässer. Wissenschaftler unter der Leitung der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) untersuchen die geologischen Strukturen und die tektonische Entwicklung der nördlichen Baffin Bay und der angrenzenden kanadischen und grönländischen Kontinentränder. Sie möchten rekonstruieren, wann und wie sich die Baffin Bay im Verlauf der Erdgeschichte geöffnet hat und welche geologischen Prozesse bei der Abtrennung Grönlands von Nordamerika stattgefunden haben. Die geodynamische Rekonstruktion der Öffnung dieser Flachwasserverbindung zwischen Nordpolarmeer und Atlantik bildet die Grundlage für paläobathymetrische Modelle. Diese dienen einer detaillierteren Vorstellung, wie sich globale Strömungs- und Sedimentationsprozesse verändert haben. Hiermit werden Beiträge zum besseren Verständnis der Paläoklima- und Sedimentbeckenentwicklung in der Arktis erbracht.

Über 120 Wissenschaftler und Techniker von Instituten aus sechs Nationen nehmen an den drei Abschnitten der Expedition teil. Nach vier Monaten in der Arktis wird Polarstern voraussichtlich am 10. Oktober wieder in ihrem Heimathafen Bremerhaven einlaufen.

Hinweise für Redaktionen: Ihre Ansprechpartnerin in der Abteilung Kommunikation und Medien des Alfred-Wegener-Instituts ist Folke Mehrtens (Tel. 0471 4831-2007; E-Mail: Folke.Mehrtens@awi.de). Druckbare Bilder finden Sie unter www.awi.de.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der sechzehn Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Tunfisch-Fischereipolitik im Atlantik untauglich

Stanford (pte/28.04.2005/15:54) – Zwei verschiedene Fangquoten für den
Tunfisch im Atlantik bereiten den Forschern Kopfzerbrechen. Die
Annahme, dass sich die großen Blauflossen-Tunfischpopulationen im
östlichen und westlichen Atlantik nicht vermischen, haben Forscher nun
als völlig falsch zurückgewiesen, berichtet das Wissenschaftsmagazin
Nature http://www.nature.com. Vielmehr sei es nötig eine stabile Zahl
der Tiere am Leben zu erhalten, damit die Population erhalten bleibt.
Das bedeutet auch, dass eine neue und einheitliche Fischereipolitik
notwendig ist.

Der atlantische Blauflossen-Thunfisch (Thunnus thynnus)
http://www.tunaresearch.org ist ein geschätzter Speisefisch, der bis zu
650 Kilogramm auf die Waage bringt. In Japan kann ein einzelner Fisch
bis zu 100.000 Dollar erzielen. "Unsere Wissenschaft unterstützt nicht
ein Management-System, das davon ausgeht, dass ein Tunfisch vom
Ostatlantik auch im Ostatlantik bleibt und einer aus dem Westatlantik
nur im Westatlantik bleibt", so Barbara Block von der amerikanischen
Stanford University. Es sei nun an der Zeit zu verstehen, dass die
Fische zwischen den Küsten hin- und herschwimmen und lediglich zum
Laichen in ihren ursprünglichen Gewässern bleiben.

Nach Angaben der Internationalen Kommission für die Erhaltung der
Atlantischen Tunfische (ICCAT) ist die westliche Population seit den
70-er Jahren um 80 Prozent zurückgegangen. Wie hoch die Rückgänge bei
den östlichen Populationen sind, ist nicht genau geklärt. Fest steht
jedoch, dass auch diese massiv zurückging. Das Team um Block hatte mehr
als zehn Jahre lang mithilfe von Sendern wildlebende Tunfische und ihre
Migrationsrouten untersucht. Mehrere 1.000 Kilometer weit und bis zu
910 Meter tief sind diese Fische unterwegs. Sie richten ihr Leben nach
dem Nahrungsangebot und haben einen sehr komplexen Lebenszyklus. Einig
sind sich die Experten darüber, dass die Quote im Westen mit 3.000
Tonnen und im Osten mit 32.000 Tonnen nicht zielführend ist.
Wünschenswert wäre eine gemeinsame Fangquote für alle im Atlantik
lebenden Blauflossen-Tunfische, so Block.