Archiv der Kategorie: Erde, Klima, Umweltschutz

Technik zur Abwasseraufbereitung stark verbessert

Einsatz von Licht und Strom soll Industrieabwässer reinigen

Wasseraufbereitung spätestens 2030 zentral
(Foto: pixelio.de/Mensi) 
 
Lakehead, Ontario (pte/20.06.2009/06:15) – Forscher an der Universität Lakehead http://www.lakeheadu.ca/ haben eine vielversprechende Wasseraufbereitungstechnik entwickelt. Eine Kombination von photokatalytischen und elektrochemischen Verfahren bzw. der Einsatz von Licht und Strom beim Neutralisieren von Verschmutzungen versprechen eine Reinigungswirkung von über 90 Prozent. Das neu entwickelte Verfahren soll bereits in zwei Jahren Marktreife erlangen. Ein Patentantrag ist bereits gestellt worden. "Biologische Wasseraufbereitungsverfahren sind nicht für jegliche Art von Abwasser geeignet. Bei hoher Proteinkonzentration und sehr hohen oder sehr niedrigen PH-Werten ist das Überleben selbst für Bakterien schwierig", sagt Aicheng Chen, Forschungsleiter an der Universität Lakehead in Ontario.

Weltweit wird eine Vielzahl verschiedenartiger Ansätze (pressetext berichtete: http://pressetext.com/news/080716031/) verfolgt. "Im Regelfall kommen bei der Industrieabwasseraufbereitung aber auf Mikroorganismen basierende (biologische) Verfahren zum Einsatz. Auf Photokatalyse setzende Techniken eignen sich zwar für spezielle Stoffe, sind derzeit aber wohl eher als eine ergänzende Technologie anzusehen", meint hingegen Hans Curt Flemming, Leiter des Fachbereichs Chemie – Biofilm Centre an der Universität Duisburg http://www.uni-due.de/biofilm-centre/, auf Anfrage von pressetext. Biologische Ansätze hätten den großen Vorteil, dass im Wasser gelöste Schadstoffe in ungelöste Biomasse- und Stoffwechselprodukte umgewandelt werden. Diese Prozesse ließen sich zudem ohne großen Aufwand automatisieren.

Bei der von Chen entwickelten Technik wird eine Elektrode mit einem Photokatalysator und die zweite Elektrode mit einem Elektrokatalysator überzogen. An der einen Elektrode trifft ultraviolette Strahlung meist auf Titaniumdioxid als Photokatalysator, was dessen Elektronen in einen höheren Energiezustand versetzt. So entstehende Lücken in der Atomstruktur mit positiver Ladung sollen dann zur Oxidation allfälliger Schadstoffe im Wasser führen. An der zweiten Elektrode würde ein durch den Elektrokatalysator geleiteter Strom einen ähnlichen Effekt nach sich ziehen. Die beim separaten Betrieb beider Verfahren anfallenden Kosten waren bislang nicht vertretbar. Die unterschiedlich präparierten Elektroden hätten laut Angaben von Chen im Zuge dreistündiger Tests zwei Nitrophenol-Verbindungen, die bei der Herstellung von Pestiziden und Fungiziden häufig Verwendung finden und in Industrieabwässern vorkommen, fast zur Gänze entfernt. Bei separater Anwendung seien in der gleichen Zeit lediglich 30 bis 60 Prozent der Kontaminierungen neutralisiert worden.

Zum Problem könnten daher vielfältige Verschmutzungen werden. Zudem bereitet die zeitlich begrenzte Reaktionsfähigkeit des eingesetzten Materials Titaniumdioxid Sorgen. Chen experimentiert daher mit Nanostrukturen von Titaniumdioxid, um eine längere Reaktionsfähigkeit zu erreichen. Es handle sich dennoch um einen geeigneten Katalysator, da das Material weder sonderlich reaktionsfreudig noch toxisch sei. Chens Ansatz sei vielversprechend und komme zumindest für Detailanwendungen in Frage, so der Tenor unter Experten in Technology Review. Photokatalysatoren können aber auch von Biofilmen überzogen werden, was die von durchdringendem Licht abhängige Reaktion verhindert.

Einer Studie von Luxresearch.com http://www.luxresearchinc.com/ zufolge soll der globale Wasserverbrauch bis 2030 um weitere 40 Prozent ansteigen, was effizientere Aufbereitungsverfahren zwingend notwendig macht. Weltweit sollen sich dann mit der Bereitstellung von Wasser zu erwirtschaftende Umsätze auf über eine Bio. Dollar belaufen. (Ende)

Ausrottung der Haie durch den Kochtopf

London (pte/14.10.2006/06:10) – Ein internationales Forscherteam hat
erstmals eine genaue Untersuchung über die jährlich getöteten Haie für
die in Asien so beliebte Haifischflossen-Suppe vorgenommen. Demnach
werden jährlich 38 Mio. dieser Knorpelfische nur wegen ihrer Flossen
getötet. Bisher wurden die Zahlen der jährlich getöteten Haie nur
geschätzt und dabei lagen die Schätzungen irgendwo zwischen zehn und
100 Mio. Tiere. Wie das Wissenschaftsmagazin Ecology Letters
http://www.blackwellpublishing.com berichtet, ist die Nachfrage nach
Haiflossen steigend, nicht zuletzt deshalb, weil sich in China eine gut
verdienende Mittelschicht etabliert hat.

Haifischflossen-Suppe gehört neben Abalone – einer Meeresschnecke – und
Schwalbennestern zu den großen Spezialitäten der chinesischen Küche.
Gourmets zahlen in den Luxus-Restaurants Hongkongs und Shanghais extrem
viel Geld, um an diese Spezialitäten zu kommen. Abalones sind in den
Meeren rund um China längst ausgestorben und werden jetzt von Mexiko
importiert. Offensichtlich geht es nun auch den Haien immer mehr an den
Kragen, wie zahlreiche Umweltorganisationen bereits seit Jahren
behaupten. Die Haifischflossen-Industrie ist im Wesentlichen auf einige
wenige Staaten in Asien beschränkt. Die Forscher um Shelley Clarke vom
Joint Institute for Marine and Atmospheric Research der University of
Hawaii und dem National Research Institute of Far Seas Fishery in Japan
haben internationale Händler befragt und mehr als 400 Haiflossen
untersucht. Daraus schlossen die Wissenschaftler, dass von 1996 bis
2000 26 bis 73 Mio. Haie jährlich gehandelt wurden. Daraus errechneten
die Forscher den Durchschnittswert von 38 Mio. Fischen – fast vier Mal
soviel wie von der UNO geschätzt.

Die Untersuchungen des Forscherteams waren nicht einfach, da in den
meisten Fischerei-Statistiken die Haie fehlen. Zudem sind Haie oft
reiner Beifang und dieser wird nicht nach Spezies beurteilt, sondern
lediglich nach der Gesamtmenge. "Neben einigen Restriktionen über die
Fangmethoden – vor allem dem Shark Finning – , die in den USA und in
der EU bestehen, wurde nie ein Fischerei-Management-System für Haie
erstellt", so Murdoch McAllister, Studien-Co-Autor vom Imperial College
in London. "Die weltweite Nachfrage für Haifischflossen ist jedenfalls
dramatisch angestiegen, das wiederum macht Fischer gierig auf ein
Zubrot", meint McAllister.

"Tatsächlich ist die Nachfrage nach den Haiflossen vor allem in China
deutlich spürbar", berichtet Peter Knights, Direktor der non
profit-Organisation WildAid. "In der neuen chinesischen Mittelschicht
wird Wert darauf gelegt zu zeigen, dass man sich Haifischflossen
einfach leisten kann. Egal dabei ist, dass die Flossen weder besonders
gut schmecken noch irgendwelche besonderen Nährstoffe enthalten", meint
Knights. Tatsächlich legen Chinesen insbesondere bei großen
Geburtstagsfeiern großen Wert auf teure Gerichte. Damit will man den
Gästen die Wertschätzung ausdrücken. Umgekehrt bemerken die Forscher,
dass die traditionelle Haifischflossen-Suppe aber nicht nur auf
Speisekarten in Asien beschränkt ist. "Ein Teller Haifischflossen-Suppe
wird im China-Max-Seafood-Restaurant in San Diego für 18 Dollar
angeboten. Für 40 Dollar kann man eine ganze geschmorte Flosse
bestellen", berichtet das Wissenschaftsmagazin National Geographic
http://www.nationalgeographic.com diese Woche und bemerkt noch
süffisant, dass der Wirt versichert habe, dieses Gericht ständig
anzubieten.

Himmel über Europa: Messkampagne zur Luftqualität

London, Rom, Madrid, Berlin: Was
aussieht wie eine Bucket List für Städtetrips, ist tatsächlich die
aktuelle Route des Forschungsflugzeugs HALO: Bis Ende Juli untersuchen
Atmosphärenforscher aus ganz Deutschland die Luftbelastung über
europäischen Ballungszentren. Ziel ist es, die Auswirkungen der
Verschmutzung auf die Erdatmosphäre besser verstehen und vorhersagen zu
können. Mit zwei Messinstrumenten haben die Forscher des Karlsruher
Instituts für Technologie (KIT) insbesondere die Konzentrationen von
Ozon und flüchtigen Kohlenwasserstoffen im Blick.

Fokus der aktuellen Messkampagne, welche die
Universität Bremen koordiniert, ist die chemische Charakterisierung der
Verschmutzungen und deren Einfluss auf die Luftqualität in den meist
ländlichen Regionen in den Abgasfahnen der Großstädte. Die
Wissenschaftlerinnen und Wissenschaftler nutzen dafür das
Forschungsflugzeug HALO des Deutschen Zentrums für Luft- und Raumfahrt
(DLR). Die Forschergruppe um Andreas Zahn und Marco Neumaier vom
Institut für Meteorologie und Klimaforschung des KIT ist mit zwei
speziell für Flugzeuge entwickelten Instrumenten vertreten. Eins misst
extrem genau und schnell – mit zehn Messungen pro Sekunde – das reaktive
Spurengas Ozon. „Bodennahes Ozon entsteht insbesondere an sonnigen
Tagen aus Stickoxiden, die beispielsweise aus Autoabgasen stammen, und
trägt maßgeblich zur Bildung des Sommersmogs bei. Interessanterweise
treten die höchsten Ozonkonzentrationen dabei nicht direkt in den
Ballungszentren auf, sondern in den angrenzenden ländlichen Gebieten“,
sagt Andreas Zahn vom IMK. Eine Schlüsselrolle dabei spielen flüchtige
organische Verbindungen, kurz VOCs (von engl. Volatile Organic
Compounds). „Diese Stoffe, dazu zählen unter anderem Aceton, Methanol
oder Benzol, werden entweder von Pflanzen in die Atmosphäre ausgestoßen
oder sind vom Menschen verursacht, etwa Abgase aus dem Verkehr“,
erläutert Marco Neumaier. Das zweite Instrument des KIT, ein
hochkomplexes Protonen-Transfer-Reaktions-Massenspektrometer, kann eine
Vielzahl dieser VOCs in kleinsten Spuren in Echtzeit messen. „Damit ist
das Gerät in der Lage, in 100 Milliarden Luftmolekülen ein einzelnes
Aceton-Molekül nachzuweisen“, so Neumaier.

Die aktuellen Messflüge – mit 52 Flugstunden
bis Ende Juli – sind die erste Phase der  internationalen Messkampagne
„EMeRGe” (steht für „Effect of Megacities on the transport and
transformation of pollutants on the Regional and Global scales”). An
Bord von HALO befinden sich dafür mehr als 15 hochempfindliche
Instrumente zum Messen von Spurengasen und Aerosolpartikeln. Sieben
deutsche Forschungszentren und Universitäten sind an der Kampagne
beteiligt, welche das Institut für Umweltphysik der Universität Bremen
leitet. Die Abkürzung HALO steht für „High Altitude and Long Range
Research Aircraft“ (deutsch: „Hochfliegendes Forschungsflugzeug mit
langer Reichweite“).

Europaweit ergänzende Messungen

Parallel laufen über ganz Europa zusätzliche
Messungen mit weiteren Flugzeugen sowie mit bodengestützten
Messsystemen. Die zweite Phase der Messkampagne wird dann im Frühjahr
2018 Asien in den Blick nehmen und in Taiwan stattfinden.

DFG fördert EMeRGe mit rund sechs Millionen Euro

Weitere Projektpartner sind das
Max-Planck-Institut für Chemie, die Universitäten Mainz und Heidelberg,
die Bergische Universität Wuppertal sowie das Forschungszentrum Jülich.
EMeRGe wird mit rund sechs Millionen Euro von der Deutschen
Forschungsgemeinschaft (DFG), der Max-Planck-Gesellschaft (MPG) und dem
DLR bis April 2018 finanziert.

Über HALO

Das Forschungsflugzeug HALO ist eine
Gemeinschaftsinitiative deutscher Umwelt- und
Klimaforschungseinrichtungen. HALO wurde aus Mitteln des
Bundesministeriums für Bildung und Forschung, der Helmholtz-Gemeinschaft
und der Max-Planck -Gesellschaft beschafft. Der Betrieb von HALO wird
von der DFG, der Max-Planck-Gesellschaft, dem Forschungszentrum Jülich,
dem Karlsruher Institut für Technologie, dem Deutschen
GeoForschungsZentrum GFZ in Potsdam und dem Leibniz-Institut für
Troposphärenforschung in Leipzig (TROPOS) getragen. Das DLR ist zugleich
Eigner und Betreiber des Flugzeugs.

Schmelzwassertümpel lassen Meereisdecke schmelzen

Schmelzwassertümpel lassen die arktische Meereisdecke schneller schmelzen

Bremerhaven, 15. Januar 2013. Die arktische Meereisdecke ist im zurückliegenden Jahrzehnt nicht nur geschrumpft, sondern auch deutlich jünger und dünner geworden. Wo früher meterdickes, mehrjähriges Eis trieb, finden Forscher heute vor allem dünne, einjährige Schollen, die in den Sommermonaten großflächig mit Schmelzwassertümpel bedeckt sind. Meereisphysiker des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) haben nun erstmals die Lichtdurchlässigkeit des arktischen Meereises großflächig vermessen und dabei diese Veränderung in Zahlen fassen können. Ihr Ergebnis: Überall dort, wo sich Schmelzwas ser auf dem Eis ansammelt, dringt viel mehr Sonnenlicht und somit Energie in das Eis ein als an wasserfreien Stellen. Die Folge: Das Eis schmilzt schneller und der Lebensraum im und unter dem Eis erhält mehr Licht. Diese neuen Erkenntnisse haben die Forscher im Fachmagazin Geophysical Research Letters veröffentlicht.

Schmelzwassertümpel zählen zu den Lieblingsmotiven der Eis- und Landschaftsfotografen in der Arktis. Mal schimmern sie in einem verführerischen Karibik-Meerblau, mal liegen sie dunkel wie ein See bei Regenwetter auf der Scholle. „Ihre Farbe hängt ganz davon ab, wie dick das verbleibende Eis unter dem Tümpel ist und wie stark der darunterliegende Ozean durch dieses Eis hind urchscheinen kann. Tümpel auf dickerem Eis sind eher türkis, jene auf dünnem Eis dunkelblau bis schwarz“, sagt Dr. Marcel Nicolaus, Meereisphysiker und Schmelztümpel-Experte vom Alfred-Wegener-Institut.

Er und sein Team haben in den zurückliegenden Jahren bei Expeditionen in die zentrale Arktis auffallend viele Schmelzwassertümpel gesichtet. Nahezu die Hälfte des einjährigen Eises war mit Tümpeln überzogen. Eine Beobachtung, welche die Wissenschaftler auf den Klimawandel zurückführen. „Die Eisdecke des Arktischen Ozeans verändert sich seit einigen Jahren grundlegend. Dickes, mehrjähriges Eis sucht man mittlerweile fast vergebens. Stattde ssen besteht die Eisdecke heutzutage zu mehr als 50 Prozent aus dünnem einjährigen Eis, auf dem sich Schmelzwasser besonders großflächig ausbreitet.

Ausschlaggebend dafür ist die glattere Oberfläche dieses jungen Eises. Sie erlaubt es dem Schmelzwasser, sich weit zu verteilen und ein Netz aus vielen einzelnen Tümpeln zu bilden“, erklärt Marcel Nicolaus. Das ältere Eis dagegen besäße eine verformte Oberfläche, die im Laufe der Jahre durch die ständige Schollenbewegung und unzählige Zusammenstöße entstanden sei. Auf diesem unebenen Untergrund bildeten sich viel weniger und kleinere Tümpel, die dann jedoch deutlich tiefer seien als die flac hen Teiche auf dem jüngeren Eis.

Die steigende Zahl der „Fenster zum Ozean“, wie Schmelztümpel auch genannt werden, warf für Marcel Nicolaus eine grundlegende Forschungsfrage auf: Inwieweit verändern die Tümpel und die abnehmende Eisdicke die Menge des Lichts unter dem Meereis? Immerhin stellt das Licht im Meer – wie auch an Land – die Hauptenergiequelle für die Photosynthese dar. Ohne Sonnenlicht wachsen weder Algen noch Pflanzen. Marcel Nicolaus: „Wir wussten, dass eine Eisscholle mit einer dicken, frischen Schneeschicht zwischen 85 und 90 Prozent des Sonnenlichtes in das Weltall zurückstrahlt und nur wenig in den Ozean durchlassen wür de. Im Gegensatz dazu konnten wir davon ausgehen, dass im Sommer, wenn der Schnee auf dem Eis geschmolzen und das Meereis mit Tümpeln bedeckt ist, wesentlich mehr Licht durch das Eis hindurchdringt.“

Um herauszufinden, in welchem Maß arktisches Meereis Sonnenstrahlen passieren lässt und wie groß der Einfluss der Schmelzwassertümpel auf diese Durchlässigkeit ist, statteten die AWI-Meereisphysiker einen ferngesteuerten Tauchroboter (ROV „Alfred“) mit Lichtsensoren und einer Kamera aus. Diesen Roboter schickten sie im Sommer 2011 während einer Arktis-Expedition des Forschungseisbrechers POLARSTERN an mehreren Stationen direkt unter das Eis. Das Gerät erfasste auf seinen Tauchgängen, wie v iel Sonnenenergie durch das Eis drang. Und das an insgesamt 6000 Einzelpunkten mit jeweils unterschiedlichen Eiseigenschaften!

Auf diese Weise entstand ein bisher einmaliger Datensatz, dessen Ergebnisse aufhorchen lassen. Marcel Nicolaus: „Das junge dünne Eis mit den vielen Schmelztümpeln lässt nicht nur dreimal mehr Licht passieren als das ältere. Es absorbiert auch doppelt so viel Sonnenstrahlung. Beides bedeutet im Umkehrschluss, dass dieses dünne, von Tümpeln überzogene Eis deutlich weniger Sonnenstrahlen reflektiert als das dicke Eis. Seine Rückstrahlquote liegt bei gerade mal 34 Prozent. Zudem nimmt das junge Eis mehr Sonnenenergie und somit Wärme auf, wodurch sein Schmelzen vora ngetrieben wird. Das Eis schmilzt gewissermaßen von innen“ sagt Marcel Nicolaus.

Welches Zukunftsbild lässt sich anhand dieser neuen Erkenntnisse zeichnen? Marcel Nicolaus: „Wir gehen davon aus, dass im Zuge des Klimawandels künftig mehr Sonnenlicht in den Arktischen Ozean gelangen wird – und das insbesondere auch in jenem Teil, der nach wie vor im Sommer vom Meereis bedeckt ist. Der Grund: Je größer der Anteil des einjährigen Eises an der Meereisdecke wird, desto mehr und größere Schmelztümpel werden sich bilden. Diese wiederum führen dazu, dass die Reflexionsfähigkeit des Eises sinkt, die Transmission steigt, das Eis poröser wird, mehr Sonnenstrahlung durch die Schollen dringt und zeitgleich mehr Wärme vom Eis aufgenommen wird. Eine Entwicklung, die das Abschmelzen der gesamten Eisfläche weiter beschleunigen wird.“ Gleichzeitig aber werde den Lebewesen im und unter dem Eis künftig mehr Licht zur Verfügung stehen. Ob und wie diese allerdings mit der neuen Helligkeit zurechtkommen, wird gegenwärtig noch in Zusammenarbeit mit Biologen untersucht.

Voraussetzung, wenn Energiewende funktionieren soll: Erneuerbare Energien chemisch speichern

2050 sollen 80
Prozent des Stroms in Deutschland aus erneuerbaren Energiequellen stammen. Um
dies zu erreichen, ist es notwendig, elektrische Energie in chemischen
Energieträgern zu speichern. Im Schwerpunktprogramm „Katalysatoren und
Reaktoren unter dynamischen Betriebsbedingungen für die Energiespeicherung und
-wandlung“ (SPP 2080, DynaKat) der Deutschen Forschungsgemeinschaft (DFG)
untersuchen zwölf große Forschungskonsortien, wie sich katalytische
Reaktionssysteme unter solchen Bedingungen verhalten. Das Karlsruher Institut
für Technologie (KIT) koordiniert das Schwerpunktprogramm.

Sonne und Wind
sind neben Biomasse die wichtigsten erneuerbaren Energieträger, aber sie stehen
nicht gleichmäßig zur Verfügung. An wind- und sonnenreichen Tagen fällt mehr
Strom an, als in die Netze eingespeist werden kann. Diese Überproduktionen aus
Windkraft- und Photovoltaikanlagen lassen sich in Chemikalien speichern. So
kann elektrische Energie zu einem späteren Zeitpunkt wieder zur Verfügung
stehen, die Chemikalien können aber auch als nachhaltige Bausteine genutzt
werden, um Treibstoffe oder Plattformmoleküle für die chemische Industrie
herzustellen.

Für die
Umwandlung von Kohlendioxid oder Wasserstoff in Speichermoleküle wie Methan,
Kohlenwasserstoffe oder Alkohole sind Katalysatoren, elektrochemische Zellen
und Reaktoren notwendig. Wie sich der Einfluss wechselhafter dynamischer
Gegebenheiten von außen – durch das Schwanken von Windstärke und Sonneneinstrahlung
– auf die katalytischen Reaktionssysteme auswirkt, wurde bislang kaum
betrachtet. „Man weiß jedoch, dass sich die Struktur fester Katalysatoren und
damit ihre katalytische Wirkung mit den Reaktionsbedingungen stark ändern kann.
Dies ist wissenschaftlich hochspannend“, sagt Professor Jan-Dierk Grunwaldt von
den Instituten für Technische Chemie und Polymerchemie (ITCP) sowie für
Katalyseforschung und -technologie (IKFT) des KIT. Der Inhaber des Lehrstuhls
für Chemische Technik und Katalyse koordiniert das DFG-Schwerpunktprogramm
DynaKat, an dem neben dem KIT zahlreiche weitere renommierte
Forschungseinrichtungen in ganz Deutschland beteiligt sind, darunter das
Forschungszentrum Jülich, die TU München und mehrere Max-Planck-Institute wie
das Berliner Fritz-Haber-Institut. Das Kick-off-Meeting fand im Februar mit
über 70 Teilnehmenden in Karlsruhe statt. Die deutschlandweit zwölf
interdisziplinären, überregionalen Forschungsprojekte untergliedern sich in 34
Teilprojekte, sieben von ihnen sind am KIT verortet, das sich mit dem ITCP, dem
IKFT sowie dem Institut für Mikroverfahrenstechnik (IMVT)
beteiligt.    

Die DFG fördert
das auf insgesamt sechs Jahre angelegte Schwerpunktprogramm DynaKat zunächst
für drei Jahre mit 8,5 Millionen Euro. Der projektstärkste Partner ist das KIT.

„Wir wollen
Veränderungen des Materials der Katalysatoren unter dynamischen Bedingungen
grundlegend verstehen und verbessern“, sagt Dr. Erisa Saraçi, wissenschaftliche
Mitarbeiterin am IKFT und Mitorganisatorin des Kick-off-Meetings am KIT. Dafür
werden alle beteiligten Prozesse untersucht, von den Vorgängen auf der atomaren
Ebene des Katalysators bis zur räumlichen Verteilung der Stoffkonzentrationen
und Temperaturen auf Reaktorebene. Für ein grundlegendes Verständnis der Prozesse
und um neue Ansätze im Material- und Reaktordesign zu entwickeln, kommen
klassische etablierte Experimente ebenso zum Einsatz wie neueste
spektroskopische Methoden und Möglichkeiten der Modellierung.

Das Einbeziehen
des wissenschaftlichen Nachwuchses spielt im DFG-Schwerpunktprogramm DynaKat
eine wichtige Rolle, so steht ein Blockkurs am KIT zum Thema „Technologien und
Ressourcen für Erneuerbare Energien: Von Wind und Solar zu Chemischen
Energieträgern“ interessierten Studierenden und Promovierenden offen. „In der
Forschung kommt man ohne Netzwerke und Teamarbeit nicht voran, da die einzelnen
Teildisziplinen sehr komplex sind“, sagt Sebastian Weber, Doktorand am
IKFT/ITCP. Gerade für den wissenschaftlichen Nachwuchs seien der Austausch und
das Zusammenbringen unterschiedlicher Expertisen wertvoll, betonen Saraçi und
Weber. „Es geht darum, Kompetenzen zu bündeln und das Themengebiet
deutschlandweit voranzutreiben, um darin international führend zu werden“, so
Programmkoordinator Grunwaldt.

Details zum Schwerpunktprogramm:
http://www.itcp.kit.edu/spp2080/

Weitere
Informationen zum Koordinator Jan-Dierk Grunwaldt: http://www.itcp.kit.edu/grunwaldt

 Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Wasserstoffgewinnung aus Biomüll

Clostridia-Bakterien sorgen für geringe Betriebstemperatur

Cagliari (pte/26.02.2008/13:43) – Eine Forschergruppe des Dipartimento di Geoingegneria e Tecnologie Ambientali an der Universität von Cagaliari http://geoing.unica.it/ hat ein Verfahren entwickelt, das die Gewinnung von 75 Litern Wasserstoff aus einem Kilogramm Biomüll ermöglicht. Die sogenannte HyMeC-Technologie ist in enger Zusammenarbeit mit Wissenschaftlern der römischen Universität La Sapienza entstanden.

"Problematisch bei der Herstellung von Wasserstoff ist, dass sie meist mit Hilfe von nicht erneuerbaren Energien geschieht und zudem sehr kostenaufwendig ist," erläutert Projektleiter Aldo Muntoni. "Unser biologisches Prinzip hingegen beruht im Wesentlichen auf dem Einsatz von Clostridia-Bakterien, die Abfälle unter Sauerstoffabschluss vergären und wenig Energiezufuhr benötigen. Im Gegensatz zu den an ähnlichen Verfahren arbeitenden Kollegen in Deutschland kommen wir mit 39 Grad Celsius und somit einer deutlich geringeren Betriebstemperatur aus."

"Ein weiterer Vorteil besteht darin, dass HyMeC ohne chemische Zusatze oder thermische Vorbehandlung der Biomasse funktioniert", meint Muntoni. Hinzu komme die Tatsache, dass neben dem Feuchtmüll auch die bei der getrennten Müllsammlung verbleibende Trockenfraktion weiterverarbeitet werden könne. Dieser Teil sei meist mit verschiedenen organischen Stoffen versetzt, die normalerweise in der Müllverbrennungsanlage oder Deponie landen würden.

Nach zwei bis vier Tagen anaerobischer Vergärung bei 39 Grad entsteht ein stabiles Gemsich aus Wasserstoff und Kohlendioxid. Die verbleibende Masse wird einem zweiten, ebenfalls unter anaeroben Bedingungen arbeitenden Reaktor zugeführt, der je Kilogramm 700 Liter Methangas und CO2 produziert. Um die flüssige Restmasse zu stabilisieren, wird sie mit Holz- und Sägespänen vermengt, um dann als Dünger in der Landwirtschaft oder im Gartenbau eingesetzt zu werden.

Der gewonnene Wasserstoff wird nach der Trennung von Kohlendioxid und Methan in Pemfc-Brennstoffzellen gefüllt. Kohlendioxid und Methan können in Form von Mcfc-Brennstoffzellen weiterverwendet werden. "Im Fall einer großindustriellen Anwendung wird die herkömmliche Verwertung von Biomasse nicht nur durch ein weiteres Element bereichert, sondern gleichzeitig auch die durch Müll hervorgerufene Umweltbelastung reduziert", meint Muntoni abschließend. (Ende)

Antarktis. Lebensraum der Pinguine

Pinguinkot zeigt Klimawandel in der Antarktis

Forscher nehmen Essgewohnheiten der Tiere auf NASA-Satellitenfotos genauer unter die Lupe

Antarktis: Lebensraum für Adeliepinguine (Foto: Catie Foley, lynchlab.com)
Antarktis: Lebensraum für Adeliepinguine (Foto: Catie Foley, lynchlab.com)

 

Forscher der Stony Brook University haben mit Unterstützung der NASA  Unmengen von Satellitenbildern ausgewertet, um einen guten Einblick in die Entwicklung der weltweiten Population von Adeliepinguinen zu bekommen und auch deren Essgewohnheiten zu erforschen. Die Aufnahmen aus dem Weltall zeigen nicht die Tiere selbst, aber ihre Exkremente, die aufgrund ihrer Einfärbung Rückschlüsse auf die Ernährung erlauben.

Gradmesser für Klimawandel

„Satellitenaufnahmen haben sich als sehr hilfreich erwiesen, wenn es darum geht, Veränderungen in den Ernährungsgewohnheiten von Adeliepinguinen in der Antarktis zu beobachten“, zitiert das chinesische Nachrichtenportal „Xinhua“ Heather Lynch vom Lynch Lab for Quantitative Ecology  , Associate Professor am Department of Ecology & Evolution der Stony Brook University. Diese Veränderungen seien ein guter Gradmesser, um die Folgen des Klimawandels auf den gesamten Lebensbereich der Antarktis zu untersuchen. „Auch wenn ihre Population global gesehen leicht zugenommen hat, sind die Bestände in einigen Regionen bereits signifikant zurückgegangen“, stellt die Forscherin klar.

Die Aufnahmen, die man von der NASA erhalten habe, seien allerdings nicht dazu geeignet, individuelle Tiere aufzuspüren, sondern nur die Überbleibsel deren Stoffwechselprozesse, die als „Guano“ bezeichnet werden. „Männliche und weibliche Pinguine wechseln sich beim Brüten ab. Das Guano, das sie zurücklassen, bleibt überall dort liegen, wo sie ihre
Nester haben“, erklärt Lynch. Wenn man also die Exkremente findet und zählt, könne man auch die Zahl der in einer Kolonie lebenden Tiere sehr gut abschätzen. „Wir kommen auf 3,8 Mio. Brutpaare“, so die Expertin.

Kot hat verschiedene Farben

Die Zusammensetzung des Speiseplans der Adeliepinguine ergibt sich wiederum aus der Farbe ihres Kots, der auch auf den Satellitenbildern zu erkennen ist. „Die Farbe von Pinguin-Guano reicht von weiß über rosa bis dunkelrot. Weißes Guano entsteht durch den Verzehr von Fisch, rosa und rotes dagegen kommt meist von Krill“, erläutert Lynch.

Nach der akribischen Auswertung der Aufnahmen aus der Antarktis zeigte sich, dass die untersuchte Pinguingattung ihre Essensvorlieben anscheinend immer wieder ändert. „Das war für uns eine große Überraschung. Wissenschaftler hatten eigentlich angenommen, dass ihre Nahrung im Laufe der vergangenen 40 Jahre eher gleich geblieben ist. Doch durch die gravierenden Veränderungen in ihrem physischen Lebensraum und die zunehmende Krillfischerei gehen wir davon aus, dass sich das in Zukunft dramatisch verändern wird“, meint Lynchs Kollegin Casey Youngflesh.

New York (pte003/13.12.2018/06:10) pte20181213003 Forschung/Technologie, Umwelt/Energie

Energiewende führt zur Umkehr der Strommarkt-Liberalisieru

26.09.2014: Die sich »auftürmenden ernsthaften
Probleme«, welche die Energiewende mit sich brächten und politisch nicht gelöst
würden, führten nach Auffassung der Boston Consulting Group dazu, dass »sich
die Stromerzeugung konsolidiert, die produzierende Industrie zunehmend unter
Druck gerät und die Liberalisierung des Strommarktes in Deutschland«
zurückgefahren werde. Zunehmend steigende Strompreise sowie Stromexporte und
das Weiterbetreiben einer kohlendioxid-intensiven Kohleverstromung, womit die
Ziele zur Reduktion der Treibhausgasemissionen verfehlt würden, seien
beträchtliche Herausforderungen, die dazu führten, dass der »ganze Sektor auf
eine grundlegende Umgestaltung« zusteuere, einschließlich »beträchtlicher
staatlicher Interventionen, einer Marktbereinigung und Konsolidierung«. Der
zunehmende Eingriff der Bundesregierung in den Strommarkt bedeute eine »Abkehr
vom offiziell verfolgten Deregulierungskurs« und führe zu einer »Umkehr der
Liberalisierung des Strommarktes in Deutschland und eventuell auch in anderen
Ländern«, da die Bundesrepublik »für ganz Europa eine Schlüsselrolle bei der
Stromerzeugung« spiele. Die Studie »Germany´s Energiewende: The End of Power
Market Liberalization?« ist kostenfrei auf der Homepage von BCG einzusehen. ©
PHOTON

Die persönliche Kohlendioxid-Bilanz

Den eigenen Lebensstil übersetzt der neue Klima-Rechner des Umweltbundesamtes in Treibhausgas-Emissionen. Unter der Internet-Adresse http://www.umweltbundesamt.de/energie/index.htm kann man sich so durch Eingabe weniger Daten einen Überblick über die persönliche Kohlendioxid-Bilanz verschaffen: Wie viel Kohlendioxid entsteht beim Heizen der Wohnung? Wie wirkt sich ein sparsameres Auto aus? Wie viel Treibhausgase lassen sich mit regionalen Lebensmitteln einsparen? Für die Bereiche Wohnen, Verkehr, Ernährung und Konsum zeigt der Rechner, wie viel Klimagase der individuelle Lebensstil im Vergleich zum deutschen Durchschnitt verursacht. Der liegt bei jährlich rund elf Tonnen Treibhausgas pro Person – also weit über dem weltweiten Durchschnitt von 3,8 Tonnen pro Kopf. Langfristig verträglich wären dagegen 2,5 Tonnen pro Kopf.

Entwickelt wurde das Rechenmodell von dem Heidelberger Institut für Energie- und Umweltforschung und der avantTime Consulting, unterstützt vom Umweltbundesamt. Demnächst soll das Modell um Handlungsempfehlungen ergänzt werden, die zeigen, wie man seine Emissionen mindern kann.
bal

Aus den Bergen an die Küste

Alfred-Wegener-Institut für Polar- und Meeresforschung in Bremerhaven übernimmt weltweites Archiv für Strahlungsdaten aus der Schweiz

Bremerhaven, den 3. Juli 2008. Das internationale Archiv für Strahlungsdaten World Radiation Monitoring Center (WRMC) stellt für die Klimaforschung hochgenaue, meteorologische Messreihen zur Verfügung. Nach 15 Jahren Laufzeit an der Eidgenössischen Technischen Hochschule in Zürich (ETHZ) wird ab Montag, den 7. Juli 2008 das Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft den Fortbestand und die Weiterentwicklung dieses einmaligen Archivs sicherstellen. Die Daten dienen der Klimabeobachtung, der Überwachung der Einflüsse des Menschen auf die Erdatmosphäre sowie der Verbesserung der Klimavorhersagen.

Ende der 80er Jahre befasste sich der Weltklimarat erstmalig mit der Zusammenstellung des damaligen Wissens der Klimaforschung. Unter anderem wurde festgestellt, dass die bodennahen Energieumsätze der Sonnenstrahlung sowie der Wärmestrahlung der Erdoberfläche und der Wolken nicht ausreichend bekannt waren. Um diesen Mangel zu beheben, wurde ein globales Netzwerk für bodennahe Strahlungsmessstationen (Baseline Surface Radiation Network – BSRN) gefordert. Die Genauigkeitsansprüche an die Messstationen waren sehr hoch, so dass anfänglich weltweit nur zehn Stationen teilnahmen. Dazu zählten die vom Alfred-Wegener-Institut betriebenen Observatorien an der Neumayer-Station in der Antarktis sowie der Koldewey-Station auf Spitzbergen in der Arktis. Mittlerweile speisen weltweit 43 Messstationen ihre Daten in das Netzwerk ein.

Kern des World Radiation Monitoring Centers (WRMC) ist sein zentrales Datenarchiv. Es wurde 1992 an der ETHZ unter der Leitung von Prof. Ohmura entwickelt und enthält auch alle begleitenden meteorologischen Beobachtungen, die zur Interpretation der im Minutentakt vorliegenden Strahlungsmessungen notwendig sind. Dazu gehören unter anderem die mit Wetterballonen gewonnenen vertikalen Profile der Lufttemperatur und Luftfeuchtigkeit, die Wolkenbeobachtungen und Wolkenhöhen.

Mittels Satelliten wird die bodennahe Strahlung ­ welche das Klima entscheidend beeinflusst – flächendeckend abgeschätzt. Die Genauigkeit wird durch Vergleich mit den direkten Messungen des World Radiation Monitoring Centers verbessert.

Auch Klimamodelle sind auf solche Verfahren angewiesen, die bodennahe Strahlung liefern. Diese Strahlungsberechnungen werden mit den Daten des World Radiation Monitoring Center überprüft und optimiert. Außerdem sind mit diesen Messungen Trendanalysen möglich, da einige Stationen bereits seit 15 Jahren kontinuierlich messen. Erste Ergebnisse deuten gegenwärtig eine leichte globale Erhöhung der von der Sonne stammenden Strahlung an, sehr wahrscheinlich als Folge einer verbesserten Luftreinhaltepolitik.

Im Rahmen des 10. BSRN-Workshops vom 7. bis 11. Juli in De Bilt, Niederlande, wird das Archiv von Dr. Gert König-Langlo, Meteorologe und Leiter des WRMC am Alfred-Wegener-Institut, offiziell eröffnet. Weitere Informationen unter: http://www.bsrn.awi.de.

Hinweise für Redaktionen:
Ihre Ansprechpartner am Alfred-Wegener-Institut sind Dr. Gert König-Langlo (Tel. 0471 4831-1806; E-Mail: Gert.Koenig-Langlo@awi.de) sowie in der Presse- und Öffentlichkeitsarbeit Dr. Ude Cieluch (Tel. 0471 4831-2008; E-Mail: Ude.Cieluch@awi.de). Druckbare Bilder finden Sie auf unserer Webseite unter http://www.awi.de.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der fünfzehn Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.