Archiv der Kategorie: Erde, Klima, Umweltschutz

Brennstoffzellen: Entwickler beschreiten unterschiedliche Wege

Welcher Brennstoff soll es sein? Und wo kommt er her? Das internationale Brennstoffzellen-Forums „f-cell“ am 24. und 25. September in Stuttgart zeigt, dass es viele Wege zum Ziel gibt. Unter anderem berichtet das DEFC-Team der Fraunhofer-Institute über die mit Alkohol betriebene Direkt-Ethanol-Brennstoffzelle (DEFC).

Stuttgart (eos) – Ein Loblied auf den Alkohol und eine neue, damit angetriebene Brennstoffzelle singt das Fraunhofer-Team Direkt-Ethanol-Brennstoffzelle auf dem diesjährigen Brennstoffzellen-Forum „f-cell“ am 24. und 25. September in Stuttgart. Die internationale Veranstaltung der Peter Sauber Agentur Messen und Kongresse GmbH sowie der Wirtschaftsförderung Region Stuttgart GmbH (WRS) setzt dieses Jahr einen Schwerpunkt auf die mobilen Anwendungen des umweltfreundlichen Energiewandlers und kooperiert mit dem Umweltministerium Baden-Württemberg und der DaimlerChrysler AG. Die Fraunhofer-Vorträge sind aber ein Beispiel dafür, dass die Veranstalter auch für die anderen Anwendungsbereiche und Themenfelder prominente Redner und spannende Referate gewinnen konnten. Gerade sagte Ernst W. Messerschmidt, Professor für Astronautik und Raumstationen in Stuttgart sowie ehemaliger Raumfahrer, sein Kommen und einen einführenden Übersichtsvortrag zu. In den an die Plenumsvorträge anschließenden parallel laufenden Foren beschäftigen sich die Redner dann detailliert mit fachlichen Fragestellungen. Eine davon: die Herausforderungen bei der Entwicklung der Direkt-Ethanol-Brennstoffzelle.

Die Direkt-Ethanol-Brennstoffzelle

Die Fraunhofer-Experten bezeichnen Alkohol (chemisch korrekt: Ethanol) als „den idealen Brennstoff, um der Brennstoffzelle den Durchbruch zu ermöglichen.“ Langfristig soll die dazu neue entwickelte Direkt-Ethanol-Brennstoffzelle (DEFC) in Laptops und Handys den Markt erobern, zunächst aber in Messstationen und anderen kleineren Anwendungen zum Einsatz kommen. Der Charme des hochprozentigen Treibstoffs: Bioethanol wird bereits heute umweltfreundlich in großen Mengen aus Biomasse – Rüben, Weizen, Mais oder Kartoffeln –  gewonnen und als alternativer Kraftstoff eingesetzt. Der Brennstoff ist biologisch unbedenklich, leicht herzustellen und für den Kunden gefahrlos zu handhaben.

Neuigkeiten auf der „f-cell“

Doch anders als die Direkt-Methanol-Brennstoffzelle (DMFC) ist die DEFC noch nicht produktreif. „Eine der Herausforderungen liegt darin, die Verbindung der beiden Kohlenstoffatome im Ethanol (chemische Formel: C2H5OH) aufzubrechen“, berichtet Ulf Groos, zuständig für das Marketing im Fraunhofer-Team DEFC. „Es ist uns gelungen die Katalyse schon sehr weit voranzutreiben“, erklärt Dr. Michael Krausa vom Fraunhofer-Institut für Chemische Technologien ICT und Leiter des Fraunhofer-Teams DEFC. „In meinem ‚f-cell‘-Vortrag werde ich hierzu einen konkreten Ausblick geben können.“ Auch wenn die DEFC im Vergleich zu anderen Brennstoffzellen noch auf einem frühen Entwicklungsstand ist, Groos ist sich sicher, wenn einmal die Kernprobleme gelöst seien, gehe die Entwicklung zur Anwendungsreife schnell: „Wir können viel von den Erfahrungen mit der Direkt-Methanol-Brennstoffzelle lernen. Die Lösungen, die wir dort gefunden haben, sind teilweise übertragbar.“ Auch bei der Entwicklung einer speziellen Membran für die DEFC berichten die Fraunhofer-Experten Ulf Groos und Dr. Michael Krausa während der „f-cell“ am Nachmittag des 24. und Vormittag des 25. September über vielversprechende Erfolge.

Wo kommt der Brennstoff her?

Der Vortrag von Dr. Michael Krausa über Ethanol als Brennstoff, steht im Kontext des Forums „Infrastruktur, H2-Herstellung und -Speicherung“ und der spannenden Frage nach einer – möglichst umweltfreundlichen – Generierung, Lagerung und Verteilung des benötigten Energieträgers. HyWays, eine europaweite gemeinsame Initiative der Industrie, von Forschungsinstituten sowie der europäischen Kommission, arbeitet an einer Roadmap, die Wege zum Aufbau einer Wasserstoff-Infrastruktur aufzeigen soll. Reinhold Wurster von der das Projekt koordinierenden Ludwig-Bölkow-Systemtechnik in Ottobrunn wird über den neuesten Stand der Dinge berichten. Über das Leonberger „Hot-Module“, eine MCFC-Brennstoffzelle, die mit Gas aus Bioabfall gespeist wird, referiert im gleichen Forum Dr. Alois Kessler von der EnBW Energie Baden-Württemberg AG aus Karlsruhe. Nach eineinhalb Jahren im Betrieb gibt es jetzt aussagekräftige Betriebsdaten dieser weltweit einzigartigen Pionier-Anlage.

Breites Themenspektrum

Mit insgesamt neun Fach-Foren deckt die „f-cell“ ein breites Spektrum ab. Die weiteren Themen sind: „Mobile Anwendungen“ „Technik, Märkte, Anwendungen“, „Brennstoffzellen in der portablen Anwendung“, „Stack-Technologie“, „Kommunikation in Sachen Brennstoffzelle“, „Alternative Antriebe (mobil)“, „Brennstoffzellen in der stationären Anwendung“ sowie „Brennstoffzellen-Systemkomponenten“.

 

Kosten für KKW’s weit unterschätzt

Britische Studie spricht von dreimal so hohen Realkosten

London (pte/30.06.2005/11:11) – Um den Faktor drei werden die
tatsächlichen Kosten für die Atomkraftwerke unterschätzt. Zu diesem
Schluss kommt die Expertengruppe New Economics Foundation (NEF)
http://www.neweconomics.org. Die derzeitig berechneten Kosten reichen
nicht aus, um neue Technologien zu erforschen. Die NIF sieht
langfristig nur Chancen in erneuerbaren Energien wie Wind und
Photovoltaik, berichtet BBC-Online http://news.bbc.co.uk .

Erwartungsgemäß reagierte die Nuclear Industry Association NIA
http://www.niauk.org negativ. "Der Bericht ist völlig aus der Luft
gegriffen", so Simon James von der NIA. Nach Angaben der British Energy
and Nuclear Fuels kostet die Kilowattstunde Atomstrom zwischen drei und
vier Cent. Nach den Berechnungen der NEF sind diese Zahlen allerdings
weit untertrieben, sie errechneten Kosten zwischen fünf und 12 Cent pro
Kilowattstunde. Die NEF-Autoren kritisieren, dass die Betreiber die
Herstellungskosten am unteren Ende ansetzen, weil sie die Risiken des
Betriebs nicht mit einkalkulieren.

In anderen Worten ausgedrückt bedeutet dies, dass die unteren
Kostengrenzen vorhersehbar sind, allerdings die oberen Limits im Falle
einer Störung ins Unermessliche steigen. Diese Risikofaktoren finden in
der Berechnung der tatsächlichen Herstellungskosten keinen
Niederschlag, meinen die NEF-Studienautoren. Als Beispiel führen sie
das AKW Mirage und Oasis an, dessen Bau insgesamt 23 statt der
ursprünglich geplanten fünf Jahre gedauert hat. Damit explodierten die
Baukosten um 400 Prozent. Die AKW-Befürworter vergessen allzu häufig
auf die Kalkulation dieser "versteckten Kosten" ebenso wie auf das
Risiko eines Terroranschlags. Atomkraft sei jedenfalls keine Antwort
auf die Verminderung der Treibhausgase.

NEF-Policy Direktor Andrew Simmons sieht in den AKW-Befürwortern eine
Garde von Gegnern erneuerbarer Energiesysteme. Die Royal Academy of
Engineers RAE http://www.raeng.org.uk hat dem NEF-Bericht allerdings
insofern widersprochen als dieser von einem "Worst-Case-Szenario"
ausgeht.

Wind und warmes Wasser treiben Rückzug des Westantarktischen Eisschildes vora

Wind und warmes Wasser treiben Rückzug des Westantarktischen Eisschildes voran
Neue
geologische Studie erklärt die Ursachen des Schelfeis- und
Gletscherrückzuges vor 7500 Jahren und verbessert das Verständnis der
aktuellen Eisverluste in der Westantarktis

Bremerhaven, 6. Juli
2017. Wandernde Westwinde und warmes Tiefenwasser sind die treibenden
Kräfte hinter dem zunehmenden Eismassenverlust in der Westantarktis. Zu
diesem Ergebnis kommt ein internationales Geologenteam, dessen Studie
heute im Fachmagazin Nature erschienen ist. Die Wissenschaftler aus
Deutschland, Großbritannien, Dänemark und Norwegen hatten mit Hilfe von
Sedimentkernen das Zusammenspiel von Ozean und Eisströmen im
Amundsenmeer für die zurückliegenden 11.000 Jahre rekonstruiert und
deutliche Parallelen zwischen den aktuellen Ereignissen und großen
Eisverlusten vor mehr als 7500 Jahren entdeckt. Die neuen Daten sollen
nun helfen, die zukünftige Entwicklung des Westantarktischen Eisschildes
besser vorherzusagen.

Mit ihren neuen Erkenntnissen füllen die
Wissenschaftler eine entscheidende Lücke in der Klima- und
Eismodellierung. „Bisher wurde immer nur spekuliert, wer oder was in der
geologischen Vergangenheit den Rückzug der Eisströme im Amundsenmeer
vorangetrieben hat. Eindeutige Beweise hatte man nicht, was zu
Unsicherheiten in der Modellierung geführt hat. Wir können jetzt mit
unseren Daten belegen, dass es damals wie heute warmes Tiefenwasser ist,
welches auf den Kontinentalschelf strömt und die Eismassen von unten
schmilzt. Auf Basis dieser Fakten können wir nun die Modelle validieren
und ihre Vorhersagegenauigkeit entscheidend verbessern“, sagt Geologe
und Koautor der Studie Dr. Johann Klages vom Alfred-Wegener-Institut,
Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).

Für ihre
Studie hatten die Wissenschaftler Sedimentkerne analysiert, die im Jahr
2010 auf einer Expedition des deutschen Forschungseisbrechers Polarstern
in die Pine Island-Bucht des Amundsenmeeres geborgen worden waren. Die
Bodenproben enthielten Überreste winziger Meeresorganismen, sogenannter
Foraminiferen. Der geochemische Fingerabdruck ihrer Kalkschalen erlaubt
Rückschlüsse auf die Umweltbedingungen zu Lebzeiten der Tiere. Auf diese
Weise gelang es den Forschern, die Temperatur-, Strömungs- und
Eisverhältnisse im Amundsenmeer für die zurückliegenden 11.000 Jahre zu
rekonstruieren.

„In diesem Zeitraum haben sich die Schelfeise
und Gletscher der Region zweimal stark zurückgezogen. Der erste Rückzug
vollzog sich bis vor etwa 7500 Jahren, bevor das Eis wieder stagnierte.
In den 1940er Jahren setzte dann der zweite Rückzug ein. Er hält bis
heute an und macht das Amundsenmeer zu einem Hotspot des Klimawandels“,
sagt AWI-Geologe und Koautor Dr. Gerhard Kuhn.

Die in das
Amundsenmeer mündenden Gletscher und Eisströme verlieren inzwischen so
viel Eis, dass sie allein zehn Prozent des globalen
Meeresspiegelanstieges verursachen. Weltweite Aufmerksamkeit erregen vor
allem der Pine Island-Gletscher und der Thwaites-Gletscher. Beide haben
ihr Fließtempo und ihre Rückzugsraten in den vergangenen Jahrzehnten
enorm gesteigert. Zusammen genommen speichern die Eisströme der Region
so viel Eis, dass sie im Falle ihres Abschmelzens den Meeresspiegel um
1,2 Meter ansteigen lassen könnten.

„Eine der derzeit drängenden
Fragen lautet, wie werden sich diese Gletscher in der Zukunft verhalten.
Jetzt, wo wir genauer verstehen, wie die Eismassen in der Vergangenheit
reagiert haben, können wir uns ein besseres Bild davon machen, was
derzeit geschieht“, sagt Erstautor Dr. Claus-Dieter Hillenbrand vom
British Antarctic Survey.

Die neuen geologischen Daten zeigen im
Kern, dass seit dem Ende der letzten Eiszeit warmes Tiefenwasser in die
Pine Island Bucht geströmt ist. Infolgedessen schrumpften den Eismassen
so lange, bis sich vor 7500 Jahren die Westwinde nordwärts verlagerten
und der Warmwasser-Einstrom abbrach. „In den 1940-Jahren sind die Winde
dann wieder Richtung Süden gewandert, woraufhin der Warmwassereinstrom
erneut einsetzte. Er hält bis heute an und ist verantwortlich für die
Eisverluste, die wir derzeit in der Westantarktis beobachten“, sagt
Koautor Dr. James Smith vom British Antarctic Survey.

An der Studie waren Wissenschaftlerinnen und Wissenschaftler folgender Institutionen beteiligt:
• British Antarctic Survey,
• Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung,
• Universitäten in Cambridge, Leicester, Exeter, Kopenhagen und Tromsø,
• British Geological Survey,
• University College London.

Stromnetze für die Energiewende fit machen

„Die Energiewende bedeutet für das deutsche
Energiesystem einen Paradigmenwechsel, der neben Herausforderungen in
starkem Maße auch wirtschaftliche Chancen bietet“, sagt Professor Holger
Hanselka, Präsident des KIT und Sprecher von ENSURE (Neue
EnergieNetzStruktURen für die Energiewende). „Unsere Forschung auf
diesem Gebiet wird maßgeblich dazu beitragen, dass die Energiewende
wirtschaftlich erfolgreich ist und Technologielieferanten,
Infrastrukturbetreiber und Stromkunden von ihr profitieren können.“
Holger Hanselka ist gleichzeitig Vizepräsident der
Helmholtz-Gemeinschaft für den Forschungsbereich Energie. „Wir wollen
zeigen, wie wir in Deutschland gleichzeitig Energie aus fluktuierenden
erneuerbaren Quellen wie Sonne und Wind in das Netz dezentral
integrieren und eine umweltschonende, zuverlässige und bezahlbare
Energieversorgung gewährleisten können.“

Strukturen für ein zukunftsweisendes Energienetz

Konkret will das Konsortium ENSURE die Frage
beantworten: Was ist eine sowohl unter technischen, wirtschaftlichen als
auch gesellschaftlichen Aspekten sinnvolle Energienetzstruktur und
welche Anteile aus zentraler und dezentraler Versorgung beinhaltet sie?
Dazu werden im Projekt effiziente neue Systemstrukturen, stabile
Systemführungsmechanismen sowie die Integration neuer Technologien auf
breiter Basis erforscht. Ein besonderes Augenmerk liegt auf dem zu
bewältigenden technischen und gesellschaftlichen Transformationsprozess.
Daher stehen Technologien zur Stromübertragung ebenso im Fokus wie
Informations- und Kommunikationstechnologien, die in Zukunft die
Bilanzierung und Stabilität in vernetzten Versorgungsstrukturen
gewährleisten sollen.

Das Kopernikus-Projekt ENSURE ist in drei
Phasen geplant. Nach der ersten Phase für die Erforschung der Grundlagen
(2016 bis 2019) und der darauf folgenden zweiten Phase für die
Umsetzung im Pilotmaßstab (2019 bis 2022), soll in der finalen dritten
Phase (2022 bis 2025) ein multimodaler Netzdemonstrator aufgebaut
werden. Dieser Großdemonstrator soll beispielhaft aufzeigen, wie die
zukünftige energetische Versorgung eines urbanen Systems mit Umland
aussehen kann. Dabei werden auch Möglichkeiten zur Flexibilisierung und
Effizienzsteigerung, beispielsweise durch die Energiesystemintegration
von Strom, Gas, Wärme und Speichertechnologien oder durch
Gleichstrom-Kupplungen zur Mittel- oder Hochspannungsebene, untersucht.

Direktorium und Partner von ENSURE

Das ENSURE-Konsortium setzt sich aus den im
Direktorium vertretenen sechs Kernpartnern und 15 weiteren
Projektpartnern zusammen. Kernpartner sind das KIT und die RWTH Aachen
als Vertreter von Forschung und Lehre, die Unternehmen E.ON
(Energieversorger und Verteilnetzbetreiber) und TenneT TSO GmbH
(Übertragungsnetzbetreiber) sowie die Unternehmen Siemens AG
(Integrierter Technologiekonzern) und ABB (Energie- und
Automatisierungstechnikkonzern). Die weiteren Projektpartner sind: (a)
die Technischen Universitäten Dortmund und Darmstadt sowie die
Universitäten Köln, Wuppertal, Hannover, Kiel, Erlangen-Nürnberg, (b)
die außeruniversitären Forschungseinrichtungen Forschungsgemeinschaft
für Elektrische Anlagen und Stromwirtschaft e.V. Mannheim,
Fraunhofer-Institut für Windenergie und Energiesystemtechnik sowie OFFIS
– Institut für Informatik Oldenburg, (c) die Projektpartner
Öko-Institut e.V., Deutsche Umwelthilfe e.V., DVGW e.V. sowie (d) die
Industrieunternehmen Nexans GmbH und Maschinenfabrik Reinhausen GmbH.
Von dem geplanten Budget von über 43 Millionen Euro für die ersten drei
Jahre trägt der Bund rund 30 Millionen Euro.

KIT an weiteren zwei Kopernikus-Projekten beteiligt

Im Kopernikus-Projekt „Systemintegration und Vernetzung der Energieversorgung (ENavi)“ ist das KIT im antragstellenden Direktorium vertreten. Das Projekt wird
den Fokus der „Energiewende“ auf einen gesamtgesellschaftlichen
Transformationsprozess erweitern, da der Umbau des Energiesystems
Herausforderungen erzeugt, die nur im Kontext einer ganzheitlichen
Betrachtung auf Systemebene bewältigt werden können. Ziele sind, unter
anderen ein besseres und tieferes Verständnis des komplex vernetzten
„Systems von Systemen“ im Energiebereich und den damit verbundenen
Bereichen wie Industrie und Konsum zu gewinnen und Optionen für
kollektiv wirksame Maßnahmen zu generieren.

Innerhalb des Kopernikus-Projekts „P2X: Erforschung, Validierung und Implementierung von Power-to-X-Prozessen“ koordiniert das KIT den Forschungscluster, der sich mit modularen und
autarken Technologien zur Umsetzung von Synthesegas auf Basis von
Kohlendioxid in Kohlenwasserstoffe und langkettige Alkohole beschäftigt.
Erforscht werden neue, für einen dezentralen Einsatz geeignete
Prozesstechnologien zur Herstellung von Kraftstoffen, synthetischem
Erdgas (SNG) und Chemikalien aus alternativer Energie. Darüber hinaus
ist das KIT an den Clustern "Dezentrale H2-Logistik: Speicherung und
Verteilung über flüssige Wasserstoffträger“ und "Oxomethylenether:
Kraft- und Kunststoffe auf Basis von Kohledioxid und Wasserstoff“
beteiligt.

Über die Förderinitiative „Kopernikus-Projekte für die Energiewende“

Mit dem Energiekonzept 2050 strebt die
Bundesregierung eine umweltschonende, zuverlässige und bezahlbare
Energieversorgung an. Ziel der Förderinitiative „Kopernikus-Projekte für die Energiewende“ ist es als ein Teil der Hightech-Strategie wichtige Weichen zu stellen,
um neue Wege in der Kooperation von Wirtschaft, Wissenschaft und
Gesellschaft zu gehen und die Energieforschung zukünftig effizient und
zielgerichtet aufzustellen. Grundgedanke ist, dass die Gestaltung der
Energiewende nur dann gelingt, wenn die Bedürfnisse und Erwartungen der
Bevölkerung angemessen reflektiert sowie Umweltverträglichkeit und
marktwirtschaftliche Erfordernisse berücksichtigt werden.

Mit der Initiative „Kopernikus-Projekte für
die Energiewende“ werden technologieorientierte Forschungsprojekte mit
systemischem und transdisziplinärem Ansatz gefördert. Das Ziel der
Projekte ist es, für die Umsetzung der Energiewende relevante
Technologien zu identifizieren und bis zur großskaligen Anwendung zu
entwickeln, also die Initiierung von Innovationen für die Energiewende.
Es sollen Forschungsfelder von starker Komplexität, einem hohen
Forschungsrisiko und besonderen Potenzialen für die Umstellung des
Energiesystems wirtschaftlich nutzbringend erschlossen werden. Forschung
und Entwicklung in den Kopernikus-Projekten sollen so dazu beitragen,
die sich aus den technologischen Fortschritten ergebenden Chancen auf
dem Weltmarkt zu nutzen.

Stromproduktion aus Erneuerbaren Energien auf Rekordniveau

Zu den Veröffentlichungen des VDEW stellt der BEE klar: Verbraucher zahlen weniger als im Vorjahr

30.01.2007 – Die Stromproduktion aus Erneuerbaren Energien ist im
vergangenen Jahr auf ein neues Rekordniveau gestiegen. Nach heute
veröffentlichten Zahlen des Verbandes der Elektrizitätswirtschaft
(VDEW) lieferten Wind, Wasser, Sonne, Bioenergie und Erdwärme in 2006
mehr als 73 Milliarden Kilowattstunden und deckten damit etwa 12
Prozent des deutschen Stromverbrauchs. "Dies bestätigt die uns
vorliegenden Branchenwerte", so Milan Nitzschke, Geschäftsführer des
Bundesverbandes Erneuerbare Energie (BEE). Allein der Zuwachs gegenüber
dem Vorjahr übersteige beispielsweise die Jahresproduktion eines
Kernkraftwerkes, wie das zur Disposition stehende AKW Brunsbüttel.

Dabei seien die Kosten, die die Verbraucher für die Förderung von
sauberem Strom aus Erneuerbaren Energien zahlen, gesunken. Hier
widerspricht der BEE der Verlautbarung des VDEW. Nitzschke: "Während
die Stromerzeugung aus Erneuerbaren Energien massiv gestiegen ist, sind
die Kosten für seine Förderung auf 2,2 Milliarden Euro gesunken. Das
sind 200 Millionen Euro weniger als im Vorjahr." Verbraucher müssten
für die Kostenumlage gemäß Erneuerbare-Energien-Gesetz (EEG) etwa einen
halben Cent pro Kilowattstunde zahlen. Am gesamten Strompreis mache das
gerade einmal 2,5 Prozent aus. "Das deutsche Förderinstrument ist das
effizienteste in ganz Europa: Maximaler Ausbau Erneuerbarer Energien
bei minimalen Kosten. Dies wird auch durch die Europäische Kommission
bestätigt."

Hintergrund: Produzenten von Strom aus Erneuerbaren Energien bekommen
für den eingespeisten Strom eine feste Vergütung, die im
Erneuerbare-Energien-Gesetz geregelt ist. Damit wird
Investitionssicherheit auch für kleine und mittelständische Erzeuger
gewährleistet. Durch diese Regelung hat Deutschland im internationalen
Vergleich die Spitzenstellung beim Ausbau Erneuerbarer Energien
einnehmen können. Die Mehrkosten gegenüber konventionell erzeugtem
Strom werden auf alle Stromverbraucher umgelegt. Während die
Einspeisevergütungen für Strom aus neuen Erneuerbare-Energien-Anlagen
in jedem Jahr sinken, steigen die Preise für Strom aus Gas, Kohle und
Kernenergie an der Strombörse weiter an. Zudem haben Erneuerbare
Energien einen dämpfenden Effekt auf den Strompreis. Beispielsweise
sinkt der Börsenpreis an der Leipziger Strombörse an Tagen mit einer
hohen Einspeisung aus Erneuerbaren Energien.

Bundesverband Erneuerbare Energie e.V. (BEE)

Marienstraße 19/20

10117 Berlin

www.bee-ev.de

„Beispielhaftes Projekt!! Ist das die Zukunft der dezentralen Energieversorgung?“

"Beispielhaftes Projekt!! Ist das die Zukunft der dezentralen Energieversorgung?"

Insel Pellworm wird energieautark

12.09.2013: Die nordfriesische Insel Pellworm, auf der 1983 der damals größte

Solarpark Europas installiert wurde, soll durch ein intelligentes Stromnetz mit

Großspeichern energieautark werden. Dazu wollen der Stromkonzern Eon und der

norddeutsche Netzbetreiber Schleswig-Holstein Netz AG in den kommenden Monaten

auf der Insel ein sogenanntes hybrides Speichersystem für die Stromproduktion aus

Windkraft-, Photovoltaik- und Biomasseanlagen errichten. Ziel ist es, die

Stromverbraucher über moderne Datenleitungen mit den Erzeugungsanlagen zu

verknüpfen, so dass Erzeugung und Verbrauch besser aufeinander abgestimmt sind.

Überschüsse können zukünftig direkt in Lithium-Ionen- und Redox-Flow- Batterien

sowie in dezentrale Haushaltsspeicher gespeist werden. Das von einem Verbund

verschiedener Partner aus Industrie und Wissenschaft getragene Projekt wird im

Rahmen der Energiespeicherinitiative der Bundesregierung gefördert. Das

Investitionsvolumen beträgt fast zehn Millionen Euro.

© PHOTON

Flugdrohnen jagen Erdölvorkommen

Flugdrohnen jagen Erdölvorkommen
Aufnahmen ermöglichen präzise geologische 3D-Modelle
 
Öl-Suchdrohne: macht sich ein Bild vom Gelände (Foto: Eivind Senneset)

Bergen (pte001/17.05.2013/06:00) – Forscher am Centre for Integrated Petroleum Research (CIPR) http://www.cipr.uni.no der Universität Bergen http://uib.no/en und der Forschungsorganisation Uni Research setzen auf Flugdrohnen für die Jagd nach Erdölreserven. "Wir hoffen, dass wir dank der Kamera auf der Drohne schnell Aufnahmen sammeln können, die es uns ermöglichen, sehr genaue, hochauflösende virtuelle 3D-Modelle von geologischen Aufschlüssen zu erstellen", erklärt Aleksandra Sima von der Gruppe Virtual Outcrop Geology (VOG) am CIPR gegenüber pressetext. Eben diese Modelle können dann helfen, Lagerstätten aufzuspüren.

Modelle statt Sprengungen

Während heute zum Aufspüren von Erdölvorkommen seismologische Methoden gängig sind, die oft Sprengungen erfordern, setzt das norwegische Team auf einen völlig anderen Zugang. Sie vermessen Gesteinsformationen so, dass sehr genaue digitale 3D-Karten des Gebiets entstehen. Denn die Oberfläche einer Landschaft gibt oft Aufschluss darüber, was darunter verborgen ist, so VOG-Gruppenleiter Simon Buckley. Wenn man einen genauen Überblick über Steine und Mineralien in einer Gegend hat, sei es viel leichter abzuschätzen, wo Öl zu finden ist und wie es im Untergrund fließt.

Bislang haben die Forscher mit Laser-Scannern (LIDAR), Infrarotsensoren und Kameras am Boden gearbeitet, was aber sehr zeitaufwendig ist und schlecht zugängliche Gebiete kaum abdecken kann. Aufnahmen mit Satelliten oder aus dem Flugzeug wiederum helfen nur bedingt, da sie kaum Details über annähernd vertikale Felswände enthalten, so Sima. Daher setzt das Team nun auf ferngesteuerte Flugdrohnen, um hochauflösendes Material auch von unzugänglichen Klippen zu sammeln, in der Hoffnung, dass das wirklich hochpräzise, möglichst optimale geologische 3D-Modelle – mit Auflösungen von etwa ein bis zehn Zentimetern pro Pixel – zu erstellen.

Virtuelle Feldarbeit möglich

Gelingt es, dieses Ziel zu erreichen, könnten die Flugdrohnen helfen, die Feldarbeit bei der Erdölsuche weitgehend zu virtualisieren. Denn Forscher könnten Informationen von der Gesteinsart bis zur Dicke von Sedimentablagerungen effektiv mit einigen Mausklicks abrufen, nachdem die ferngesteuerte Drohne das Gelände erkundet hat. Die eigentliche Herausforderung dabei ist Buckley zufolge dann gar nicht so sehr das Sammeln der Daten selbst, sondern deren sinnvolle Nutzung für geologische Analysen.

 

Tropischer Gürtel bewegt sich polwärts

Tropischer Gürtel bewegt sich polwärts
Klimawandel verschiebt trockenes Klima nach Norden und Süden
 
Dschungel: Tropen ziehen zum Nord- und Südpol (Foto: pixelio.de, Makrodepecher)

Riverside/Hamburg (pte036/24.05.2012/13:30) – Der tropische Gürtel der Erde verschiebt sich in die Richtung der beiden Pole. Das haben Forscher anhand eines Klimamodells errechnet. Verantwortlich dafür sind Ruß, Feinstaub und das Ozonloch. Die klimatischen Veränderungen wurden durch Menschen hervorgerufen. Der Treiber des tropischen Klimas ist in der südlichen Hemisphäre das Ozonloch. In der nördlichen Hemisphäre sind die Ozonbelastung und der Ruß verantwortlich für die Ausweitung des tropischen Klimas.

Subtropen werden trockener

"Ozon und Ruß haben beide die Eigenschaft, die Athmosphäre zu erwärmen", sagt Klimaforscherin Elina Marmer http://clisec.zmaw.de gegenüber pressetext. Studienleiter Robert J. Allen von der Riverside University of California http://ucr.edu beobachtet im Zuge des Klimamodells eine Expansion der tropischen Zone um 0,7 Grad pro Jahrzehnt.

"Wenn sich die Tropen polwärts bewegen, dann wird es in den Subtropen trockener. Das wird einen Effekt auf die regionale Landwirtschaft, Wirtschaft und Gesellschaft dieser Zonen haben", so Allen. "Das Ergebnis der Studie überrascht mich nicht – dieser Effekt ist in der Klimaforschung in aller Munde", sagt Marmer. Dass sich das tropische Klima in Richtung Nord- und Südpol verzieht, wussten die Forscher bereits.

Heißes Wetter am Mittelmeer

Das tropische Klima bringt Regen, es ist heiß und es regnet viel. In den Subtropen herrscht eigentlich ein trockenes Klima. "Wenn sich das verschiebt, wird es in den Subtropen feuchter und ein Teil des mittleren Klimas wird trockener – man vermutet, dass es rund um das Mittelmeer extrem trocken wird", erklärt Marmer. Man könne aber keine Aussagen über bestimmte Regionen treffen. Zum Effekt des Klimawandels kämen auch geografische Besonderheiten.

Gärreste nicht bedenklich – dennoch untersuchen

Biogasanlagen
Gärreste nicht bedenklich – dennoch untersuchen
***********************************************************
(aid) – Biogasanlagen sind in den vergangenen Jahren oft mit der Anreicherung pathogener Keime – und hier speziell mit Neurotoxin bildenden Clostridium botulinum-Stämmen in den Gärresten in Verbindung gebracht worden. Nach Ansicht von Professor Gerhard Breves von der Stiftung Tierärztliche Hochschule Hannover, Physiologisches Institut, jedoch zu Unrecht. "Dieses Thema wird in den Medien extrem hochgekocht, ohne Sachverstand", so begann Breves die Vorstellung seiner Untersuchungsergebnisse anlässlich der Fachtagung "Pflanzenbauliche Verwertung von Gärrückständen" zu der die Fachagentur Nachwachsende Rohstoffe (FNR) im März 2013 nach Berlin eingeladen hatte.

Breves untersuchte in einer für Niedersachsen repräsentativen Studie die Gärrückstände von 15 Biogasanlagen, jeweils fünf Anlagen aus Ackerbauregionen, aus Milchviehregionen und aus Veredelungsregionen. In keinem Fall war es möglich, Neurotoxin-Bildner nachzuweisen; auch Salmonellen wurden nicht gefunden. Dieses Ergebnis, so Breves, hat die gesamte Diskussion um dieses Thema extrem entlastet. Seine Ergebnisse ließen darauf schließen, dass durch den Fermentationsprozess bei der Biogasgewinnung die absolute Keimzahl stark reduziert wird und es zu einer Hygienisierung des Gärrückstandes kommt und nicht zu einer Verkeimung. Breves empfiehlt Biogasanlagenbetreibern dennoch aus Vorsorgegründen, in bestimmten Zeitabständen die Gärsubstrate und Gärreste einer mikrobiologischen Untersuchung zu unterziehen, um auf diesem Wege Sicherheit hinsichtlich des möglichen Risikopotenzials zu erreichen.

In einem Vortrag zu den phytosanitären Aspekten in Biogasanlagen sprach Dr. Martina Bandte, Humboldt-Universität zu Berlin, Fachgebiet Phytomedizin, von einer sogenannten Abreicherung von bakteriellen und pilzlichen Pathogenen. Ihre Untersuchungen ergaben, dass beim Fermentationsprozess z. B. verschiedene Clavibacter, Claviceps purpureum, verschiedene Fusarium-Arten und Alternaria und Rhizoctonia inaktiviert werden. Die Silierung des Ausgangssubstrats und auch die spätere Lagerung der Gärreste von mindestens vier Wochen tragen ebenfalls zur Inaktivierung und Reduktion von phytopathogenen Keimen bei.
Dr. Volker Bräutigam, www.aid.de

Neuer Satellit zeigt Meereis-Rückgang

Neuer Satellit zeigt genaues Ausmaß des Meereis-Rückganges in der Arktis

Bremerhaven 15. Februar 2013. Aktuelle Messungen des ESA-Eisdicken-Satelliten CryoSat-2 haben ergeben, dass die Gesamtmasse des arktischen Meereises im vergangenen Herbst 36 Prozent kleiner war als zur gleichen Zeit in den Jahren 2003 bis 2008. Betrug das Herbst-Volumen der Eisdecke bis vor fünf Jahren noch durchschnittlich 11900 Kubikkilometer, schrumpfte sie im vierten Quartal des Jahres 2012 auf 7600 Kubikkilometer. Zu diesem Ergebnis kommt ein internationales Forscherteam, nachdem es CryoSat-Daten der zurückliegenden zwei Jahre verglichen hat mit Messungen eines ehemaligen NASA-Satelliten sowie mit den Ergebnissen der Meereis-Untersuchungen des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung. Die Studie ist in der Online-Ausgabe des Fachmagazins Geophysical Research Letters erschienen und zeigt zum ersten Mal, wie genau Wissenschaftler die Entwicklung des arktischen Meereises mit CryoSat-2 beobachten können.

Als das arktische Meereis im Spätsommer des vergangenen Jahres so weit geschmolzen war, dass seine Fläche einen neuen Negativrekord aufstellte, war Meereisphysiker Stefan Hendricks genau am Ort des Geschehens – in der zentralen Arktis. Von Bord des Forschungsschiffes POLARSTERN aus starteten er und Kollegen mit Helikoptern, um mit einem Meereisdicken-Sensor im Schlepptau die Dicke des verbliebenen Eises zu vermessen; und das über eine Strecke von mehr als 3500 Kilometer. Daten wie diese haben Stefan Hendricks und Kollegen anschließend benutzt, um die Messmethode und die Messergebnisse des Eis-Satelliten CryoSat-2 zu überprüfen, den die ESA (European Space Agency) am 8. April 2010 in das Weltall gebracht hatte.

Der Satellit verfügt über einen Radar-Abstandsmesser, der erfasst, wie groß der Abstand zwischen der Eisoberfläche und dem darunterliegenden Meerwasser ist. CryoSat-2 umkreist die Erde zudem auf einer Umlaufbahn, die ihn dichter an den Nordpol heranführt als jeden seiner Vorgänger. Sein 1000 Meter breiter Radar-Strahl wandert dabei innerhalb eines Monats fast einmal über die gesamte Arktis, sammelt hochaufgelöste Daten und durchdringt im Gegensatz zu CryoSats Vorgänger ICESat auch die Wolkendecke. Technik, welche die Wissenschaftler begeistert und voranbringt: „Wir wissen jetzt, dass das CryoSat-Messverfahren gut funktioniert. Mit Hilfe des Satelliten ist es uns zum ersten Mal gelungen, eine nahezu vollständige Eisdicken-Karte der Arktis zu erstellen“, sagt Meereisphysiker und Mitautor Stefan Hendricks vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). AWI-Meereis-Experten messen seit dem Jahr 2003 in einem Projekt der ESA die Dicke von Meereis.

Die CryoSat-Daten aus den vergangenen zwei Jahren belegen, dass die Eisdecke in der Arktis im Herbst des Jahres 2012 etwa 36 Prozent und im Winter rund 9 Prozent kleiner war als in den gleichen beiden Zeiträumen in den Jahren 2003 bis 2008. Betrug das Herbst-Volumen der Eisdecke bis vor fünf Jahren noch durchschnittlich 11900 Kubikkilometer, schrumpfte sie im vierten Quartal des Jahres 2012 auf 7600 Kubikkilometer – ein Minus von 4300 Kubikkilometern. Das Winter-Volumen dagegen sank von 16300 Kubikkilometern (2003-2008) auf 14800 Kubikkilometer (2010-2012), ein Verlust von insgesamt 1500 Kubikkilometern.
Diese Einbußen führen die Wissenschaftler vor allem auf den Rückgang des drei bis vier Meter dicken, mehrjährigen Eises zurück. „Die CryoSat-Daten belegen, dass dieses dicke Meereis zum Beispiel in einer Region nördlich Grönlands, am Kanadisch-Arktischen Archipel sowie auch nordöstlich Spitzbergens verschwunden ist”, sagt Mitautorin Dr. Katharine Giles vom University College London.