Archiv der Kategorie: Erde, Klima, Umweltschutz

Klimageschichte im Eis

In der Antarktis wollen europäische Forscher wichtige Klimadaten aus den letzten 1,5 Millionen Jahren analysieren

Alfred-Wegener-Institut- In einem Projekt der Europäischen Union haben Forscher von 14 Institutionen in zehn europäischen Ländern im Eis der Antarktis drei Jahre lang nach einem Ort gesucht, an dem sie am besten die Klimageschichte der letzten 1,5 Millionen Jahre untersuchen können. Das Ergebnis hat das Konsortium Beyond EPICA – Oldest Ice (BE-OI) unter Leitung von Olaf Eisen vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in Bremerhaven heute auf einer Tagung der „European Geosciences Union“ in Wien vorgestellt.

Ausgewählt haben die Forscher einen der kältesten, trockensten und leblosesten Plätze, die es auf der Erde gibt: „Little Dome C“ liegt drei Stunden Schneemobil-Fahrt (30 Kilometer) von der Antarktis-Station Dome Concordia entfernt, die Frankreich und Italien auf dem Eis des Wilkes-Landes in einer Höhe von 3233 Meter über dem Meeresspiegel betreiben. Niederschläge beobachten die Forscher dort kaum einmal, und im Jahresdurchschnitt liegen die Temperaturen bei minus 54,5 Grad Celsius. Wärmer als minus 25 Grad wird es dort sehr selten und im Winter fallen die Temperaturen manchmal unter minus 80 Grad.

Wo heute die Concordia-Station steht, bohrten Forscher zwischen 1996 und dem Dezember 2004 im Rahmen des europäischen EPICA-Projektes (European Project for Ice Coring in Antarctica) 3270 Meter tief ins das Eis der Antarktis. Mit genauen Analysen der so erhaltenen Bohrkerne konnten Forscher die Klimageschichte der vergangenen 800.000 Jahre zuverlässig rekonstruieren. „In dieser Zeit wechselten sich lange Kaltzeiten mit kürzeren warmen Epochen in einem Rhythmus von ungefähr hunderttausend Jahren ab“, erklärt AWI-Forscher und BE-OI-Projektkoordinator Olaf Eisen. Da in diesem Eis auch winzige Bläschen eingeschlossen sind, die noch Luft aus der Zeit enthalten, in der das Eis sich bildete, können die Klimaforscher darin den Gehalt der wichtigen Treibhausgase Kohlendioxid und Methan messen. Und sie finden klare Zusammenhänge: War das Klima auf der Erde kalt, gab es viel weniger Kohlendioxid und auch weniger Methan in der Luft als in wärmeren Epochen.

Aus den Jahrhunderttausenden vor dieser Zeit haben die Forscher bisher allerdings keine Eisbohrkerne, in deren Luftbläschen sie den damaligen Gehalt der Treibhausgase messen könnten. Gerade in dieser Epoche aber hat sich der Rhythmus stark verändert, in dem sich Kaltzeiten und wärmere Perioden abwechseln: „Vor mehr als 1,2 Millionen Jahren dauerte ein solcher Zyklus nur etwa 40.000 Jahre, ausgelöst durch regelmäßige Änderungen in der Neigung der Erdachse. Danach folgte eine 300.000 Jahre lange Übergangszeit, bevor vor rund 900.000 Jahren dann der Hunderttausend-Jahre-Rhythmus begann“, erklärt Olaf Eisen.

Diese Entwicklung kennen Klimaforscher aus Untersuchungen der Sedimente, die sich in diesen Zeiten am Meeresgrund abgelagert haben. Solche Analysen liefern Hinweise auf die damaligen Temperaturen und auf die Massen der Eispanzer, die in diesen Zeiten über der Antarktis, über Grönland und zeitweise auch über Nordamerika und dem Norden Europas lagen. Daten zu den Treibhausgasen Kohlendioxid und Methan und deren Zusammenhänge mit der Entwicklung des Klimas erhalten die Forscher dagegen nur aus den Luftbläschen, die in dieser Zeit im Eis eingeschlossen wurden.

„Es gibt daher sehr gute Gründe, nach den 800.000 Jahre alten EPICA-Proben bis in mindestens 1,5 Millionen Jahre altes Eis zu bohren“, erklärt Olaf Eisen. Damit könnten die Forscher nicht nur die Klimazusammenhänge der „mittleren Pleistozän-Übergangszeit“ untersuchen, sondern auch den davor liegenden 40.000-Jahre-Rhythmus. Da die im Eis enthaltenen Moleküle im Laufe vieler Jahrtausende ein wenig diffundieren und so die Analysen „verschmieren“, suchen die Forscher Eis mit einer höheren Auflösung, in dem zehntausend Jahre Klimageschichte in einem mindestens einen Meter langen Bohrkern stecken, in dem das Verschmieren eine geringere Rolle spielt.

In den vergangenen drei Jahren suchten die Forscher aus zehn europäischen Ländern, unterstützt von Kollegen aus den USA, Australien, Japan und Russland, in der Antarktis im BE-OI-Projekt daher Eis, das diese Kriterien erfüllt. Bei Flügen über die Antarktis analysierten sie mit Radarstrahlen die unter der Oberfläche liegenden Schichten des Eises, die sie mit bis zu 400 Meter tiefen Probebohrungen auch direkt untersuchten. Aus diesen Ergebnissen schlossen die Forscher auf die Verhältnisse in tieferen und damit älteren Schichten. Dabei kristallisierte sich der „Little Dome C“ als bester Kandidat für mindestens 1,5 Millionen Jahre altes Eis heraus, das in seinen ältesten Bereichen noch eine gute Auflösung hat und das unter dem riesigen Druck der darüber liegenden Massen auch an seiner Basis nicht schmilzt.

Gibt die Europäische Union wie erhofft grünes Licht für die zweite Phase von BE-OI, werden die Forscher koordiniert von Carlo Barbante von der Universität von Venedig auf dem „Little Dome C“ ein Feldcamp aufbauen, in dessen Containern die Mannschaft während der Bohrungen in recht einfachen Verhältnissen leben wird. Voraussichtlich Mitte November 2021 kann dann eine Bohrung beginnen, mit der zehn Zentimeter dicke Eiskerne gewonnen werden. In drei Antarktissommern soll diese Bohrung dann jeweils von Mitte November bis Anfang Februar fortgesetzt werden, bis 2024 eine Tiefe von 2730 Metern erreicht wird, in der das Eis mindestens 1,5 Millionen Jahre alt sein dürfte. Im Jahr 2025 sollten die ersten Daten der Bohrkern-Analysen vorliegen, aus denen das internationale Forscherteam dann die Zusammenhänge zwischen den Treibhausgasen und dem Klima in der „mittleren Pleistozän-Übergangszeit“ und den davor liegenden Epochen untersuchen wollen.

Hintergrundinformationen:
BE-OI ist der europäische Beitrag für die weltweite Suche nach der geeigneten Stelle für eine Eisbohrung. Das Konsortium übernimmt die Vorstudien für die Standortwahl rund um Dome C und Dome Fuji, beides potentiell geeignete Regionen in der Ostantarktis. Weitere Wissenschafts-Konsortien untersuchen im Rahmen von IPICS (International Partnerships in Ice Core Sciences) andere Lokationen. Dieses Projekt wird gefördert von der Europäischen Union im Horizon 2020 Forschungs- und Innovationsprogramm unter der Förderungsnummer 730258.

Mitglieder im BE-OI-Konsortium:

• Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI, Deutschland), Koordination
• Institut Polaire Français Paul Émile Victor (IPEV, France)
• Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (ENEA, Italy
• Centre National de la Recherche Scientifique (CNRS, France)
• British Antarctic Survey (NERC-BAS, Great Britain)
• Universiteit Utrecht – Institute for Marine and Atmospheric Research (UU-IMAU, Netherlands)
• Norwegian Polar Institute (NPI, Norway)
• Stockholms Universitet (SU, Sweden)
• Universität Bern (UBERN, Switzerland)
• Università di Bologna (UNIBO, Italy)
• University of Cambridge (UCAM, Great Britain)
• Kobenhavns Universitet (UCPH, Denmark)
• Université Libre de Bruxelles (ULB, Belgium)
• Lunds Universitet (ULUND, Sweden)

Reinigungsanlagen mit Kohlefilter als Option

Im Kampf gegen Luftverschmutzung und Fahrverbote sind Reinigungsanlagen mit Kohlefilter eine Option. Technisch funktioniert das erstaunlich gut.

(FAZ) Wo hinten weniger rauskommt als vorn hineingeht, ist mit hoher Wahrscheinlichkeit ein Filter im Spiel. Das gilt für den Dieselmotor genauso wie für den Pollenfilter. Warum dieses bewährte Prinzip nicht anwenden, um die Feinstaubbelastung dort zu senken, wo ihr anders nicht beizukommen ist? Das fragten sich einige Ingenieure aus der Region Stuttgart. In der Landeshauptstadt hat es eine Kreuzung bar jeder touristischen Attraktivität zu bundesweiter Bekanntheit gebracht. Das Neckartor gehört zu jenen wenigen Messstationen, an denen die Grenzwerte für Feinstaub trotz großer Verbesserungen regelmäßig überschritten werden. Und wenn man schon Luftreinigungsanlagen installiert, so der nächste Gedanke, können die dann nicht gleich auch das Stickoxid aus der Luft fischen?

Technisch funktioniert das erstaunlich gut, wie sich am Beispiel einer Testinstallation von Mann+Hummel am Neckartor nachweisen lässt. Sie besteht im Kern aus 17 unscheinbaren Säulen, die aus drei gestapelten Würfeln von etwa einem Meter Kantenlänge aufgebaut sind. In jedem Würfel saugt ein Ventilator die den Filter durchströmende Luft von der Straßenseite an und spuckt sie gereinigt zum Bürgersteig hin wieder aus. Eine elektronische Regelung passt die Leistung des Ventilators permanent an den Schadstoffeintrag an. Selbst wenn die Anlage mit voller Leistung von 1500 Watt arbeitet, ist der Stromverbrauch nicht höher als bei einem Haushaltsstaubsauger. Der maximale Lärmpegel beträgt dabei weniger als 54 Dezibel, das ist deutlich leiser als jedes vorbeifahrende Auto.

Strömt die Luft ins Innere des Würfels, trifft sie zunächst auf das Filtermedium, ein Vlies aus Mikrofasern. Auch wenn die eigentlich filternde Schicht nur zwei bis drei Millimeter misst, ist das Vlies so geschickt gefaltet, dass die gesamte wirksame Oberfläche in einem einzigen Würfel rund 60 Quadratmeter beträgt. Die in der Luft schwebenden Partikel werden in den sich nach hinten verjüngenden Poren des Vlieses aufgefangen. Dort bleiben sie, bis die Durchlässigkeit des Filters nachlässt. Nach aktuellem Wissenstand muss der etwa alle zwei Monate ausgetauscht werden, abhängig natürlich davon, welche Schadstofflast wirklich auftritt. Die bisher am Neckartor durchgeführte Erprobung zeigt laut Mann+Hummel, dass sich die Feinstaubimmission durch die Säulen um 10 bis 30 Prozent vermindern lässt, je nachdem, in welchem Abstand zur Säule die Messung erfolgt. „Das entspricht der gleichen Minderung, die durch ein um 40 Prozent geringeres Verkehrsaufkommen erzielt würde“, erläutert ein Sprecher. Wer sich über die Zahlen wundert, dem sei in Erinnerung gerufen, dass der Straßenverkehr selbst an hochbelasteten Stellen wie dem Neckartor maximal für die Hälfte der Feinstaubbelastung verantwortlich ist.

Doch Anwohnern und von Fahrverboten bedrohten Autofahrern machen die feinen Stäube in den meisten deutschen Städten längst weniger Sorgen als die Stickoxide. Die schweben nämlich als einzelne Moleküle in der Luft und sind viel zu klein, um sie mit einem Filter einzufangen. Doch auch dafür will Mann+Hummel eine Lösung haben. Sie basiert auf einer hinter den Filter gelegten Schicht aus Aktivkohle. Dieses Material, das Rucksackreisende gern für die Trinkwasseraufbereitung nutzen, besteht aus reinem Kohlenstoff, der eine hochporöse Struktur aufweist. Dadurch lässt sich eine sehr große innere Oberfläche herstellen, konkret beträgt diese bei der Stuttgarter Lösung rund 600 Quadratmeter für jedes Gramm aktiven Materials. Trifft ein Stickoxidmolekül auf diese Oberfläche, bindet diese das Molekül über Van-der-Waals-Kräfte, die aus der ungleichen Verteilung elektrischer Ladungsträger in beiden Stoffen resultieren. Da es sich bei dem Anhaften nicht um eine chemische Reaktion handelt, wird dafür auch keine Energie benötigt. Dass die Stickoxidreinigung auf diese Weise funktioniert, ist an Kombifiltern für Auto-Klimaanlagen nachgewiesen. Diese Filter werden, unter anderem von Mann+Hummel, jährlich millionenfach produziert. Den konkreten Nachweis am Stuttgarter Neckartor will der Zulieferer mit der auf 23 Säulen erweiterten Testinstallation beweisen. Man geht von einer Verringerung der Stickoxidimmission um 20 Prozent aus.
Nicht nur Schwaben sind pfiffig. In Kiel erregte eine Demonstrationsanlage des Fünf-Mann-Unternehmens Purevento große Aufmerksamkeit. Was die eigentliche Luftreinigung betrifft, setzt das Start-up ebenfalls auf die Kombination von Vliesstoff-Filter und Aktivkohle. Der Unterschied liegt vor allem in der Verpackung: Hier kommt ein Container zum Einsatz, maximal zweieinhalb Meter breit und rund drei Tonnen schwer. Damit soll er auf einem Auto-Anhänger zu transportieren sein. Allerdings hatte es in Kiel schon während der ersten Demonstrationsphase Proteste gegen den Container gegeben, weil er die Verkehrsfläche für Fußgänger und Radfahrer einschränkt.

Geheimnisse unserre Planeten Neptun und Uranus im falschen Licht

In Planeten wie Neptun oder Uranus könnte es deutlich weniger freien Wasserstoff geben als angenommen. Um die hohen Temperaturen und Drücke im Inneren der Eisriesen nachzuahmen, haben Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) Schockwellen durch zwei Arten Kunststoff getrieben und mit ultrastarken Röntgenlasern die Wirkung auf die Proben untersucht. Das unerwartete Ergebnis: Statt aufzubrechen, hielt die Kristallstruktur einer Kunststoffart dem extremen Druck stand. Weil das hochdichte Innere der Planeten ähnliche Bestandteile wie der Kunststoff aufweist, müssen nun auch Planetenmodelle teilweise neu überdacht werden, wie die Forscher in der Fachzeitschrift Scientific Reports (doi: 10.1038/s41598-019-40782-5) berichten.

Kohlenstoff und Wasserstoff gehören zu den häufigsten Elementen im Universum. Die Eisriesen Neptun und Uranus bestehen zu großen Teilen aus diesen Zutaten – beispielsweise in Form von Methangas. Tiefer im Inneren der Planeten bilden sich durch den hohen Druck komplexere Strukturen aus Kohlenstoff und Wasserstoff. Ganz innen befindet sich ein fester Kern. Welche Zustände die Materie dazwischen annimmt, ist eine der großen Fragen der Planetenforschung.

Um den Aufbau der Eisriesen besser zu verstehen, hat ein internationales Team um die beiden HZDR-Forscher Dr. Nicholas Hartley und Dr. Dominik Kraus zwei Arten Kunststoff in einem Laborexperiment näher untersucht: Polystyrol und Polyethylen. Diese Materialien ähneln in ihrer Chemie dem Kohlenwasserstoff im Inneren der Planeten. Im SLAC National Accelerator Laboratory in den USA setzten die Wissenschaftler die Proben Bedingungen aus, wie sie etwa zehntausend Kilometer unter der Oberfläche von Neptun und Uranus vorhergesagt werden. Dort ist der Druck fast so hoch wie im Kern der Erde und zwei Millionen Mal höher als der Luftdruck auf der Erdoberfläche.

Extrem hohe Drücke

Die Forscher erwarteten, dass sich in beiden Materialien bei den sehr hohen Temperaturen und Drücken alle kristallartigen Strukturen auflösen würden. Tatsächlich beobachteten sie aber für das Polyethylen selbst bei sehr hohem Druck noch stabile Verbindungen von Kohlenstoff und Wasserstoff. „Dieses Ergebnis hat uns sehr überrascht“, meint Hartley. „Wir haben nicht geglaubt, dass der unterschiedliche Anfangszustand so einen großen Unterschied unter Hochdruck macht. Bis vor kurzem konnten wir diese Materialien nicht untersuchen, weil die Röntgenquellen nicht lichtstark genug waren. Wir waren die ersten, die das überhaupt für möglich gehalten haben – und es war möglich.“

Da sich die extremen Bedingungen im Inneren der Eisriesen auf der Erde nur als Momentaufnahme simulieren lassen, benötigen die Forscher blitzschnelle Messmethoden. Diese gibt es weltweit an wenigen ultraschnellen Röntgenlasern, an denen Zeit für Messungen rar und begehrt ist. Kraus und Hartley gelang es, ihrem Team insgesamt drei Mal zwölf Stunden für ihre Experimente zu sichern. Die Forscher nutzten jede Minute, um möglichst viele Messdurchgänge durchzuführen. Der eigentliche Schlüsselmoment, in dem sie die Proben mit dem Röntgenlaser beschießen, dauert dabei nur wenige Milliardstel Sekunden.

Eine unerwartete Struktur erscheint

Bereits während der Experimente konnten die Forscher erste Ergebnisse erkennen: „Wir waren sehr aufgeregt, weil sich für Polystyrol wie erhofft diamantartige Strukturen aus Kohlenstoff bildeten. Für Polyethylen aber sahen wir bei den in diesem Experiment erreichten Bedingungen keine Diamanten. Stattdessen war da eine neue Struktur, die wir uns anfangs nicht erklären konnten“, erinnert sich Hartley. Polyethylen in dieser Form beobachteten sie zuvor nur bei einem Fünftel des Drucks und der Raumtemperatur.

Die Entdeckung des Forscherteams zeigt, wie wichtig es ist, die Chemie und die Temperatur- und Druckbedingungen im Inneren der Eisriesen besser zu kennen, um deren Aufbau und physikalische Eigenschaften zu verstehen. Modelle für Uranus und Neptun gehen davon aus, dass die ungewöhnlichen Magnetfelder dieser Planeten durch den freien Wasserstoff entstehen. Die neuen Ergebnisse legen jedoch nahe, dass es weniger freien Wasserstoff geben dürfte als bislang angenommen. Im nächsten Schritt wollen die Forscher für ihre Experimente Sauerstoff zu der Mischung hinzufügen, um der Chemie im Inneren der Planeten noch besser zu entsprechen.

Neben den HZDR-Forschern waren an den Untersuchungen auch Wissenschaftler des SLAC National Accelerator Laboratory, der Osaka University, der TU Dresden, der TU Darmstadt, des GSI Helmholtzzentrum für Schwerionenforschung, des Lawrence Livermore National Laboratory, der University of California in Berkeley, der University of Warwick, des European XFEL, des LULI an der École Polytechnique in Paris und der Universität Rostock beteiligt.

Publikation:

N.J. Hartley, S. Brown, T.E. Cowan, E. Cunningham, T. Döppner, R.W. Falcone, L.B. Fletcher, S. Frydrych, E. Galtier, E.J. Gamboa, A. Laso Garcia, D.O. Gericke, S.H. Glenzer, E. Granados, P.A. Heimann, H.J. Lee, M.J. MacDonald, A.J. MacKinnon, E.E. McBride, I. Nam, P. Neumayer, A. Pak, A. Pelka, I. Prencipe, A. Ravasio, M. Rödel, K. Rohatsch, A.M. Saunders, M. Schölmerich, M. Schörner, A.K. Schuster, P. Sun, T. van Driel, J. Vorberger, D. Kraus: Evidence for crystalline structure in dynamically compressed polyethylene up to 200 GPa, in Scientific Reports, 2019 (DOI: 10.1038/s41598-019-40782-5)

Menschenrecht auf sauberes Wasser für jedermann, leider durch rücksichtslose Industriefolgen immer wieder verletzt. Aber die Forschung macht Fortschritte – Mit einer Stellungnahme von Jean Pütz

Dass sich die UNO mit dem Thema Wasser überhaupt beschäftigen musste, ist der Skandal. Es ist vor allen Dingen die Industrie, die dieses Recht zunichte macht. Aber auch Verschwendung in unserer westlichen Welt. Warum gibt es keine  staatliche Vorschrift, dass alle Bauten – privat oder industrieell – nicht die alte Methode der Regenspeicherung in Zisternen nutzen müssen. Das würde auch die Kanalisation und Kläranlagen erheblich entlasten, die bei einem zu großen Regenanfall verseuchtes Wasser in Grundwasser und Flüsse spülen. Noch besser wäre eine zusätzliche Vorschrift, dass das Brauchwasser aus den Zisternen in einer gesonderten Leitung für Toilettenspülung und Gartenbewässerung genutzt würde. Ich selbst habe sehr gute Erfahrungen auf meinem Landhausgelände gemacht und kann es nur jedem empfehlen, es spart Geld und Ressourcen.

Hierzu zunächst ein positiver Bericht: Den Wasserverbrauch im Bergbau reduzieren // Digitalisierung in der Aufbereitungstechnologie hilft, das kostbare Gut effizient einzusetzen

und dann ein negativer Bericht: Weltwassertag: Recht auf Wasser weltweit verletzt

Den Wasserverbrauch im Bergbau reduzieren

Digitalisierung in der Aufbereitungstechnologie hilft, das kostbare Gut effizient einzusetzen

Der Weltwassertag am 22. März mahnt an den sorgfältigen Umgang mit einer lebenswichtigen Ressource, von der auch zahlreiche Industrien abhängig sind. Ein Beispiel ist die Aufbereitung von mineralischen Erzen. Wie der Wassereinsatz optimiert werden kann, zeigen Forscher des Helmholtz-Instituts Freiberg für Ressourcentechnologie (HIF) jetzt am Beispiel des Rohstoffs Fluorit. Sie haben ein neues Verfahren entwickelt, das die Simulation des Aufbereitungsprozesses erweitert. Dieses zeigt an, wo sich Wasser sinnvoll mehrfach einsetzen lässt, ohne dass es bei der Erzanreicherung zu Verlusten kommt. Der Verbrauch an Frischwasser lässt sich damit deutlich verringern. Das kommt nicht nur der Umwelt zugute, sondern auch den Bergbaufirmen, weil es die Rohstoffgewinnung effizienter macht. Ihr neues Verfahren stellen die Forscher in der Fachzeitschrift „Journal of Environmental Management“ (DOI: 10.1016/j.jenvman.2018.11.139) vor.

Das HIF gehört zum Helmholtz-Zentrum Dresden-Rossendorf und kooperiert eng mit der TU Bergakademie Freiberg.

Ob im Smartphone, modernen Autos oder Anlagen zur klimafreundlichen Solarstromerzeugung – Hightech-Werkstoffe sind aus dem Alltag nicht mehr wegzudenken. Zwar kann Recycling den Rohstoffbedarf teilweise decken, der Großteil der Materialien kommt aber nach wie vor aus dem Bergbau. Die Umweltauswirkungen sind bekannt: Flächenverbrauch, zusätzliche Verkehrswege sowie Siedlungen in oft entlegenen Gebieten. Hinzu kommen oftmals auch ein großer Wasserbedarf und entsprechende Mengen an Abwasser. HIF-Forscher um den Verfahrensingenieur Bruno Michaux haben gemeinsam mit Kollegen in Finnland eine Methode entwickelt, um den Wassereinsatz in der Aufbereitung mineralischer Rohstoffe nachhaltiger zu gestalten. Am Beispiel des Minerals Fluorit zeigt das Team, wie mithilfe einer Prozess-Simulation der Wasserverbrauch deutlich gesenkt werden kann.

Das Mineral Fluorit –  in der Mineralogie auch als Flussspat bekannt und chemisch als Calciumfluorid bezeichnet – ist ein wichtiger Rohstoff für die Industrie. Es wird beispielsweise für die Verhüttung von Eisen eingesetzt, für die Aluminiumgewinnung oder in der Chemieindustrie als Rohstoff für Fluor und Flusssäure. Das wohl bekannteste Produkt der Fluorchemie ist das Fluorpolymer PTFE, das unter den Handelsnamen Teflon und Gore-Tex bei Membranen vertrieben wird.

Erzaufbereitung als Wasserschlucker

„Bei der Gewinnung von Fluorit wird viel Wasser verbraucht. Abhängig vom örtlichen Klima, vor allem aber von der Auslegung der Aufbereitungsanlage können es bis zu 4000 Liter pro Tonne Erz sein“, erläutert Bruno Michaux. Das Wetter können die HIF-Forscher natürlich nicht beeinflussen, aber sie können dazu beitragen, die Aufbereitung zu optimieren. In diesem Prozessschritt wird aus dem geförderten Erz das wertlose Nebengestein abgetrennt, um den Fluorit-Anteil von unter 50 Prozent auf bis zu 98 Prozent zu steigern. Dazu nutzen die Ingenieure das Verfahren der Flotation. Grob vereinfacht funktioniert es folgendermaßen: Das Erz wird gemahlen und mit viel Wasser vermischt. Dann werden verschiedene Chemikalien hinzugefügt; sie binden an die Fluoritpartikel und machen deren Oberfläche wasserabweisend (hydrophob). Nun wird Luft hineingepumpt. Die aufsteigenden Blasen nehmen die hydrophoben Partikel mit an die Oberfläche. Der Fluorit reichert sich im Schaum an, das Nebengestein bleibt zurück. Bevor es auf Halde gelagert oder als Füllmaterial wieder untertage gebracht wird, muss es entwässert werden. Um die gewünschte Konzentration an Fluorit zu erreichen, wird die Flotation mehrfach wiederholt. Entsprechend viel Wasser ist nötig.

„Bergbaufirmen versuchen, den Verbrauch von Wasser zu verringern, indem sie es mehrfach nutzen“, berichtet Michaux. „Allerdings enthält das gebrauchte Wasser Stoffe, die bei der weiteren Aufbereitung stören können – und das gilt es zu vermeiden.“ Zum Beispiel geht es um Calcium- und Magnesium-Ionen, die eine Hydrophobierung des Fluorits behindern. Wie stark dieser Effekt zum Tragen kommt, hängt von der Konzentration der Ionen ab. Die neue Methode berücksichtigt nun den Einfluss der jeweiligen chemischen Zusammensetzung des Wassers auf die Flotation. Anhand ausführlicher Versuche mit Fluoriterz im Labor erhielten die Forscher Daten, die das komplexe Zusammenspiel der Chemikalien widerspiegeln, und integrierten diese in die Simulationssoftware HSC Sim. In der Bergbauindustrie wird diese eingesetzt, um unterschiedlich zusammengesetzte Erzströme abzubilden und Aufbereitungsprozesse zu steuern.

Digital überwachter Wasser- und Energieverbrauch

„Mit der von uns entwickelten Ergänzung kann die Software nun auch die Zusammensetzung des Prozesswassers einbeziehen“, erklärt Michaux. „Dadurch wird es möglich, das eingesetzte Wasser wiederzuverwenden, ohne dass die Effizienz der Aufbereitung beeinträchtigt wird.“ Auch ein optimaler Einsatz verschiedener Wasserreservoirs nahe der Mine, wie Seen, Flüsse, Grund- oder Meerwasser, ist mithilfe der Simulation denkbar. Weitere Prozessschritte, zum Beispiel das Aufmahlen und die Entwässerung des Erzes, sollen künftig integriert werden. Im Idealfall könnte der Wasserverbrauch dann auf unter 1000 Liter pro Tonne Erz sinken.

In einem Bergbaubetrieb wollen die Forscher das neue Verfahren demnächst dem Praxistest unterziehen. „Da dies einen vollständig digitalisierten Aufbereitungsprozess voraussetzt, bei dem Sensoren die Eigenschaften der Stoffströme kontinuierlich messen und an die Prozesssteuerung weitergeben, werden zunächst eher größere Minen diese Investition leisten“, vermutet Michaux. „Das Potenzial der Digitalisierung ist aber enorm: Mittels Echtzeit-Überwachung und wirklich intelligenter Prozesssimulation und Software ist es möglich, bei einem geringeren Energie- und Materialeinsatz mehr Rohstoffe zu gewinnen“. Dies gilt für alle Erze und nicht nur für die mehrfache Wasserverwendung bei der Fluoritaufbereitung, für die das HIF-Team exemplarisch die Simulationsmethode entwickelt hat.

Publikation: Michaux, J. Hannula

Weltwassertag: Recht auf Wasser weltweit verletzt

Am 28. Juli 2010 hat die UN-Generalversammlung mit der Resolution 64/292 das Recht auf Wasser offiziell anerkannt. Anlässlich des Weltwassertags am 22. März macht die Menschenrechtsorganisation FIAN darauf aufmerksam, dass dennoch 2,1 Milliarden Menschen keinen Zugang zu sauberem und durchgängig verfügbarem Trinkwasser besitzen. Betroffen sind vor allem ärmere Regionen der Welt und dort vor allem ländliche und indigene Gebiete. Zu den Ursachen gehören Diskriminierung marginalisierter Bevölkerungsgruppen, Klimawandel, Bergbau, Industrie sowie der Ausbau von städtischer Infrastruktur und industrieller Landwirtschaft.

Ein Beispiel für die Bedrohung des Rechts auf Wasser durch Bergbauprojekte ist der Fall der indigenen und bäuerlichen Bevölkerung von Kimsacocha in der Provinz Azuay im Süden Ecuadors. Das im Jahr 2002 initiierte Projekt Loma Larga des kanadischen Unternehmens IAMGOLD liegt in Macizo Cajas, einem Gebiet mit hohem ökologischen Wert und vielen Wasserquellen. Obwohl  die UNESCO das Gebiet als Biosphärenreservat anerkannt hat und es Teil des ecuadorianischen Systems der Schutzgebiete ist, werden die Explorationsarbeiten weiter durchgeführt.

Das Menschenrecht auf Wasser ist in der ecuadorianischen Verfassung  verankert und hat  Vorrang vor wirtschaftlichen und industriellen Interessen. Das ecuadorianische Parlament hat 2008 beschlossen, dass Bergbaukonzessionen in Gebieten, in denen es Wasserquellen gibt, zurückgenommen werden. Allerdings wird das Projekt Loma Larga weiter vorangetrieben – mit verheerenden Folgen für die Gemeinden in Kimsacocha. Hierzu zählen ein verminderter Wasserstand der Flüsse und die Verschmutzung des Grundwassers. Das Recht auf Wasser ist nicht nur unentbehrlich zur Gewährleistung der Rechte auf Nahrung und Leben. Wasser hat auch eine spirituelle Bedeutung für die Gemeinden von Kimsacocha.

Seit Beginn des Projekts protestierten die Gemeinden auf nationaler und internationaler Ebene friedlich gegen Loma Larga, sowohl mit politischen als auch mit rechtlichen Mitteln. Infolgedessen wurden viele Personen verfolgt und kriminalisiert. Zu den Kritikpunkten gehört, dass der ecuadorianische Staat vorab keine Konsultationen durchgeführt hat. Dies verstößt sowohl gegen die  Verfassung als auch gegen die ILO-Konvention 169. Erst durch langjährigen Druck der Zivilgesellschaft haben die betroffenen Gemeinden eine Konsultation erwirken können, bei der sie erstmalig mit über die Zukunft des Bergbauprojekts entscheiden dürfen. Diese ist für den 24. März angesetzt.

FIAN Deutschland fordert:
• die Einhaltung nationaler Gesetze und internationaler Abkommen wie zum Beispiel des UN-Sozialpakts; die Rechte der Menschen müssen über wirtschaftliche Interessen gestellt werden;
• Gewährleistung des Rechts auf Wasser der von dem Projekt Loma Larga betroffenen Gemeinden in Kimsacocha;
• Stopp von Verfolgung und Kriminalisierung;
• Stopp des Boykotts der Konsultation durch staatliche Institutionen;
• Respektierung des Ergebnisses der Konsultation vom 24. März und Durchführung der hierfür erforderlichen Maßnahmen.

Digitalisierung soll Anlagenmanagement der Energieversorgungsnetze verbessern – Mit Stellungnahme von Jean Pütz

Diese Forschung wurde auch langsam Zeit. Im Grunde genommen wird aber das Pferd von hinten aufgezäumt. In der Politik wurde viel zu spät berücksichtigt, dass die vielen dezentralen Einspeisungen regenerativer Energiequellen ganz anderer technischer Bedingungen bedürfen als das bisher der Fall war. Insbesondere wenn sämtliche Kohlekraftwerke entsorgt werden sollen, die früher allein schon durch die Größe etlicher Gigawattleistungen die Einhaltung der 50 Herz-Frequenz relativ sicher gewährleisteten. Die Netzstabilität der Zukunft fällt und steigt mit der Möglichkeit, dieses riesige europäische Hochspannungsnetz genauso zu sichern, wenn nicht auf die polnischen Kohlekraftwerke und/oder französischem Kernstrom zurückgegriffen werden soll. Dazu ist ein enormer Regelungsbedarf nötig, der nur durch die Entwicklung der künstlichen Intelligenz Chancen hat. Deshalb begrüße ich diese Forschungsinitiative des Bundesministeriums für Wirtschaft und Energie. Dazu der folgende Artikel
Ihr Jean Pütz

Fraunhofer FIT, Maschinenfabrik Reinhausen GmbH, Robert Bosch GmbH und die RWTH Aachen entwickeln im Rahmen des vom Bundesministerium für Wirtschaft und Energie geförderten Projekts MAKSIM ein kostengünstiges Messsystem zur Optimierung des Asset Managements im Verteilungsnetz. Das Anlagenmanagement der Energieversorgungsnetze in den Bereichen Instandhaltung und Erneuerung soll damit zukünftig vorausschauender und effizienter erfolgen können.

Das Asset Management von Stromnetzbetreibern bietet im Kontext einer Digitalisierung hohe Potentiale zur wirtschaftlichen und technischen Optimierung. Aktuelle Ansätze in der Instandhaltungs- und Erneuerungsplanung der Betriebsmittel basieren zumeist auf Erfahrungswerten, Expertenwissen oder Statistiken. Die dafür benötigte Datenbasis resultiert aus den Ergebnissen regelmäßiger Vor-Ort Inspektionen der Betriebsmittel durch das Instandhaltungspersonal der Netzbetreiber, die alle 3-6 Jahre durchgeführt werden. Diese Ansätze stoßen bereits heute auf Grund einer zumeist unzureichenden Datenbasis an ihre Grenzen.

Mess- und Diagnosesysteme zur Überwachung des Zustandes der Betriebsmittel könnten diese Lücke schließen. Eingebettet in bereits vorhandene Asset Management Strategien würden beispielweise Datenanalysen an online gespeicherten und dauerhaft erfassten Zustandsdaten des gesamten Betriebsmittelparks Netzbetreibern vollkommen neue Geschäftsprozesse, Methoden und Strategien eröffnen. Ausgangsbasis für die Umsetzung solcher Ansätze sind jedoch auf die Anwendung der Verteilungsnetzebene zugeschnittene, technologische Lösungen aus vielen Teildisziplinen, etwa Mess- und Diagnosetechnik, Low-Cost-Sensorik und Datenverarbeitung, IKT, Algorithmen zur Zustandsbewertung oder Datenhaltung, welche geringe Kosten aufweisen müssen. Nur so können flächendeckende Systeme und daraus resultierende technische und ökonomische Mehrwerte für die vorausschauende Instandhaltung und Erneuerung von Energieversorgungsystemen realisiert werden.

Zustandserfassung auf Basis Mikro-Elektromechanischer-Systeme

Mess- und Diagnoseverfahren, die eine dauerhafte Online-Überwachung zentraler Betriebsmittel eines Stromnetzes ermöglichen, existieren heute standardmäßig nur für Betriebsmittel der Hoch- und Höchstspannungsebene. Die im Verteilungsnetz eingesetzten und wesentlich kompakteren sowie kostengünstigeren Betriebsmittel der Mittel- und Niederspannungsebene werden zumeist gar nicht oder nur rudimentär überwacht. Eine einfache Adaption von Standardmessverfahren ist angesichts der finanziellen Aufwände für die Messsysteme nicht möglich. Die in der Hoch- und Höchstspannungsebene eingesetzten Messsysteme kosten häufig so viel wie die Betriebsmittel in der Mittel- und Niederspannungsebene selbst. Aus anderen Industriebereichen sind jedoch Sensorsysteme bekannt, die auf Grund sehr hoher Stückzahlen positive Skaleneffekte aufweisen. Beispielsweise kommen in der Automobil-, Consumer- oder Prozessindustrie kostengünstige Mikro-Elektromechanische-Systeme (MEMS) zum Einsatz, die neben der Sensorik eine integrierte Signalverarbeitung und Kommunikationsschnittstelle enthalten.

Genau hier setzt das Projekt MAKSIM an. Basierend auf MEMS-Technologie werden durch die Projektpartner Fraunhofer FIT, Maschinenfabrik Reinhausen GmbH, Robert Bosch GmbH und die RWTH Aachen kostengünstige Sensor-, Mess-, Informations- und Kommunikationstechnologien entwickelt, angewendet und verifiziert.

In Zusammenarbeit mit Herstellern (Fritz Driescher KG) und drei Verteilungsnetzbetreibern aus den Regionen Aachen (Regionetz GmbH), Köln (Rheinische NETZGesellschaft) und Nürnberg (Main-Donau Netzgesellschaft) erfolgt zunächst die Definition grundlegender Anforderungen an die erforderliche Mess- und Kommunikationstechnik im Hinblick auf Instandhaltung und Erneuerung im Verteilungsnetz. Betrachtet werden unter anderem Faktoren wie Schlüsselparameter, Sensorik, Messgenauigkeit, Reproduzierbarkeit, Verfügbarkeit, Sicherheit, Installationsaufwand und Grenzkosten.

Darauf basierend werden im Rahmen von Laborversuchen Messverfahren Bottom-Up neu entwickelt und anschließend in einem Messsystem umgesetzt. Dabei wird insbesondere untersucht, wie und ob kostengünstige Sensorik aus energietechnikfernen Bereichen eingesetzt werden kann. In diesem Zusammenhang wird eine kostengünstige IKT-Infrastruktur realisiert, die eine zukünftige Digitalisierung des Asset Managements ermöglichen soll. Neben Datenerfassung, -übertragung und -speicherung werden auch Algorithmen zur sensornahen und überlagerten Datenaufbereitung und -analyse sowie zur späteren Einbindung in Zustandsbewertungsverfahren entwickelt. Begleitend zur Entwicklung wird das entwickelte Gesamtsystem in einem Feldversuch beim Endanwender optimiert und einer technisch-wirtschaftlichen Bewertung unterzogen.

Forscher bei Flug-Biosprit vor Durchbruch

19.03.2019

Berkeley – Forscher des zum US-Energieministerium gehörenden Lawrence Berkeley National Laboratory (Berkeley Lab)  experimentieren derzeit mit Treibstoffen aus Pflanzen für Flugzeuge. „Es ist eine gewaltige Herausforderung, Flugzeuge zu bauen, die ihre Energie aus Batterien oder Brennstoffzellen beziehen“, sagt Studienerstautorin Corinne Scown vom Berkeley-Lab-Joint BioEnergy Institute (JBEI) Ursache sei das hohe Gewicht der Energiespeicher. „Aus diesem Grund werden flüssige Biotreibstoffe eine bedeutende Rolle bei der Reduzierung der Klimagase spielen.“

Vorarbeit für die Industrie

Derzeit arbeiten JBEI-Forscher daran, jeden Schritt bei der Herstellung von Biosprit zu optimieren. Einige sind darauf spezialisiert, Pflanzen zu züchten, die viele Kohlenhydrate und wenig Lignin enthalten. Dieses stört bei der Umwandlung und muss vorher entfernt werden. Andere Wissenschaftler arbeiten an Methoden, aus nicht essbarer Biomasse Zucker herzustellen, der sich beispielsweise in den Treibstoff Ethanol umwandeln lässt. Bisher sind dazu meist Pflanzen nötig, die auch als Nahrungs- oder Futtermittel dienen, wie etwa Zuckerrohr oder Getreide.

Um Biomasse in Zucker zu verwandeln, müssen Bakterien manipuliert werden. In Europa und Nordamerika sind bereits solche Mikroorganismen entwickelt worden. Die Ausbeute ist den JBEI-Forschern aber noch zu gering. Wenn alle Schritte zur Herstellung von Biotreibstoffen optimiert sind, sollen die Erkenntnisse an die Industrie weitergegeben werden, damit diese den umweltverträglichen Sprit in großem Stil herstellen kann.

Bereits starke Preisreduktion

Als das JBEI angefangen hat, betrug der Preis für eine Gallone (vier Liter) 300.000 Dollar, so Nawa Baral, der zum Team gehört. Heute sind es 16 Dollar, immer noch mehr als Treibstoff aus fossilen Quellen, dessen Preis bei 2,5 Dollar liegt. In Simulationen, in denen fünf Entwicklungswege durchgespielt wurden, konnten die Forscher zeigen, dass dieser Preis auch für Biotreibstoff erreichbar ist. Ob allerdings so viel Biomasse zur Verfügung steht, um fossile Treibstoffe zu ersetzen, ist fraglich. Der weltweite Luftverkehr benötigt täglich fünf Mio. Barrel.

 

19.03.2019: Appell an die Vernunft- wie lässt sich die Umweltproblematik lösen???

Mit einer Anmerkung von Jean Pütz

Meine persönliche Bemerkung:

Diese Initiative begrüße ich sehr. Möchte auch bemerken, dass ich seit ca. 10 Jahre fast klimaneutral lebe. Trotzdem muss ich Wasser in den Wein gießen und nachfragen, ob diese Initiative in ihrer Außenwirkung auf die Bürger, insbesondere auf die Jugendlichen, falsch verstanden werden kann? Der Mainstream – was an sich positiv zu beurteilen ist – heißt Umweltschutz. Selbstverständlich brauchen wir in unserer unmittelbaren Umgebung saubere Luft, sauberes Wasser, saubere Natur mit ihrer Artenvielfalt, ökologische Landwirtschaft, wir müssen die Meere vor Unrat insbesondere vor Mikroplastik und Plasitkfolien schützen und natürlich vor radioaktiven und giftigen Abwässern.

Dass der KLimawandel von Menschen gemacht ist, kann auch nicht in Abrede gestellt werden. Ob allerdings wir in Deutschland mit einer CO2-Erzeugung von 2% weltweit und Europa mit 10% bei strikter Einhaltung der geschlossenen Grenzwerte das Klima retten können, möchte ich inständig bezweifeln.

Was Deutschland anbelangt, so sind wir auf gutem Wege. Noch nie waren jedenfalls die Gewässer, die Luft so sauber wie heute. Auch die Müllentsorgung inkl. Recycling und Müllerverbrennung kann kaum mehr gesteigert werden. Dieser Aufwand hat sich gelohnt und am Anfang brachte das auch einen großen Ertrag. Aber das Problem ist, Aufwand und Ertrag entwickeln sich nicht linear. Wie bei allen Grenzwert-Betrachtungen verhält sich das entlang einer Parabel. Am Scheitelpunkt bringt noch so viel Aufwand keine Verbesserung, der Grenzwert ist gleich Null. Danach geht es – ähnlich wie von Paracelsus beschrieben – in den Schadensbereich. Mehr hilft eben nicht mehr und schadet sogar. Auf die lokalen Umweltinitiativen bezogen bedeutet das: Wenn es nicht gelingt, einen Großteil der Staaten von der Notwendigkeit z. B. der CO2-Reduzierung zu überzeugen, wird das Problem nicht gelöst – ganz nach dem Prinzip Ursache und Wirkung. Deutschland ist stets mit positivem Beispiel vorausgegangen,  die löblichen Umweltaktivisten glaubten, das Beispiel würde Schule machen, doch leider konnte am Deutschen Wesen die Welt nicht genesen. Nicht einmal in Europa ist ein Konsens möglich.

Was die mit Steinkohle oder Öl befeuerten Kraftwerke anbelangt, so würde unser Verzicht lokal eher eine Steigerung z. B. der Stromproduktion durch diese Kraftwerke in Polen zur Folge haben. Gleiches gilt  für die Kernenergie und der im Moment im Bau und in der Planung befindlichen Tausenden von Kraftwerken in der Welt, z. B. in China, Indien und USA, die schon heute für 50% der globalen CO2-Erzeugung verantwortlich sind. Auch die Kernkraftwerke scheinen eine neue Renaissance zu erleben. Frankreich hat mit der Erzeugung keine Probleme, denn über 100 Kernkraftzentralen sorgen dort für elektrische Energie. Sie haben dazu geführt, dass sie sogar die Gebäude mit elektrischer Energie beheizen und den ganzen Wärmemarkt beherrschen. Was ein Frevel ist, denn besser wäre es, diese Wärme unmittelbar zu erzeugen, entweder in großen oder kleinen Heizkraftwerken, die gleichzeitig dann auch noch Strom erzeugen.

Deutschland hat bewiesen, dass auch mit regenerativen Energien durchaus zu rechnen ist, obwohl die Nebenwirkungen und Risiken häufig nicht offenbart werden, z. B. dass Insekten und Vögel extrem durch Windräder vernichtet werden und Photovoltaik in unseren Breiten wesentlich unergiebiger ist als in südlichen Breiten. Trotzdem wieder ein hohes Lob an Deutschland: Die technologische Kompetenz hat zumindest erreicht der Welt zu zeigen, dass regenerative Energien wirtschaftlich rentabel sind. Wenn wir allerdings auf Grund dieser Erfolge meinen, wir könnten den CO2-Ausstoß in Deutschland durch weitere extreme Maßnahmen, d. h. durch Abschalten sämtlicher Kernkraftanlage und jetzt auch noch aller Kohlekraftwerke die Welt retten zu können, dann möchte ich das entschieden in Abrede stellen. Es ist überhaupt nicht geklärt, ob in Zeiten der Wind- oder Sonnen-Flaute die notwendige elektrische Energie ausreicht, um einen Gau zu verhindern.

Elektrische Energie lässt sich leider nur unter großem Aufwand speichern, z. B. durch Pumpspeicherwerke mit Wasserkraft, aber sonst herrscht Ratlosigkeit. Doch das Wunschdenken führt dazu, dass man glaubt, es müsste irgendwie klappen. Leider gibt es auch viele Wissenschaftler, die das bejahen, aber das sind selten Energiefachleute. Diese warnen inständig vor dem Gau, denn der Hochspannungsnetzverbund ist besonders durch die vielen dezentralen Einspeisungen für Störungen sehr anfällig geworden. Ich glaube, den überzeugten Ökologen dürfte es nicht besonders angenehm sein, wenn wir dann in diesen Zeiten der Flaute Braunkohle-Energie-Strom aus anderen Ländern beziehen müssen.

Das Ganze wird noch verstärkt, wenn wir unsere Autos auf Elektromobilität umrüsten wollen. Der Mainstream scheint zwar dahin zu wirken, aber dass nur mit Akkumulatoren versehene reine Elektroauto ist noch völlig unausgegoren. Ich als Diplom Ingenieur sehe nur eine einzige Chance, und zwar ein modifizierter Hybrid-Antrieb, wobei ein mehr oder weniger kleiner aber auf optimalen Wirkungsgrad eingestellter Dieselmotor oder Turbine nur die Batterie ladet, und deswegen in der Kapazität wesentlich kleiner werden kann. Die eigentliche Genialität steckt im Elektromotor, denn der benötigt keinerlei Getriebe mehr, so dass auch das Gewicht des modifizierten Hybridautos wesentlich geringer werden kann. Auch das erspart enorme Energie, wobei beim Bremsen die Batterie wieder rückgeladen wird.

Das alles hätte den Vorteil, dass die Automobilindustrie nicht völlig entsorgt werden müsste. Das geniale an dem am wenigsten CO2-abgebenden Dieselkonzept bliebe erhalten. Dass die Abgase feinstaub- und stickoxidfrei sind, ist schon bewiesen und wurde nur durch verbrecherische Software-Manipulationen verhindert.

Durch dieses extreme Festhalten an den Grenzwerten der CO2-Reduktion schädigt Deutschland  seine vorbildliche Industrielandschaft, die nicht nur aus Großfirmen besteht, sondern aus kleinen unglaublich aktiven mittelständische Industriebetrieben. Auf diesen beruht der enorme Exporterfolg der deutschen Wirtschaft.

Zur Information: Die Industrie trägt in Deutschland zu 21% am Bruttosozialprodukt bei. Davon träumen Engländer mit nur 10% und Franzosen mit 11%. Der Grund: Deren Politik hat zu spät den notwendigen Wandel der alten Industrielandschaft in moderne Hightech-Industrien erkannt.

Nun stehen wir in großer Konkurrenz mit fernöstlichen Volkswirtschaften, die sich weitgehend nicht an gegebene Grenzwerte halten und deshalb einen enormen wirtschaftlichen Vorteil im weltweiten Handel besitzen. Da helfen uns starre Umweltideologen nicht weiter. Die sich abzeichnende Rezession – auch dadurch verursacht – wird die soziale Stabilität in Europa enorm beeinflussen.

Dieses sollten alle diese Wissenschaftler, die die begrüßenswerte Initiative der jungen Menschen unterstützen, berücksichtigen. Ich glaube, die Schulen sollten hier aktiv werden und zeigen, dass Umweltpolitik nicht nur emotional gesteuert werden kann.

Dies wollte ich einmal anmerken im Vorfeld des folgenden Artikels.

Jean Pütz

Erklärung der NaturwissenschaftlerInnen-Initiative „Verantwortung für Frieden und Zukunftsfähigkeit“ zu Scientists for Future und Fridays for Future

Scientists for Future: Abrüstung für Klimaschutz – Frieden und Zukunftsfähigkeit gehören zusammen

NatWiss: Seit Wochen demonstrieren und streiken weltweit hunderttausende junger Menschen für ihre Zukunft, den Klimaschutz und den Erhalt unserer natürlichen Lebensgrundlagen.Dieses Anliegen der Initiative Fridays for Future unterstützen inzwischen mehr 14.000 WissenschaftlerInnen aus Deutschland, Österreich und der Schweiz. In der Stellungnahme von Scientists for Future erklären sie: „Nur wenn wir rasch und konsequenthandeln, können wir die Erderwärmung begrenzen, das Massenaussterben von Tier- und Pflanzenarten aufhalten, die natürlichen Lebensgrundlagen bewahren und eine lebenswerteZukunft für derzeit lebende und kommende Generationengewinnen.“

Die NaturwissenschaftlerInnen-Initiative „Verantwortung für Frieden und Zukunftsfähigkeit“ schließt sich diesen berechtigten Forderungen an. Diese sind umso dringlicher, als die Zukunftsfähigkeit unseres Planeten zunehmend mit der Frage von Krieg und Frieden verbunden ist. Die Zerstörung der Umwelt und die Ausbeutung natürlicher Ressourcen unseres Planeten gefährden den Frieden und werden einem Sicherheitsrisiko, besonders für Menschen in verwundbaren und fragilen Risikozonen. So sieht auch die Scientists for Future-Erklärung die Gefahr, dass durch unzureichenden Schutz der Böden, Ozeane, Süßwasserressourcenund Artenvielfalt – bei gleichzeitiger Erderwärmung als „Risikovervielfacher” – „Trinkwasser- und Nahrungsmittelknappheitin vielen Ländern soziale und militärische Konflikte auslösen oderverschärfen und zur Migration größerer Bevölkerungsgruppenbeitragen.“ Bei Überschreiten klimatischer Kipp-Punkte des Erdsystems werden sich selbst verstärkende Prozesse in Gang gesetzt, mit weltweit katastrophalen Folgen.

Solche Umweltrisiken verbinden sich auf komplexe Weise mit anderen Krisenerscheinungen, von Armut, Hunger und Flucht über Globalisierung und Technikabhängigkeit, Nationalismus und Rechtsentwicklung bis zu Gewaltkonflikten und neuer Aufrüstung. Diese Entwicklungen sind brandgefährlich und untergraben die Grundlagen für Frieden und nachhaltige Entwicklung. So wie Umweltzerstörung den Frieden gefährdet, so stehen Gewalt und Krieg einer nachhaltigen Entwicklung im Wege. Ein nuklearer Winter durch einen Atomkrieg wäre nicht nur das Ende der menschlichen Zivilisation, sondern auch eine Bedrohung für das Leben auf der Erde.

Dem negativen Teufelskreis muss eine positive Verbindung von Nachhaltigkeit, Entwicklung und Frieden entgegengesetzt werden. Dazu braucht es präventive und kooperative Governance-Strukturen und Institutionen zwischen dem Globalen Norden und dem Globalen Süden, die Klimarisiken vermeiden und Krisenursachen angehen, durch Verteilungsgerechtigkeit, Transformation von der fossilen zu einer nachhaltigen und kohlenstoffarmen Energieversorgung sowie eine friedliche Konfliktlösung und Abrüstung.

Um die notwendigen Veränderungen zu finanzieren und zu realisieren, muss der gefährliche und kostspielige Aufrüstungskurs beendet werden. Klimaschutz braucht Abrüstung!

13.03.2019: „Entwicklungshilfe“: Neue Studie staatlich oder privat? Mit einer Stellungnahme von Jean Pütz.

In meiner 40jährigen Arbeit als Wissenschaftsjournalist habe ich mich sehr um die „Problematik Entwicklungshilfe'“ bemüht. Schon als Student war ich in Köln Vorsitzender eines internationalen Studentenbundes ISSF, der sich mit Arbeits- und Studienaufenthalten in Afrika und Südamerika organisierte,  um junge Menschen die Praxis zu zeigen und auf die Probleme aufmerksam zu machen. Sechs Wochen arbeiteten sie in den Niederlassungen deutscher Firmen in diesen Ländern. Mit diesem Geld, das sie dort verdienten, konnten sie sechs Wochen die dortigen Universitäten besuchen oder Entwicklungsprojekte konkret anzuschauen. Heute weiß ich, dass die Entwicklungshilfe unbedingt mit der dortigen Bevölkerung und nicht nur mit deren Regierung abgestimmt werden muss. In dem Zusammenhang Privatisierung möchte ich bemerken: Das eine tun und das andere nicht lassen, aber nicht nur wegen eines kurzfristigen Profits, sondern auf langfristige  und sozialen, ökologische und ökonomische Nachhaltigkeit beachten.

Ihr Jean Pütz

Neue Studie kritisiert zunehmende Privatisierung der Entwicklungszusammenarbeit

Staatlicher Entwicklungszusammenarbeit mit Finanzinvestoren und Agrarkonzernen. Die Untersuchung kommt zu dem Ergebnis, dass der wachsende Einsatz privater Gelder nicht geeignet ist, um Hunger und Armut strukturell zu bekämpfen.
Die Autoren der Studie „Agrarkonzerne und Finanzindustrie: Die neuen Lieblinge der Entwicklungszu-sammenarbeit?“ widersprechen der Aussage, wonach nur mit Investitionen des Privatsektors die nach-haltigen Entwicklungsziele (SDGs) erreicht werden können. Sie kritisieren, dass das Entwicklungsministerium mit seinem Schwerpunkt auf Privatinvestitionen die eigentlichen Zielgruppen – marginalisierte Bevölkerungsgruppen – aus dem Blick verliere. Da es meist keine Informationen über die finalen EmpfängerInnen der Gelder gebe, seien konkrete menschenrechtliche Wirkungen in der Regel unbekannt.

Roman Herre, Agrarreferent von FIAN Deutschland und Ko-Autor der Studie: „Im Gepäck der SDGs war die Botschaft enthalten, dass zu ihrer Umsetzung gewaltige 2,5 Billionen Dollar pro Jahr fehlen – und nur privates Geld dieses Loch stopfen könne. Diese Botschaft wird nicht hinterfragt. Sie führte zur Neuausrichtung der Entwicklungszusammenarbeit und hat damit möglicherweise mehr Wirkkraft entfaltet als die Entwicklungsziele selbst.“

Ein konkreter Aspekt, der von den Autoren kritisch betrachtet wird, ist die zunehmende Kooperation mit Agrarkonzernen, mit der die Landwirtschaft – vor allem auf dem afrikanischen Kontinent – zu marktför-migen und inputintensiven Systemen umstrukturiert werden soll. Diese Kooperation werde im Rahmen einer Vielzahl von Initiativen realisiert, darunter die Allianz für eine Grüne Revolution in Afrika (AGRA) oder die Neue Allianz für Ernährungssicherung der G7-Staaten. Lena Michelsen, Agrarreferentin von der Entwicklungsorganisation INKOTA kommentiert: „Initiativen wie AGRA setzen vor allem auf den Einsatz von chemischen Düngemitteln und Hybridsaatgut und dienen damit in erster Linie den Expansi-onsbestrebungen großer Konzerne wie Yara und Bayer. Kleinbauern und -bäuerinnen geraten in immer stärkere Abhängigkeiten, und auch die Umwelt leidet unter dem längst gescheiterten Modell der Grünen Revolution. Die von der Bundesregierung zugesagte Förderung in Höhe von zehn Millionen Euro ist eine völlige Fehlinvestition.“

Ein weiterer Kritikpunkt betrifft die Intransparenz der Finanzinstitutionen. Allein die DEG, Tochter der staatlichen Entwicklungsbank KfW, hat mehr als die Hälfte ihrer 7,2 Milliarden Euro Entwicklungsgelder an Finanzinstitute vergeben. Auch haben sich Kredite und Beteiligungen der DEG an Unternehmen in Finanzoasen – darunter den Kaimaninseln oder Mauritius – innerhalb von zehn Jahren verfünffacht. Zur Legitimierung solcher Konstrukte werden oft fragwürdige Kennzahlen und indirekte Wirkungen herangezogen. So erklärt die DEG in ihrem jüngsten Jahresabschluss, dass „DEG-Kunden rund 1,5 Millionen Menschen beschäftigen“. Roman Herre kritisiert: „Aus entwicklungspolitischer und menschenrechtlicher Perspektive müsste untersucht werden, ob durch solche Finanzierungen auch Arbeitsplätze abgebaut wurden. Dies ist besonders bei Agrarfinanzierungen im globalen Süden ein bedeutender Aspekt: Die dortige kleinbäuerliche Landwirtschaft beschäftigt je nach Region 70 bis 80 Prozent der Bevölkerung. Werden Menschen hieraus verdrängt – wie besonders bei großflächigen Agrarinvestitionen – dann verlieren sie oftmals ihre Lebensgrundlagen.“

 

Standorte für Wasserkraftwerke

Big Data bestimmt Standorte für Wasserkraftwerke

Neue Software soll Kleinturbinen in England zum Durchbruch verhelfen

Blick in Google Earth: Da sollte ein Kraftwerk stehen (Foto: le.ac.uk)
Blick in Google Earth: Da sollte ein Kraftwerk stehen (Foto: le.ac.uk)

Leicester (pte002/15.04.2015/06:05) –

Forscher an der University of Leicester http://le.ac.uk entwickeln zusammen mit dem Industriepartner High Efficiency Heating http://hehuk.co.uk derzeit eine Software, die die Nutzung von Wasserkraft in
Großbritannien revolutionieren soll. Das System greift auf
Big-Data-Analysen zurück – unter anderem auf Satellitenbilder, um
automatisch optimale Standorte für Kleinkraftwerke an Flüssen zu finden.
Das könnte die Nutzung erneuerbarer Energien erleichtern.

"Wir sprechen hier potenziell von tausenden günstigen
Turbinen mit zehn bis 20 Kilowatt, installiert an urbanen Flüssen, nahe
am Verbraucher und nahe an problemfreien Netzanbindungspunkten", erklärt
Projektberater Martyn Cowsill. Um ein Netz solcher Kleinkraftwerke
sinnvoll zu ermöglichen, müssten Standorte leicht gefunden werden. Eben
das soll die Software ermöglichen. Die Projektpartner haben dabei
zunächst eine Machbarkeitsstudie am River Tame bei Manchester
durchgeführt und eine Reihe von Lösungen für vorgegebene
Turbinenkonfigurationen gefunden.

Daten für kleine Kraftwerke

Die Idee für das Projekt kam ursprünglich von High
Efficiency Heating. Die Firma hat sich damit an Big-Data-Experten der
Universität gewandt. Denn um automatisiert geeignete Standorte für
Kleinkraftwerke zu finden, müssen große Datenberge bewältigt werden.
"Unser Tool nutzt beinahe 30 Datensätze nationaler Größe, die kostenlos
verfügbar sind", so Kevin Tansey, Lektor für Fernerkundung an der
University of Leicester. Dazu zählen gute Höhendaten der staatlichen
Environmental Agency, die eine Abschätzung des Gefälles erlauben.

Die Ergebnisse erster Feldtests am River Tame im
Oktober 2014 verliefen Tansey zufolge sehr gut. Die Lösung sei auch
alltagstauglich. "Wir haben ein sehr visuelles, sehr interaktives
Nutzerinterface in Google Earth erstellt, das die verschiedenen Lösungen
an unterschiedlichen Standorten und ihre Kosten zeigt", erklärt Tansey.
Damit ist es leicht, Auswertungen auch vor Ort bei Landbesitzern oder
Turbinenherstellern zu zeigen. "Wir können das Tool nutzen, um mögliche
Standorte an jedem beliebigen Flussabschnitt im Land zu zeigen", so der
Forscher.

Umgänglicherer Ökostrom

Die Projektpartner sind vom Potenzial der Lösung
überzeugt, da sie einen einfacheren Zugang zu Wasserkraft bietet. Denn
die Standortfindung für kleine Wasserkraftwerke wird viel schneller und
günstiger. Das könnte sich im Ökostrom-Zeitalter doppelt rentieren.
"Wasserkraft ist eine Stufe besser als Solar oder Wind, weil Flüsse rund
um die Uhr laufen", unterstreicht Cowsill. Die Anlagen können Strom
also genau dann liefern, wenn er benötigt wird. Ein Zwischenspeichern
ist im Gegensatz zu Wind- und Solarenergie nicht nötig.

Passivhäuser unterstützen Kyoto-Protokoll

Energie-effizientes Bauen spart CO2 und Heizkosten

Böblingen, 17. Februar: Das Kyoto-Protokoll ist in Kraft getreten. Ob
es Deutschland allerdings gelingen wird, seine ehrgeizigen
Klimaschutzziele zu erreichen, ist derzeit mehr als fraglich. Einen
ganz erheblichen Beitrag zur CO2-Minderung können die Privathaushalte
leisten. „Passivhaus“ heißt der trendsettende Baustandard, der ein
immenses Einsparpotenzial beinhaltet – sowohl, was den CO2-Ausstoss,
als auch, was die Heizkosten betrifft. Über alle Aspekte des
energiesparenden Bauens und Sanierens sowie über alle regenerativen
Energieträger informiert die Messe „erneuerbare energien 2005“ zusammen
mit der „Passiv-Haus 2005“ vom 25.-27.2.2005 in Böblingen. Erwartet
werden rund 8.000 Besucher.
Derzeit gibt es rund 6.000 Passivhäuser in Deutschland. Bis zu 15.000
werden es nach Einschätzung der Experten vom Fraunhofer Institut Solare
Energiesysteme bis Ende 2006 sein. Für 2010 wird jeder fünfte Neubau
(das entspricht 60.000 Wohneinheiten) auf Passivhausstandard
prognostiziert.
Jedes Passivhaus spart gegenüber einem durchschnittlichen Wohnhaus mehr
als 90 Prozent Heizöl, das sind pro Jahr bei 100m² Wohnfläche 1.350
Liter. 15.000 Passivhäuser sparen somit 20.250.000 Liter Heizöl im Jahr
und vermeiden einen CO2 Ausstoß von 56.700 Tonnen!
Die Zunahme der Heizkosten im Jahr 2004 um 25 – 35 % lässt die
Passivhaus-Besitzer kalt. Beim aktuellen Stand der Heizölpreise
betragen die Heizkosten im Passivhaus nicht einmal mehr einen Euro pro
Quadratmeter Wohnfläche und Jahr. Jährlich lassen sich über 600 Euro
einsparen. Der übrige Energiebedarf lässt sich problemlos und
kostengünstig über erneuerbare Energien decken. Passivhäuser machen
unabhängig von fossilen Energieträgern.
Auch im Bereich der Altbausanierung lässt sich der Passivhaus-Standard
erreichen. Zahlreiche Förderprogramme, z.B. von der KfW-Bankengruppe,
machen sowohl den Passivhaus-Neubau als auch die energetische
Altbausanierung zusätzlich finanziell attraktiv.
Weitere Informationen gibt es unter www.erneuerbareenergien.com