Archiv der Kategorie: Erde, Klima, Umweltschutz

Kohlekraftwerk ohne CO2 im Abgas – bereits heute wirtschaftlich

(Finanzen 100) – Der indischen Firma Carbon Clean Solutions ist es als erster gelungen, die kompletten Co2-Abgase eines Kohlekraftwerks aufzufangen und in Glas, Backpulver und Waschmittel zu verwandeln.

Indien besitzt jetzt das erste Kohlenkraftwerk der Welt, das kein umweltschädliches Kohlenstoffdioxid (Co2) mehr in die Luft pustet. Der Firma Carbon Clean Solutions (CCS) ist es gelungen, die Abgase des Kraftwerks im Industriehafen von Tuticorin im Süden des Landes abzufangen und in Natriumkarbonat umzuwandeln.

CCS wandelt Co2 für den halben Preis
Das wiederum lässt sich für vielfältige Dinge verwenden, bei denen das Co2 am Ende nicht in der Atmosphäre landet. Natriumkarbonat ist etwa wichtig für die Herstellung von Glas, Farben, Klebstoffen, Waschmittel, Seife, Papier und Backpulver.

CCS ist nicht die erste Firma, die an einer solchen Technik arbeitet und auch nicht die erste, die sie umsetzt. Allerdings hat es bisher niemand ohne staatliche Subventionen geschafft, das Co2 zu profitablen Preisen in Natriumkarbonat umzuwandeln. CCS schafft dies für rund 30 Dollar pro Tonne – die Konkurrenten zahlen für denselben Prozess das Doppelte bis Dreifache.

Zehn Prozent der weltweiten Co2-Emissionen ließen sich sparen
So liegt das von CCS gewonnene Natriumkarbonat auch in einem Preisrahmen, mit dem es auf dem Weltmarkt konkurrieren kann und dem gleichen Stoff aus anderen Quellen nicht unterlegen ist.

Kraftwerksbetreiber Ramachandran Gopalan kann jetzt also sogar seine Abgase verkaufen. Dem britischen Radiosender BBC 4 sagte er: „Ich bin Geschäftsmann. Ich habe nie daran gedacht, den Planeten zu retten. Ich brauchte eine zuverlässige Co2-Quelle und das war die beste Art, sie zu bekommen.“

Die Mengen an Co2, die in Tuticorin gewonnen werden, sind aber natürlich noch zu klein, um damit den Planeten zu retten. Rund 60.000 Tonnen will CCS pro Jahr aus dem Kraftwerk abschöpfen. Verglichen mit den rund 36 Millionen Tonnen, die jährlich auf der Erde produziert werden, ist das ein Witz.

Indische Firma in London
Allerdings ließe sich die Technologie von CCS theoretisch in fast allen Kohlekraftwerken auf der Welt installieren. Die Firma schätzt, dass sich damit die gesamten Co2-Emissionen um fünf bis zehn Prozent senken ließen.

Gegründet wurde CCS übrigens von zwei jungen indischen Chemikern. Weil die aber für ihre Pläne in Indien keine Geldgeber fanden, gingen sie nach Großbritannien. Dort unterstützte die Regierung ihre Forschung mit speziellen Visa, die es ihnen ermöglichten, die Technik zur Marktreife zu bringen. Der Firmensitz ist denn auch in Londons Stadtteil Paddington.

Christoph Sackmann

Scheitert die Energiewende am elektrischen Strom? Mit einer Erklärung von Jean Pütz

Hier nun die wichtigsten Punkte die für jedermann verständlich sind:

1. Elektrischer Strom ist keine Ware die einfach wie Pakete hin und her geschoben werden kann.

2. Das Stromnetz, dazu gehören auch die großen Verteilernetze über Hochspannung, muss stets genauso viel Energie anbieten wie nachgefragt wird. Und zwar in jeder 1000stel Sekunde.
Übersteigt die Nachfrage auch nur um wenige Kilowatt, dann schaltet es sich automatisch ab. Dazu gibt es zwar Sicherungssysteme aber das kann schon dazu führen das ganze Städte ausfallen.

3. Wird allerdings zuviel, z.B. durch regenerative Quellen und dezentrale Einspeisungen produziert, dann muss dieser Strom entweder in Wärme umgewandelt oder exportiert werden.
Das ist aber meistens mit hohen Kosten verbunden, denn der Abnehmer muss damit etwas anfangen können. Er kann es allerdings auch speichern aber dafür benötigt er Pumpspeicherwerke. Das fällt in Alpenstaaten also auch in Bayern relativ leicht.
Deswegen geht der Export des Stroms und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz.

Dafür muss der Energieversorger aber richtig Geld zahlen um damit was anfangen zu können. Er kann es allerdings auch speichern aber dafür benötigt er Pump-Speicher Werke. Das fällt in Alpenstaaten und so auch in Bayern relativ leicht. Deswegen geht der Export-Strom und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz. Dafür muss der Energieversorger aber richtig Geld zahlen. Umgekehrt wenn der diesen Strom wieder haben will, muss ja wieder bezahlen.
Das ist also ein toller Tausch, der im Prinzip aus physikalischen Gründen einfach unfair sein muss. Allerdings wenn mehr Strom nachgefordert wird als die Kraftwerke, als die regenerativen in Deutschland liefern, dann kann es auch sein, dass er den Strom z.B. aus Frankreich oder Polen bezieht. Dahinter allerdings stehen dann Kernkraftwerke aus Frankreich oder Braunkohlekraftwerke aus Polen. Ob das der Ökologie dient ist natürlich fraglich.

4. Es gibt noch ein weiteres Problem und das ist die Stabilität des Netzes und zwar die Frequenz. Dabei hat sich der Wechselstrom bzw. Drehstrom durchgesetzt. Eine Erfindung von Nikola Tesla, der arme Kerl musste in der Namensgebung für das erste Elektroauto herhalten. Wechselstrom bedeutet, dass er permanent die Richtung, das heißt vom Plus auf minus und umgekehrt, wechselt.
Dabei haben sich auch in Deutschland 50 Schwingungen pro Sekunde durchgesetzt, man spricht dann von 50 Hertz. Das hat natürlich auch seine Konsequenz, denn wenn auch nur eine leichte Abweichung von den 50 Hertz erfolgt, dann kann es zum Kurzschluss und zum Gau folgen. Deswegen ist die Stabilität außerordentlich wichtig, sie wurde bisher durch Großkraftwerke gewährleistet.

Es gibt Ingenieure die behaupten es müssten wenigstens 30% der benötigten Energie aus solchen Großkraftwerken stammen, sonst wird das Netz instabil. Nur so ganz stimmt es nicht mehr. Dezentrale regenerative Einspeisungen, mit der künstlichen Intelligenz versehen, können trotzdem eine gewisse Netzstabilität garantieren. Aber die Probe aufs Exempel ist noch nicht geführt worden, und die Behauptung dass in den nächsten 20 Jahren der Strom ausschließlich von regenerativen Quellen gespeist werden kann ist nach Prof. Kobe auch theoretisch und wirtschaftlich nicht möglich.

5. Große Mengen im Bereich von 1000 Terrawattstunden sind nur durch Pumpspeicherwerke möglich. Elektrische chemische Speicherung wie in Batterien sind in dieser Größenordnung völlig unwirtschaftlich.

6. Regenerative Stromeinspeisung ist nicht vergleichbar mit den bisherigen, mit fossilen Brennstoffen versehenen Großkraftwerken. Sie sind sehr von der Wetter- und Klimasituation abhängig.

Ihr Jean Pütz

Hier geht’s zum Original-Artikel

(EifelOn) – China plant, seinen enorm steigenden Bedarf an Elektroenergie auch durch einen weiteren massiven Zubau von Kohlekraftwerken zu decken. 2020 soll deren Leistung 1.100 GW betragen, 2035 sogar 1.400 GW. Zum Vergleich: Die Kohlekraftwerke der EU verfügen über eine Leistung von 150 GW (1 GW = 1 Gigawatt sind 1 Million Kilowatt). Der deutsche Anteil beträgt derzeit noch 44 GW. Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis keinen Strom
Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger
Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und um so niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen
Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher
Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei
Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

 

China erwägt teilweise Abkehr vom Elektroauto

(Fokus) – China beendet die Förderung für E-Autos, behält aber zumindest Elektro-Quoten bei. Unheil droht dennoch: Das Beratungsunternehmen JSC Automotive erwartet eine Kehrtwende, die Elektroautos und Hybride hart treffen würde. Auf E-Autos fixierte Unternehmen wie VW müssten sich dann breiter aufstellen.

Die wichtigsten Punkte im Artikel kurz zusammenfasst:

  • China gilt als globaler Antreiber der E-Mobilität
  • Verkaufszahlen brachen zuletzt ein, weil die Förderung wegfällt
  • Marktexperten sehen Strategieschwenk: Neben Elektroantrieben sollen künftig auch synthetische Kraftstoffe oder Wasserstoff eingesetzt werden
  • China betreibt weniger Klimapolitik, sondern verfolgt eher geostrategische Interessen

Viele Autohersteller, darunter auch Deutschlands wichtigster Autokonzern Volkswagen, setzen ausschließlich auf die Elektromobilität und stoppen mittelfristig die Entwicklung von Verbrennungsmotoren oder anderer Alternativen. Was für E-Spezialisten wie Tesla sehr gut funktioniert, könnte breiter aufgestellten Herstellern aber auch Probleme bereiten. Denn ausgerechnet in dem Markt, der als größter Treiber der E-Mobilität gilt, sieht die Strategieberatung JSC Automotive aus Shanghai in den kommenden Jahren eine Trendwende.

China stoppt bekanntlich bis Ende 2020 seine Subventionen für Elektroautos. Zwar gibt es nach wie vor Quoten für „New Energy Vehicles“ (NEV), zu denen auch batterieelektrische Autos zählen. Doch Chinas Staatsregierung will diesen Begriff offenbar weiter fassen und dabei den Fokus nicht mehr nur auf die E-Mobilität setzen.

China sieht E-Mobilität nicht als einzige Option
„Viele glauben immer noch, dass der Anteil der Elektrofahrzeuge in China in den kommenden Jahren stark ansteigen wird. Wir können dies nicht bestätigen“, so Jochen Siebert, Geschäftsführer von JSC Automotive. Stattdessen werde „ein Fächer an Technologien im Verbrennungsbereich aufgemacht“. Dazu zählten Methanol, Wasserstoff und verbrauchsarme Benziner. Nach Informationen von FOCUS Online sollen vor allem Mini-Hybride künftig eine große Rolle spielen. Also Benzinmotoren, die mit Hilfe von 48-Volt-Systemen sparsamer werden.

Verbrennungsmotoren auf dem Abstellgleis, Tausende werden entlassen
Viele Hersteller, etwa Audi, setzen solche Systeme bereits bei ihren neuen Motoren ein. Allerdings fokussiert sich Audi wie der komplette Volkswagen-Konzern künftig auf reine Elektroantriebe. Die Weiterentwicklung der Verbrenner wird mittelfristig gestoppt, was ein Hauptgrund für den Arbeitsplatzabbau bei dem  Hersteller ist. Diese Entscheidungen sind bereits getroffen und nicht mehr umkehrbar. Für den europäischen Markt ist die Entscheidung auch sinnvoll, denn dort lassen die neuen CO2-Grenzwerte künftig quasi nur noch elektrifizierte Autos zu. Ob das auch für den chinesischen Markt gilt, wird sich zeigen.

China berücksichtigt die echte CO2-Bilanz von E-Autos
Der entscheidende Punkt der – allerdings noch nicht finalisierten – Pläne der chinesischen Staatsregierung: Ab 2025 soll nicht mehr der Kraftstoffverbrauch für den Flottenverbrauch der Hersteller maßgeblich sein, sondern das, was für ihren Betrieb tatsächlich an CO2-Emissionen aufgewendet wird. „Ab dann würden auch Elektrofahrzeuge und Plug-In-Hybride mit ihrem Stromkonsum – umgerechnet in CO2 – belegt werden. Methanol, Wasserstoff- und E-Fuel-Fahrzeuge würden hingegen mit Null veranschlagt“, so die Experten von JSC Automotive. Das wiederum würde den Kraftstoffen wohl einen Vorteil verschaffen, der ähnlich unfair wäre wie die Anrechnung eines E-Autos mit null Gramm – es bleibt daher abzuwarten, wie die Gewichtung am Ende wirklich aussieht.

Unter E-Fuels versteht man künstlich hergestellte Kraftstoffe, deren CO2-Bilanz durch Nutzung von umweltfreundlichen Energien zumindest rechnerisch Null wäre. Die EU geht einen anderen Weg: Nur bei Elektrofahrzeugen wird der CO2-Ausstoß für die Flotten-Grenzwerte der Hersteller immer mit Null gewertet, egal wie der Strom zum Aufladen wirklich gewonnen wurde.

Der erklärte Elektro-Kritiker und Motoren-Experten Professor Fritz Indra sieht ebenfalls einen Strategie-Schwenk der Chinesen am Horizont . „China führt die Deutschen an der Nase herum. In China ist das E-Auto noch viel weniger umweltfreundlich als in Deutschland, weil dort der meiste Strom aus kalorischen Kraftwerken kommt. Alle zwei Wochen wird dort ein neues kalorisches Kraftwerk eröffnet. In China setzt man jetzt voll auf CO2-neutrale Kraftstoffe, weil das die einzige Methode ist, um die Emissionen nicht nur von Pkw, Lkw oder auch Schiffen schnell und wirksam zu reduzieren – und das ohne einen Nachteil für die Kunden“, glaubt Indra.

Geostrategie und Energieautarkie
Sehr gelegen dürfte den Chinesen dabei die maßgeblich in der EU geführte Diskussion um den Klimawandel kommen. Während die EU gerade den sogenannten Klima-Notstand ausgerufen hat und Sektoren wie Energie und Verkehr komplett umbauen will –  inklusive einer massiven Verteuerung des Individualverkehrs und Verbrauchskontrollen für alle Neuwagen – spielen für China offenbar geostrategische Erwägungen eine viel wichtigere Rolle. „Es geht in erster Linie um Energieautarkie. Der industriepolitische Aspekt ist auch interessant, weil durch breite Nutzung der Kohle auch viele Arbeitsplätze gesichert werden“, so Jochen Siebert von JSC Automotive zu FOCUS Online.

China ist Kohle-Nation Nummer Eins
Beim absoluten Ausstoß an CO2-Emissionen ist China mit weitem Abstand die Nummer Eins. Das gilt auch für die Gewinnung von Rohstoffen, allen voran gewaltiger Mengen Kohle. Trotz eines Ausbaus regenerativer Energien werden zwei Arten der Energieerzeugung auch künftig für Chinas Energiemix prägend sein: Kohle und Atomkraft – also genau die Energieformen, aus denen Deutschland gerade parallel auszusteigen versucht.

Elektro-Ausbau stößt an seine Grenzen
JSC-Geschäftsführer Jochen Siebert sieht noch einen weiteren Grund, weshalb China offenbar nicht mehr allein auf die E-Mobilität setzt: „Der Ausbau des Schnelllade-Netzes läuft gut, aber es hakt gewaltig bei dem Ausbau der Wechselstromladestationen, da die allermeisten Nutzer in Gebäudekomplexen wohnen und meist keine Genehmigung für eine Ladestation bekommen. Zudem besteht das Schnellladenetz vorrangig aus 50 kW-Stationen und ist somit bereits veraltet“, so Siebert. Der Ladenetz-Ausbau ist ein Problem, das wahrscheinlich auch Deutschland bevorsteht. Denn auch wenn die Furcht vor einem „Blackout“ durch Elektroautos übertrieben ist, sind die Niederspannungs-Verteilungsnetze an vielen Stellen noch gar nicht für einen echten Hochlauf der E-Mobilität vorbereitet

E-Mobilität bleibt vor allem mit neuen Modellen attraktiv
Wie groß künftig der Anteil von Stromern sein wird, hängt natürlich von vielen Faktoren ab. In China ging im dritten Quartal laut der Unternehmensberatung PwC der Absatz von reinen E-Autos um 15,7 Prozent zurück, der von Plug-in-Hybrid-Fahrzeugen um 27,3 Prozent. Gründe hierfür: Das bereits erwähnte Zurückfahren staatlicher Fördermittel, aber auch der Zollstreit mit den USA, wirtschaftliche Unsicherheit und wohl auch der wachsende Erfolg von Fahrdiensten in China. „Der Hochlauf und das Angebot der neuen E-Fahrzeuge trifft auf ein extrem schwieriges wirtschaftliches Umfeld“, so PwC-Automotive-Chef Felix Kuhnert. E-Autos seien bislang ein urbanes Phänomen.

Immerhin: Insgesamt reicht es in wichtigen Märkten wie China im Quartals-Vergleich noch zu einem Plus. Zudem dürften neue E-Modelle, allen voran das jetzt auch in China gebaute Tesla Model 3 sowie das neue Elektro-SUV Model Y, durchaus Verkaufsschlager bei den E-Auto-affinen Chinesen werden. Denn aktuell werden die Stromer ja noch finanziell gefördert und haben auch andere Vorteile, etwa bei der Neuzulassung in Städten, in denen es Zulassungsbeschränkungen gibt.

„Die Zukunft bestimmen allein die Regulierungen“
Dass batterieelektrische Autos eine wichtige, aber eben nicht die einzige Säule im chinesischen Antriebsmix sein werden, erwartet auch Jack Wey, CEO eines der größten chinesischen Autobauers. Er sagte auf der IAA, die im September wahrscheinlich zum letzten Mal in Frankfurtstattfand, im Interview mit FOCUS Online. „Ob die Zukunft nun Elektro sein wird, Wasserstoff oder Hybridtechnik – das bestimmen allein die staatlichen Regulierungen. 2030 werden Elektroautos meiner Einschätzung nach die Mehrheit stellen, das gilt zumindest für China und womöglich auch für Europa.  Aber natürlich wird es 2030 auch noch Autos mit Verbrennungsmotoren geben. Denn diese Technologien werden ebenfalls effizienter, sparsamer und umweltfreundlicher“, so Wey.

Bundesregierung blockiert alternative Kraftstoffe
Interessant ist vor diesem Hintergrund die Haltung der deutschen Bundesregierung,die die Elektromobilität als quasi alternativlos ansieht und entsprechende Weichen bei der finanziellen Förderung gestellt hat. So sperrt sich die Regierung gegen die Zulassung alternativer Kraftstoffe wie synthetisch produziertem Diesel und könnte damit sogar ein Vertragsverletzungsverfahren der EU riskieren . Umso überraschender war die kürzliche Ankündigung von Umweltministerin Svenja Schulze (SPD), ein „Power-to-x-Netzwerk“ aufbauen zu wollen, um Wasserstoff oder eben auch synthetische Kraftstoffe zu erforschen. Die FDP-Abgeordnete Judith Skudelny traut diesem Strategieschwenk nicht: „Erst vor wenigen Wochen hat die Ministerin genau das verhindert, was sie heute großartig ankündigt. Deutsche Start-Ups, wie beispielsweise Ineratec aus Karlsruhe, finden in Deutschland aufgrund der schlechten Rahmenbedingungen keinen Markt, obwohl deren Produkte von Finnland bis nach Spanien verkauft werden. Frau Schulze sollte vielleicht erst einmal bei uns ihre überfälligen Hausaufgaben machen, bevor sie sich auf der Klimakonferenz mit inhaltsleeren Ankündigungen feiern lässt“, so Skudelny zu FOCUS Online.

Ökosprit-Skepsis der Bundesregierung
Das Bundeskabinett hatte die zum freien Verkauf von synthetischen Kraftstoffen in Reinform nötige DIN 15940 bei der Umsetzung der AFID-Richtlinie (Richtlinie 2014/94/EU über den Aufbau der Infrastruktur für alternative Kraftstoffe) nicht in den Gesetzentwurf aufgenommen – nach Informationen von FOCUS Online geschah dies durch intensives Einwirken des Umweltministeriums. Am 29. November wurde der Gesetzesentwurf im Bundesrat dann knapp und gegen die Empfehlung des Wirtschaftsausschusses des Bundesrats angenommen. Somit sind synthetische Kraftstoffe weiter nicht in Reinform erlaubt.

Scheitert die EU mit ihren Klima-Auflagen ?

(Steingarts Morning Briefing) – Der „Green Deal“ der EU steckt schon wenige Tage nach dem Startschuss in der Etappe fest. Kommissionspräsidentin Ursula von der Leyen stößt mit ihren Plänen zum Umbau der europäischen Industriegesellschaften auf erbitterten Widerstand. Es sind im Wesentlichen fünf Widerstandsnester, die sich gebildet haben.

► Der Klub der Atomfreunde – allen voran Frankreich mit seinem Atomstrom-Anteil von fast 72 Prozent – sieht den „Green Deal“ als Chance zur Expansion seines Geschäftsmodells. Paris verlangt, dass die EU die Kernkraft als „grüne Technologie“ bewertet und fördert. Das würden die Grünen der Union, auch mit Blick auf eine schwarz-grüne Option, niemals verzeihen.

► Die deutsche Industrie hat die Stacheln ausgefahren. Die Energiekosten sind jetzt schon Weltspitze. Angesichts der bevorstehenden Abschaltung von Atommeilern, Braun- und Steinkohlekraftwerken sei völlig unklar, schrieb Friedrich Merz in der „Welt am Sonntag“, woher in den nächsten drei Jahrzehnten der Strom kommen soll. Sein Fazit ist ein Frontalangriff auf die Parteifreundin in Brüssel:

„Nie war die Energieversorgung in Deutschland teurer und unsicherer als genau zu dem Zeitpunkt, zu dem die EU-Kommission ihren ,Green Deal‘ ins Werk setzen will.“

► Die Kohlestaaten in Osteuropa sehen partout nicht ein, warum sie den ohnehin spärlichen Wohlstand ihrer Gesellschaften für den Aktionismus der EU-Kommission opfern sollen. In Polen stammen rund 80 Prozent der Energie aus Kohlekraftwerken; in Tschechien 43 Prozent. Für den Ausstieg aus der Kohle soll Europa zahlen. Im „Just Transition Fund“ der EU liegen 100 Milliarden Euro bereit. Die Summe dürfte beim deutschen Steuerzahler eine gehörige Dosis politischer Bitterstoffe produzieren.

Ordnungspolitiker aller Nationen sind gegen eine Finanzierung des „Green Deal“ mit der Notenpresse. Das Direktorium der Europäischen Zentralbank wird vermutlich einer Bevorzugung grüner Investments nicht zustimmen. Das bisherige Prinzip der „Marktneutralität“ beim Aufkauf von Aktien und Staatsanleihen dürfe nicht gebrochen werden, sagt Bundesbank-Präsident Jens Weidmann. Ohne das Geld aus der Notenpresse aber sind die Billionenbeträge des „Green Deal“ nicht finanzierbar.

► Überall regt sich demokratischer Widerstand, denn dem „Green Deal“ fehlt die Legitimation durch das Wahlvolk. Im neuen EU-Parlament stellen die Grünen mit 74 Abgeordneten nur die viertgrößte Fraktion. Aus Tschechien kommen lediglich vier grüne Parlamentarier, aus Ungarn und Polen gar keiner. Auch in Deutschland ist über den ökologischen Umbau der Industriegesellschaft bei der Europawahl nicht gesprochen worden, weshalb die Volksparteien so zögerlich sind. Kaum gesteht man den Grünen im Bundesrat die Erhöhung des CO2-Tonnenpreises zu, wird zum Trost die Pendlerpauschale erhöht. Der Klimaschutz genießt bei der EU Kommission höchste Priorität, beim Bürger (siehe Grafik) nicht.

Fazit: Ursula von der Leyen hat in diesem unwegsamen Gelände kaum eine Chance. Ihr Man-on-the-Moon-Moment wird womöglich eine Vision bleiben. Die von ihr gestartete Mission erinnert auf fatale Weise jetzt schon an die Geschichte der Apollo 13. Nach der Explosion eines Sauerstofftanks blieb den Astronauten nur die Rückkehr zur Erde. Sie stehen bis heute im Geschichtsbuch – aber eben nicht als wahre, sondern als tragische Helden.

Gabor Steingart

Clever: Seekabel taugen als Erdbebensensoren

(pte018/29.11.2019/12:30) – Jene Seekabel, die als grundlegender Bestandteil unserer globalen Kommunikationsnetzwerke die Meere durchkreuzen, sind auch als seismische Sensoren nutzbar. Das hat eine in „Science“ veröffentlichte Studie von US-Forschern ergeben. Der Ansatz macht sich die Rückstreuung von Laserpulsen zunutze. 20 Kilometer Kabel entsprechen so 10.000 Messstationen am Meeresboden. So wäre es also vergleichsweise einfach und günstig möglich, Erdbeben am Grund der Ozeane zu erfassen.

Seeboden-Abdeckung
Erdbeben zählen zu den wichtigsten potenziellen Naturkatastrophen, wobei Seebeben auch durch Sekundäreffekte wie Tsunamis eine Bedrohung darstellen. Doch gerade auf den gut zwei Dritteln mit Wasser bedeckter Erdoberfläche gibt es kaum Messstationen, denn diese unter Wasser zu installieren, ist aufwendig und teuer. „Es gibt einen gewaltigen Bedarf an Meeresboden-Seismologie. Jegliches Instrument, dass man im Ozean nutzen kann, und sei es nur innerhalb von 50 Kilometern zur Küste, wird sehr nützlich sein“, betont daher Studien-Erstautor Nate Lindsey von der University of California, Berkeley http://berkeley.edu . Er und seine Kollegen haben nun gezeigt, dass Seekabel hier einen wichtigen Beitrag leisten können.

Das Team hat dazu in einem Experiment mit einem 52 Kilometer langen Kabel des Monterey Bay Aquarium Research Institute http://mbari.org gearbeitet, das zu einer Messtation vor der Küster Kaliforniens führt. Der Ansatz der Forscher beruht darauf, dass Erschütterungen auf dem Meeresboden solche Seekabel dehnen und stauchen. Sie nutzen daher ein Gerät, das kurze Laserimpulse in das Kabel schickt und dann die Rückstreuung misst, die sich aufgrund der Verformungen ergibt. Dank Interferometrie können sie dabei einen Wert pro zwei Meter Kabel messen, sodass eben 20 Kilometer Kabel ebenso viele Datenpunkte liefern wie 10.000 Messtationen.

Günstig gute Messungen
„Diese Systeme reagieren auf Veränderungen von Nanometern bis hunderten Picometern pro Meter Länge“, betont Jonathan Ajo-Franklin, am Experiment beteiligter Geophysiker der Rice University http://rice.edu . Das liegt also im Milliardstelbereich. So konnte das Team im viertägigen Test mit ihrem Gerät unter anderem Signale eines Erbebens der Stärke 3,4 messen, das sein Epizentrum 45 Kilometer im Landesinneren hatte, und zuvor unbekannte tektonische Verwerfungen kartografieren.

Der Ansatz verspricht also die Möglichkeit, seismische Aktivität auf dem Meeresboden gut und doch recht günstig zu erfassen. „Das Tolle an faseroptischer Seismologie ist, dass man bestehende Telekommunikationskabel nutzen kann, ohne 10.000 Seismometer aufzustellen“, erklärt Lindsay. „Man geht einfach vor Ort und schließt das Gerät am Ende eines Kabels an.“

Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung

(FONA) – Wasser wird in vielen Regionen der Erde knapp, nicht nur in ariden Gebieten. Es stellt daher eine immer größer werdende globale Herausforderung dar, Haushalte, Industrie und Landwirtschaft bedarfsgerecht mit Wasser zu versorgen. Höchste Zeit also für innovative und effiziente Technologien, Verfahrenskonzepte und Managementstrategien, um die Wasserversorgung auch in Zukunft sicherzustellen.

Die Verfügbarkeit von Wasser in ausreichender Menge und Qualität ist die wichtigste Grundlage für das gesundheitliche Wohlergehen des Menschen, die nachhaltige Entwicklung von Regionen und eine intakte Umwelt. Der Wasserbedarf wird sich in den kommenden Jahren weltweit drastisch erhöhen. Hauptursachen dafür sind: Bevölkerungswachstum, Intensivierung von industriellen und landwirtschaftlichen Aktivitäten sowie die Ausdehnung von Ballungsräumen. Gleichzeitig ist bereits heute die Verfügbarkeit von Wasser stark begrenzt und regional sogar rückläufig. Hierzu tragen unter anderem die Verschmutzung und Übernutzung von Wasserressourcen, der Klimawandel und die ungleiche Verteilung der Wasservorräte maßgeblich bei.
Vor diesem Hintergrund hat das Bundesministerium für Bildung und Forschung (BMBF) die Fördermaßnahme „Zukunftsfähige Technologien und Konzepte zur Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung und Entsalzung“ (WavE) auf den Weg gebracht. WavE will einen wesentlichen Beitrag dazu leisten, das Missverhältnis zwischen steigendem Wasserbedarf und begrenzten Wasserressourcen auszugleichen und der Wasserverknappung zu begegnen. Seit dem dritten Quartal 2016 fördert das BMBF insgesamt 13 Verbundprojekte und ein wissenschaftliches Begleitvorhaben mit Teilnehmern aus Wissenschaft, Wirtschaft und Praxis. Ziel ist es, innovative Technologien, Verfahrenskonzepte und Managementstrategien zu entwickeln, um die Wasserverfügbarkeit nachhaltig zu erhöhen.

Hohe Umsetzungspotenziale werden hier bei der Kreislaufführung von industriell genutztem Wasser, bei der Aufbereitung von salzhaltigem Grund- und Oberflächenwasser sowie bei der Wasserwiederverwendung durch Nutzung von behandeltem kommunalem Abwasser gesehen. Neben den technologischen Lösungen und einem intelligenten Management der relevanten Stoffströme werden auch entsprechende Kommunikations- und Bildungsmaßnahmen mit integriert.

Die Untersuchungen und Entwicklungen erfolgen unter praxisnahen Bedingungen an Standorten im In- und Ausland und beziehen auch Demonstrationsanlagen im technischen Maßstab mit ein. Besondere Bedeutung kommt der Übertragbarkeit der technologischen und konzeptionellen Ansätze auf andere Standorte mit ähnlichen Randbedingungen zu, auch im Hinblick auf die Positionierung und Wettbewerbsfähigkeit deutscher Unternehmen auf dem internationalen Technikmarkt.

Neuer Kat löst Stickoxid-Problem in Städten

(pte) – Ein neuartiger Fotokatalysator auf der Basis von Graphen und Titan entschärft 70 Prozent mehr atmosphärische Stickoxide als bisher bekannt. Ein Team des Graphen-Flaggschiffs , der größten wissenschaftlichen Forschungsinitiative der EU, hat diesen Effekt somit verbessert.

Verschmutzung säubern
„Die Fotokatalyse ist eine der wichtigsten Verfahren, Umweltverschmutzungen zu entschärfen, weil sie sich nicht verbraucht“, sagt Marco Goisis von Italcementi, einer Tochter des Projektkoordinators HeidelbergCement. Die Forscher stellten das Graphen her, indem sie davon Filme abspalteten, die die Dicke von einem einzigen Atom haben.

Diese unvorstellbar kleinen Partikel schütteten die Wissenschaftler in Wasser und vermischten sie mit nanopulverisiertem Titan. Diese Suspension wird auf Oberflächen verteilt, etwa auf Gehwegplatten aus Zement. Sobald diese von der Sonne beschienen werden, beginnt die Reaktion, die die Luft von Stickoxiden befreit. Die Reste werden von Regen oder Wind entfernt.

Stickoxidkiller in der Stadt
Der Verbundwerkstoff lässt sich laut Goisis auf unterschiedlichen Oberflächen auftragen. Da er in einer Zementfabrik arbeitet, bevorzugt er diesen Werkstoff als Unterlage. Wenn große Flächen wie Bürgersteige, Radwege und Fassaden damit ausgestattet werden, so ließen sich die Stickoxid-Konzentrationen dauerhaft senken. Allerdings ist das neue Material noch nicht in großen Mengen einsetzbar, da zu teuer. Zunächst müssten preiswertere Herstellungsverfahren für Graphen her sowie untersucht werden, ob der neue Fotokatalysator langzeitstabil ist.

Verzögerung der Schmelzung des arktischen Eises durch Klimaerwärmung

(AWI) – Gemäß einer viel diskutierten Geo-Engineering-Idee könnten der Meereisrückgang und die globale Erwärmung gebremst werden, indem Millionen im Eis driftender, windgetriebener Pumpen die winterliche Eisbildung in der Arktis ankurbeln. AWI-Forscher haben diesen Vorschlag erstmalig in einem komplexen Klimamodell getestet und ihre Ergebnisse jetzt in der Fachzeitschrift Earth’s Future veröffentlicht. Dabei kommen sie zu ernüchternden Ergebnissen: Zwar könnten eisfreie Sommer um einige Jahrzehnte hinausgezögert werden. Außerhalb der Arktis würde dieser massive Eingriff jedoch keine nennenswerte Abkühlung mit sich bringen.

Es klingt wie Science-Fiction, ist aber eine ernst gemeinte Idee, um dem Klimawandel die Stirn zu bieten: Zehn Millionen windgetriebene Pumpen sollten in der Arktis verteilt werden, um die Bildung von Meereis im Winter anzukurbeln. Sie würden Meerwasser auf das Eis pumpen, das auf der Oberfläche anfrieren würde. Das dickere Eis könnte dadurch länger der sommerlichen Schmelze entgehen und dort weiter Sonnenlicht reflektieren, wo sonst der dunkle Ozean einer zunehmenden Erwärmung schutzlos ausgesetzt wäre. So könne nicht nur der Rückgang des arktischen Meereises, sondern auch weitere Fernwirkungen gebremst werden, vielleicht sogar die Erwärmung in niedrigeren Breiten verlangsamt. Diese von US-Forschern 2017 in der Fachzeitschrift „Earth’s Future“ unter dem Begriff „Arctic Ice Management“ veröffentlichte Geo-Engineering-Idee wurde nun von zwei Wissenschaftlern des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in einem gekoppelten Klimamodell nachgestellt. Das Ergebnis: Der beinahe komplette Verlust des sommerlichen Meereises, der im „Business-as-usual“-Szenario um die Mitte des Jahrhunderts eintritt, könnte rein physikalisch durch Begießen des winterlichen Meereises mit darunterliegendem Meerwasser tatsächlich bis zum Ende des Jahrhunderts verzögert werden. Dem Klima in Europa und global würde dieser Aufschub jedoch keine nennenswerte Abkühlung verschaffen.

„Wir wollten wissen, ob eine solche Manipulation des arktischen Meereises rein physikalisch funktionieren könnte, und was die Auswirkungen auf das Klima wären“, sagt Lorenzo Zampieri, Umweltphysiker und Doktorand am AWI in der Forschungsgruppe zur Meereisvorhersage. Also erweiterte er das AWI-Klimamodell so, dass die physikalische Wirkung der Pumpen—die ständige Befeuchtung der Meereisoberfläche während des Winters—imitiert werden konnte. Helge Goessling, Leiter der Gruppe, erklärt: „Normalerweise wird das Wachstum des Eises dadurch begrenzt, dass das dicker werdende Eis den Ozean zunehmend von der winterlichen Kälte abschirmt; mehr als wenige Meter Gesamtdicke sind normalerweise nicht drin. Doch diese Bremswirkung wird durch die Pumpen aufgehoben, denn das Eis würde von oben überfroren.“ Erste Modellsimulationen mit Pumpen, die in der gesamten Arktis Wasser auf das Eis tröpfeln würden, zeigen: Das Eis würde so Jahr für Jahr ein bis zwei Meter dicker. Erst am Ende des Jahrhunderts würde laut Klimamodell die CO2-verursachte globale Erwärmung dem Wachstum ein Ende bereiten. Und die Auswirkungen auf das Klima? Tatsächlich würde die sommerliche Erwärmung der Arktis um mehrere Grad abgeschwächt, wie in der ursprünglichen Arbeit spekuliert. Das Aufbringen von mit -1,8 °C relativ warmem Wasser würde jedoch im Winter den Wärmefluss ändern und zunächst für eine kräftige Erwärmung der Arktis sorgen. Diese Wärmeenergie würde auch in mittlere Breiten transportiert und dort im Ozean gespeichert.

Als nächstes führten die Forscher realistischere Simulationen durch, bei denen Pumpen nur dort eingesetzt werden, wo das Eis weniger als zwei Meter dick ist. „Zwei Meter dickes Eis hat bereits beste Chancen, die sommerliche Schmelze zu überstehen, und durch diese Einschränkung kann die unnötig starke winterliche Erwärmung vermieden werden“, sagt Lorenzo Zampieri. Die unerwünschte zusätzliche Erwärmung der mittleren Breiten bleibt so tatsächlich aus, jedoch stellte sich eine Linderung des Klimawandels ebenso wenig ein. Die Erwärmung der Arktis würde zwar im Sommer um etwa ein Grad abgeschwächt und der Rückgang des Meereises um 60 Jahre verzögert. Die dadurch verstärkte Reflexion des Sonnenlichts wäre jedoch nicht ausreichend, um den Klimawandel außerhalb der Arktis zu bremsen.

„Geo-Engineering kann von der Klimaforschung angesichts des bislang ungebremsten Klimawandels nicht als bloße Spinnerei abgetan werden“, meint Helge Goessling. Vielmehr müssten solche Ideen wissenschaftlich auf den Prüfstand gestellt werden. Arktisches „Eis-Management“, darin sind sich die beiden Autoren einig, ist für sich genommen interessant, jedoch kein sinnvoller Beitrag zur Linderung des globalen Klimawandels und sollte daher lieber Science-Fiction bleiben.

Neuer Kat löst Stickoxid-Problem in Städten

(pte) – Ein neuartiger Fotokatalysator auf der Basis von Graphen und Titan entschärft 70 Prozent mehr atmosphärische Stickoxide als bisher bekannt. Ein Team des Graphen-Flaggschiffs, der größten wissenschaftlichen Forschungsinitiative der EU, hat diesen Effekt somit verbessert.

Verschmutzung säubern
„Die Fotokatalyse ist eine der wichtigsten Verfahren, Umweltverschmutzungen zu entschärfen, weil sie sich nicht verbraucht“, sagt Marco Goisis von Italcementi, einer Tochter des Projektkoordinators HeidelbergCement. Die Forscher stellten das Graphen her, indem sie davon Filme abspalteten, die die Dicke von einem einzigen Atom haben.

Diese unvorstellbar kleinen Partikel schütteten die Wissenschaftler in Wasser und vermischten sie mit nanopulverisiertem Titan. Diese Suspension wird auf Oberflächen verteilt, etwa auf Gehwegplatten aus Zement. Sobald diese von der Sonne beschienen werden, beginnt die Reaktion, die die Luft von Stickoxiden befreit. Die Reste werden von Regen oder Wind entfernt.

Stickoxidkiller in der Stadt
Der Verbundwerkstoff lässt sich laut Goisis auf unterschiedlichen Oberflächen auftragen. Da er in einer Zementfabrik arbeitet, bevorzugt er diesen Werkstoff als Unterlage. Wenn große Flächen wie Bürgersteige, Radwege und Fassaden damit ausgestattet werden, so ließen sich die Stickoxid-Konzentrationen dauerhaft senken. Allerdings ist das neue Material noch nicht in großen Mengen einsetzbar, da zu teuer. Zunächst müssten preiswertere Herstellungsverfahren für Graphen her sowie untersucht werden, ob der neue Fotokatalysator langzeitstabil ist.

Wirtschaftsministerium verschärft Kohleausstiegspläne

(FAZ) – Nur bis 2026 können sich die Betreiberunternehmen demnach in Ausschreibungen um Stilllegungsbeihilfen bewerben. Sollte das nicht genügen, um den Fahrplan für den bis 2038 vollständig angestrebten Ausstieg aus der Kohleverstromung zu erfüllen, kann die Bundesnetzagentur festlegen, welche Kraftwerke in welcher Reihenfolge entschädigungslos vom Netz gehen müssen. Wichtigste Kriterien sind das Alter der Anlagen, der Nachrüstungsstand und die Auswirkungen auf die Netzsicherheit.

Eine Ministeriumssprecherin sagte, Ziel sei es, das Gesetz möglichst schnell ins Kabinett zu bringen. Der nächste Sitzungstermin wäre dafür der 3. Dezember. Ob der neue Entwurf schon mit anderen Ressorts abgestimmt worden ist, wollte sie nicht sagen. Weil die Zeit für einen Kompromiss drängt, hat das Ministerium besonders umstrittene Themen rund um den Ausbau der Erneuerbaren Energien ausgeklammert. Das gilt unter anderem für den ursprünglich geplanten Mindestabstand von 1000 Metern zwischen neuen Windrädern und der Wohnbebauung sowie die Anhebung des Förderdeckels für die Photovoltaik.

Klimaschutzeffekt droht zu verpuffen
In Berlin wird vermutet, dass die Bundesregierung dazu erst im Frühjahr eine Novelle des Erneuerbare-Energien-Gesetzes auf den Weg bringen könnte. Bei Klimaschutzverbänden und den Grünen stößt die Verzögerung auf Widerstand. „Die Erneuerbaren-Branche braucht Klarheit, ob sie noch in diesem Land gewollt ist“, sagte der stellvertretende Grünen-Fraktionsvorsitzende Oliver Krischer. „So kann man nicht mit mehreren Hunderttausend Arbeitsplätzen in der Branche umgehen“. Wegen der politischen Unsicherheit lägen viele Planungen schon auf Eis.

Für scharfe Kritik sorgte ebenfalls, dass der Entwurf keine zwingende Löschung von Rechten für den Kohlendioxid-Ausstoß vorsieht. Nach der Abschaltung von Kohlekraftwerken frei werdende Emissionszertifikate könnten deshalb verkauft und anderweitig genutzt werden. Der mit dem Kohleausstieg angestrebte Klimaschutzeffekt drohe zu verpuffen, warnte die Klima-Allianz.

Weiterhin ausklammern musste das Ministerium auch das Vorgehen zur Beendigung der Braunkohleverstromung. Für diese Kraftwerke und Tagebauen laufen noch Verhandlungen mit RWE, Uniper Leag und EnBW über die Höhe der Entschädigungen und den genauen Stilllegungs-Fahrplan. Nach Angaben aus dem Wirtschaftsministerium soll es eine Annäherung gegeben haben. Welche Gesamtkosten für den Kohleausstieg zu kalkulieren sind, lässt der Entwurf weiter offen.

Mehr zum Thema
Gibt es zur Zeit noch Steinkohlemeiler mit einer Kapazität von rund 21 Gigawatt, soll die Leistung bis 2022 auf rund 15 Gigawatt reduziert werden. Ein erstes verkürztes Ausschreibungsverfahren ist schon für das kommende Jahr geplant, wobei Steinkohleanlagen in Süddeutschland mit Rücksicht auf die Versorgungssicherheit ausgeschlossen werden. In der zweiten Phase bis 2030 soll die Kapazität auf 8 Gigawatt sinken. Ende 2038 wäre endgültig Schluss mit der Kohleverstromung.

Für die Ausschreibungen soll die Netzagentur zu jedem Gebotstermin die Kapazität festlegen, die vom Netz gehen soll. Für die Stilllegungsbeihilfen soll jeweils eine Obergrenze festgelegt werden. Wie hoch sie ausfällt, ist noch offen. Davon dürfte entscheidend abhängen, auf welche Resonanz die Auktionen stoßen und ob es gelingt, die Zwischenziele allein auf freiwilliger Grundlage zu erreichen. Unbeeindruckt zeigt sich das Ministerium von dem Streit über das neue Kohlekraftwerk in Datteln: Dem Entwurf zufolge dürfen bereits genehmigte, aber noch nicht fertiggestellte Anlagen trotz des Kohleausstiegs in Betrieb gehen.

Helmut Bünder