Archiv der Kategorie: Erde, Klima, Umweltschutz

Wie sicher ist unsere Stromversorgung in Deutschland

(et) – Gegenwärtig deckt die Stromproduktion durch die Energieträger Wind und Sonne 7,2 % des gesamten Endenergieverbrauches in Deutschland ab. Bei der Diskussion über den weiteren Ausbau der Erneuerbaren wird ihre schwankende Verfügbarkeit nicht hinreichend berücksichtigt.

Diese gefährdet aber die Stabilität der Stromnetze. Das Abschalten der Kernkraftwerke und das Zurückfahren der Kohleverstromung in den nächsten zehn Jahren wird, trotz des geplanten Ausbaus von Windenergie- und Photovoltaikanlagen, zu einer Unterversorgung mit elektrischer Energie führen. Weder die Versorgungs- noch die Netzsicherheit ist gewährleistet. Die Problematik wird in diesem Artikel dargestellt und Auswege aus dieser Situation werden aufgezeigt.

Das Gesetz für den Vorrang Erneuerbarer Energien (EEG) und die Energiewende
Im Jahr 2000 wurde das „Gesetz für den Vorrang Erneuerbarer Energien“ (EEG) beschlossen [1]. Seine ersten drei Paragraphen lauten:

§ 1 Ziel dieses Gesetzes ist es, im Interesse des Klima- und Umweltschutzes eine nachhaltige Entwicklung der Energieversorgung zu ermöglichen und den Beitrag erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen, […].

§ 2 Dieses Gesetz regelt die Abnahme und die Vergütung von Strom, der ausschließlich aus Wasserkraft, Windkraft, solarer Strahlungsenergie, Geothermie, Deponiegas, Klärgas, Grubengas oder aus Biomasse […] gewonnen wird.

§ 3 Netzbetreiber sind verpflichtet, Anlagen zur Erzeugung von Strom nach § 2 an ihr Netz anzuschließen, den gesamten angebotenen Strom aus diesen Anlagen vorrangig abzunehmen und den eingespeisten Strom […] zu vergüten. […]

Das EEG stellt den Einstieg in die „Energiewende“ dar. Durch das Abschalten aller Kernkraftwerke bis 2022 sowie durch das Beenden der Kohleverstromung bis 2038 soll die Emission von Treibhausgasen, insbesondere von Kohlendioxid (CO2), verringert und dadurch zum Umwelt- und Klimaschutz nachhaltig beigetragen werden. An ihre Stelle sollen erneuerbare Energien (EE) treten, wobei sowohl die Entwicklung von Energiespeichern und die Vergrößerung der Energieeffizienz vorangetrieben als auch Maßnahmen zur Energieeinsparung umgesetzt werden sollen. Die drei Sektoren Strom, Wärme und Mobilität sind gleichermaßen in alle Überlegungen einzubeziehen. In der Novellierung von 2009 wurde festgelegt, den Anteil erneuerbarer Energien an der Stromversorgung bis 2020 auf einen Anteil von mindestens 30 % zu erhöhen [2]. Wo stehen wir heute?

Fakten
Die im Folgenden zitierten Aussagen und angegebenen Zahlen stammen aus Gesetzestexten der Bundesrepublik Deutschland, aus Veröffentlichungen von Bundesbehörden und wissenschaftlichen Instituten, aus Mitteilungen der Industrie und des Handels sowie aus verschiedenen Datenbanken; all diese Quellen sind frei zugängig. So stellt die Arbeitsgemeinschaft Energiebilanzen e. V. statistische Daten verschiedenen Ursprungs systematisch zusammen [3]. Sie weist für 2018 eine jahreskumulierte Bruttostromerzeugung von 643,5 TWh aus. Dabei stammen 233,9 TWh aus der Verstromung der fossilen Energieträger Braunkohle (145,6 TWh), Steinkohle (82,6 TWh) und Mineralölprodukte (5,2 TWh), 76,0 TWh aus Kernenergie, 83,4 TWh aus Erdgas, 226,4 TWh aus erneuerbaren Energieträgern und 27,1 TWh aus allen übrigen Energieträgern.

Zu den EE zählen einerseits Wasserkraft (16,6 TWh), Biomasse (45,7 TWh) und Hausmüll (6,2 TWh) – die stets vorhanden, aber in Deutschland im Wesentlichen nicht ausbaufähig sind – andererseits die volatilen (fluktuierenden) und ausbaufähigen Energieträger, nämlich Wind an Land (onshore): 92,2 TWh, vor der Küste (offshore): 19,3 TWh und Photovoltaik (PV): 46,2 TWh. Häufig wird als Kenngröße für Windenergieanlagen (WEA) und Photovoltaikanlagen (PVA) die Spitzen- oder installierte Leistung (WEA onshore: 52,4 GW; WEA offshore: 6,4 GW; PVA: 45,3 GW) angegeben. Aus der Bruttostromerzeugung berechnet man die ins Netz eingespeiste Leistung: WEA onshore: 10,5 GW; WEA offshore: 2,2 GW; PVA: 5,3 GW. Die Effizienz einer Anlage ergibt sich durch Bildung des Quotienten: eingespeiste Leistung/installierte Leistung und man erhält für WEA an Land: 20,1 %; für WEA vor der Küste: 34,4 %; für PVA: 11,7 %. PVA sind demnach besonders ineffizient.

Aus diesen Daten wird geschlossen, dass die erneuerbaren Energien (Wind, PV, Wasserkraft, Biomasse) mit 35 % an der Bruttostromerzeugung beteiligt sind (2009 waren es nur 16 %) und damit die Zielvorgabe des EEG erreicht sei. Die Angabe 35 % ist zwar der Rechnung nach richtig, vom Ansatz her aber falsch und verschleiert zudem wichtige Tatsachen:

  • Die angegebene genutzte Leistung ergibt sich durch Kumulierung über das gesamte Jahr. Sie beschreibt nicht die Situation zu einem gegebenen Zeitpunkt. WEA liefern bei Flauten und PVA bei Nacht keine elektrische Energie. Die Differenzen zwischen der genutzten Leistung und der installierten Leistung spiegeln genau diese Tatsache wider.
  • Verbraucher erwarten zu jeder Zeit die Verfügbarkeit von elektrischer Energie im benötigten Umfang. Es interessiert sie nicht, dass an einem windreichen, sonnigen Tag ihr gesamter Energiebedarf durch EE gedeckt wird, wohl aber, dass am nächsten Tag mit Dunkelflaute keine elektrische Energie aus WEA und PVA verfügbar ist. Zwar wird im Mittel genug erneuerbare Energie bereitgestellt, aber nicht zu jedem beliebigen Zeitpunkt. Daher wird von fluktuierender oder volatiler Energie gesprochen.

Elektrische Energie wird dagegen durch Kohle- und Kernkraftwerke kontinuierlich bereitgestellt und steht zu jedem beliebigen Zeitpunkt zur Verfügung. Sie fluktuiert nicht, sie ist nicht volatil.

Eine Gleichbehandlung von jahreskumulierten Energien aus fluktuierenden und nicht fluktuierenden Energieträgern ist unzulässig. Die o.g. Prozentangaben sind Artefakte einer unzulässigen Mittelwertbildung und können nicht als Kenngrößen für den Fortschritt der Energiewende verwendet werden: die Volatilität der EE bleibt mit ihren Folgen nämlich immer unberücksichtigt.

Der Umgang mit den Schwankungen bei der Einspeisung von elektrischer Energie in das Stromnetz ist ein zentrales Problem der Energiewende. Wenn der Wind nicht weht und die Sonne nicht scheint, liefert weder eine einzelne noch zehntausende von WEA oder PVA Strom. Und es gibt europaweit, nicht nur deutschlandweit, Zeiten mit Schwachwind und dunkel wird es regelmäßig.

Ein Zeitraum mit sehr geringem Windaufkommen war der 17.06.2020 zwischen 11:00 und 12:00 Uhr mittags. Die folgenden Zahlen ergeben sich aus den Daten zur Bruttostromerzeugung aus allen eingesetzten Quellen, die das European Network of Transmission System Operators for Electricity (Entso-e) rund um die Uhr als Zeitreihe aufzeichnet und im Internet zugängig macht [4]. Die Bruttostromerzeugung in Deutschland betrug in diesem Zeitraum 47,94 GWh, WEA trugen dazu 0,65 GWh, also 1,4 % bei (installierte Leistung: 61,1 GW; Effizienz: 1,1 %). Der schwache Wind beschränkte sich nicht nur auf Deutschland, sondern erstreckte sich auch auf die Länder Irland, Großbritannien, die Niederlande, Belgien, Luxemburg, Polen und Tschechien. In den skandinavischen Ländern und in den südlicheren Ländern Portugal, Spanien, Frankreich und Italien war der Wind nur unwesentlich stärker. Berücksichtigt man noch die Binnenländer Österreich, Schweiz und Ungarn, so ergibt sich, dass 18 europäische Länder 11,0 GWh an elektrischer Energie aus WEA bereitstellten (installierte Leistung: 221,9 GW; Effizienz: 4,96 %). Die gesamte europäische Bruttostromerzeugung aus WEA entsprach gerade einmal 23,0 % der gesamten deutschen Bruttostromerzeugung.

Ein Negativrekord wurde am 08.08.2020 aufgestellt: zwischen 10:00 und 11:00 Uhr vormittags wurden aus WEA in Deutschland 0,136 GWh elektrische Energie ins Netz eingespeist – das sind 0,23 % der gesamten Bruttostromerzeugung und entsprechen 0,22 % der installierten Leistung [4].

Natürlich gibt es auch Zeiten mit extremen Windaufkommen: am 12.03.2020 wurden zwischen 06:00 und 07:00 Uhr morgens durch deutsche WEA 43,83 GWh an Strom bereitgestellt und damit 59,6 % der Bruttostromerzeugung abgedeckt [4]. Diese Zahlen belegen die extremen Schwankungen, mit denen volatile, erneuerbare Energien zur Stromversorgung beitragen.

Daher ein Wort zur Stabilität der Stromversorgung, d.h. der Übertragungsnetze.

Der Bedarf an elektrischer Energie schwankt im Tagesverlauf; der zeitliche Verlauf wird als Lastkurve (oder Lastgang) bezeichnet. Diese wird in der klassischen Kraftwerkstechnik in drei Bereiche unterteilt:

  • Grundlast: Sie bleibt im Tagesverlauf im Wesentlichen konstant. Sie wird von Grundlastkraftwerken (Kernkraft, Braunkohle, Laufwasser), deren Ausgangsleistung nur in gewissen Grenzen verändert werden kann, bereitgestellt.
  • Mittellast: Sie wird von Mittellastkraftwerken (Steinkohle, Gas- und Dampfkraftwerke) bereitgestellt und deckt den größten Teil des über die Grundlast hinausgehenden, auf Grund von Wettervorhersagen prognostizierbaren, zusätzlichen Tagesbedarfs ab.
  • Spitzenlast: Sie wird von Spitzenlastkraftwerken (Gasturbinen, Pumpspeicherwerke) abgedeckt. Diese können innerhalb kürzester Zeit auf ihre Spitzenleistung gefahren werden und so Lastschwankungen ausgleichen und Lastspitzen abdecken.

Kraftwerksbetreiber sind so in Lage, den Bedarf an oder die Nachfrage der Verbraucher nach elektrischer Energie zu befriedigen, indem sie über die Grundlast hinaus Mittellast- oder Spitzenlastkraftwerke zuschalten. Dadurch bleibt die Netzfrequenz von 50 Hz – und damit das Verteilernetz – stabil. Die Nachfrage wird also durch ein entsprechendes Angebot der Kraftwerke befriedigt, der Strommarkt ist nachfrageorientiert.

Dieses Prinzip wird durch das EEG auf den Kopf gestellt: Durch die gesetzliche Vorgabe, der Einspeisung von erneuerbaren Energien den Vorrang geben zu müssen, muss eine angebotsorientierte Steuerung des Stromverbrauches erfolgen. Dazu müssen Spitzen- oder gar Mittellastkraftwerke heruntergefahren werden, wenn besonders viel Wind- oder PV-Strom generiert wird. Im extremen Fall könnte, rein rechnerisch, der gesamte Energiebedarf kurzzeitig durch WEA oder PVA gedeckt werden. Um in einem solchen Fall mit einem eventuellen Überangebot fertigzuwerden, muss Strom exportiert werden oder es müssen Kraftwerksbetreiber sogar Grundlastkraftwerke herunterfahren, was u. U. alle Regelmechanismen des Kraftwerks- und Netzbetriebes, die ein stabiles Netz garantieren, aushebelt. Das Netz droht instabil zu werden.

Wenn die Nachfrage das Angebot übersteigt, Reserven an Regelenergie (z. B. Pumpspeicher- und Spitzenlastkraftwerke, die für diese Situation vorgehalten werden müssen) erschöpft sind und auch Stromimporte nicht ausreichen, um die Nachfrage zu bedienen, droht ein Zusammenbruch der Stromversorgung. Um diese zu vermeiden, werden Großverbraucher, z. B. Aluminiumhütten, zwangsweise vom Netz getrennt. Ein solches Vorgehen, es geschah 2018 insgesamt in 78 Fällen, wird mit dem Begriff „Lastabwurf“ verharmlost; die wirtschaftlichen Schäden sind beträchtlich [5]. Solch kritische Situationen treten immer wieder auf. So wurde z. B. am 06., 12. und 25.06.2019 eine „starke Unterspeisung“ festgestellt, wie die vier Netzbetreiber Amprion, 50Hertz, Tennet und TransnetBW in einer gemeinsamen Erklärung bestätigten. Im Klartext heißt das: es war zu wenig elektrische Energie vorhanden, um die Nachfrage zu decken. In der Spitze fehlten 6 GW an Leistung. Das entspricht in etwa der Leistung von fünf Kernkraftwerken. Die Frequenz im gesamten europäischen Verbundnetz sank unter den Sollwert von 50 Hz ab [6].

Die Folgen eines langandauernden und großräumigen Stromausfalls (blackout) hat der Wissenschaftliche Dienst des Bundestages bereits 2011 untersucht [7]. Die Folgen führen zu einer nationalen Katastrophe.

Bislang konnte ein Überangebot an elektrischer Energie, das durch den Ausbau erneuerbarer Energien zustande kommt, ohne dass gleichzeitig die konventionelle Stromerzeugung zurückgegangen wäre, durch Stromexport in das europäische Ausland kompensiert werden. Ist kein Abnehmer zu finden, muss der Strom entsorgt werden, d.h. er wird ins Ausland geliefert und zusätzlich eine Entsorgungsgebühr bezahlt. Man spricht dann verschleiernd von „negativen Strompreisen“. Neben diesen Entsorgungsgebühren entstehen zusätzliche Kosten durch das EEG: die Betreiber der Stromnetze müssen Strom aus WEA und PVA zu einem festen Preis abnehmen und am EEX-Spotmarkt verkaufen. Im Jahre 2018 (2019) wurde auf diese Weise die während eines Zeitraums von insgesamt 133 (232) Stunden generierte elektrische Energie im Umfang von ca. 4,8 (8,4) TWh mit negativen Strompreisen (und EEG-Umlage) in Höhe von ca. 0,69 (1,3) Mrd. € entsorgt [8].

Wegen der schwankenden Stromerzeugung durch WEA und PVA kann es aber zu Zeiten von geringen EE-Aufkommen nötig sein, Strom aus dem Ausland zu importieren, um in Deutschland die Nachfrage zu befriedigen. Das Fraunhofer Institut für Solare Energiesysteme (ISE) listet für den Import aus europäischen Nachbarländern im Jahr 2018 insgesamt 16,4 TWh auf (aus Frankreich 10,1 TWh, aus Tschechien 2,4 TWh; beide Länder betreiben Kernkraftwerke) [9]. Die Energieexporte in Nachbarländer belaufen sich auf 69,9 TWh (Niederlande: 19,4 TWh – sie regeln ihre Gaskraftwerke ab; Schweiz: 14,3 TWh und Österreich: 12,4 TWh – sie füllen ihre Pumpspeicherwerke) [9]. Die Bilanz ist also ein Exportüberschuss von 53,5 TWh. Wäre man in der Lage, die ins Ausland abgegebene Energie von 69,9 TWh in Deutschland zu speichern, könnte die zu einer sicheren Stromversorgung notwendige Grundlastlast durch diese Speicher bereitgestellt werden. Ein Energieimport würde obendrein entfallen.

69,9 TWh sind eine riesige Menge an Energie: sie würde es ermöglichen, das gesamte Wasser des Bodensees (48 km³) auf eine Höhe von ca. 520 m zu pumpen. Dies wäre die Grundlage für ein Pumpspeicherwerk, das alle Speicherprobleme und Probleme der Netzstabilität auf einen Schlag lösen würde – leider ist ein solches Pumpspeicherwerk nicht zu verwirklichen. Die schiere Größe dieser Zahlen zeigt aber die gigantische Aufgabe, die bei der Umstellung der Elektrizitätsversorgung auf EE-Strom, die unabdingbar große Speicherkapazitäten erfordert, zu bewältigen ist.

Die Energiewende betrifft aber nicht nur den Bereich des elektrischen Stroms sondern auch die Sektoren Wärme und Mobilität, von denen bislang nur der Stromsektor mit seiner Bruttostromerzeugung betrachtet wurde. Schlüsselt man den gesamten Endenergieverbrauch von Deutschland im Jahr 2018 nach Sektoren und Energieträgern auf [10], so ergibt sich folgendes Bild:

Insgesamt wurden 2.499 TWh an Energie genutzt. Die wichtigsten Energieträger waren dabei:

  • Mineralölprodukte: 937 TWh (Verkehr: 706 TWh; Gewerbe, Handel, Dienstleistungen: 79 TWh; Industrie: 28 TWh; Haushalte: 124 TWh);
  • Gase: 606 TWh (Verkehr: 2 TWh; Gewerbe, Handel Dienstleistungen: 103 TWh; Industrie: 262 TWh; Haushalte: 239 TWh);
  • elektrischer Strom, inkl. EE-Anteil: 513 TWh (Verkehr: 12 TWh; Gewerbe, Handel Dienstleistungen: 145 TWh; Industrie: 227 TWh; Haushalte 129 TWh) und
  • Wärme: 266 TWh (Gewerbe, Handel, Dienstleistungen: 48 TWh; Industrie: 79 TWh; Haushalte: 139 TWh).

Elektrischer Strom macht also 20,5 % des Endenergieverbrauchs aus, davon entfallen 35 % auf EE. Somit werden 7,2 % des gesamten Endenergieverbrauches von erneuerbaren Energieträgern abgedeckt. Die anderen Bereiche müssen in einem viel stärkeren Maße als bisher in die Energiewende einbezogen werden.

Wie geht es weiter?
Das „Klimaschutzprogramm 2030“ der Bundesregierung aus dem Jahr 2019 [11] sieht den weiteren marktorientierten Ausbau der erneuerbaren Energien als einen entscheidenden Baustein zur Erreichung der Klimaziele an. Die Bundesregierung hat das Ziel vorgegeben, im Jahr 2030 einen Anteil erneuerbarer Energien am Stromverbrauch von 65 % zu erreichen. Folgende Schritte sind geplant:

Schrittweiser Ausstieg aus der Kohleverstromung mit dem Ziel, die Nennleistung aller stromproduzierenden Kohlekraftwerke (Braun- und Steinkohle; Nettonennleistung am 01.04.2020 20,9 bzw. 22,6 GW [12]) bis 2030 auf 17 GW (Braunkohle 9 GW, Steinkohle 8 GW) zu reduzieren. Diese Vorgabe wurde im Kohleausstiegsgesetz [13] vom Juli 2020 erneut festgeschrieben und weiter präzisiert: bereits mit Ablauf des Jahres 2022 soll die Nettonennleistung der Braun- und Steinkohlekraftwerke auf jeweils 15 GW beschränkt werden. Die Kohleverstromung soll mit Ablauf des Jahres 2038 beendet werden. In den einzelnen Zeitabschnitten soll die Nettonennleistung linear abgesenkt werden.

Kommentar: Der Ansatz des Klimaschutzprogramms [11] und des Kohleausstiegsgesetzes [13] zur Beschränkung der CO2-Emissionen ist grundsätzlich falsch: nicht die Nennleistung der Kohlekraftwerke, sondern ihre Bruttostromerzeugung hätte begrenzt werden müssen, wenn Klimaschutzziele erreicht werden sollen. Über die Anhebung der Volllaststunden kann die Bruttostromerzeugung bei gleichbleibender Nennleistung vergrößert werden und die CO2-Emissionen steigen entsprechend an.

Weder in [11] noch in [13] wird darauf Bezug genommen, dass durch das Abschalten der Kernkraftwerke, die frei von CO2-Emissionen sind, mit Ablauf des Jahres 2022 ihr Anteil an der nicht fluktuierenden Stromerzeugung und damit der stabilen Grundlast entfällt. Wie dieser Beitrag substituiert werden soll, wird nicht diskutiert. Für den Ersatz der elektrischen Energie aus der Kohleverstromung werden dagegen in [11] Vorgaben gemacht, die im Folgenden vorgestellt werden.

1. Neue Abstandsregelungen für Windenergieanlagen an Land sollen ihre Akzeptanz erhöhen

Kommentar: Hier wird ein Problem unberücksichtigt gelassen. Laut Umweltbundesamt beträgt das gesamte Leistungspotenzial der ausgewiesenen Flächenkulisse ca. 80 GW [14]. Dabei gehen die gegenwärtigen Abstände zwischen Siedlungen und WEA ein, welche nur in Bayern durch die 10H-Regel festgelegt sind. Diese besagt, dass zwischen WEA und Siedlungen ein Mindestabstand von zehnmal der Nabenhöhe (H) einer WEA bestehen muss. Bei einer Nabenhöhe von 150 m sind dies 1.500 m; Abweichungen sind auf Antrag möglich. In anderen Bundesländern sind Mindestabstände von 300 m zulässig. Würden bundesweit Mindestabstände deutlich über 300 m festgelegt werden, besteht auf Grund der gegenwärtigen Flächenkulisse für die WEA an Land keine Ausbaumöglichkeit. Die vom Bundestag im Mai 2020 beschlossenen Abstandsregeln für WEA [15] von maximal 1.000 m erlauben jedoch jedem Bundesland, eigene Regelungen zu treffen, sodass auch weiterhin von der in [14] ausgewiesenen Flächenkulisse ausgegangen werden kann.

Gehen wir von dieser ausgewiesenen Flächenkulisse aus, so ist ein Ausbau der installierten Leistung auf 80 GW möglich (echter Zuwachs 27,6 GW); das bedeutet bei einer Effizienz der WEA von 20,1 % eine zusätzliche Energie von 48,6 TWh.

Die im Jahre 2019 in Betrieb genommenen 243 WEA an Land hatten eine durchschnittliche installierte Leistung von 3,3 MW [16]. Um 27,6 GW zu installieren, bedarf es weiterer 8.360 WEA (Bestand 2019: 29.456 WEA).

2. Das Ziel für den Ausbau der Windenergie vor der Küste wird auf 20 GW im Jahr 2030 angehoben

Kommentar: Die Beschränkung der offshore WE auf 20 GW bedeutet einen Zuwachs von maximal 13,6 GW oder, bei einer Effizienz der WEA von 34,4 %, einen Energiebetrag von 41 TWh. Die Deckelung der WEA vor der Küste könnte einen technischen (und in Folge einen finanziellen) Grund haben. Wenn Anlagenbetreiber den generierten Strom nicht ins Netz einspeisen können, weil entweder die Anbindung von offshore WEA an das Stromnetz noch nicht erfolgt ist oder eine Abregelung von WEA bei großen Windstärken nötig ist, führt das auf Grund des EEG 2009 zu einer Entschädigung für die Anlagenbetreiber [16].

Die im Jahre 2019 in Betrieb genommenen 160 WEA vor der Küste hatten eine durchschnittliche installierte Leistung von 6,9 MW [16]. Um weitere 13,6 GW zu installieren bedarf es etwa 1.970 WEA (Bestand 2019: 1.469 WEA).

3. Der derzeit noch bestehende Deckel von 52 GW für die Förderung des Ausbaus von Photovoltaik-Anlagen wird aufgehoben

Kommentar: Der Ausbau der onshore und offshore WEA kann bis zum Jahre 2030 89,6 TWh substituieren. Da die nicht volatilen erneuerbaren Energieträger Wasserkraft, Biomasse, Geothermie und Hausmüll in Deutschland nicht wesentlich ausgebaut werden können, muss auf Photovoltaik zurückgegriffen werden, um weitere EE bereitzustellen. Daher wird der derzeit noch bestehende Deckel von 52 GW für die Förderung des Ausbaus von Photovoltaik-Anlagen aufgehoben. Die vom Fraunhofer Institut für Solare Energiesysteme (ISE) zusammengestellten Fakten zur Photovoltaik in Deutschland [17] zeigen, dass in den vergangenen fünf Jahren ein Zubau von 10 GW erfolgte. Ein Zubau von maximal 5 GW pro Jahr wird für möglich gehalten. Dann würden 2020-2030 maximal 55 GW installiert werden können, dadurch würden weitere 56,2 TWh verfügbar werden.

Die geplanten Maßnahmen würden bis 2030 die Verfügbarkeit von 145,8 TWh an elektrischer Energie zur Folge haben. Linear über 11 Jahre verteilt bedeutet dies einen jährlichen Zuwachs von 13,25 TWh.

Welche elektrische Energie ist zu substituieren?
Kernkraftwerke stellen eine stabile Grundlast dar und laufen rund um die Uhr. Sie erzeugten in den Jahren 2017-2019 im Mittel 75,8 TWh [3]. Diese entfallen ab dem Jahr 2023 vollständig. Der Beitrag der im Klimaschutzprogramm [11] geplanten EE-Maßnahmen beträgt nach drei Jahren 39,75 TWh und substituiert nicht den Verlust von 75,8 TWh, der aus dem Abschalten der Kernkraftwerke resultiert.

Schwieriger ist die Abschätzung der elektrischen Energie, die durch das Zurückfahren der Kohleverstromung fehlen wird. Der Energieverbrauch ist nicht konstant, da er von unvorhersehbaren Ereignissen wie Wirtschafts- oder Finanzkrisen, von extremen Großwetterlagen oder einer Pandemie beeinflusst werden kann. Um dennoch eine Vorstellung zur Situation in den Jahren 2023 und 2030 zu erlangen, werden folgende Annahmen gemacht. Für das Jahr 2020 wird von einer Nettonennleistung von 20,9 und 22,6 GW [12] für Braun- bzw. Steinkohleverstromung ausgegangen, die nach Maßgabe des Kohleausstiegsgesetzes [13] von 2020 an bis 2030 reduziert wird. Es wird ferner angenommen, dass in den Jahren 2020 bis 2030 ein gleichbleibender Energiebedarf besteht, der durch eine Bruttostromerzeugung befriedigt werden muss, die so groß ist wie die im Mittel der Jahre 2017-2019 [3], nämlich 140,0 TWh aus Braunkohle, 77,6 TWh aus Steinkohle und zusätzlich 75,8 TWh, die durch das Abschalten der Kernkraftwerke fehlen werden. Es wird also von einer notwendigen jährlichen Bruttostromerzeugung von 293,4 TWh bei gleichbleibender Volllast (Braunkohle: 6.700 h; Steinkohle: 3.430 h; 1 Jahr = 8760 h) ausgegangen. Mit diesen Annahmen folgt für 2023 ein Fehlbetrag von 96,4 TWh und für 2030 einer von 59,8 TWh. Würden Kernkraftwerke weiterhin am Netz bleiben, fehlten 2023 nur 20,6 TWh, während der Ausbau der EE im Jahr 2030 zu einer zusätzlichen Energie von 16,0 TWh führen würde.

Bei dieser Abschätzung wurde unterstellt, dass der notwendige Ausbau von WEA im Umfang von 8.360 WEA an Land und 1.970 WEA vor der Küste realisierbar ist – es wären, auf 11 Jahre gleichmäßig verteilt, 760 bzw. 179 WEA in jedem Jahr. Der tatsächliche Zubau im Jahr 2019 (1. Halbjahr 2020) betrug 243 (90) bzw. 160 (32) WEA [16]. Der im Klimaschutzgesetz [11] vorgesehenen Ausbau der WEA scheint gegenwärtig nicht im vollen Umfang möglich. Der Fehlbetrag in der Stromversorgung ist daher wahrscheinlich noch größer als er im vorigen Absatz abgeschätzt wurde.

Folgerung: Die geplante Substitution der elektrischen Energie, die durch Abschalten der Kernkraftwerke mit Ende des Jahres 2022 und dem Zurückfahren der Kohleverstromung in den Jahren 2020 bis 2030 nötig wird, ist durch EE nicht möglich – die Energieversorgung ist auf dieser Basis nicht sicher.

Sicher ist aber, dass bereits der im Rahmen des Klimaschutzprogrammes angestrebte Ausbau von WEA und PVA bis 2030 auf 96,2 GW (145,8 TWh) schon viel früher zu erheblichen Problemen für die Stabilität der Netze führen wird, da die stabile Grundlast, bereitgestellt durch Kernkraftwerke und Braunkohlekraftwerke, drastisch reduziert werden soll. Um die Versorgungssicherheit zu gewährleisten gestattet die Bundesnetzagentur gegenwärtig nicht, systemrelevante Kraftwerke mit einer Gesamtleistung von ca. 4,2 GW endgültig stillzulegen [18].

Sicher ist auch, dass die Sektoren Wärme und Mobilität von dem Klimaschutzprogramm nicht profitieren können, wenn noch nicht einmal die erneuerbaren Energien den Strom aus Kern- und Kohlekraftwerken substituieren können. Die elektrische Energie für 7 bis 10 Mio. E-Autos, die im Jahr 2030 auf deutschen Straßen rollen sollen, ist dann auch nicht verfügbar.

Auswege
Die aufgeführten Zahlen belegen, dass elektrische Energie durch WEA und PVA allein nicht den Wegfall von elektrischer Energie aus Kern- und Kohlekraftwerken, wie er bis 2030 geplant ist, kompensieren kann. Zwar wird es immer wieder Tage mit Starkwind und viel Sonnenschein geben, die zu einem Überfluss an EE führen, aber während Dunkelflauten liefern weder WEA noch PVA elektrische Energie – auch wenn man ihre Anzahl verdoppelt, verzehnfacht oder verhundertfacht.
Der Ausbau der EE über den bisherigen Bestand hinaus ist zudem auf Grund der in Deutschland verfügbaren Flächen für WEA und PVA nur sehr beschränkt möglich [14]. Er würde außerdem wegen des Wegfalls grundlastfähiger Energieträger die Stabilität der Stromnetze auf Höchste gefährden – das Szenario eines blackout nimmt realistische Züge an. Und wenn noch nicht einmal der Stromsektor abgedeckt werden kann, wie sollen dann die Sektoren Verkehr und Wärme befriedigt werden?

Für die Abdeckung des Stromsektors bestehen kurz- und mittelfristige Möglichkeiten. Kurzfristig könnten die Volllaststunden der Kohlekraftwerke erhöht werden, um zu einer besser gesicherten Grundlast beizutragen, ohne die durch das Kohleverstromungsgesetz [13] begrenzte Nettoleistung zu verändern – ein solches Vorgehen konterkariert allerdings die beabsichtigte Verringerung der CO2-Emissionen. Kurz- und mittelfristig müssen Gas- und Dampfkraftwerke eine größere gesicherte Leistung bereitstellen. Der Bau der Gasleitung Nord Stream 2 weist auf die Absicht hin, Deutschlands Versorgung mit mehr Erdgas als gegenwärtig verfügbar ist zu sichern. Der Plan, ein Terminal an einem Nordseehafen (Brunsbüttel, Stade oder Wilhelmshaven) für das Anlanden von Flüssiggas (Liquid Natural Gas, LNG) einzurichten, hat dasselbe Ziel [19]. Der Bau von Gaskraftwerken im großen Maßstab geht gegenwärtig wegen fehlender wirtschaftlicher Attraktivität nur langsam voran [20] – sie werden ja nur bei geringen Erträgen der WEA und PVA als Reservekraftwerke gebraucht.

In diesem Zusammenhang ist es bemerkenswert, im § 54 (1) des Kohleausstiegsgesetzes [13] zu lesen: „Die Bundesregierung überprüft […] die Auswirkungen der Reduzierung und Beendigung der Kohleverstromung auf die Versorgungssicherheit, auf die Anzahl und die installierte Leistung der von Kohle auf Gas umgerüsteten Anlagen […]“. Der Umbau von Kohle- zu Gaskraftwerken wird also explizit in Erwägung gezogen, wenn nicht sogar geplant – dem zu erwartenden Engpass in der Stromversorgung soll somit vorgebeugt werden.

Gaskraftwerke, sowohl Neuinstallationen als auch umgebaute Kohlekraftwerke, wären in der Lage, die Lücke in der Stromversorgung bis 2030 zu schließen. Sie trügen auch zur Netzstabilität bei, wenn sie zur Sicherung der Grundlast eingesetzt würden. Sie sind jedoch wenig geeignet, die CO2-Bilanz entscheidend zu verbessern, denn der Emissionsfaktor von Erdgas von 0,202 t CO2/MWh ist gerade einmal halb so groß wie der von Rohbraunkohle (0,407 t CO2/MWh). Rohsteinkohle liegt mit 0,335 t CO2/MWh etwa dazwischen (zu den Emissionsfaktoren siehe [21]). Es darf obendrein nicht vergessen werden, dass durch die langen Transportwege von Erdgas oder LNG nach Deutschland eine beträchtliche, zusätzliche globale Emissionsbelastung eintritt, die den niedrigeren Emissionsfaktor relativiert. Da der Strom aus Kernkraftwerken (keine CO2-Emission!) voraussichtlich durch Strom von Gaskraftwerken ersetzt werden wird, werden sich die CO2-Emissionen in ihrer Summe, trotz Rückgang der Kohleverstromung, nicht in dem Maße verringern, wie es mit dem Klimaschutzprogramm [11] und dem Kohleverstromungsgesetz [13] beabsichtigt wurde – das Klimaschutzziel wird verfehlt werden.

Langfristig kann eine stabile Versorgung mit elektrischer Energie im heutigen oder im noch größeren Umfang nur durch die Bereitstellung von Speichern gemeistert werden. Die gegenwärtigen Stromflüsse ins benachbarte Ausland entsprechen 69,9 TWh elektrischer Energie. Diese oder noch mehr zu speichern ist eine Herausforderung sondergleichen. Sie anzunehmen lohnt sich aber, denn mit dieser Energiemenge könnte der gesamte Endenergieverbrauch an elektrischer Energie (513 TWh im Jahr 2018 [10]) etwa 50 Tage lang gedeckt werden.

Idealerweise würde aller volatiler EE-Strom zwischengespeichert, um von seiner schwankenden Verfügbarkeit unabhängig zu werden. Diese Speicher müssten zunächst durch Konversion des EE-Stroms beladen und bei Bedarf wieder entladen werden. Zur Konversion bieten sich Power-to-X Anlagen an. Dabei steht X für Wärme, Kälte, Gas (z. B. Wasserstoff), chemische Substanzen oder mechanische Systeme. Speichersysteme können ihrerseits thermisch, chemisch, elektrochemisch (Akkumulatoren, im gängigen Sprachgebrauch: Batterien) oder mechanisch sein. Eine kritische Analyse entlang einer solchen Kette aus Aufladung, Speicherung und Entladung ergibt, dass für jeden einzelnen Schritt Technologien im MWh-Bereich kommerziell zur Verfügung stehen [22], nicht aber im TWh-Bereich. Es fehlt also ein Faktor von einer Million bei der Realisierbarkeit von Speichern für elektrische Energie im notwendigen Umfang.

Die von der Bundesregierung im Juni 2020 ins Leben gerufene Nationale Wasserstoffstrategie (NWS) [23] entwirft das Zukunftsbild einer auf Wasserstoff basierenden Energiewirtschaft. Es wird festgestellt, dass die Erzeugung und Nutzung von Wasserstoff gegenwärtig nicht wirtschaftlich erfolgt. Dies soll durch umfangreiche finanzielle Maßnahmen behoben werden, durch die der „Markthochlauf von Wasserstofftechnologien in Deutschland“ [23] beschleunigt werden soll. Dazu gehört als besonders dringende Herausforderung die Entwicklung von Elektrolysetechniken, die beim Einsatz von fluktuierenden EE im großtechnischen Maßstab erfolgversprechend angewendet werden können. Energiespeicher auf der Basis power-to-hydrogen vor 2030 in einem Umfang realisieren zu wollen, der Stromexporte hinfällig und den Einstieg in die Wasserstoffwirtschaft möglich macht, scheint vor dem Hintergrund der gegenwärtigen Verfügbarkeit entsprechender Verfahren [22] als überaus optimistisch.

Fazit
Die Versorgung mit elektrischer Energie im gegenwärtigen Umfang kann bis zum Jahr 2030 durch massiven Einsatz von Gaskraftwerken gesichert werden – diese tragen jedoch zu CO2-Emissionen bei; die angestrebten Klimaschutzziele werden dadurch verfehlt. Der Einsatz erneuerbarer Energien in einem noch größeren Umfang für Elektromobilität und Wasserstoffwirtschaft ist für den Zeitraum bis 2030 unrealistisch – es sei denn, das Speicherproblem würde eher gelöst.

Biobasierte Kunststoffe

(BZfE) – Verpackungen aus Kunststoff schützen und erhalten die Qualität von Lebensmitteln. Allerdings schadet Plastik auch der Umwelt und der Gesundheit, wenn er vom Menschen unsachgemäß verwendet wird. Im Rahmen eines vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten Projekts hat sich die Assoziation ökologischer Lebensmittelhersteller (AÖL) mit Handlungsoptionen zum Einsatz von nachhaltig biobasierten Kunststoffen als Verpackungsmittel für Lebensmittel beschäftigt. Die Ergebnisse sind das „Biokunststofftool“ für Lebensmittelhersteller und ein Sonderthemenheft, das Vorteile und Kritikpunkte in Bezug auf Biokunststoffe beleuchtet.

Kann denn Kunststoff Bio sein? Dafür gibt es keine allgemeingültige Antwort, erklärt die AÖL. Schon allein der Begriff kann für Verwirrung sorgen. Während „Bio“ im Lebensmittelbereich gemäß der EU-Öko-Verordnung für eine bestimmte Produktionsmethode steht, geht es bei Kunststoffen allein um den landwirtschaftlichen Ursprung. Allerdings können biobasierte Kunststoffe nach Ansicht der AÖL eine gute Verpackungslösung für Lebensmittel sein. Dafür müssten die Materialien in der Praxis weiterentwickelt und an die jeweiligen Anforderungen angepasst werden.

Ein Beispiel sind Drop-In-Biokunststoffe wie Bio-PE (Polyethylen), Bio-PP (Polypropylen) oder Bio-PET (Polyethylenterephthalat). Sie sind nicht biologisch abbaubar. Da sie technisch identisch mit den Kunststoffen aus fossilen Rohstoffen sind, können sie aber in etablierten Systemen recycelt werden. Umweltvorteile sind geringere Kohlendioxidemissionen und ein geringerer Energieverbrauch bei der Herstellung. Als Rohstoffe werden in erster Linie Zuckerrohr und Zuckerrübe genutzt, aber auch Nebenprodukte der Landwirtschaft sind geeignet. „Wenn es gelingt, den Weg des Klimaschutzes und der Ressourcenschonung in Form von Kreislaufwirtschaft ernsthaft zu gehen, dann sehe ich gute Chancen für biobasierte Kunststoffe“, betont Projektleiter Brunhard Kehl. Allerdings bleibt noch die Frage, ob Bio auch für die Verbraucher mit Kunststoff zusammenpasst und die neuen Verpackungen akzeptiert werden.

Das „Biokunststofftool“ bietet Informationen und Entscheidungshilfe für Lebensmittelhersteller, die sich für den Einsatz von biobasierten Kunststoffverpackungen interessieren. Es gibt ein Bewertungssystem für die sechs wesentlichen Stoffgruppen biobasierter Kunststoffe, aber auch Praxisbeispiele, Argumentationshilfen und eine Checkliste für den Entscheidungsprozess.

Heike Kreutz

 

Bleiben unsere Stromnetze stabil, wenn sie nur mit regenerativen Energien gespeist werden ?

(KIT) – Im Zeitalter erneuerbarer Energien wird die Netzfrequenz ein immer wichtigerer Indikator für die Stabilität der Stromversorgung. Ein interdisziplinärer Forschungsverbund analysiert unter Federführung der Helmholtz-Gemeinschaft Frequenzfluktuationen in zwölf synchronen Netzgebieten auf drei Kontinenten. Für die Datenaufzeichnung haben Wissenschaftlerinnen und Wissenschaftler des Karlsruher Instituts für Technologie (KIT) einen tragbaren, GPS-synchronisierten Rekorder mit einer neuen Messtechnik entwickelt. Über erste Ergebnisse berichtet das Team nun in der Fachzeitschrift Nature Communications. (DOI: 10.1038/s41467-020-19732-7)

Die Netzfrequenz und ihre Schwankungen liefern Forschenden unterschiedlicher Disziplinen spannende Informationen für das Stromnetz. Sie zeigen vor allem, ob und in welchem Maß das Netz stabil ist, also inwieweit Erzeugung und Nachfrage sich die Waage halten. Sie lassen unter anderem aber auch Rückschlüsse darauf zu, wie sich Störungen und Ausfälle auswirken oder auch welchen Einfluss die Einspeisung aus erneuerbaren Energiequellen hat. Internationale Expertinnen und Experten aus Mathematik, Physik und den Ingenieurwissenschaften haben nun Frequenzdaten in Europa, den USA und Afrika gemessen und genauer unter die Lupe genommen.

Electrical Data Recorder: Frequenzdaten mit hoher Auflösung
Ein Forschungsteam des Instituts für Automation und angewandte Informatik (IAI) am KIT stellte für diese großangelegte Messkampagne von insgesamt rund 430 Tagen mehrere neuartige Aufnahmegeräte zur Verfügung. Der am IAI entwickelte Electrical Data Recorder (EDR) verwendet einen GPS-Empfänger zur Zeitsynchronisation und ermöglicht die Aufzeichnung von Roh- und Frequenzdaten mit sehr hoher Auflösung. Das Gerät ist tragbar und in der Lage, die Rohdaten über einen sicheren VPN-Tunnel direkt in die Datenbank „Large Scale Data Facility“ am Steinbuch Centre for Computing des KIT zu übertragen, wo sie für Forschungszwecke weiterverarbeitet werden. „Unser Rekorder ist nicht nur hochleistungsfähig, sondern auch praktisch zu handhaben“, erläutert Dr. Heiko Maaß vom IAI. Um die Messungen an einem bestimmten Ort zu starten, braucht der EDR nur eine Steckdose. Wenn kein Internet zur Verfügung steht, kann er die Daten über mehrere Wochen lokal speichern.

Je größer, desto stabiler: Frequenzschwankungen hängen von der Netzgröße ab
Für die Verbundforschungen sind die Geräte mittlerweile um die halbe Welt gereist. Die insgesamt 1,27 Gigabyte Frequenzdaten aus dem 50 Hertz- bzw. 60 Hertz-Bereich, die der aktuellen Veröffentlichung in Nature Communications zugrunde liegen, wurden an 17 Stationen in insgesamt zwölf unterschiedlichen, synchronen Netzgebieten von Kontinentaleuropa über die USA und Südafrika bis nach Island und die Färöer Inseln erfasst. Der Vergleich zwischen den heterogenen Gebieten zeigt: In kleineren Netzen sind die Frequenzfluktuationen deutlich höher als in großen. „Je größer das Stromnetz, desto stabiler“, erklärt Richard Jumar vom IAI. „Dieser Befund bestätigt unsere bisherigen Annahmen, dass die Intensität der Frequenzschwankungen von der Größe des Netzes abhängt. Insbesondere ist damit das zugrunde liegende entsprechende Skalierungsgesetz bestätigt“.

Das mittels der EDR-Messungen entstandene Datenmaterial wollen die Wissenschaftlerinnen und Wissenschaftler über den Verbund hinaus der internationalen Forschungscommunity zur Verfügung stellen. „Unsere Untersuchungen bieten großes Potenzial – nicht nur für die Entwicklung statistischer Modelle zur Frequenzdynamik, sondern später auch für die bessere Regulierung der Stromversorgung, die sich immer mehr aus volatilen Energiequellen speist“, betont Professor Veit Hagenmeyer, Institutsleiter des IAI.

Die Studie wurde unter Federführung der Helmholtz-Gemeinschaft (KIT und Forschungszentrum Jülich) durchgeführt. Konsortialpartner sind darüber hinaus die Queen Mary University in London, die Technische Universität Dresden und die Universität Istanbul.

Mehr extreme Wetterlagen im Mittelmeerraum

(pte) – Die durch den Klimawandel hervorgerufenen extremen Wetterphänomene im Mittelmeerraum werden in ihrer Intensität und Häufigkeit zunehmen. Zu diesem Schluss kommen Mitarbeiter des zum Nationalen Forschungsrats CNR gehörenden Istituto sull‘ Inquinamento Atmosferico.

Mehr gewaltige Tornados
Das Mittelmeer ist unter Wissenschaftlern wegen der dort lange verweilenden afrikanischen Antizyklone und der starken Sonneneinstrahlung als Klima-Hotspot bekannt. Zahlreiche mit Satellitentechnik gestützte Studien belegen, dass sich die Durchschnittstemperatur in den letzten 50 Jahren um zwei Grad Celsius erhöht hat. Die gestiegene Wassertemperatur hat nicht nur deutliche Auswirkungen auf den Meersspiegel und die Biodiversität, sondern auch auf das meteorologische Geschehen in der unteren Atmosphäre.

„Die Atmosphäre reagiert auf die vom Meer ausgehenden Wärmeströme, indem sie den Energieüberschuss in Form starker Winde und heftiger Regengüsse auf die Erdoberfläche entlädt“, erklärt Projektleiter Antonello Pasini. Glücklicherweise seien diese „Mediteranean Hurricanes“ weniger zerstörerisch als die Orkane atlantischen Ursprungs. Allerdings kann es auch in Italien zur Entstehung gewaltiger Tornados kommen, wie das über der süditalienischen Hafenstadt Tarent im November 2012 aufgetretene Unwetter zeigt. Pasini: „Bei nur einem Grad weniger Wassertemperatur im Ionischen Meer wäre das mit Sicherheit nicht passiert.“

Bereits geplagtes Territorium
Leider besteht laut dem Forscher eine beträchtliche Kluft zwischen den Erkenntnissen der Klimatologen und dem Verhalten der Politiker, deren Maßnahmen zum Schutz von Bevölkerung und Ökosystemen sich oft nicht als ausreichend erweisen. Dies gelte insbesondere für Italien, das über ein sehr fragiles und bereits stark erosionsgeschädigtes Territorium verfüge, weshalb sowohl die Menschen in den ländlichen Gebieten als auch die städtische Bevölkerung erhöhten Gefahren ausgesetzt seien.

Die von Greenpeace geförderte wissenschaftliche Untersuchung mit dem Titel „I Cambiamenti climatici e il mare: Gravi conseguenze anche per l’uomo“ gehört zu dem im November 2019 auf der Insel Elba gestarteten Projekt „Mare Caldo“, zu dem inzwischen weitere Monitoring-Stationen in Sizilien, Ligurien und Sardinien zählen.

Deutsche Physikalische Gesellschaft beleuchtet wichtige Beiträge zur Klimaforschung

(dpg) – „Die Vorgänge am Nordpol geben Anlass zur Sorge“, sagt Lutz Schröter, Präsident der Deutschen Physikalischen Gesellschaft (DPG): „Wir müssen auch in unseren Breiten mit einem starken Einfluss auf das Klima rechnen.“ Wie es um das Klima bestellt ist, beleuchten zwei neue Physikkonkret-Ausgaben der DPG zur Klimaforschung. „Die Reduzierung der Treibhausgas-Emissionen ist eine globale Aufgabe, die umgehend international angegangen werden muss“, betont DPG-Präsident Schröter.

Physik konkret 1

Physik konkret 2

 

Hubble-Daten erklären Dunkle Materie – Mit beeindruckenden Aufnahmen

(ESA) – New data from the NASA/ESA Hubble Space Telescope provides further evidence for tidal disruption in the galaxy NGC 1052-DF4. This result explains a previous finding that this galaxy is missing most of its dark matter. By studying the galaxy’s light and globular cluster distribution, astronomers have concluded that the gravity forces of the neighbouring galaxy NGC 1035 stripped the dark matter from NGC 1052-DF4 and are now tearing the galaxy apart.

23.11.20  Mysterious Dark Rays

16.11.20  Cosmic Cinnamon Bun

09.11.20  Contorting Giants

02.11.20  A Waterfall of Stars

26.10.20  Beauty From Chaos

19.10.20  Galactic Waterspout

12.10.20  A frEGGS-plosion of Star Formation

05.10.20  Survey of the Stars

 

80 Prozent weniger Verkehrs-NOx bis 2040

(pte) – Bis 2040 könnten Stickoxide im Straßen- und Schienenverkehr in Deutschland um 80 Prozent reduziert werden. Voraussetzung dafür sind jedoch Fortschritte in der Abgasreinigung und die Einführung neuer Technologien. Zu diesem Schluss kommen Wissenschaftler des Helmholtz-Zentrums Geesthacht – Zentrum für Material- und Küstenforschung (HZG) und des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in ihrer neuen Studie.

Weniger Verbrenner erwartet
„Im Vergleich zu heute sinken die verkehrsbedingten NOx-Emissionen (Stickoxide) in allen berechneten Szenarien um etwa 80 Prozent und auch die Feinstaubbelastung geht zurück“, sagt HZG-Erstautor Volker Matthias. Stickstoffmonoxid (NO) und gesundheitsbelastendes Stickstoffdioxid (NO2) werden gemeinsam als NOx bezeichnet. Diese entstehen bei Verbrennungsprozessen, besonders in Motoren. Den Experten nach sind die Emissionen im nachhaltigkeitsorientierten Szenario um etwa ein Drittel geringer als in den anderen Verbrennungsmotor-dominierten Szenarien. Vor allem in den Städten werden starke Emissionsreduktionen erwartet.

„In den Modellierungen zeigt sich, dass gerade die Technologieentwicklung und verschärfte Abgasnormen einen enormen Unterschied zu 2010 machen. Fahrzeuge, die viele Emissionen verursachen, werden dann nicht mehr in der Flotte sein. In den PKW und LKW werden neue Antriebstechnologien und Abgasreinigungstechniken, wie zum Beispiel spezielle Katalysatoren, eingesetzt.“ Der hohe Anteil von Wind- und Solarenergie im Strommix sei in Bezug auf das Klima positiv zu werten.

Energieperspektiven

(DPG) – Ein so komplexes System wie den Strom- oder sogar den Energiemarkt auf eine neue Basis zu stellen, ist eine gewaltige Herausforderung, die umsichtiges Planen und Handeln erfordert. „Neue technologische und systemische Ansätze können die Umsetzung der Energiewende zielführend unterstützen“, ist sich der Präsident der Deutschen Physikalischen Gesellschaft (DPG), Lutz Schröter, aber sicher. Mit fünf Faktenblättern beleuchtet die DPG nun einige Aspekte, die für das Gelingen der Energiewende wichtig sind.

Ein wesentliches Element einer langfristig erfolgreichen Energiepolitik ist die Einbeziehung des internationalen Energiemarktes. Lebt Deutschland doch seit vielen Jahrzehnten von Energieimporten: sei es die Steinkohle aus Australien, das Öl aus dem Nahen Osten oder das Gas aus Russland. Auch erneuerbare Energien werden wegen unterschiedlicher Standortbedingungen zum Teil aus dem Ausland bezogen werden müssen. Daher sind neben der Entwicklung verbesserter und neuer Technologien entsprechende Handels- und Wirtschaftsbeziehungen auch in Zukunft von größter Bedeutung. Die nun vorgelegten Physikkonkret-Ausgaben geben dazu Denkanstöße. Sie entstanden im Rahmen des Jubiläums 175 Jahre Deutsche Physikalische Gesellschaft, dessen 4. Quartal unter dem Motto „Klima und Energie“ steht, und beleuchten die Themen Wärmepumpen, LEDs, Stromspeicher, Fusion sowie grundlegende Aspekte der Energiewende.

Aluminium-beschichtete Zeolith-Perlen lösen Problem der Wärmespeicherung – Mit einer Einleitung von Jean Pütz

55% des Energieverbrauchs in Deutschland geht auf das Konto der Wärmeerzeugung und damit weitgehend des CO2-Ausstoßes. Dieser Bereich ist bisher von der Grünen-Ideologie völlig vernachlässigt worden. Bisher wurde aber hauptsächlich am Verkehrssektor herum, bei dem unsere privaten Autos nur 6-8% am deutschen CO2-Ausstoß ausmachen. Wenn Klimarettung, dann müssten logischerweise der Schwerpunkt auf den Wärmesektor gelegt werden durch entsprechende Wärmeschutzverordnungen im Gebäudesektor. Das ist bisher aber sträflich vernachlässigt worden. Ein Problem bildete vor allen Dingen die Direktspeicherung von Wärmeenergie, um diese später abzurufen. Dieses scheint mit beschichtetem Zeolith jetzt möglich zu werden im Sommer, über Thermo-Solar-Kollektoren wird die Wärmeenergie für den Winter abrufbar. Dies eröffnet ungeahnte Aussichten.
Dazu der folgende Artikel des Fraunhofer-Instituts. Die Fraunhofer-Gesellschaft ist insofern unentbehrlich, weil sie sich den Forschungsschwerpunkt der unmittelbaren Umsetzung des Ergebnisses auf die Praxis als Aufgabe gesetzt haben.

Ihr Jean Pütz

(Fraunhofer) – Die Heizperiode in Deutschland hat wieder begonnen und gerade im Sinne der Energiewende rücken Konzepte für effektive Wärmenutzung und Wärmespeicher mit flexiblen sowie hohen Speicherkapazitäten in den Fokus. Zeolith-Wärmespeicher bieten hier hohes Potenzial, krankten bisher aber noch an einem schlechten Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP hat innerhalb des vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projektes ZeoMet (FKZ 100346109) einen neuen Weg gefunden, Zeolith-Granulat so zu beschichten, dass ein effizienter Wärmeübergang ermöglicht wird.

Die Heizperiode in Deutschland hat wieder begonnen und gerade im Sinne der Energiewende rücken Konzepte für effektive Wärmenutzung und Wärmespeicher mit flexiblen sowie hohen Speicherkapazitäten in den Fokus. Zeolith-Wärmespeicher bieten hier hohes Potenzial, krankten bisher aber noch an einem schlechten Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP hat innerhalb des vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projektes ZeoMet (FKZ 100346109) einen neuen Weg gefunden, Zeolith-Granulat so zu beschichten, dass ein effizienter Wärmeübergang ermöglicht wird.

Wärme repräsentiert 55 % des Endenergieverbrauchs in Deutschland und spielt deshalb für die Energiewende eine ganz entscheidende Rolle. Neben dem Primat der Vermeidung oder zumindest Minimierung von Wärmeverlusten erfordert die effektive Wärmenutzung auch geeignete Speicher, um den zeitlichen oder räumlichen Versatz von Erzeugung und Bedarf zu überbrücken. Hohe Flexibilität und Speicherkapazität versprechen hier Zeolith-Wärmespeicher, bei denen die Energie in Form von adsorbiertem Wasserdampf im Inneren des hochporösen Materials gebunden ist. Ein temporär anfallender Wärmeüberschuss, etwa aus einer Solarthermie-Anlage im Sommer oder aus Abwärme produzierenden industriellen Prozessen, der zeitversetzt für Heizzwecke z. B. im Winter benötigt wird, kann zur Trocknung des Zeolith-Granulats genutzt werden, was einer Beladung des Speichers entspricht. Wird dem Material Wasserdampf zugeführt, kann die Adsorptionsenergie wieder als Wärme freigesetzt und so für Heizzwecke genutzt werden. Während der Speicherung liegt die Energie nicht in Form von Wärme vor, unterliegt damit auch nicht den unvermeidbaren schleichenden Verlusten durch Wärmeableitung, wodurch längere Speicherintervalle möglich werden als bei der direkten (sensiblen) Wärmespeicherung, beispielsweise in Wasserspeichern.

Ein bislang nicht gelöstes Problem des Sorptionsspeicherkonzepts ist der Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Hohe Wärmeübergangswiderstände zwischen Wärme zu- und abführenden metallischen Strukturen und dem als Granulat vorliegenden Zeolith sowie in der Zeolith-Schüttung selbst behindern eine effektive Be- bzw. Entladung. Versuche, Zeolith-Material direkt als dicke Schicht auf metallische Träger aufzubringen, scheitern an der mangelnden Zyklen-Stabilität dieses Metall-Mineral-Verbundes. Bei Zeolith-gefüllten Metallrohren ist das Volumenverhältnis von Träger- zu Speicher-Material dagegen unbefriedigend.

Einen neuen Weg beschreitet das Fraunhofer FEP in dem vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projekt ZeoMet: Zeolith-Granulat wird in einem Drehtrommelverfahren im Vakuum metallisiert und erhält so eine dünne Aluminium-Schicht (< 0,1 mm).

Projektleiterin Dr. Heidrun Klostermann erklärt: „Der Wärmeübergang ist somit für jedes einzelne Pellet und auch zwischen den Pellets durch die hohe thermische Leitfähigkeit von Aluminium gesichert. Wir konnten in Messungen bereits nachweisen, dass das poröse Grundmaterial durch offene Kanäle in der Schicht für Wassermoleküle dennoch zugänglich und die Sorptionskapazität des Granulats erhalten bleibt.“ Damit ist der Wärmeübergang an der Be- und Entladestelle ebenso gesichert wie der Wärmetransport in der Schüttung zwischen den metallisierten Pellets. Auch ein Versintern des metallisierten Granulats zu größeren Baueinheiten wird möglich.

Aktuell befassen sich die Wissenschaftler des Fraunhofer FEP mit Skalierungsuntersuchungen bei Verwendung unterschiedlicher Granulat-Körnungen und -Beschaffenheiten, um auf spezifische Anforderungen unterschiedlicher Speicheranwendungen reagieren zu können. Interessierte Industrieunternehmen sind eingeladen, mit den verantwortlichen Wissenschaftlern Kontakt aufzunehmen. Gern erläutern diese die Möglichkeiten und Potenziale der Technologie und suchen die Diskussion, um weitere Arbeiten praxisorientiert und industrierelevant zu gestalten.

Flüssiges Methanol als Alternative zu gasförmigem Wasserstoff – Mit einem Vorwort von Jean Pütz

Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Aber es gibt eine interessante Alternative. Da spielt wieder die Sonnenenergie und noch zu entwickelnde spezielle Katalysatoren eine Rolle. Man kann auf diese Weise daraus Methanol gewinnen. Allerdings benötigt man dazu wiederum CO2, denn der darin enthaltene Kohlenstoff bindet die Wasserstoff-Atome an sich, so dass der Wasserstoff quasi auf elegante Weise verflüchtigt wird. Wenn dann auch noch das CO2 aus der Atmosphäre entnommen wird – was allerdings sehr aufwändig ist, oder aus recyceltem CO2 aus dem Abgas von nicht zu vermeidenden Verbrennungsmotoren oder mit Erdgas betriebenen Heizungsanlagen, dann ist es möglich, dieses Methanol völlig regenerativ und CO2-frai zu gewinnen.

Im folgenden Artikel wird eine Methode beschrieben, die – um Wasserstoff effizient in Brennstoffzellen einsetzen zu können – es wieder in Wasserstoff zurückgewandelt wird. Dann fragt man sich, warum es nicht auch direkt in vorhandenen Verbrennungsmaschinen eingesetzt werden kann. Die dabei entstehenden geringen Restmengen an CO2 können sogar recycelt werden, so dass das zu einem völlig CO2-freien Nullspiel wird. Dazu ist allerdings Technologie-Offenheit erforderlich und nicht die Verbots-Ideologie.

Brennstoffzellen, die einigermaßen einen hohen Wirkungsgrad entwickeln, bedürfen Betriebstemperaturen von über 800°C, so dass der praktische Vorteil gegenüber Verbrennungsmotoren verschwindet. Trotzdem möchte ich Ihnen den folgenden Artikel nicht vorenthalten.

Jean Pütz

(Ing) – Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Falls im nächsten Jahr die ersten Serienautos mit Brennstoffzelle auf den Straßen rollen, könnte es bis dahin an der Zapfsäule schon eine Alternative zu Wasserstoff in Gasform geben: flüssiges Methanol. Wiener Forscher entschlüsseln derzeit die Rätsel der Katalysatoren, die Methanol während der Fahrt in ein Gemisch aus CO2 und molekularem Wasserstoff umwandeln.

Automobilbauer weltweit forschen an Alternativen zum klassischen Otto-Motor. Als umweltfreundliche Antriebstechnik gilt die Brennstoffzelle. Sie gewinnt Reaktionsenergie, indem sie Wasserstoff und Sauerstoff in Wasser umwandelt. Aus dem Auspuff strömt lediglich harmloser Wasserdampf. Der japanische Autobauer Toyota will bereits nächstes Jahr den FCV auf die Straße schicken. Der Wasserstofftank soll hinter der Rückbank des Brennstoffzellenautos installiert sein und sich in drei bis fünf Minuten betanken lassen – ein wesentlicher Vorteil zur längeren Ladezeit der Elektromotoren.

Doch das Tanken mit Wasserstoff sorgt bei vielen potentiellen Nutzern für Unbehagen. Denn das Gas zischt solange durch den Schlauch der Zapfsäule, bis im Druckgastank ein gewaltiger Druck aufgebaut ist. Bis zu 700 bar herrschen im Inneren – das über Deihundertfache des üblichen Reifendrucks. Eine Größenordnung, bei der viele Interessenten an eine rollende Bombe denken.

Brennstoffzellen-Autos könnten auch flüssiges Methanol tanken
Wasserstoff für Brennstoffzellenautos muss man allerdings nicht zwangsweise in Gasform tanken. Eine Alternative ist flüssiges Methanol. Es lässt sich während der Fahrt wieder in Wasserstoff und Kohlendioxid zerlegen. Bei dieser sogenannten Dampfreformierung spielen Metallkatalysatoren eine Schlüsselrolle, die Forscher an der Technischen Universität in Wien derzeit untersuchen. Denn nur mit dem richtigen Katalysator entsteht aus Methanol und Wasserdampf ein reines Gemisch aus CO2 und molekularem Wasserstoff, das kein für die Brennstoffzelle gefährliches Kohlenmonoxid enthält.

Besonders kompliziert sind die Prozesse an der Katalysatoroberfläche. „Unterschiedliche Atom- und Molekülsorten sind beteiligt“, erklärt Forscherin Karin Föttinger, die im Spezialforschungsbereich Foxsi der TU Wien arbeitet. „Oft ist schwer zu sagen, welche für die Reaktion wichtig sind, und welche untergeordnete Rollen spielen.“

Forscher kommen Geheimnissen der Katalysatoren auf die Spur
Während sich viele Experten in der Industrie noch nach dem Schema Versuch und Irrtum an die richtige Zusammensetzung der Katalysatoren herantasten, geht die TU Wien einen Schritt weiter. Mit modernen spektroskopischen Methoden untersucht Föttinger, wie Reaktionen am Katalysator im Detail ablaufen. Ihr Kollege Christoph Rameshan trennt die einzelnen Komponenten und analysiert sie in Modellsystemen einzeln. So können die Forscher nachvollziehen, was genau bei den komplizierten chemischen Prozessen an der Katalysator-Oberfläche passiert.

Als Katalysatoren kommen übrigens meist winzige Nanopartikel aus Metall zum Einsatz – oft aus Palladium. Sie sitzen auf Metalloxid-Oberflächen wie Zinkoxid. Heiß diskutiert war in den letzten Jahren die Frage, ob das Oxid oder das Reinmaterial für die Katalyse zuständig ist. Föttinger gibt jetzt eine Antwort: „Unsere Messungen zeigen: Man braucht beides.“ Kollege Rameshan konkretisiert: „Das Oxid ist wichtig für die Wasseraktivierung, für die Aufspaltung der Wassermoleküle. Das Metall hingegen ist wichtig für die Aufspaltung des Methanols.“