Archiv der Kategorie: Physik, Chemie, Technik

Bakterien als Baumaterial der Zukunft? Nicht nur umweltfreundlich

(pte) – Mit lebenden Ziegelsteinen wollen Forscher der University of Colorado http://colorado.edu den Gebäudebau revolutionieren. Hersteller sind nicht Ziegelwerke oder Zementfabriken, sondern Cyanobakterien, früher Blaualgen genannt. Projektleiter Wil Srubar und sein Team platzieren die Mikroorganismen in einer Mischung aus Sand und Gelatine. Bei richtiger Pflege scheiden die Bakterien Kalziumcarbonat aus, das sich mit dem Sand zu einer Art Beton verbindet.

Ersatz für schädlichen Zement
Die Bakterien beziehen ihren Rohstoff, CO, aus der Luft. Damit sind diese Steine doppelt nützlich. Sie reduzieren das Klimagas und bremsen so den Klimawandel. Außerdem können sie Zement ersetzen, dessen Herstellung aufgrund des hohen Energieverbrauchs für sechs Prozent der weltweiten Emissionen an CO2 verantwortlich sind. Die so hergestellten Baumaterialien sind ähnlich fest wie Ziegel oder Zementsteine, so die Forscher.

„Man kann darüberlaufen, ohne dass sie zerbrechen“, sagt Srubar. Werden sie geteilt, wachsen sie selbstständig weiter, sodass sie ihre alte Größe wieder erreichen. Schäden, etwa durch Absplitterungen, heilen von selbst. Das Team hat zudem festgestellt, dass bis zu 14 Prozent der Bakterienkolonien nach 30 Tagen noch leben. Es hat Versuche gegeben, Bakterien in konventionellen Beton einzubinden, sodass er selbstheilend wird, doch nur ein Prozent dieser Mikroorganismen überlebte diese Tortur.

Produktionsgeschwindigkeit hoch
„Wir wissen, dass Bakterien sich exponentiell vermehren. Also steigt auch unsere Produktionsgeschwindigkeit exponentiell an, ganz anders als etwa beim 3D-Druck“, erklärt Srubar. Ehe das lebende Baumaterial eingesetzt werden kann, ist noch eine Menge zu tun. Bakterien überleben nur, wenn sie feucht gehalten werden. In trockenen Regionen würden sie schnell absterben. Deshalb versuchen die Forscher, die Mikroorganismen so zu verändern, dass sie Trockenphasen überleben.

Srubar hat eine Vision. Er sieht Säcke, in denen sich die Zutaten für das Wachsen von lebenden Steinen befinden. Die Nutzer rühren es in Wasser an, so wie heute Beton hergestellt wird, und lassen ihr Baumaterial daraus entstehen. „Die Natur hat vorgemacht, wie man vieles clever und effizient erledigen kann. Wir müssen nur genau hinschauen“, verdeutlicht Srubar.

Scheitert die Energiewende am elektrischen Strom? Mit einer Erklärung von Jean Pütz

Hier nun die wichtigsten Punkte die für jedermann verständlich sind:

1. Elektrischer Strom ist keine Ware die einfach wie Pakete hin und her geschoben werden kann.

2. Das Stromnetz, dazu gehören auch die großen Verteilernetze über Hochspannung, muss stets genauso viel Energie anbieten wie nachgefragt wird. Und zwar in jeder 1000stel Sekunde.
Übersteigt die Nachfrage auch nur um wenige Kilowatt, dann schaltet es sich automatisch ab. Dazu gibt es zwar Sicherungssysteme aber das kann schon dazu führen das ganze Städte ausfallen.

3. Wird allerdings zuviel, z.B. durch regenerative Quellen und dezentrale Einspeisungen produziert, dann muss dieser Strom entweder in Wärme umgewandelt oder exportiert werden.
Das ist aber meistens mit hohen Kosten verbunden, denn der Abnehmer muss damit etwas anfangen können. Er kann es allerdings auch speichern aber dafür benötigt er Pumpspeicherwerke. Das fällt in Alpenstaaten also auch in Bayern relativ leicht.
Deswegen geht der Export des Stroms und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz.

Dafür muss der Energieversorger aber richtig Geld zahlen um damit was anfangen zu können. Er kann es allerdings auch speichern aber dafür benötigt er Pump-Speicher Werke. Das fällt in Alpenstaaten und so auch in Bayern relativ leicht. Deswegen geht der Export-Strom und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz. Dafür muss der Energieversorger aber richtig Geld zahlen. Umgekehrt wenn der diesen Strom wieder haben will, muss ja wieder bezahlen.
Das ist also ein toller Tausch, der im Prinzip aus physikalischen Gründen einfach unfair sein muss. Allerdings wenn mehr Strom nachgefordert wird als die Kraftwerke, als die regenerativen in Deutschland liefern, dann kann es auch sein, dass er den Strom z.B. aus Frankreich oder Polen bezieht. Dahinter allerdings stehen dann Kernkraftwerke aus Frankreich oder Braunkohlekraftwerke aus Polen. Ob das der Ökologie dient ist natürlich fraglich.

4. Es gibt noch ein weiteres Problem und das ist die Stabilität des Netzes und zwar die Frequenz. Dabei hat sich der Wechselstrom bzw. Drehstrom durchgesetzt. Eine Erfindung von Nikola Tesla, der arme Kerl musste in der Namensgebung für das erste Elektroauto herhalten. Wechselstrom bedeutet, dass er permanent die Richtung, das heißt vom Plus auf minus und umgekehrt, wechselt.
Dabei haben sich auch in Deutschland 50 Schwingungen pro Sekunde durchgesetzt, man spricht dann von 50 Hertz. Das hat natürlich auch seine Konsequenz, denn wenn auch nur eine leichte Abweichung von den 50 Hertz erfolgt, dann kann es zum Kurzschluss und zum Gau folgen. Deswegen ist die Stabilität außerordentlich wichtig, sie wurde bisher durch Großkraftwerke gewährleistet.

Es gibt Ingenieure die behaupten es müssten wenigstens 30% der benötigten Energie aus solchen Großkraftwerken stammen, sonst wird das Netz instabil. Nur so ganz stimmt es nicht mehr. Dezentrale regenerative Einspeisungen, mit der künstlichen Intelligenz versehen, können trotzdem eine gewisse Netzstabilität garantieren. Aber die Probe aufs Exempel ist noch nicht geführt worden, und die Behauptung dass in den nächsten 20 Jahren der Strom ausschließlich von regenerativen Quellen gespeist werden kann ist nach Prof. Kobe auch theoretisch und wirtschaftlich nicht möglich.

5. Große Mengen im Bereich von 1000 Terrawattstunden sind nur durch Pumpspeicherwerke möglich. Elektrische chemische Speicherung wie in Batterien sind in dieser Größenordnung völlig unwirtschaftlich.

6. Regenerative Stromeinspeisung ist nicht vergleichbar mit den bisherigen, mit fossilen Brennstoffen versehenen Großkraftwerken. Sie sind sehr von der Wetter- und Klimasituation abhängig.

Ihr Jean Pütz

Hier geht’s zum Original-Artikel

(EifelOn) – China plant, seinen enorm steigenden Bedarf an Elektroenergie auch durch einen weiteren massiven Zubau von Kohlekraftwerken zu decken. 2020 soll deren Leistung 1.100 GW betragen, 2035 sogar 1.400 GW. Zum Vergleich: Die Kohlekraftwerke der EU verfügen über eine Leistung von 150 GW (1 GW = 1 Gigawatt sind 1 Million Kilowatt). Der deutsche Anteil beträgt derzeit noch 44 GW. Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis keinen Strom
Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger
Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und um so niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen
Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher
Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei
Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

 

China erwägt teilweise Abkehr vom Elektroauto

(Fokus) – China beendet die Förderung für E-Autos, behält aber zumindest Elektro-Quoten bei. Unheil droht dennoch: Das Beratungsunternehmen JSC Automotive erwartet eine Kehrtwende, die Elektroautos und Hybride hart treffen würde. Auf E-Autos fixierte Unternehmen wie VW müssten sich dann breiter aufstellen.

Die wichtigsten Punkte im Artikel kurz zusammenfasst:

  • China gilt als globaler Antreiber der E-Mobilität
  • Verkaufszahlen brachen zuletzt ein, weil die Förderung wegfällt
  • Marktexperten sehen Strategieschwenk: Neben Elektroantrieben sollen künftig auch synthetische Kraftstoffe oder Wasserstoff eingesetzt werden
  • China betreibt weniger Klimapolitik, sondern verfolgt eher geostrategische Interessen

Viele Autohersteller, darunter auch Deutschlands wichtigster Autokonzern Volkswagen, setzen ausschließlich auf die Elektromobilität und stoppen mittelfristig die Entwicklung von Verbrennungsmotoren oder anderer Alternativen. Was für E-Spezialisten wie Tesla sehr gut funktioniert, könnte breiter aufgestellten Herstellern aber auch Probleme bereiten. Denn ausgerechnet in dem Markt, der als größter Treiber der E-Mobilität gilt, sieht die Strategieberatung JSC Automotive aus Shanghai in den kommenden Jahren eine Trendwende.

China stoppt bekanntlich bis Ende 2020 seine Subventionen für Elektroautos. Zwar gibt es nach wie vor Quoten für „New Energy Vehicles“ (NEV), zu denen auch batterieelektrische Autos zählen. Doch Chinas Staatsregierung will diesen Begriff offenbar weiter fassen und dabei den Fokus nicht mehr nur auf die E-Mobilität setzen.

China sieht E-Mobilität nicht als einzige Option
„Viele glauben immer noch, dass der Anteil der Elektrofahrzeuge in China in den kommenden Jahren stark ansteigen wird. Wir können dies nicht bestätigen“, so Jochen Siebert, Geschäftsführer von JSC Automotive. Stattdessen werde „ein Fächer an Technologien im Verbrennungsbereich aufgemacht“. Dazu zählten Methanol, Wasserstoff und verbrauchsarme Benziner. Nach Informationen von FOCUS Online sollen vor allem Mini-Hybride künftig eine große Rolle spielen. Also Benzinmotoren, die mit Hilfe von 48-Volt-Systemen sparsamer werden.

Verbrennungsmotoren auf dem Abstellgleis, Tausende werden entlassen
Viele Hersteller, etwa Audi, setzen solche Systeme bereits bei ihren neuen Motoren ein. Allerdings fokussiert sich Audi wie der komplette Volkswagen-Konzern künftig auf reine Elektroantriebe. Die Weiterentwicklung der Verbrenner wird mittelfristig gestoppt, was ein Hauptgrund für den Arbeitsplatzabbau bei dem  Hersteller ist. Diese Entscheidungen sind bereits getroffen und nicht mehr umkehrbar. Für den europäischen Markt ist die Entscheidung auch sinnvoll, denn dort lassen die neuen CO2-Grenzwerte künftig quasi nur noch elektrifizierte Autos zu. Ob das auch für den chinesischen Markt gilt, wird sich zeigen.

China berücksichtigt die echte CO2-Bilanz von E-Autos
Der entscheidende Punkt der – allerdings noch nicht finalisierten – Pläne der chinesischen Staatsregierung: Ab 2025 soll nicht mehr der Kraftstoffverbrauch für den Flottenverbrauch der Hersteller maßgeblich sein, sondern das, was für ihren Betrieb tatsächlich an CO2-Emissionen aufgewendet wird. „Ab dann würden auch Elektrofahrzeuge und Plug-In-Hybride mit ihrem Stromkonsum – umgerechnet in CO2 – belegt werden. Methanol, Wasserstoff- und E-Fuel-Fahrzeuge würden hingegen mit Null veranschlagt“, so die Experten von JSC Automotive. Das wiederum würde den Kraftstoffen wohl einen Vorteil verschaffen, der ähnlich unfair wäre wie die Anrechnung eines E-Autos mit null Gramm – es bleibt daher abzuwarten, wie die Gewichtung am Ende wirklich aussieht.

Unter E-Fuels versteht man künstlich hergestellte Kraftstoffe, deren CO2-Bilanz durch Nutzung von umweltfreundlichen Energien zumindest rechnerisch Null wäre. Die EU geht einen anderen Weg: Nur bei Elektrofahrzeugen wird der CO2-Ausstoß für die Flotten-Grenzwerte der Hersteller immer mit Null gewertet, egal wie der Strom zum Aufladen wirklich gewonnen wurde.

Der erklärte Elektro-Kritiker und Motoren-Experten Professor Fritz Indra sieht ebenfalls einen Strategie-Schwenk der Chinesen am Horizont . „China führt die Deutschen an der Nase herum. In China ist das E-Auto noch viel weniger umweltfreundlich als in Deutschland, weil dort der meiste Strom aus kalorischen Kraftwerken kommt. Alle zwei Wochen wird dort ein neues kalorisches Kraftwerk eröffnet. In China setzt man jetzt voll auf CO2-neutrale Kraftstoffe, weil das die einzige Methode ist, um die Emissionen nicht nur von Pkw, Lkw oder auch Schiffen schnell und wirksam zu reduzieren – und das ohne einen Nachteil für die Kunden“, glaubt Indra.

Geostrategie und Energieautarkie
Sehr gelegen dürfte den Chinesen dabei die maßgeblich in der EU geführte Diskussion um den Klimawandel kommen. Während die EU gerade den sogenannten Klima-Notstand ausgerufen hat und Sektoren wie Energie und Verkehr komplett umbauen will –  inklusive einer massiven Verteuerung des Individualverkehrs und Verbrauchskontrollen für alle Neuwagen – spielen für China offenbar geostrategische Erwägungen eine viel wichtigere Rolle. „Es geht in erster Linie um Energieautarkie. Der industriepolitische Aspekt ist auch interessant, weil durch breite Nutzung der Kohle auch viele Arbeitsplätze gesichert werden“, so Jochen Siebert von JSC Automotive zu FOCUS Online.

China ist Kohle-Nation Nummer Eins
Beim absoluten Ausstoß an CO2-Emissionen ist China mit weitem Abstand die Nummer Eins. Das gilt auch für die Gewinnung von Rohstoffen, allen voran gewaltiger Mengen Kohle. Trotz eines Ausbaus regenerativer Energien werden zwei Arten der Energieerzeugung auch künftig für Chinas Energiemix prägend sein: Kohle und Atomkraft – also genau die Energieformen, aus denen Deutschland gerade parallel auszusteigen versucht.

Elektro-Ausbau stößt an seine Grenzen
JSC-Geschäftsführer Jochen Siebert sieht noch einen weiteren Grund, weshalb China offenbar nicht mehr allein auf die E-Mobilität setzt: „Der Ausbau des Schnelllade-Netzes läuft gut, aber es hakt gewaltig bei dem Ausbau der Wechselstromladestationen, da die allermeisten Nutzer in Gebäudekomplexen wohnen und meist keine Genehmigung für eine Ladestation bekommen. Zudem besteht das Schnellladenetz vorrangig aus 50 kW-Stationen und ist somit bereits veraltet“, so Siebert. Der Ladenetz-Ausbau ist ein Problem, das wahrscheinlich auch Deutschland bevorsteht. Denn auch wenn die Furcht vor einem „Blackout“ durch Elektroautos übertrieben ist, sind die Niederspannungs-Verteilungsnetze an vielen Stellen noch gar nicht für einen echten Hochlauf der E-Mobilität vorbereitet

E-Mobilität bleibt vor allem mit neuen Modellen attraktiv
Wie groß künftig der Anteil von Stromern sein wird, hängt natürlich von vielen Faktoren ab. In China ging im dritten Quartal laut der Unternehmensberatung PwC der Absatz von reinen E-Autos um 15,7 Prozent zurück, der von Plug-in-Hybrid-Fahrzeugen um 27,3 Prozent. Gründe hierfür: Das bereits erwähnte Zurückfahren staatlicher Fördermittel, aber auch der Zollstreit mit den USA, wirtschaftliche Unsicherheit und wohl auch der wachsende Erfolg von Fahrdiensten in China. „Der Hochlauf und das Angebot der neuen E-Fahrzeuge trifft auf ein extrem schwieriges wirtschaftliches Umfeld“, so PwC-Automotive-Chef Felix Kuhnert. E-Autos seien bislang ein urbanes Phänomen.

Immerhin: Insgesamt reicht es in wichtigen Märkten wie China im Quartals-Vergleich noch zu einem Plus. Zudem dürften neue E-Modelle, allen voran das jetzt auch in China gebaute Tesla Model 3 sowie das neue Elektro-SUV Model Y, durchaus Verkaufsschlager bei den E-Auto-affinen Chinesen werden. Denn aktuell werden die Stromer ja noch finanziell gefördert und haben auch andere Vorteile, etwa bei der Neuzulassung in Städten, in denen es Zulassungsbeschränkungen gibt.

„Die Zukunft bestimmen allein die Regulierungen“
Dass batterieelektrische Autos eine wichtige, aber eben nicht die einzige Säule im chinesischen Antriebsmix sein werden, erwartet auch Jack Wey, CEO eines der größten chinesischen Autobauers. Er sagte auf der IAA, die im September wahrscheinlich zum letzten Mal in Frankfurtstattfand, im Interview mit FOCUS Online. „Ob die Zukunft nun Elektro sein wird, Wasserstoff oder Hybridtechnik – das bestimmen allein die staatlichen Regulierungen. 2030 werden Elektroautos meiner Einschätzung nach die Mehrheit stellen, das gilt zumindest für China und womöglich auch für Europa.  Aber natürlich wird es 2030 auch noch Autos mit Verbrennungsmotoren geben. Denn diese Technologien werden ebenfalls effizienter, sparsamer und umweltfreundlicher“, so Wey.

Bundesregierung blockiert alternative Kraftstoffe
Interessant ist vor diesem Hintergrund die Haltung der deutschen Bundesregierung,die die Elektromobilität als quasi alternativlos ansieht und entsprechende Weichen bei der finanziellen Förderung gestellt hat. So sperrt sich die Regierung gegen die Zulassung alternativer Kraftstoffe wie synthetisch produziertem Diesel und könnte damit sogar ein Vertragsverletzungsverfahren der EU riskieren . Umso überraschender war die kürzliche Ankündigung von Umweltministerin Svenja Schulze (SPD), ein „Power-to-x-Netzwerk“ aufbauen zu wollen, um Wasserstoff oder eben auch synthetische Kraftstoffe zu erforschen. Die FDP-Abgeordnete Judith Skudelny traut diesem Strategieschwenk nicht: „Erst vor wenigen Wochen hat die Ministerin genau das verhindert, was sie heute großartig ankündigt. Deutsche Start-Ups, wie beispielsweise Ineratec aus Karlsruhe, finden in Deutschland aufgrund der schlechten Rahmenbedingungen keinen Markt, obwohl deren Produkte von Finnland bis nach Spanien verkauft werden. Frau Schulze sollte vielleicht erst einmal bei uns ihre überfälligen Hausaufgaben machen, bevor sie sich auf der Klimakonferenz mit inhaltsleeren Ankündigungen feiern lässt“, so Skudelny zu FOCUS Online.

Ökosprit-Skepsis der Bundesregierung
Das Bundeskabinett hatte die zum freien Verkauf von synthetischen Kraftstoffen in Reinform nötige DIN 15940 bei der Umsetzung der AFID-Richtlinie (Richtlinie 2014/94/EU über den Aufbau der Infrastruktur für alternative Kraftstoffe) nicht in den Gesetzentwurf aufgenommen – nach Informationen von FOCUS Online geschah dies durch intensives Einwirken des Umweltministeriums. Am 29. November wurde der Gesetzesentwurf im Bundesrat dann knapp und gegen die Empfehlung des Wirtschaftsausschusses des Bundesrats angenommen. Somit sind synthetische Kraftstoffe weiter nicht in Reinform erlaubt.

Transrapid wird erfolgreicher – aber nicht in Deutschland – Mit einer Meinung von Jean Pütz

Leider hat dieses geniale ökologisch und ökonomisch sinnvolle schienengebundene Transportsystem wegen grüner Ideologie keine Chance gehabt.
Das Konsortium, das dieses entwickelt hat, musste es nach China verschenken. Leider erfolgt das immer mehr mit deutscher Technologie. Die Chinesen sind im Begriff, Europa das Wasser abzugraben.
Jean Pütz

(pte) – An Bord der von deutschen Unternehmen gebauten Magnetschwebebahn Transrapid, die Schanghais Flughafen mit der Stadt verbindet, lässt sich jetzt das schnellste Mobilfunknetz der Welt nutzen, zumindest versuchsweise. 5G bietet die Möglichkeit, gigantische Datenmengen in kürzester Zeit zu übertragen, bis zu zehn Gigabit pro Sekunde. Das bedeutet, dass sich ein kompletter Spielfilm in weniger als zehn Sekunden herunterladen lässt.

Connected trotz Highspeed
Die 5G-Installation gelang China Telecom gemeinsam mit dem Telekommunikationsausrüster ZTE. Selbst als die Magnetschwebebahn ihre Höchstgeschwindigkeit von 430 km/h erreicht hatte, war die Verbindung stabil, berichten die Partner. Auf der gut sieben Minute dauernden Fahrt können die Passagiere das komplette 5G-Spektrum nutzen, also Videokonferenzen abhalten, hochaufgelöste Filme anschauen, die datenintensivsten Spiele nutzen oder arbeiten.

Die Versorgung von Hochgeschwindigkeitszügen mit Mobilfunk sei seit jeher eine große Herausforderung für Ausrüster und Anwender. Bei 5G seien sie noch größer als bei den früheren Mobilfunkstandards. Um das Problem zu lösen, haben ZTE und China Telecom verschiedene technische Durchbrüche erreicht. Es gelang beispielsweise, den Doppler-Effekt, dem Funkwellen unterliegen, wenn hohe Geschwindigkeiten im Spiel sind, zu kompensieren. Das System funktioniere bei Geschwindigkeiten von bis zu 500 km/h. Der Durchbruch gelang auch durch technische Innovationen in den Basisstationen, die die Signale aussenden und empfangen. Der Übergang von einer Zelle zur anderen habe reibungslos funktioniert.

Für alle Schnellzüge geeignet
Die Schanghai-Maglev ist das schnellste kommerzielle Landfahrzeug der Welt. Da 5G hier funktioniere, sei die chinesische Technik in allen schienengebundenen Hochgeschwindigkeitszügen einsetzbar. Die schnellsten erreichen 350 Kilometer pro Stunde. ZTE und China Telecom haben bereits große Erfahrungen in der Ausrüstung von Hochgeschwindigkeitszügen mit Breitband-Mobilfunk bis hin zu 4G. Die Partner wollen die 5G-Technik jetzt noch weiter verbessern, um sie allgegenwärtig nutzbar zu machen.

Mit starken Lasern zur unerschöpflichen Energiequelle

(HZDR) – Kernphysik ist üblicherweise die Domäne hoher Energien. Das wird zum Beispiel in den Versuchen zur Beherrschung der kontrollierten Kernfusion sichtbar. Ein Problem stellt die Überwindung der starken elektrischen Abstoßung zwischen den zu verschmelzenden Atomkernen dar, die hohe Energien erfordert. Fusionen könnten jedoch schon bei niedrigeren Energien in Gang kommen: mit Energien und elektromagnetischen Feldern, wie sie beispielsweise modernste Freie-Elektronen-Laser mit Röntgenlicht zur Verfügung stellen. Das zeigen Wissenschaftler des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) in der Fachzeitschrift Physical Review C.

Bei der Kernfusion verschmelzen zwei Atomkerne zu einem neuen Kern. Im Labor gelingt das zum Beispiel mit Teilchenbeschleunigern, wenn Forscher Fusionsreaktionen zur Bildung schneller freier Neutronen für weiterführende Experimente nutzen. In weit größerem Maßstab soll die kontrollierte Fusion leichter Kerne Anwendung in der Energieerzeugung finden. Vorbild ist die Sonne: Deren Energie speist sich aus einer Reihe von im Innern ablaufenden Fusionsreaktionen.

Seit vielen Jahren arbeiten Wissenschaftler an Konzepten, mit denen sich aus der Fusionsenergie Strom erzeugen ließe. „Zum einen ist es die Aussicht auf eine praktisch unerschöpfliche Energiequelle. Zum anderen sind es die vielen noch vorhandenen, technologischen Hürden, zu deren Meisterung wir mit unserer Arbeit einen Beitrag leisten wollen“, beschreibt Prof. Ralf Schützhold, Direktor der Abteilung für Theoretische Physik am HZDR, die Motivation seiner Forschung.

Tunneln auf hohem, aber demnächst zugänglichem Niveau
Um eine Kernfusion auszulösen, müssen die starken elektrischen Abstoßungskräfte der miteinander zu verschmelzenden, gleichartig geladenen Atomkerne überwunden werden. Dazu sind normalerweise hohe Energien notwendig. Doch es gibt noch einen weiteren Weg, erläutert Dr. Friedemann Queißer, Co-Autor der Studie: „Reicht die verfügbare Energie nicht aus, kann die Fusion auch durch Tunneln ermöglicht werden, einen quantenmechanischen Prozess. Dabei wird die von der Kernabstoßung verursachte Energiebarriere bei niedrigeren Energien durchtunnelt.“

Der Vorgang ist kein theoretisches Konstrukt, sondern Realität: So reichen die im Sonnenkern anzutreffenden Temperaturen und Druckverhältnisse nicht aus, um die Energiebarriere für eine Fusion von Wasserstoffkernen zu überwinden. Die Fusion findet trotzdem statt: Die vorherrschenden Bedingungen gestatten, über eine genügende Zahl von Tunnelprozessen die Fusionsreaktion aufrecht zu erhalten.

In ihrer aktuellen Arbeit untersuchten die HZDR-Wissenschaftler, ob die Unterstützung von Tunnelprozessen mittels Strahlung eine kontrollierte Fusion erleichtern kann. Doch auch das ist eine Frage der Energie: Je niedriger sie ist, desto unwahrscheinlicher wird das Tunneln. So war die Leistung herkömmlicher Laserstrahlung für das Auslösen solcher Prozesse bislang zu gering.

XFEL und Elektronenstrahlen zur Unterstützung von Fusionsreaktionen
Das könnte sich bald ändern: Mit Freie-Elektronen-Lasern mit Röntgenlicht (XFEL, X-Ray Free-Electron Laser) lassen sich bereits Leistungsdichten in einer Größenordnung von 1020 Watt pro Quadratzentimeter erreichen. Das entspricht in etwa dem Tausendfachen der auf die Erde einstrahlenden Leistung unserer Sonne, gebündelt auf die Fläche einer 1-Eurocent-Münze. „Damit stoßen wir in Bereiche vor, die eine Unterstützung solcher Tunnelprozesse mit starken Röntgenlasern möglich erscheinen lassen“, so Schützhold.

Die Idee: Das die Abstoßung der Kerne verursachende, starke elektrische Feld wird mit einem schwächeren, sich aber schnell ändernden elektromagnetischen Feld überlagert, wie es mit Hilfe eines XFEL erzeugt werden kann. Die Dresdner Wissenschaftler haben das anhand der Fusion der Wasserstoff-Isotope Deuterium und Tritium theoretisch untersucht. Diese Reaktion gilt heute als eine der aussichtsreichsten, wenn es um erfolgversprechende Konzepte für künftige Fusionskraftwerke geht. Die Ergebnisse zeigen, dass sich auf diesem Wege die Tunnelrate erhöhen lässt; eine ausreichende Zahl ausgelöster Tunnelprozesse könnte schließlich eine erfolgreiche und kontrollierte Fusionsreaktion ermöglichen.

Einige wenige Lasersysteme mit entsprechendem Potenzial gehören heute zu den Flaggschiffen von Großforschungsanlagen weltweit, wie etwa in Japan und den USA – oder in Deutschland, wo mit dem Röntgenlaser European XFEL der weltstärkste Laser seiner Art steht. An der dortigen Helmholtz International Beamline for Extreme Fields (HIBEF) sind Experimente mit einzigartigen ultrakurzen und extrem lichtstarken Röntgenblitzen geplant. HIBEF wird derzeit vom HZDR aufgebaut.

Als nächstes wollen die Dresdner Starkfeld-Physiker noch tiefer in die Theorie eintauchen, um auch andere Fusionsreaktionen besser verstehen und deren Potenzial für mittels Strahlung unterstützte Tunnelprozesse abschätzen zu können. Solche wurden bereits bei Laborsystemen, wie Quantenpunkten in der Festkörper-Physik oder Bose-Einstein-Kondensaten, beobachtet, doch im Falle der Kernfusion steht der experimentelle Nachweis noch aus. Perspektivisch halten die Autoren der Studie auch andere Strahlungsquellen zur Unterstützung von Tunnelprozessen für möglich. Zu Elektronenstrahlen liegen bereits erste theoretische Ergebnisse vor.

 

Höhere Kapazität für Akkus

(KIT) – Durch Untersuchungen struktureller Veränderungen während der Synthese von Kathodenmaterialen für zukünftige Hochenergie-Lithium-Ionen-Akkus haben Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT) und kooperierender Einrichtungen neue und wesentliche Erkenntnisse über Degradationsmechanismen gewonnen. Diese könnten zur Entwicklung von Akkus mit deutlich erhöhter Kapazität beitragen, die etwa bei Elektrofahrzeugen eine größere Reichweite möglich machen. Über die Ergebnisse berichtet das Team in der Zeitschrift Nature Communications. (DOI 10.1038/s41467-019-13240-z)

Ein Durchbruch der Elektromobilität wird bislang unter anderem durch ungenügende Reichweiten der Fahrzeuge behindert. Helfen könnten Lithium-Ionen-Akkus mit einer größeren Ladekapazität. „Wir sind dabei, solche Hochenergie-Systeme zu entwickeln“, sagt Professor Helmut Ehrenberg, Leiter des Instituts für Angewandte Materialien – Energiespeichersysteme (IAM-ESS). „Auf Basis eines grundlegenden Verständnisses der elektrochemischen Vorgänge in den Batterien sowie durch den innovativen Einsatz von neuen Materialien lässt sich die Speicherkapazität von Lithium-Ionen-Akkus nach unserer Einschätzung um bis zu 30 Prozent erhöhen.“ Am KIT läuft diese Forschung im Rahmen des Center for Electrochemical Energy Storage Ulm & Karlsruhe (CELEST), der größten deutschen Forschungsplattform für elektrochemische Speicher, deren stellvertretender Sprecher Ehrenberg ist.

Die Hochenergievariante der Lithium-Ionen-Technologie unterscheidet sich von der herkömmlichen durch ein spezifisches Kathodenmaterial: Während bislang überwiegend Schichtoxide mit unterschiedlichen Verhältnissen von Nickel, Mangan und Kobalt eingesetzt werden, kommen nun manganreiche Materialien mit Lithium-Überschuss zum Einsatz, was die Energiespeicherfähigkeit pro Volumen/Masse Kathodenmaterial deutlich erhöht. Allerdings gibt es beim Einsatz dieser Materialien bislang noch ein Problem: Bei der Ein- und Auslagerung von Lithium-Ionen – also der grundlegenden Funktionsweise einer Batterie – degradiert das Hochenergie-Kathodenmaterial. Das Schichtoxid wandelt sich nach einiger Zeit in eine Kristallstruktur mit sehr ungünstigen elektrochemischen Eigenschaften um. Als unerwünschte Folge sinkt die mittlere Lade- und Entladespannung von Beginn an, was die Entwicklung von brauchbaren Hochenergie-Lithium-Ionen-Akkus bislang verhinderte.

Neue Erkenntnisse über Degradation
Wie genau dieser Degradationsprozess abläuft, war noch nicht vollständig verstanden. Ein Forscherteam aus Wissenschaftlerinnen und Wissenschaftlern des KIT und kooperierender Einrichtungen hat den grundlegenden Mechanismus nun in der Zeitschrift Nature Communications beschrieben: „Auf Basis von detaillierten Untersuchungen des Hochenergie-Kathodenmaterials konnten wir zeigen, dass die Degradation nicht direkt, sondern indirekt über die Bildung einer bislang wenig beachteten lithiumhaltigen Kochsalzstruktur abläuft“, sagt Weibo Hua (IAM-ESS), einer der Hauptautoren der Studie. „Außerdem spielt auch Sauerstoff bei den Reaktionen eine entscheidende Rolle.“ Neben diesen Ergebnissen zeigt die Studie außerdem, dass neue Erkenntnisse über das Verhalten einer Batterietechnologie nicht unbedingt direkt aus dem Degradationsprozess stammen müssen: Ihre Entdeckung hatten Weibo und die beteiligten Wissenschaftlerinnen und Wissenschaftler nämlich anhand von Untersuchungen gewonnen, die während der Synthese des Kathodenmaterials durchgeführt wurden.

Auf dem Weg zu Hochenergie-Lithium-Ionen-Akkus für Elektroautos stellen die Forschungsergebnisse des KIT einen wichtigen Schritt dar: Sie machen es möglich, nun neue Ansätze zur Minimierung der Degradation in den Schichtoxiden zu testen und in die eigentliche Entwicklungsarbeit zu diesem neuen Batterietyp einzusteigen.

Neues elektrisches Wärmepumpen-Prinzip zum Heizen und Kühlen

(Fraunhofer) – Wärmepumpen spielen eine entscheidende Rolle in der Energiewende: Nachhaltig erzeugter elektrischer Strom sorgt für Wärme im Winter und gutes Klima im Sommer. Wärmepumpen arbeiten heute nahezu ausschließlich auf Basis von Kompressor-Technologie. Kompressoren benötigen schädliche Kältemittel, deren Einsatz gesetzlich in Zukunft noch stärker eingeschränkt wird. Vor diesem Hintergrund entwickeln sechs Fraunhofer-Institute im Fraunhofer-Leitprojekt ElKaWe hocheffiziente elektrokalorische Wärmepumpen, die ohne schädliche Kältemittel auskommen.

Wärmepumpen auf Basis von Kompressoren werden zum Heizen und Kühlen verwendet. Die in den Systemen eingesetzten Kältemittel sind jedoch schädlich für Klima, Gesundheit und Umwelt, in einigen Fällen zudem explosiv. Das die Ozonschicht schädigende FCKW wurde längst verboten, und auch der Einsatz von klimaschädlichen Fluorkohlen-wasserstoffen (FKW) wird im Rahmen der europäischen F-Gase-Verordnung stark reglementiert. Festkörperbasierte Wärmepumpen, zu denen elektrokalorische Systeme zählen, arbeiten mit unbedenklichen Fluiden wie zum Beispiel Wasser. Kalorische Systeme sind zudem geräuschlos, was beispielsweise für die Klimatisierung von Elektrofahrzeugen von Bedeutung ist. Bisherige Erkenntnisse geben zudem Grund zur Annahme, dass elektrokalorische Wärmepumpen der Kompressor-Technologie auch im Hinblick auf die Effizienz überlegen sein werden. »Wir sehen die Chance, kompressorbasierte Wärmepumpen langfristig vollständig abzulösen«, sagt Prof. Karsten Buse, Institutsleiter am Fraunhofer IPM, der das Projekt leitet. »Nach den Erkenntnissen, die wir bisher auf dem Gebiet gewinnen konnten, kann die Elektrokalorik disruptives Potenzial für die Wärme- und Kältetechnik haben.«

Wärmepumpen: regenerativ erzeugten Strom für die Wärmeerzeugung nutzbar machen
Laut Umweltbundesamt entfällt mehr als die Hälfte der deutschlandweit eingesetzten Gesamtenergie auf das Heizen und Kühlen. Wärmepumpen, die Umweltwärme für die Heizung und Warmwasserzubereitung in Gebäuden nutzen und mit regenerativ erzeugtem Strom betrieben werden, sind daher ein wichtiger Baustein für die Wärmewende. Sie sind das fehlende Bindeglied zwischen Strom- und Wärme-Erzeugung, die heute noch immer vorwiegend auf fossile Energieträger baut. Der Zuwachs an Wärmepumpen verläuft jedoch zögerlich. Grund ist die unzureichende Wirtschaftlichkeit. Elektrokalorische Wärmepumpen versprechen einen deutlich höheren Wirkungsgrad, der die Verbreitung von Wärmepumpen für die Gebäudeklimatisierung befördern wird. In der Kältetechnik hat das Forschungsteam vor allem die industrielle Kühltechnik, Fahrzeugklimatisierung, Server- und Schaltschrankkühlungen und Laborkühlschränke im Blick. Grundsätzlich eignet sich die Technologie auch für die Haushaltskühltechnik. Hier weichen die meisten Hersteller inzwischen auf natürliche Kältemittel wie Isobutan oder Propan aus. Letztere sind zwar nicht klimaschädlich, jedoch hochexplosiv, weshalb sie für sicherheitskritische Anwendungen –  wie zum Beispiel in der Industrie oder im Automobil – nicht infrage kommen.

Innovationen bei Material und Wärmeübertrag
Die Wissenschaftlerinnen und Wissenschaftler werden am Material- und Systemaufbau arbeiten, um das disruptive Potenzial der Technologie zu demonstrieren. Das Fraunhofer IKTS verfügt über umfassende Erfahrung mit keramischen elektrokalorischen Materialien und Beschichtungen. Fraunhofer IAP und LBF bringen Know-how zur Entwicklung von Polymermaterialien ein, die für den Einsatz in elektrokalorischen Wärmepumpen weiterentwickelt werden. Spezielle Beschichtungen zur Isolierung und Funktionalisierung der Komponenten entwickelt das Fraunhofer FEP. Das Fraunhofer LBF wird neben den Funktionspolymeren auch Lebensdauer und Zuverlässigkeit der Materialien und Systeme untersuchen. Das Fraunhofer IAF wird die elektrische Ansteuerung für die Wärmepumpen entwickeln. Material und Komponenten müssen langzeitstabil, ausreichend verfügbar, kostengünstig und nicht zuletzt unbedenklich sein. All diese Kompetenzen werden zur Umsetzung eines vollkommen neuartigen, vom Fraunhofer IPM patentierten Systemansatzes zusammengebracht: Dieser sieht vor, den Wärmeübertrag durch eine Kombination aus Verdampfen und Kondensieren eines unschädlichen Fluids in sogenannten Heatpipes mit einer thermischen Diode zu realisieren. Die Wärmeabfuhr erwies sich bisher als Nadelöhr im Hinblick auf die Effizienz elektrokalorischer Systeme: Je schneller sie erfolgt, desto leistungsfähiger ist die Pumpe. Vorstudien zeigen, dass dies mit dem neuen Konzept sehr viel schneller gelingt. Die Systeme arbeiten ohne aktives Pumpen und erreichen dadurch eine um ein Vielfaches höhere Zyklusfrequenz als bisherige Systeme. In vier Jahren, so das Ziel des Teams, soll ein Demonstrator mit einer Leistung von 100 Watt und einem Temperaturhub von 30 K stehen.

Fraunhofer-Leitprojekt »Elektrokalorische Wärmepumpen (ElKaWe)
Das Fraunhofer-Leitprojekt ElKaWe startete am 1. Oktober 2019 und hat eine Laufzeit von vier Jahren. Das Projekt wird von der Fraunhofer-Gesellschaft mit insgesamt 8 Millionen Euro gefördert. Am Projekt beteiligt sind folgende Fraunhofer-Institute:

Fraunhofer-Institut für Physikalische Messtechnik IPM (Projektkoordination)Fraunhofer-Institut für Keramische Technologien und Systeme IKTSFraunhofer-Institut für Angewandte Festkörperphysik IAFFraunhofer-Institut für Angewandte Polymerforschung IAPFraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit LBFFraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP

Wie funktioniert eine elektrokalorische Wärmepumpe?
Legt man ein elektrisches Feld an elektrokalorische Materialien an, so richten sich die elektrischen Momente im Feld aus – das Material erwärmt sich. Die entstehende Wärme wird über eine Wärmesenke abgeführt, sodass das Material wieder auf die Ausgangstemperatur abkühlt. Wir nun das elektrische Feld entfernt, so verringert sich die Ordnung der elektrischen Momente, und das Material kühlt ab. Jetzt kann es thermische Energie aus einer Wärmequelle aufnehmen. Der Effekt ist reversibel. So kann ein Zyklus aufgebaut werden, der als effiziente Wärmepumpe zum Kühlen oder Heizen funktioniert.

Beispiel um Wasserstoffproduktion regenerativ zu optimieren

(HZDR) – Mit Experimenten im Labor und während einer Parabelflug-Kampagne hat ein internationales Forscherteam des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) neue Einsichten zur Wasserelektrolyse erzielt, bei der Wasserstoff aus Wasser durch elektrische Energie erzeugt wird. Für die Energiewende könnte die Wasserelektrolyse eine Schlüsseltechnologie sein, allerdings muss sie dafür noch effizienter werden. Die kürzlich in der Fachzeitschrift „Physical Review Letters“ veröffentlichten Ergebnisse bieten einen möglichen Ausgangspunkt, um die Ökobilanz wasserstoffbasierter Technologien zu verbessern.

Damit überschüssiger Strom aus Spitzenausbeuten von Solar- und Windkraftanlagen nicht ungenutzt bleibt, sind praktikable Lösungen notwendig, um die Energie zwischenzuspeichern. Eine attraktive Möglichkeit bietet die Produktion von Wasserstoff, aus dem dann auch andere chemische Energieträger hergestellt werden können. Wichtig ist, dass dies möglichst effizient und damit kostengünstig geschieht.

Das Forscherteam am HZDR unter Leitung von Prof. Kerstin Eckert hat sich speziell mit der Wasserelektrolyse beschäftigt. Diese Methode nutzt elektrische Energie, um Wassermoleküle in ihre Bestandteile – Wasserstoff und Sauerstoff – zu zerlegen. Dafür wird in einem mit Wasser und etwas Lauge oder Säure gefüllten Gefäß Strom über zwei Elektroden angelegt. Während sich an der einen Elektrode gasförmiger Wasserstoff bildet, entsteht an der anderen Elektrode Sauerstoff. Die Energieumwandlung ist jedoch nicht verlustfrei. Praktisch werden je nach Elektrolyseverfahren heute erst Wirkungsgrade von rund 65 bis 85 Prozent erreicht. Ziel der Elektrolyseforschung ist es, die Werte durch bessere Verfahren auf rund 90 Prozent zu steigern.

Schwingende Gasblasen aus Wasserstoff verhelfen zu neuem Verständnis
Um den Elektrolyseprozess zu optimieren, ist ein besseres Verständnis der grundlegenden chemischen und physikalischen Abläufe essenziell. Die an der Elektrode wachsenden Gasblasen erfahren eine Auftriebskraft, die zum Aufstieg der Blasen führt. Ein den Wissenschaftlern lang bekanntes Problem ist die genaue Vorhersage des Ablösezeitpunkts der Gasblasen von den Elektroden. Bekannt ist ebenfalls, dass durch das Verharren der Blasen an der Elektrode Wärmeverluste entstehen. Mit Laborexperimenten sowie theoretischen Berechnungen konnten die Wissenschaftler jetzt ein besseres Verständnis der auf die Blase wirkenden Kräfte erzielen. „Unsere Forschung löst ein altes Paradoxon der Forschung an Wasserstoffblasen auf“, schätzt Eckert ein.

Bereits in Vorgängerexperimenten beobachteten die Forscher, dass die Wasserstoffblasen in schnelle Schwingungen geraten können. Sie vermaßen dieses Phänomen genauer: Mit einer Hochgeschwindigkeitskamera zeichneten sie den Schattenwurf der Blasen auf und analysierten, wie sich einzelne Blasen hundert Mal pro Sekunde von einer Elektrode lösen können, nur um sofort wieder zu ihr zurückzukehren. Sie erkannten: Hier konkurriert eine bisher nicht betrachtete elektrische Kraft mit dem Auftrieb und ermöglicht so die Schwingungen.

Das Experiment zeigte auch, dass sich zwischen Gasblasen und Elektrode permanent eine Art Teppich aus Mikroblasen bildet. Erst ab einer gewissen Dicke des Teppichs reicht die elektrische Kraft nicht mehr aus und die Blase kann aufsteigen. Dieses Wissen kann nun genutzt werden, um die Effizienz des Gesamtprozesses zu verbessern.

Parabelflüge bestätigen Ergebnisse
Um ihre Ergebnisse zu untermauern, wiederholten die Forscher das Experiment während eines DLR-geförderten Parabelflugs. Auf diese Weise konnten sie prüfen, wie Veränderungen des Auftriebs die Dynamik der Gasblasen beeinflussen. „Durch die veränderte Schwerkraft während einer Parabel konnten wir physikalische Schlüsselparameter variieren, die wir im Labor nicht beeinflussen können“, erläutert Aleksandr Bashkatov, Doktorand am HZDR und Erstautor der jetzt veröffentlichten Studie, der mit weiteren Kollegen die Experimente an Bord des Parabelflugs durchgeführt hat. In Perioden der annähernden Schwerelosigkeit im freien Fall eines Parabelflugs ist der Auftrieb praktisch nicht vorhanden – zum Ende der Parabel hin ist er hingegen deutlich erhöht. Die Ergebnisse der Flüge zeigten auch, dass sich Wasserstofftechnologien nur erschwert auf einen möglichen Einsatz im Weltall übertragen lassen; ohne Auftrieb ist der Abtransport der Gasblasen von der Elektrode eine noch größere Herausforderung als auf der Erde.

Wasserelektrolyseure in der Anwendung: Regenerative Energien für die Region
Auch wenn die Experimente des Forscherteams unter vereinfachten Laborbedingungen stattfinden mussten, werden die neuen Erkenntnisse zukünftig dazu beitragen, den Wirkungsgrad von Elektrolyseuren zu erhöhen. Aktuell planen die Forscher um Kerstin Eckert im Verbund mit Partnern vom Fraunhofer IFAM Dresden, der TU Dresden, der Hochschule Zittau-Görlitz sowie lokalen Industriepartnern ein Projekt zur grünen Wasserstoffproduktion in der Lausitz, das auf verbesserte, alkalische Wasserelektrolyse setzt, um fossile Energieträger abzulösen. „Alkalische Elektrolyseure sind deutlich preiswerter und ökologischer und kommen ohne knappe Ressourcen aus, da sie auf edelmetallbeschichtete Elektroden verzichten. Langfristiges Ziel des Konsortiums ist es, leistungsfähige alkalische Elektrolyseure einer neuen Generation zu entwickeln“, fasst Eckert zusammen.

Verriss des Elektroautos durch Walter Röhrl – Mit einer Bemerkung von Jean Pütz

Das Elektroauto stellt keine ökologische Alternative da. Darüber habe ich bei Facebook schon mehrere Beiträge verfasst.
Aber die Elektromobilität hat durchaus Zukunft wenn man die Lösung wählt: Hyper-Hybrid.
Das heißt ein abgas-optimierter kleiner Lademotor lädt eine nur ein Viertel so große Batterie. Getriebe ist überflüssig denn die geniale Erfindung des modernen Elektromotors ermöglicht, das wie beim automatischen Getriebe alle Funktionen ohne zusätzliche Bauteile inklusive einer ökologischen Heizung und Kühlung wie von selbst erfolgen.

Jean Pütz

Hier geht’s zum Video von Walter Röhrl

3D-Druck für komplizierte Metallteile

(pte019/22.11.2019/12:30) – Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL) haben ein neues Verfahren entwickelt, mit dem sich beim 3D-Druck Fehlerfreiheit garantieren lässt. Sollten doch Fehlstellen auftreten, heilen sie in einem zusätzlichen Prozessschritt aus. Alle paar Schichten werden die oberen Lagen des wachsenden Bauteils von einem zweiten Laser erhitzt, der die Macken beseitigt.

Additive Fertigung
Das Verfahren hat ein Team um Roland Logé vom Labor für Thermomechanische Metallurgie der EPFL-Ingenieurschule entwickelt. Additive Fertigung, wie der 3D-Druck auch genannt wird, bedeutet Aufbau eines komplexen Bauteils Schicht für Schicht. Abfälle gibt es dabei nicht, im Gegensatz zur subtraktiven Fertigung, bei der das Bauteil durch Fräsen, Schleifen, Bohren und andere Verfahren aus einem massiven Metallblock entsteht.

Ausgangsmaterial bei der Additiven Fertigung ist ein oft nanofeines Pulver aus der Legierung, aus der das Bauteil gefertigt wird. Der Prozess beginnt mit einer dünnen, gleichmäßigen Schicht auf einer Unterlage. Diese wird von einem Laserstrahl an den Stellen kurzzeitig verflüssigt, die erhalten bleiben sollen. Dann wird das Pulver weggefegt oder geblasen und neues auf die Grundform gestreut. Der Schmelzprozess wiederholt sich, bis das Bauteil seine Endform erreicht hat.

Fest und hitzebeständig
Die Fehlerfreiheit von Bauteilen, die zwischendurch immer mal wieder per Laser erhitzt werden, sorgt nicht nur für eine extrem hohe Festigkeit, sondern auch für eine beispiellose Hitze- und Korrosionsbeständigkeit. In einer auf Nickel basierenden Superlegierung, wie sie für die Herstellung von Turbinenbauteilen für die Stromerzeugung und Luftfahrt genutzt wird, haben die Forscher nachgewiesen, dass durch die Zwischenerhitzung, Laserschockstrahlung genannt, 95 Prozent aller Fehler eliminiert werden konnten.

Das Verfahren wird normalerweise für die Behandlung von Oberflächen verwendet. „In unserem Fall wirkt es auch in der Tiefe“, sagt Logé. Er will den neuartigen 3D-Druck jetzt auch mit anderen Legierungen testen, um auch diese zu verbessern. Er rechnet mit positiven Überraschungen. „Wir können das Potenzial des Verfahrens noch gar nicht überblicken.“