Archiv der Kategorie: Physik, Chemie, Technik

Wasserstoffspeicherung in Magnesium

(pte) – Forscher der Polnischen Akademie der Wissenschaften haben mit Kollegen des Eidgenössischen Insituts für Materialwissenschaften und Technologie und der Universität Zürich ein neues Modell der thermodynamischen und Elektronenprozesse entwickelt, die in Magnesium beim Kontakt mit Wasserstoffatomen ablaufen. Magnesiumhydrid gilt seit Jahrzehnten als aussichtsreicher Kandidat zur Speicherung von gasförmigem Wasserstoff bei normalem Luftdruck und Umgebungstemperatur. Doch die Menge pro Volumeneinheit reichte bei weitem nicht, um das Verfahren im Vergleich zur Speicherung unter hohem Druck oder in flüssiger Form bei einer Temperatur von minus 253 Grad Celsius konkurrenzfähig zu machen.

Zweierpack ist zu trennen

Wasserstoff kann von Magnesiumhydrid nur aufgenommen werden, wenn er atomar vorliegt. Normalerweise handelt es sich jedoch um ein Zweierpack, das mithilfe eines Katalysators getrennt werden muss. Das gelingt bisher nicht so wirksam, dass sich das Speichern lohnt. Die Forscher konnten nun aber zeigen, dass der Grund für das langjährige Scheitern in einem unvollständigen Verständnis der Phänomene liegt, die bei der Wasserstoffinjektion im Magnesium auftreten.

Das Modell sagt voraus, dass sich bei der Wanderung von Wasserstoffatomen lokale, thermodynamisch stabile Magnesiumhydrid-Cluster im Material bilden. An den Grenzen zwischen dem metallischen Magnesium und seinem Hydrid kommt es dann zu Veränderungen in der elektronischen Struktur des Materials, die maßgeblich zur Verringerung der Beweglichkeit von Wasserstoff-Ionen beitragen. Sie gelangen also nicht schnell genug in den Speicher hinein und können nicht alle freien Speicherplätze besetzen.

Katalysator gezielt möglich

Mit diesem Know-how glauben die Forscher, gezielt einen Katalysator entwickeln zu können, der diese Wasserstoffbremse löst. Theoretisch ist Magnesiumhydrid den anderen Speichermöglichkeiten weit überlegen. Es kann pro Volumeneinheit 50 Prozent mehr Wasserstoff aufnehmen als Kryospeicher, in denen das Gas in flüssiger Form vorliegt, und sogar mehr als doppelt so viel wie ein Drucktank. Zudem ist die Speicherung in Hydrid absolut sicher, wie es heißt. Es kann somit keine Brände und erst recht keine Explosionen geben.

Perowskit-Solarzellen: Vakuumverfahren kann zur Marktreife führen

(KIT) – Weltweit arbeiten Forschung und Industrie an der Kommerzialisierung der Perowskit-Photovoltaik. In den meisten Forschungslaboren stehen lösungsmittelbasierte Herstellungsverfahren im Fokus, da diese vielseitig und einfach anzuwenden sind. Etablierte Photovoltaikfirmen setzen heute jedoch fast ausschließlich auf Vakuumverfahren zur Abscheidung von hochqualitativen Dünnschichten. Ein internationales Konsortium unter der Leitung des Karlsruher Instituts für Technologie (KIT) und des U.S. Department of Energy’s National Renewable Energy Laboratory (NREL, USA) hat diese kritische Diskrepanz zwischen Labor und Industrie analysiert. Sie heben hervor: Industriell erprobte Vakuumverfahren könnten mit gewissen Verbesserungen zur schnellen Kommerzialisierung bei den Perowskit-Solarzellen beitragen.

Perowskit-Silizium-Tandemsolarzellen haben in den vergangenen zehn Jahren eine rasante Entwicklung durchlaufen: In der Forschung konnten Wirkungsgrade von mehr als 33 Prozent erreicht werden. Damit liegen sie bereits heute über den herkömmlichen siliziumbasierten Solarzellen. Die Marktreife steht allerdings noch aus. Eine der Hürden ist die ungeklärte Frage, mit welchem Verfahren sich Perowskit-Solarzellen als Massenprodukt am besten herstellen lassen. Dabei stehen lösungsmittelbasierte Herstellungsverfahren, die in den Laboren weltweit angewandt werden, Dampfphasenabscheidungsverfahren im Vakuum gegenüber, die auch heute noch Standard in der Herstellung von Dünnschichten in der Photovoltaik oder bei der Produktion organischer Leuchtdioden (OLEDs) sind.

In einer aktuellen Vergleichsstudie zeigte ein internationales Konsortium aus akademischen und industriellen Partnern unter der Leitung des NREL und des KIT große Unterschiede in der wissenschaftlichen Auseinandersetzung mit diesen Produktionsverfahren auf. Tenure-Track-Professor Ulrich W. Paetzold vom Institut für Mikrostrukturtechnik sowie vom Lichttechnischen Institut des KIT erklärt: „98 Prozent aller wissenschaftlichen Studien im Jahr 2022 wurden zu lösungsmittelbasierten Verfahren publiziert. Vakuumbasierte Verfahren, die sich seit Jahrzehnten in der Industrie bewährt haben und eine Kommerzialisierung der Solarzellen entscheidend voranbringen könnten, werden stiefmütterlich behandelt.“

Zur Erläuterung: Bei der lösungsmittelbasierten Herstellung werden Tinten genutzt, in denen organische und anorganische Salze in einem Lösungsmittel gelöst werden. Diese Tinten können dann über verschiedene Drucktechniken auf der Oberfläche eines Substrats abgeschieden werden. Im Gegensatz dazu verwendet die vakuumbasierte Herstellung trockene und lösungsmittelfreie Verfahren. Dabei werden die Materialien in einem Vakuum unter Zufuhr von Wärme sublimiert, das heißt vom festen in den gasförmigen Aggregatszustand überführt und auf der Substratoberfläche kondensiert. Prinzipiell ist es auch möglich, beide Verfahren für die Herstellung von Perowskit-Solarzellen zu kombinieren.

Laborwirkungsgrade und Durchsatz sind nicht alles, wenn es um die Massenproduktion geht

In der Studie analysierten die Autorinnen und Autoren die Vor- und Nachteile beider Methoden. Die bisherige Dominanz der lösungsmittelbasierten Herstellung in der Forschung liegt demnach in der unkomplizierten Handhabung in Laboren, der sehr guten Ergebnisse im Hinblick auf den Wirkungsgrad unter Laborbedingungen und ihren geringen Kosten begründet. Dazu kommt die mögliche skalierbare Rolle-zu-Rolle-Fertigung, also die Endlosabscheidung zwischen zwei Rollen, ähnlich des Zeitungsdrucks.

Das vakuumbasierte Produktionsverfahren verursacht im Vergleich dazu etwas höhere Investitionskosten und liegt aktuell – legt man die in der Forschung angewandten Verfahren zugrunde – hinsichtlich der Abscheidungsgeschwindigkeit, das heißt dem Produktionsdurchsatz, noch im Hintertreffen. Die Autorinnen und Autoren zeigen jedoch eine Vielzahl von Lösungsansätzen auf und schätzen ab, dass es unter Berücksichtigung von realen Parametern wie Stromkosten, Produktionsertrag, Material-, Stilllegungs- oder Recyclingkosten konkurrenzfähig ist. Vor allem die gute Wiederholbarkeit der Abscheidung, die einfache Prozesskontrolle, die Verfügbarkeit von industriellem Prozessequipment und die einfache Skalierung der Abscheidung von den kleinen Solarzellenflächen aus dem Labor hin zu anwendungsrelevanten Produktflächen machen das Verfahren demnach hochinteressant für die Kommerzialisierung.  „Die vakuumbasierte Herstellung schneidet also besser ab als ihr Ruf“, so Tobias Abzieher (Swift Solar). Somit ist es auch nicht verwunderlich, dass die Autorinnen und Autoren in einem erstmalig veröffentlichten Überblick über Kommerzialisierungsaktivitäten in der Perowskit-Technologie bereits heute ein reges Interesse an vakuumbasierten Verfahren für die Herstellung von Perowskit-Solarzellen vonseiten der Industrie nachweisen konnten – trotz der Diskrepanz im Hinblick auf die hauptsächlich eingesetzte Methode in der Forschung.

Damit vakuumbasierte Verfahren ihre Skalierungseffekte voll ausspielen können, müsse die Herstellungsmethode dennoch weiter verbessert werden, so die Forschenden. Unter anderem müsse weiter an der Qualität der Abscheidung geforscht werden, um den Wirkungsgrad noch weiter zu steigern. Zudem gelte es, die Geschwindigkeit der Abscheidung deutlich zu erhöhen. „Vakuumbasierte Herstellungsverfahren sind nicht nur die erste Wahl der Industrie, wenn es darum geht, die Dünnschicht-Technologien zur Marktreife zu bringen. Unsere Analyse zeigt auch, dass die Verfahren wettbewerbsfähig mit lösungsmittelbasierten Ansätzen sind“, ergänzt David More vom NREL. (mfe)

 

3D-Blick ins Chaos

Mein persönlicher Kommentar:

Diese Frage hat mich persönlich immer wieder beschäftigt. Welche Kräfte bewirken, dass sich gegen den 2.. Hauptsatz der Dynamik trotzdem auch im Mikrokosmos  und im Weltall z. B. Leben entstanden auf einem außerordentlichen Planeten wie die Erde. Dabei spielt auch die Energie eine entscheidende Rolle. Kräfte, die sogar das einzelne Atom beeinflussen. Das alles unter der Maßnahme, dass es nur 3 Grundkräfte gibt:

1. Gravitation oder Massenanziehung. Sie wirkt in der räumlichen Unendlichkeit, ist aber auch dafür verantwortlich, dass wir – obwohl die Erde rotiert – nicht wegfliegen

2. Elektromagnetische Kraft. Sie ist die Kraft, die wir als Menschen unmittelbar erfahren. Wenn wir einen Körper anfühlen, wirkt er auf uns zurück. es ist also alles das, was auch unsere Sinne fühlen und sehen.

3. Kernkraft. Durch sie sind die Elemente entstanden, erstaunlich, dass es dem Menschen gelungen ist, Einblicke selbst in diese Mikrosphäre zu gewinnen.

Im folgenden Beitrag beweist menschliche Genialität, dass noch viele Einblicke in das chaotische Verhalten in Flüssigkeiten für die Forschung möglich werden. Immer geht es darum, Ordnung und Unordnung und ihre Übergänge zu beschreiben. Es wäre schön, wenn im Physik-Unterricht diese Ansätze gelehrt würden.

in den 80er Jahren habe ich eine in der Wissenschaft sehr beachtete Sendung in der ARD zum Thema ‚Synergetik – Ordnung aus dem Chaos‘ gemacht. Leider liegt sie nicht auf You Tube vor.

Jean Pütz

(Helmholtz) – Experimente mit Flüssigmetallen könnten nicht nur zu spannenden Erkenntnissen über geo- und astrophysikalische Strömungsphänomene führen, wie etwa den atmosphärischen Störungen am Sonnenrand oder der Strömung im äußeren Erdkern. Auch industrielle Anwendungen könnten davon profitieren, zum Beispiel das Abgießen von flüssigem Stahl. Da diese Fluide allerdings intransparent sind, fehlen immer noch geeignete Messtechniken. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun erstmalig mit einem vor Ort entwickelten Verfahren ein detailliertes dreidimensionales Abbild einer turbulenten temperaturgetriebenen Strömung in einem Flüssigmetall erhalten. In der Zeitschrift Journal of Fluid Mechanics (DOI: 10.1017/jfm.2023.794) berichten sie von den Herausforderungen, die sie dafür meistern mussten.

Seitdem Forschende die Eigenschaften turbulenter Strömungen in Fluiden erkunden, bedienen sie sich prinzipiell eines zunächst sehr einfach anmutenden Experiments: Sie füllen ihr Fluid in ein Gefäß, dessen Bodenplatte sie erhitzen und dessen Deckel sie gleichzeitig kühlen. Was dabei genau geschieht, erforscht ein Team vom Institut für Fluiddynamik am HZDR. „Überschreitet der Temperaturunterschied im Fluid eine bestimmte Grenze, wird der Wärmetransport drastisch erhöht“, sagt Teamleiter Dr. Thomas Wondrak. Das geschieht, weil sich eine sogenannte konvektive Strömung ausbildet, die die Wärme effektiv transportiert. Dabei dehnt sich die Flüssigkeit am Boden aus, wird leichter und steigt nach oben, während die kälteren Schichten oben aufgrund ihrer höheren Dichte nach unten sinken. „Anfangs bildet sich eine regelmäßige Zirkulation aus, aber bei höheren Temperaturdifferenzen wird die Strömung zunehmend turbulent. Diese dann auch korrekt dreidimensional abzubilden, ist eine Herausforderung“, beschreibt Wondrak kurz die Ausgangslage des Experiments.

Hier kommt die am HZDR entwickelte kontaktlose induktive Strömungstomographie (contactless inductive flow tomography: CIFT) ins Spiel: Mit ihrer Hilfe sind die Forschenden in der Lage, eine dreidimensionale Strömung in elektrisch leitfähigen Flüssigkeiten zu visualisieren. Dabei nutzen sie das Prinzip der Bewegungsinduktion: Legt man ein statisches Magnetfeld an, wird aufgrund der Flüssigkeitsbewegung ein elektrischer Strom im Fluid erzeugt. Diese Wirbelströme bewirken eine Änderung des ursprünglichen Magnetfeldes, die außerhalb des Gefäßes messbar ist. Auf diese Weise bildet sich die Strömungsstruktur in der Magnetfeldverteilung ab und kann mit einem geeigneten mathematischen Verfahren aus den Messdaten extrahiert werden. Diese Messtechnik hat das Team um Wondrak nun eingesetzt, um die temperaturgetriebene Strömung in einer Gallium-Indium-Zinn-Legierung zu messen, die schon bei rund 10 Grad Celsius schmilzt. Die zentrale Komponente des Experiments ist ein 64 Zentimeter hoher Zylinder, der mit einer ausgeklügelten Anordnung von 68 Sensoren zur Erfassung der Temperaturverteilung sowie 42 hochempfindlichen Magnetsensoren ausgestattet ist und in dem sich rund 50 Liter (ungefähr 350 Kilogramm) Flüssigmetall befinden.

Störungsarme nächtliche Experimente

Neben der anspruchsvollen Mathematik zur Rekonstruktion des Geschwindigkeitsfeldes aus den Magnetdaten liegen die Herausforderungen vor allem bei der Messung der sehr kleinen strömungsinduzierten Magnetfelder, da diese typischerweise etwa zwei bis fünf Größenordnungen kleiner als das angelegte Magnetfeld sind. Bei einem Erregerfeld von 1.000 Mikrotesla liegt das zu messende strömungsinduzierte Magnetfeld bei einer Größenordnung von 0,1 Mikrotesla. Zum Vergleich: Das Erdmagnetfeld, das auch erfasst und von den Werten der Messung abgezogen wird, ist etwa 50 Mikrotesla stark. „Kleinste elektromagnetische Störungen, die beispielsweise beim Einschalten von elektrischen Geräten entstehen, können das Messsignal überlagern und müssen herausgefiltert werden. Um den Einfluss der Störungen von vorn herein möglichst gering zu halten, experimentieren wir nur nachts“, erläutert Wondrak diese Besonderheit der Messungen. Jede dieser Nachtmessungen liefert eine große Menge an experimentellen Strömungsdaten, die den Forschenden einen völlig neuartigen Einblick in die komplizierten, sich ständig verändernden Strömungsstrukturen gewähren. Die experimentell erzielten Daten sind einzigartig, da numerische Simulationen für dieselben Strömungsparameter mit vergleichbarer Dauer selbst im heutigen Zeitalter der Hochleistungscomputer nicht in vertretbarer Zeit durchführbar sind.

Wondaks Team wendet moderne mathematische Konzepte an, um in den komplexen Geschwindigkeitsfeldern räumliche Strukturen zu erkennen. So konnten die Wissenschaftler*innen wiederkehrende Muster aus einer oder mehreren im Experimentier-Zylinder übereinanderliegenden rotierenden Wirbel identifizieren. Damit bringen sie zumindest ein wenig Ordnung in das turbulente Chaos und helfen damit unter anderem, den Zusammenhang zwischen Strömung und Wärmetransport besser zu verstehen.

Ausblick: Neue Ziele

Die im Laborexperiment gewonnenen Erkenntnisse können die Physiker*innen durch Anwendung dimensionsloser Kennzahlen, die ihren Ursprung in der Ähnlichkeitstheorie haben, auch auf wesentlich größere Dimensionen in der Geo- und Astrophysik übertragen, etwa auf Strömungsprozesse im Inneren von Planeten und Sternen.

Nachdem die Forschenden mit der aktuellen Veröffentlichung das Potential der kontaktlosen Strömungstomographie unter Beweis gestellt haben, wenden sie sich nun der Weiterentwicklung der Messmethode zu. Die Erweiterung um ein zusätzliches Anregungsmagnetfeld und die Verwendung neuartiger Magnetfeldsensoren versprechen dabei eine Steigerung der Messgenauigkeit. Wondraks Team ist optimistisch, mit dieser Methode bald noch tiefere Einblicke in turbulente Flüssigmetallströmungen zu gewinnen.

 

Wasserstofffusion in der Sonne

(Helmholtz) – Die nukleare Astrophysik untersucht die Entstehung der Elemente im Universum seit Anbeginn der Zeit. Ihre Modelle verwenden Parameter, die die Forschenden aus Messdaten gewinnen. Eine wichtige Rolle spielen dabei Kernreaktionen, die im Inneren der Sterne ablaufen. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun gemeinsam mit Forschenden aus Italien, Ungarn und Schottland am Dresdner Felsenkeller- Beschleuniger erneut eine der zentralen Reaktionen untersucht – mit einem überraschenden Ergebnis, wie sie im Fachmagazin Physical Review C (berichten.

 „Wir haben eine altbekannte Kernreaktion unter die Lupe genommen, die für die Elemententstehung in massereichen Sternen bedeutsam und darüber hinaus eine der frühesten ist, die im Labor mit Beschleunigern untersucht wurde: Die Kollision eines Wasserstoffkerns mit einem Kohlenstoffkern, in deren Folge das Isotop Stickstoff-13 entsteht und Gammastrahlung freigesetzt wird. Sie ist der erste Schritt des sogenannten CNO-Zyklus, auch als Bethe-Weizsäcker-Zyklus bekannt. Wir waren vor allem am Wirkungsquerschnitt dieser Reaktion interessiert, der Auskunft über die Wahrscheinlichkeit ihres Auftretens gibt“, sagt Prof. Daniel Bemmerer vom HZDR-Institut für Strahlenphysik.

Diesen Parameter hat ein Team aus italienischen, ungarischen, schottischen und deutschen Wissenschaftler*innen im Untertagelabor Felsenkeller nun mit bisher beispielloser Präzision bestimmt. Das überraschende Ergebnis: der bisher akzeptierte Wert muss um rund 25 Prozent nach unten korrigiert werden. Das Ergebnis legt nahe, dass das Einbrennen des CNO-Zyklus länger gedauert hat als bisher gedacht und die Emission solarer 13N-Neutrinos im Mittel näher am Zentrum der Sonne stattfindet als vermutet. Die neuen Daten erlauben zudem genauere theoretische Vorhersagen für das Verhältnis der Kohlenstoff-Isotope 12C/13C in Sternen, die wiederum helfen, Modelle für die Vorgänge in deren Innerem zu überprüfen und zu verbessern.

Die Sonne ins Labor holen – en miniature
Sterne beziehen ihre Energie aus der Fusion von Wasserstoff zu Helium. In Abhängigkeit der Masse des Himmelskörpers sind dafür unterschiedliche Prozesse bekannt. So läuft in massearmen Sternen wie unserer Sonne vor allem die sogenannte Proton-Proton-Kette ab. In massereichen Sternen pressen die starken Gravitationskräfte die Wasserstoffkerne jedoch so sehr zusammen, dass hier deutlich höhere Temperaturen herrschen. Dadurch können die Wasserstoffkerne zusätzlich mit Kohlenstoffkernen reagieren. Obwohl diese keine zwei Prozent der interstellaren Materie ausmachen, aus der Sterne entstehen, reicht diese Konzentration aus, um den CNO-Zyklus in Gang zu bringen und am Laufen zu halten. Sie wirken dabei als Katalysator: Sie beschleunigen die Reaktion, ohne jedoch selbst dabei verbraucht zu werden. Die Netto-Reaktion ist am Ende die gleiche wie beim Proton-Proton-Zyklus: die Fusion von Wasserstoff zu Helium. Doch in Sternen mit CNO-Zyklus läuft diese Reaktion wesentlich schneller ab.

„Als Targets verwenden wir Scheiben aus Tantal, auf die Kohlenstoff aufgedampft ist. Darauf schießen wir Protonen, die aus unserem 5-MV-Pelletron-Beschleuniger stammen und einen relativ weiten Energiebereich überstreichen. Die bei der Reaktion entstehenden Gammaquanten können wir mit 20 empfindlichen Reinstgermanium-Detektoren nachweisen“, schildert Bemmerer das experimentelle Vorgehen.

Das gemeinsam vom HZDR und der TU Dresden betriebene Untertagelabor Felsenkeller im Plauenschen Grund ist für solche Messungen optimal. Eine 45 Meter dicke Felsschicht im Stollen des ehemaligen Eislagers der Dresdner Felsenkeller-Brauerei schützt die Detektoren vor kosmischer Strahlung, deren Hintergrundsignale die Ergebnisse verfälschen können. Die aktuelle Arbeit ist darüber hinaus ein gutes Beispiel für die innereuropäische Zusammenarbeit in der Astrophysik-Community: Ein Doktorand der Universität Padua forschte während des Experiments für sechs Monate am Felsenkeller. Die Teilnahme weiterer Messgäste aus Italien, Ungarn und Schottland wurde von der EU im Rahmen des Projekts „ChETEC-INFRA“ finanziell unterstützt.

Ist Elon Musk ein Betrüger? – Mit einer persönlichen Meinung von Jean Pütz

Auf keinen Fall ist er ein Umwelt- und Klimaschützer, auch wenn er sich so gebärdet und die ganze Welt belogen hat mit der Behauptung unter enormen PR-Einsatz:

Sein Tesla-E-Auto wäre unentbehrlich für die Klimarettung. Warum die ganze Welt auf dieses Batterie schwere und teure Konzept hereingefallen ist, ist mir ein Rätsel. Darin steckt viel Ignoranz und oberflächliches Denken. Klar klar, für das Smog-gepeinigte Kalifornien und noch schlimmer für die chinesischen Mammut-Städte, in denen man manchmal mit gestrecktem Arm die eigene Hand nicht erkennen kann, ist es ein Segen. Aber für die Klimarettung ist es eine Katastrophe. Tesla und alle Abkömmlinge der deutschen E-Autos haben eine extrem schlechte Ökobilanz. Insbesondere sind die Kosten für die als Fortschritt behaupteten E-Autos, meist verschleiert durch unverständliche Milliarden-Subventionen der Politik, nach Corona und Ukraine-Krieg so hoch, dass die Weiterverfolgung unverantwortlich ist.

Für normale Menschen ist  das E-Auto Typ Tesla sowieso unerschwinglich. Die Grün-Ideologen haben die durchsichtige Absicht, damit viele Autos von der Straße zu verbannen, auf Kosten der kleinen Leute. Dass der SPD nicht  dabei ein Licht aufgegangen ist, ist ein Zeichen von Gleichgültigkeit sondergleichen. Dabei gibt es eine extrem ökologischere und preiswertere Alternative, ein sogenanntes serielles Hybrid-Elektro-Auto, welches später mit grünem Methanol völlig CO2-neutral betrieben werden kann. Es hat gleiche Eigenschaften, benötigt aber wegen des geringen Gewichts nur die Hälfte des Treibstoffs des vergleichbaren Teslas und produziert viel weniger Feinstaub durch Reifenabrieb, inkl. Mikroplastik. Möglicher Kostenpunkt: weniger als heutige Verbrenner, denn die Montage ist viel einfacher.

Lesen Sie jetzt die berechtigte Kritik eines erfolgreichen US-Unternehmers, der ebenso kreativ ist wie man Elon Musk nachsagt.

(Business Insider) – Tech-Heilsbringer oder schlicht Trittbrettfahrer und Hochstapler? Die Meinungen über Elon Musk gehen seit seinen Anfangstagen bei PayPal weit auseinander. Immer wieder wird der Vorwurf laut: Musk selbst habe kaum etwas geleistet, sondern nur treffsicher die Innovationen anderer Gründer aufgespürt und ausgebeutet. Lange Zeit galt der Unternehmer dank der bahnbrechenden Erfolge vor allem bei Tesla und SpaceX geradezu als Lichtgestalt. Der Kauf von Twitter aber lässt das Image endgültig bröckeln. Facebook-Mitgründer Dustin Moskovitz wirft nun öffentlich die Frage auf: Hat Musk Investoren und Bewunderer schlicht an der Nase herumgeführt?

Dustin Moskovitz äußert schwere Vorwürfe gegen Elon Musk

Moskovitz hatte sich einst mit Mark Zuckerberg in Harvard ein Zimmer geteilt und half ihm 2004 beim Start des sozialen Netzwerks. Er verließ Facebook 2008 und gründete das Software-Unternehmen Asana. Der 39-Jährige hält Schätzungen zufolge zwei Prozent an Facebook. Aktuell führt ihn das Wirtschaftsmagazin “Forbes” mit einem geschätzten Vermögen von 13,8 Milliarden US-Dollar (circa 12,5 Milliarden Euro) auf Platz 129 der reichsten Menschen der Welt. An der Spitze thront weiterhin Musk. Nach Ansicht von Moskovitz ruht dieser Status allerdings auf tönernen Füßen.

Denn laut Moskovitz sind SpaceX und vor allem Tesla bei weitem nicht so bahnbrechend erfolgreich wie gemeinhin angenommen. Musk habe mit Tesla den Siegeszug des Elektroautos um gerade mal ein oder zwei Jahre beschleunigt und die Entwicklung am Ende sogar mit zu vollmundigen Versprechungen verzögert. Der Facebook-Mitgründer verwies auf Vorwürfe in einem Bericht der Wirtschaftsagentur Reuters, dass Musk bewusst eine zu große Reichweite seiner Fahrzeuge verbreiten ließ. Auch die flächendeckende Einführung autonom fahrender Autos, ursprünglich für 2018/19 angekündigt, erwies sich als zu vollmundig.

Ist Elon Musk mit Betrügereien durchgekommen?

Moskovitz stellte in den Raum, ob es sich bei solchen bislang uneingelösten Versprechungen bei SpaceX und Tesla womöglich nicht um ehrliche Fehleinschätzungen von Musk, sondern bewusst um Täuschungsmanöver handelt. In dem Fall sollten diese Firmen “als Betrugsmaschen angesehen werden, mit denen er (Musk) davongekommen ist”, schrieb der Facebook-Mitgründer laut “Business Insider”. Schließlich beruht Musks Status als reichster Mann der Welt weitgehend auf den teils extrem gestiegenen Aktienkursen seiner Unternehmen, allen voran Tesla. Musk wies kürzlich Kritik an seinen Geschäftspraktiken zurück: “Das Ziel meiner Firmen ist es schlicht, so nützlich wie möglich zu sein, niemals, die Mitbewerber zu eliminieren.“

 

Wasserstoffstrategie 2023 der AMPEL-Regierung

(rnd) – Wasserstoff gilt als großer Hoffnungs­träger, um die Energie­wende zu schaffen. Jetzt hat die Ampel mit der nationalen Wasserstoffstrategie einen neuen Fahrplan erarbeitet. Am Mittwoch ist er im Kabinett. Die wichtigsten Fragen und Antworten.

Was ist Wasserstoff, und wie wird er gewonnen?

Vereinfacht ausgedrückt: Um Wasserstoff zu gewinnen, muss Wasser in seine Einzelteile zerlegt werden. Durch diese Abspaltung entsteht gasförmiger Wasserstoff – auch als H2 bekannt. Allerdings hat dieser Prozess einen Haken: Er ist sehr energie­intensiv. Deshalb wird bei den einzelnen Verfahren genau unterschieden – und Wasserstoff in verschiedene Farben eingeteilt.

Grün, türkis, blau: Was bedeuten die Farben?

Er gilt als zentral zum Erreichen der Klimaziele: grüner Wasserstoff. Um ihn herzustellen, kommen nur erneuerbare Quellen zum Einsatz, Wind- oder Solarenergie beispielsweise. Grüner Wasserstoff ist also tatsächlich „grün“ im ökologischen Sinne. Anders sieht es beim grauen Wasserstoff aus: Der wird durch den Einsatz fossiler Brennstoffe wie Erdgas gewonnen, wodurch CO₂ entsteht.

Dann gibt es noch blauen Wasserstoff: Das ist im Prinzip grauer Wasserstoff, bei dem das entstandene CO₂ jedoch abgeschieden und eingelagert wird (CCS-Technologie). Bei türkisem Wasserstoff ist das Verfahren ähnlich, allerdings basiert es auf einer sogenannte Methan­pyrolyse, sodass anstelle von CO₂ fester Kohlenstoff entsteht. Als pink oder gelb wird Wasserstoff bezeichnet, wenn dafür Atomenergie zum Einsatz kommt. Bei orangefarbenem Wasserstoff kommt die Energie aus der Abfall­verwertung.

Warum eine Wasserstoffstrategie?

Schon die vorige Bundesregierung hatte sich vorgenommen, dass Wasserstoff künftig eine viel größere Rolle einnehmen solle. 2020 wurde eine nationale Wasserstoffstrategie verabschiedet. Die Pläne der großen Koalition sahen unter anderem vor, dass bis 2030 Erzeugungs­anlagen mit einer Gesamt­leistung von bis zu fünf Gigawatt entstehen. Bis spätestens 2040 sollte noch einmal die gleiche Kapazität dazukommen. Die Regierung ging davon aus, dass bis 2030 der Bedarf an Wasserstoff zwischen 90 und 110 Terawattstunden liegen würde.

Was ist jetzt neu?

Gegenüber der bisherigen Wasserstoff­strategie geht die Regierung von einem höheren Bedarf aus. Wurde bisher für 2030 mit bis zu 110 Terawattstunden (TWh) gerechnet, liegt die Prognose nun bei bis zu 130 TWh. Deshalb soll das Ziel für die heimische Produktion von Wasserstoff in Elektrolyse­anlagen von fünf Gigawatt auf mindestens zehn Gigawatt verdoppelt werden. Das entspricht einer grünen Wasserstoff­produktion von bis zu 30 TWh. Die Masse des Bedarfs soll über Importe gedeckt werden. Um den Hochlauf der Produktion zu beschleunigen, soll es im Unterschied zur bisherigen Planung auch eine begrenzte Förderung für blauen, türkisen und orangefarbenen Wasserstoff geben.

Erstmals gibt es auch für die Infrastruktur eine Zielvorgabe. Bis 2027/28 soll ein „Startnetz“ von mehr als 1800 Kilometern aus umgestellten und neu erbauten Leitungen entstehen. Bis 2030 sollen alle großen Erzeugungs-, Import- und Speicher­anlagen mit den „relevanten“ Abnehmern verbunden sein. Der Aufbau des Netzes wird der Privat­wirtschaft überlassen – Pläne für eine staatliche Netz­gesellschaft hatte Bundes­wirtschafts­minister Robert Habeck (Grüne) fallen lassen.

Welche Schwerpunkte gibt es beim Import?

Im Gegensatz zur bisherigen Wasserstoff­strategie wird nunmehr ein größerer Schwerpunkt darauf gelegt, wie und unter welchen Bedingungen Wasserstoff aus dem Ausland bezogen werden kann. Dazu soll bis Ende des Jahres eine gesonderte Import­strategie erarbeitet werden. Zu den Leitplanken soll insbesondere ein fairer Umgang mit Entwicklungs- und Schwellen­ländern gehören, die als Exporteure infrage kommen. Zwar bestehe die Chance, dass die neue Wasserstoff­wirtschaft ökologisch, ökonomisch und sozial zu einer besseren Entwicklung führe als die alte fossile Weltwirtschaft, heißt es in einem ergänzenden Papier des Entwicklungs­ministeriums, dazu müsse aber bei der Produktion von Wasserstoff zum Beispiel sichergestellt werden, dass der Zugang zu Trinkwasser oder zu Bewässerung in der Landwirtschaft nicht gefährdet werde.

Was sagen Umweltschützer?

„Die nationale Wasserstoff­strategie stellt zwar die Verdoppelung der Ziele für grünen Wasserstoff voran, will aber vor allem Import­kapazitäten und vorerst die H2-Produktion aus fossilem Gas massiv fördern“, kritisierte Greenpeace-Chef Martin Kaiser die erwartete Strategie. Grüner Wasserstoff könne und müsse in Zukunft ein Baustein der Energie­wende in sehr ausgewählten Bereichen sein, bei denen es keine wirkliche Alternative gebe, sagte er dem Redaktions­Netzwerk Deutschland (RND). „Die Ampel­regierung schafft mit den völlig überdimensionierten Import­zielen der Wasserstoff­strategie jedoch erneute Abhängigkeiten von autokratischen Regierungen.“

Sollte Wasserstoff importiert werden, müssten strenge ökologische und soziale Kriterien angelegt werden, forderte er. „Unser Energie­hunger darf nicht dazu führen, dass wir im globalen Süden weiter Land- und Wasser­ressourcen ausbeuten und neokoloniale Strukturen fortschreiben.“

Ein weiterer Kritikpunkt: „Die Regierung von Bundeskanzler Scholz will blauen und türkisen – also aus Erdgas gewonnenen – Wasserstoff mit Steuergeldern fördern“, sagte Kaiser. „Das ist nichts anderes als eine Fortführung überkommener fossiler Geschäfts­modelle und damit keine Option im Kampf gegen die Klima­katastrophe.“

Die Deutsche Umwelthilfe (DUH) bewertete die Strategie laut Entwurf als gut, damit der Einstieg in grünen Wasserstoff gelingen könne. Allerdings sei eine stärkere Beschränkung bei den Anwendungs­feldern erforderlich. Grüner Wasserstoff habe nur eine Chance, wenn man ihn richtig dosiere, sagte DUH-Energie­expertin Ricarda Dubbert. „Die Aufnahme von fossil-blauem Wasserstoff in die Strategie ist ein massiver klimapolitischer Rückschritt“, kritisierte sie hingegen. Nur grüner Wasserstoff könne einen Beitrag zum Klimaschutz leisten.

Welche Forderungen gibt es noch?

„Es ist gut, dass die Bundesregierung die Fortschreibung der Nationalen Wasserstoffstrategie nun endlich vorlegt“, sagte Kerstin Andreae, Hauptgeschäftsführerin des Energie- und Wasserwirtschaftsverbandes BDEW. Die Entwicklung der Wasserstoffwirtschaft sei für die künftige Energieversorgung und für die Zukunftsfähigkeit des Wirtschaftsstandorts unverzichtbar.

Mit dem Inflation Reduction Act in den USA – aber auch anderen Entwicklungen – habe sich der internationale Wettbewerb verschärft, sagte Andreae. „Deutschland kann hier nur mithalten, wenn hierzulande ebenfalls ein attraktives Investitionsumfeld geschaffen wird.“ Insbesondere das Ziel, bis 2030 10 Gigawatt heimische Elektrolysekapazität hochzufahren, müsse mit konkreten Maßnahmen und Förderprogrammen sowohl auf Erzeugungs- als auch auf Nachfrageseite unterfüttert werden.

Welche Reaktionen gibt es?

„Um Klimaneutralität in der Industrie und Mobilität zu erreichen, brauchen wir dringend Wasserstoff in großen Mengen zu günstigen Preisen“, sagte Michael Theurer (FDP), Parlamentarischer Staatssekretär im Verkehrsministerium. Mit der Fortschreibung der Nationalen Wasserstoffstrategie schaffe man technologieoffenere Rahmenbedingungen, um die Produktion auszuweiten. Dass in der Hochlaufphase nicht nur grüner, sondern auch blauer, türkiser und organgfarbener Wasserstoff als förderfähig angewesen werde, sei ein „klares Bekenntnis für die Wasserstoffwirtschaft“ und zeige, welche riesigen Wachstumschancen in der Schlüsseltechnologie lägen.

Die Strategie der Bundesregierung erkennt auf Wirken der FDP in der Hochlaufphase nicht nur grünen, sondern auch blauen, türkisen sowie orangen Wasserstoff als förderfähig an. Das ist ein klares Bekenntnis für die Wasserstoffwirtschaft und zeigt, welche riesigen Wachstumschancen in der Schlüsseltechnologie liegen, insbesondere auch für die Herstellung synthetischer Kraftstoffe. Das Ziel muss sein, Deutschland zum Leitmarkt für Wasserstofftechnologien zu machen und den Hochlauf der Wasserstoffwirtschaft innerhalb einer Europäischen Wasserstoffunion umzusetzen. Sonst droht das Abwandern der Schlüsseltechnologien aus Deutschland und Europa in die USA und nach Asien.“

Enzyme zaubern chemische Verbindungen die sonst niemals möglich wären

Die industrielle Biokatalyse mit Enzymen gilt als „Gamechanger“ bei der Entwicklung einer nachhaltigen chemischen Industrie. Mithilfe von Enzymen kann eine eindrucksvolle Bandbreite an komplexen Molekülen wie pharmazeutische Wirkstoffe unter umweltfreundlichen Bedingungen synthetisiert werden. Forschende des Karlsruher Instituts für Technologie (KIT) haben nun eine neue Klasse von Materialien entwickelt, indem sie Enzyme als Schäume hergestellt haben, die eine enorme Haltbarkeit und Aktivität besitzen. Über ihre Ergebnisse berichten die Forschenden in der Fachzeitschrift Advanced Materials. Das neuartige Herstellungsverfahren der Enzym-Schäume wurde bereits zum Patent angemeldet.

Um das Gebiet der industriellen Biokatalyse, die vor allem bei der Herstellung von Pharmazeutika und Spezialchemikalien zum Einsatz kommt, weiterzuentwickeln, arbeiten Forschende intensiv an neuen Prozesstechnologien. Bei der Biokatalyse beschleunigen Enzyme statt chemischer Katalysatoren die Reaktionen, damit lassen sich Rohstoffe und Energie einsparen. Ziel ist es nun, Enzym-Biokatalysatoren unter möglichst schonenden Bedingungen kontinuierlich und in großen Mengen bereitzustellen. Damit effiziente Stoffumwandlungen realisierbar sind, werden die Enzyme in mikrostrukturierten Durchflussreaktoren immobilisiert. Sie sind dabei räumlich fixiert und an ein reaktionsträges Material gebunden und somit eingeschränkt mobil, was zu einer höheren Konzentrierung der Enzyme und damit verbunden zu einer höheren Produktivität führt.

Aufgeschäumte Mikrotröpfchen aus selbstorganisierenden Enzymen

Normalerweise verändern Enzyme beim Verschäumen ihre Struktur und verlieren damit ihre biokatalytische Aktivität. Die neuen Proteinschäume haben aber eine enorme Haltbarkeit und Aktivität. Die Aktivität ist ein Maß für die Wirksamkeit des Enzyms, das dafür sorgt, dass Ausgangsstoffe möglichst schnell miteinander reagieren. Für die Herstellung der Proteinschäume werden zwei Dehydrogenase-Enzyme gemischt, die zueinander passende Verknüpfungsstellen tragen, sodass sie spontan ein stabiles Proteinnetzwerk ausbilden können. „Dieses Gemisch wird dann in einem mikrofluidischen Chip mit einem Gasstrom versetzt, damit sich kontrolliert mikroskopische Blasen einheitlicher Größe bilden“, erklärt Professor Christof Niemeyer vom Institut für Biologische Grenzflächen-1 den Prozess. Der so hergestellte Schaum mit einheitlicher Blasengröße wird direkt auf Kunststoffchips aufgebracht und getrocknet, wodurch die Proteine polymerisieren und ein stabiles, hexagonales Gitter ausbilden.

„Es handelt sich dabei um monodisperse „Voll-Enzym-Schäume“, also dreidimensionale, poröse Netzwerke, die ausschließlich aus biokatalytisch aktiven Proteinen bestehen“, charakterisiert Niemeyer die Zusammensetzung der neuen Materialien. Die stabile hexagonale Wabenstruktur der Schäume besitzt einen mittleren Porendurchmesser von 160 µm und einer Lamellendicke von 8 µm und wird aus den frisch hergestellten, etwa gleich großen kugelförmigen Blasen nach wenigen Minuten gebildet.

Aktive und stabile Voll-Enzym-Schäume effizient einsetzen

Um Enzyme effizient für Stoffumwandlungen nutzen zu können, müssen sie in großen Mengen unter möglichst schonenden Bedingungen immobilisiert werden, um ihre Aktivität zu erhalten. Bisher wurden Enzyme auf Polymeren oder Trägerpartikeln immobilisiert, allerdings wird hierfür wertvoller Reaktorraum benötigt und die Aktivität kann beeinträchtigt werden. „Im Vergleich zu unseren bereits entwickelten „Voll-Enzym-Hydrogelen“ entsteht bei den neuen Materialien auf Schaumbasis eine deutlich größere Oberfläche, an der die gewünschte Reaktion stattfinden kann“, beschreibt Niemeyer die wesentliche Verbesserung. Im Gegensatz zu theoretisch erwarteten Ergebnissen zeigen die neuen Schäume überraschenderweise eine auffallend hohe Haltbarkeit, mechanische Widerstandsfähigkeit und katalytische Aktivität der Enzyme, was bisher beim Schäumen von Proteinen nicht gelungen war.

Die Stabilität kommt, so vermuten die Forschenden, durch die zueinander passenden Verknüpfungsstellen zustande, mit der die Enzyme ausgestattet sind. Hierdurch können sie sich von selbst zusammenfügen und so während des Trocknens ein hochvernetztes Gitter bilden, das dem neuen Material eine einzigartige Stabilität verleiht. „Erstaunlicherweise sind die neu entwickelten Enzymschäume nach der Trocknung für vier Wochen deutlich stabiler als die gleichen Enzyme ohne Schäume“, erläutert Niemeyer die Vorteile, „dies ist für die Vermarktung von großem Interesse, da hierdurch Vorratsproduktion und Versand erheblich vereinfacht werden.“

Die neuen Biomaterialien eröffnen vielseitige Wege für Innovationen in der industriellen Biotechnologie, den Materialwissenschaften oder auch für die Lebensmitteltechnologie. So könnten die Proteinschäume in biotechnologischen Prozessen eingesetzt werden, um wertvolle Verbindungen effizienter und nachhaltiger herzustellen. Das Forschungsteam konnte zeigen, dass mithilfe der Schäume der industriell wertvolle Zucker Tagatose hergestellt werden kann, der eine vielversprechende Alternative zu raffiniertem Zucker als Süßungsmittel darstellt.

Der nachhaltige Weg in eine klimapositive Zukunft

Die Firma Obrist identifiziert in aMethanol® den neuen, globalen Energieträger für die Menschheit. Durch ein innovatives Direct-Air-Capture-Verfahren wird reines CO2 der Atmosphäre entnommen und mit grünem Wasserstoff zu Methanol synthetisiert. Ein Teil des CO2 wird über ein Zwischenprodukt in Sauerstoff und reinen Kohlenstoff gespalten. Somit kann mit Strom aus Photovoltaik-Anlagen im Sonnengürtel der Erde der erste klima-positive[1] Energieträger der Welt dargestellt werden.

Der patentierte Prozess kann bereits heute wettbewerbsfähig sein und mit State of the Art-Techniken und -Teilprozessen beliebig in Form von Großanlagen skaliert werden. Aufgrund der vielseitigen Einsatzmöglichkeiten von Methanol als Basis-Chemikalie sind von der Stromerzeugung über die Schifffahrt bis hin zum Automotive-Sektor sämtliche Anwendungen umsetzbar. Erste Branchen starten bereits eine umfängliche Transition des verwendeten Energieträgers hin zu Methanol, der bezüglich Infrastruktur/Transport und Energiedichte große Vorteile bspw. gegenüber Wasserstoff aufweist.

In Form einer ersten aFuel® Großanlage beispielsweise in Nordafrika (Ägypten, Tunesien etc.) ließen sich mit der Unterstützung Österreichs und mit lokal vorhandenen Quellen für grünen Wasserstoff und erneuerbare Energien Synergie-Effekte nutzen und sowohl klimapositives Methanol als auch reiner Kohlenstoff rentabel vermarkten.

„Klimapositiv sind alle Aktivitäten, die dazu führen, den Anteil der Treibhausgase langfristig wieder auf das alte [, vorindustrielle] Niveau zu bringen“ (Kluthe Magazin, 2023)

Fortsetzung siehe:
Handbuch Bundeskanzleramt

Armes digitales Deutschland – eine Intervention eines klugen Professors für Mathematik

Prof. Ulrich Trottenberg schrieb an eine NRW-Behörde:

Dass Deutschland digital so weit zurückliegt, ist nicht nur, und auch nicht in erster Linie, ein Netz- und Infrastrukturproblem. Derartige Probleme kann man im Prinzip mit Geld und einer entsprechenden politischen Initiative lösen, zumindest systematisch in Angriff nehmen.

Das digitale Problem liegt tiefer. Es liegt in der digitalen Lethargie und der algorithmischen Hilflosigkeit der deutschen Öffentlichkeit. Alles Digitale ist algorithmisch geprägt und wird durch Algorithmen gesteuert: Rechner, Netze, Datenstrukturen und -flüsse usw. Tatsächlich begleiten Algorithmen unser gesamtes Leben, in geradezu jeder Minute, und prägen immer stärker auch unsere Arbeitswelt. Trotzdem sind Algorithmen in den Köpfen der meisten Menschen, auch vieler Gebildeter und Intellektueller, etwas merkwürdig Fremdes und Abstraktes. Man hört und liest das Wort „Algorithmen“ täglich, aber man weiß nicht, jedenfalls nicht genau, was das ist. Schon das Wort ist unverständlich.

In scheinbar merkwürdigem Gegensatz dazu, de facto aber dazu passend, gelten Algorithmen als bedrohlich, gefährlich, unheilbringend.

Ein aktuelles Beispiel für eine massive Verunsicherung ist die ChatGPT Entwicklung. Die Medien überschlagen sich in Kommentaren, von begeisterter Faszination bis zu rigoroser Ablehnung. Und das alles wird bizarr, wenn den generativen Algorithmen menschliche Eigenschaften zugeordnet werden: Die Chatroboter „denken“, die Maschinen haben eine „Seele“, sie reagieren „sensibel“ und haben „Emotionen“. Perspektivisch werden auf der einen Seite großartige Utopien beschworen und und auf der anderen Seite Dystopien der Bedrohung der Menschheit durch intellektuell überlegene Maschinen.

Kaum jemand bemüht sich, sachlich zu erklären, was da in den Algorithmen abläuft, wie und warum so verblüffende Ergebnisse erzielt werden.

Die digitale Lethargie der deutschen Gesellschaft beruht vor allem auf einer Fehlentwicklung der digitalen Bildung! Insbesondere Algorithmen haben bis heute keine Relevanz als zentrales Bildungsgut.

Solange das so bleibt, nutzt auch die bessere Vernetzung nicht viel. Das mangelnde digitale Verständnis der Öffentlichkeit ist das Problem der deutschen Gesellschaft, jedenfalls nicht nur die mangelhafte Infrastruktur.

Mit den besten Grüßen

Ulrich Trottenberg

Ich reagiere mit dieser Mail auf die Ankündigung der Vorstellung Ihres Buches bei der FES, nicht auf Ihr Buch. Ich habe Ihr Buch noch nicht gelesen, werde das aber sicher tun und bin sehr gespannt.

In Zukunft Perowskit-Zellen

Photovoltaiktechnologien sind Eckpfeiler aller Zukunftsszenarien einer nachhaltigen Energieversorgung. Innovative, kostengünstige und hocheffiziente Materialien für die Solarmodule der nächsten Generation zu entwickeln, ist daher von höchster Dringlichkeit. Derzeit gilt insbesondere die Materialklasse der Perowskit-Halbleiter als äußerst aussichtsreich für die Solarzellen der Zukunft. Den wirtschaftlichen Durchbruch dieser Technologie verhindern derzeit jedoch die noch nicht ausreichende Stabilität und die Herausforderung, auf großer Fläche hochwertige Perowskit-Dünnschichten herzustellen. Mit dem Projekt „LAMI-PERO“ will Tenure-Track-Professor Ulrich W. Paetzold einen radikal neuen Herstellungsprozess entwickeln, der das Potenzial hat, diese Schwierigkeiten zu überwinden. Ziel des Projekts ist es, ein grundlegendes Verständnis darüber zu etablieren, wie Perowskit-Dünnschichten unter hohem Druck entstehen, außerdem stabilere und neuartige Zusammensetzungen der Perowskit-Halbleiter zu entdecken und damit hocheffiziente Perowskit-Solarzellen und Tandem-Solarzellen herzustellen.