Archiv der Kategorie: Physik, Chemie, Technik

Drama von Bayer mit Monsanto war vorauszusehen – Mit einer Einführung von Jean Pütz

Über Facebook und persönliche Mails habe ich Bayer frühzeitig vor diesem Deal gewarnt. Aber der Wunsch von Bayer durch die Übernahme von Monsanto Weltmarktführer in Sachen konventionelle Landwirtschaft zu werden, hat möglicherweise eine Pleite von Bayer zur Folge.

Ihr Jean Pütz

(Pioneer) – Noch 57.000 offene Glyphosat-Klagen lasten auf dem deutschen Traditionskonzern – und es könnten mehr werden. Eine umstrittene Strategie soll zum Befreiungsschlag werden. Doch die Erfolgsaussichten sind ungewiss.

Es geht wieder los. Anwaltskanzleien in den USA nehmen erneut Millionen US-Dollar in die Hand, um potenzielle Opfer des Glyphosat haltigen Unkrautvernichters Roundup über das Fernsehen zu finden und für eine Klage zu motivieren. Ihr Versprechen: Hoher Schadensersatz von Bayer.

Neun Millionen US-Dollar gaben US-Anwälte für TV-Spots im vergangenen Jahr aus. „Call The number on your screen now, don’t wait”, heißt es in den Spots. Im ersten Halbjahr dieses Jahres lagen die Ausgaben schon bei rund fünf Millionen US-Dollar, wie exklusive Auswertungen der amerikanischen Analyseplattform X Ante für The Pioneer zeigen.

Die Bayer AG wird das Glyphosat-Problem, das es mit der Übernahme des US-Konzerns Monsanto gleich mit übernommen hat, nicht los. Die US-Klageindustrie erhöht ihren Druck auf Bayer weiter – und treibt den Leverkusener Traditionskonzern in die Defensive. Wie The Pioneer erfuhr, arbeitet der Vorstand nun aber an einer neuen Strategie, um der Lage Herr zu werden. Die Taktik: smart. Die Erfolgsaussichten: ungewiss. Sollte der Deal gelingen, wäre Bayer in der Offensive – und das Klageproblem mit einem Mal erledigt.

Noch aber geht die juristische Angriffswelle auf Bayer weiter. Gingen die Werbeausgaben der Glyphosat-Anwälte seit 2020 zunächst zurück, stiegen sie 2023 wieder sprunghaft an. Seit 2015 bis heute wurden von US-Anwaltskanzleien schätzungsweise 145 Millionen Dollar für etwa 720.000 Fernsehwerbespots ausgegeben.

Roundup, der in den USA marktführende Unkrautvernichter, ist damit das Produkt, das in den vergangenen neun Jahren am häufigsten in TV-Spots von Anwälten auftauchte, die Klienten für Massenklagen ausfindig machen wollen.

Der deutsche Dax-Konzern Bayer übernahm die Monsanto Company 2018 mitsamt ihrem Verkaufsschlager Roundup und erbte damit das enorme Klagerisiko. Bayers CEO Bill Anderson hat die Massenklagen bei der diesjährigen Hauptversammlung als „existenzielles” Risiko für sein Unternehmen bezeichnet.

Ein Branchenkenner sagt, die Kanzleien, die Roundup-Werbung schalten, hätten nur ein geringes Interesse daran, die Fälle vor Gericht zu bringen. Die Anwälte seien auf hohe Vergleichssummen aus, „das sei das Geschäftsmodell.”

Regelmäßig kontaktieren die Kanzleien den Bayer-Konzern, um ihn von Forderungen ihrer Klienten wissen zu lassen – in der Hoffnung auf einen Vergleich. 170.000 solcher Forderungen wurden Bayer seit der Monsanto-Übernahme übermittelt, 113.000 wurden bereits verglichen. 57.000 Fälle sind jedoch noch offen. Jeder Fall ist eine potenzielle Klage, die noch nicht vor Gericht gelandet ist.

Die Rechtsanwälte verdienen auf Erfolgsbasis, sie bekommen in der Regel ein Viertel bis ein Drittel des Erlöses. Dafür legen sie die Rechtskosten für die potenziellen Opfer aus. Bisher haben die Anwaltsfirmen gut an der Klagewelle gegen Monsanto verdient und machen weiter.

Mehr als zehn Milliarden Euro hat Bayer seit der Übernahme für Vergleiche mit den über hunderttausend Klägern ausgegeben und mehr als sechs Milliarden Euro für weitere Klagen zurückgestellt. Das ist zusammen in etwa soviel wie in Forschung und Entwicklung von Bayers Agrarsparte seit der Monsanto-Übernahme flossen.

Innerhalb von Andersons ersten Jahr im Amt hat der Aktienkurs weitere 50 Prozent eingebüßt. Der frühere Pharmamanager konnte bisher keine Euphorie an der Börse verbreiten, auch weil er keine nachhaltige Lösung für das Klage-Disaster präsentierte.

Portfoliomanager Markus Manns bei Union Investment, einem der größten Einzelinvestoren von Bayer, sagt:

Die Rechtsstreitigkeiten und Unsicherheiten wegen Glyphosat sind das größte Problem für den Bayer-Konzern.

Offiziell hat Anderson angekündigt, man ziehe alle Mittel in Betracht, um der Lage wieder Herr zu werden. Hinter den Kulissen verfolgt der Daxkonzern in den USA eine konkrete Strategie und hat bereits Maßnahmen eingeleitet, erfuhr The Pioneer aus Aufsichtsratskreisen.

Monsanto als Bad Bank
Zur Ausgangslage ist wichtig zu wissen: Die Monsanto Company blieb nach der Übernahme in Höhe von 63 Milliarden US-Dollar durch Bayer als US-Unternehmen bestehen und wurde an die Bayer Crop Science LP mit Sitz in Saint Louis, Missouri angegliedert – mit Bayer Nordamerika als oberster Muttergesellschaft.

Bei Monsanto liegen noch rund 80 Prozent der Vermögenswerte des US-Agrargeschäfts von Bayer Nordamerika, zum Beispiel in Form von Pflanzenschutzpatenten.

Derzeit werden Vermögenswerte wie Patente aus der Monsanto Company abgezogen und in eine von Klagen unbelastete US-Gesellschaft von Bayer übertragen, heißt es aus Kreisen des Kontrollgremiums.

Die Monsanto Company, bei der die noch offenen 57.000 Roundup-Forderungen liegen, soll nach der Verschiebung der werthaltigen Assets zur Bad Bank werden. Man habe vor, die Gesellschaft unter Kapitel 11 des US-Insolvenzrechts in die Insolvenz gehen zu lassen. Damit solle ein Schlussstrich unter die Klagen gezogen werden, sagt eine mit der Angelegenheit vertraute Person.

Meldet eine US-Firma Insolvenz nach Kapitel 11 an, werden die Kläger zu Gläubigern, die vor dem Konkursgericht einen Vergleich suchen müssen.

Die Bayer-Pläne ähneln einem umstrittenen juristischen Manöver in den USA, das sich „Texas Two-Step“ nennt. Dabei werden Unternehmen in zwei getrennte Firmen aufgespalten. Während die Vermögenswerte in der einen Gesellschaft verbleiben, wird die rechtliche Haftung auf die andere Gesellschaften übertragen, die danach in die Insolvenz geht.

Bereits im vergangenen Jahr hatte Jeffrey Ubben, ein aktivistischer Bayer-Investor und neues Mitglied im Aufsichtsrat des Konzerns gefordert:

Wir sollten uns das Texas Two-Step, wie es Johnson & Johnson praktiziert hat, mal ansehen. Macht das Sinn? Ist es hier anwendbar?

Bayer habe den Vorteil, dass seine Gesellschaften für diese Praxis bereits existieren, heißt es von mit der Angelegenheit vertrauten Personen. Dadurch spare der Konzern Zeit und könne schon jetzt mit dem Plan beginnen.

Man wolle sich nicht aus der Verantwortung stehlen, aber man sehe es als eine Art Notwehr an, heißt es aus Kreisen des Kontrollgremiums. Die Klagen in den USA seien allein über Begehrlichkeiten, und nicht wissenschaftliche Fakten, getrieben. Eine reiche deutsche Firma, die eine US-Firma mit umstrittenem Ruf übernimmt: Da gebe es viel zu holen, sei das Credo der US-Anwälte.

Texas Two Step: Zweifel an Legitimität
Allerdings ist unklar, ob die Gerichte ein Konkursverfahren der Bayer-Tochter durchgehen lassen würden. Denn die Insolvenzverfahren sind normalerweise ein Mittel für Unternehmen in finanzieller Schieflage.

Der deutsche, in New York tätige Rechtsanwalt Moritz Schumann sagt:

Es ist noch nicht abschließend geklärt, ob Texas Two-Step ein legitimes Mittel ist, Verbindlichkeiten und das finanzielle Risiko durch Massenklagen zu beschränken.

Bisher gab es nur eine Handvoll Fälle. „Das ist eine extrem umstrittene Praxis, die teilweise durchgegangen ist, teilweise abgewiesen wurde und über die noch gestritten wird. Man könne die Praxis „als Notwehr des Unternehmens, aber auch als Rechtsmissbrauch betrachten.”

Der US-Pharmakonzern Johnson & Johnson wandte die Praxis an, um den Massenklagen wegen angeblich mit Asbest verseuchtem Babytalkpuder zu entgehen. Zweimal wurde der Insolvenzantrag bisher abgewiesen. Nach derzeitigem Stand will J&J es ein weiteres Mal probieren.

Der amerikanische Insolvenzrechter Ralph Brubaker sagte im Interview mit The Pioneer:

Es gibt nichts, was Unternehmen davon abhalten könnte, diese Strategie auszuprobieren, denn die Vorteile sind für sie sehr groß, wenn die Strategie erfolgreich ist.

Die Strategie – sollte sie praktikabel sein – sei insbesondere für solvente Unternehmen attraktiv, denn sie ermöglicht es, durch eine letztmalige Zahlung alle Verpflichtungen aus laufenden Massenklagen zu beenden und neue Klagen nicht mehr bedienen zu müssen.

Es würde sonst Jahre, wenn nicht Jahrzehnte dauern, um alle Schadensansprüche vollständig zu regeln. Die Schadenersatzklagen gegen J&J wegen des Babypuders laufen beispielsweise bereits seit 2015.

Aber selbst wenn die Insolvenz selbst nicht genehmigt wird, kann die Unsicherheit über den Verfahrensausgang bereits die Motivation der Anwälte für neue Klagen reduzieren, so die Hoffnung der betroffenen Unternehmen.

Brubaker resümiert:

Letztendlich ist das Verfahren eine Möglichkeit für die Anteilseigner eines Unternehmens, den Wert zu steigern, möglicherweise auf Kosten der Anspruchsberechtigten.

Bayer: Mehr Lobbyarbeit in den USA
Bayer wird auch außerhalb der Gerichtssäle aktiv und intensiviert seine Lobbyarbeit. Der Konzern erhofft sich „größere Rechtssicherheit dafür zu bekommen, dass ein von der US-Umweltbehörde EPA als sicher und nicht-krebserregend eingestuftes Produkt nicht vor Gericht von der amerikanischen Klageindustrie angegriffen werden kann”.

Denn derzeit befindet sich Bayer noch in einer rechtlichen Misere: Die Kläger werfen der Tochter Monsanto vor, auf den Packungen des Unkrautvernichters nicht ausreichend vor den Krebsrisiken von Glyphosat zu warnen.

Die US-Gesundheitsbehörde EPA wiederum verbot Bayer und anderen Pflanzenschutzherstellern bereits 2019, dass sie ihre Produkte mit dem Hinweis kennzeichnen, Glyphosat sei als krebserregend bekannt.

Denn die EPA stuft Glyphosat als unbedenklich für den Menschen ein – wie andere führende europäische Behörden beispielsweise die Europäische Behörde für Lebensmittelsicherheit (EFSA). Um den US-Klägern Wind aus den Segeln zu nehmen, hat Bayer Glyphosat als Wirkstoff dennoch vom Privatkundenmarkt in den USA genommen.

Für die Kanzleien und ihre Geldgeber sei immer die Frage: Investieren sie in einen Rechtsstreit oder sind andere Schadensersatzklagen potenziell lukrativer? Bayer tue alles dafür, dass die Kanzleien den Roundup-Rechtsstreit weniger lukrativ finden, heißt es aus Unternehmenskreisen.

Ausblick
Bayer braucht einen Ausweg, denn langfristig könnten die Rechtskosten das Budget für künftige Innovationen aufzehren.

Damit stünden auch die Innovationen bei Agrar und Pharma auf dem Spiel. In der Agrarsparte Crop Science sind immerhin zehn neue Produkte bis 2030 geplant, die künftig für Umsatzwachstum im dreistelligen Millionenbereich sorgen sollen, darunter ein vielversprechendes Nachfolge-Produkt für Roundup.

Frank Terhorst, der Strategieleiter von Bayer Crop Science ist trotz der hohen Klage-Kosten zuversichtlich. Im The Pioneer-Interview sagt er:

Die angekündigten Innovationen sind fest eingeplant und wir werden liefern.

Ein weiteres Erbe der Monsanto-Übernahme: Die Nettoverschuldung von Bayer hat sich mittlerweile auf 34 Milliarden Euro erhöht. Die Schulden sind auch ein Grund für den großen Stellenabbau, den CEO Anderson angekündigt hat. Mit den Stellenkürzungen sollen ab 2026 zwei Milliarden Euro jährlich eingespart werden.

Das Umstrukturierungsprogramm komme einem Kahlschlag gleich, heißt es aus Kreisen des Aufsichtsrats. 50 Prozent der Führungskräfte sollen entlassen werden. In zwei Jahren sei die Firma dadurch jedoch gut aufgestellt.

Investoren wie Union Investment vermissen allerdings eine langfristige Wachstumsperspektive für den gesamten Konzern. Für eine Trendwende beim Aktienkurs müsste es Bayer schaffen, nicht nur die Klagerisiken in den USA einzudämmen, sondern auch „dem Kapitalmarkt Wachstumsperspektiven und Lösungen für die schwache Pharma-Pipeline aufzuzeigen”, sagt Markus Manns.

Die Entwicklung des Gerinnungshemmer Asundexian, auf den die Bayer-Führung große Hoffnungen gesetzt hatte, floppte. Nun sollen immerhin zwei neue Medikamente Bayers Pharmasparte künftig nach vorne bringen: ein nicht-hormonelles Wechseljahrepräparat und ein Prostatakrebsmedikament.

Auch eine Aufspaltung sei nicht vom Tisch, sagt Manns. Eine Option, die Bayer durch die Monsanto-Übernahme eigentlich hatte verhindern wollen. Bayer-Chef Anderson hat zwar eine Zerschlagung abgelehnt, aber Manns sagt:

Die Frage nach der richtigen Konzernstruktur stellt sich weiter.

 

 

Stromspeicher auf dem Meeresgrund geplant

(pte) – Das israelische Start-up BaroMar baut vor der Küste Zyperns auf dem Meeresgrund einen neuen Stromspeicher, der sich an einem Konzept des Fraunhofer-Instituts für Energiewirtschaft und Energiesystemtechni  orientiert. An Land werden große Stahlbetontanks zum Bestimmungsort geschleppt. Dort laufen sie voll mit Meerwasser, sinken auf den Grund und werden dort durch Felsbrocken in einem Käfig auf dem Tank fixiert. Über ein Rohr sind sie mit dem Festland verbunden.

Dort befindet sich ein reversibler Turbogenerator. Er kann im Motormodus Luft in den Tank pumpen, sodass das Wasser herausgedrückt wird. Wird Strom benötigt, öffnen sich Ventile, die das Wasser in den Tank zurückströmen lassen und die darin befindliche Luft mit hohem Druck herauspressen. Diese strömt in den Turbogenerator und erzeugt dort Strom. Dieser Zyklus lässt sich beliebig oft wiederholen.

Tanks für vier Megawattstunden

Laut BaroMar-Gründer Yonadav Buber lassen sich die Stromspeicher problemlos installieren, weil sie die Schifffahrt nicht behindern. Sie würden in Tiefen von bis zu 700 Metern verankert. Auch die Küsten selbst würden kaum beeinträchtigt – der Turbogenerator benötige lediglich ein kleines Gebäude. Lärm dringe nicht nach außen. Für Zypern plant er mehrere Tanks, die vier Megawattstunden speichern können. Die Kosten sollen mit 100 Dollar pro Megawattstunde niedriger sein als bei anderen Stromspeicherlösungen.

Buber betont, dass die benötigten technologischen Komponenten ausgereift sind und keiner umfangreichen Entwicklung bedürfen, im Gegensatz zu anderen neuen Technologien zur Langzeitspeicherung von Energie. Er weist darauf hin, dass die wichtigsten Herausforderungen, die zwischen dem Pilotprojekt und dem kommerziellen Einsatz liegen, lediglich rechtliche und technische Anforderungen im Zusammenhang mit dem Meer sind.

Batterien: Heute die Materialien von morgen modellieren

(KIT) – Die Forschung zu neuen Batteriematerialien zielt nicht nur darauf, Leistung und Lebensdauer zu optimieren sowie Kosten zu senken. Vielmehr geht es auch darum, seltene Elemente wie Lithium und Kobalt sowie toxische Bestandteile zu reduzieren. Als vielversprechend gelten Natrium-Ionen-Batterien, die auf ähnlichen Prinzipien basieren wie Lithium-Ionen-Batterien, sich jedoch aus in Europa ausreichend verfügbaren Rohstoffen herstellen lassen. Sie eignen sich für stationäre und mobile Anwendungen. „Als Materialien für die Kathode sind Schichtoxide wie Natrium-Nickel-Manganoxide vielversprechend“, berichtet Dr. Simon Daubner, Gruppenleiter am Institut für Angewandte Materialien – Mikrostruktur-Modellierung und Simulation (IAM-MMS) des KIT und korrespondierender Autor der Studie. Im Exzellenzcluster POLiS (steht für: Post Lithium Storage) forscht er an der Natrium-Ionen-Technologie.

Beim schnellen Laden kommt es zu mechanischen Spannungen

Bei diesen Kathodenmaterialien gibt es allerdings ein Problem: Natrium-Nickel-Manganoxide ändern ihre Kristallstruktur, je nachdem, wie viel Natrium gerade gespeichert ist. Wird das Material langsam geladen, geht alles geordnet zu. „Schicht für Schicht geht das Natrium aus dem Material – wie in einem Parkhaus, das sich etagenweise leert“, erklärt Daubner. „Aber wenn es schnell gehen muss, wird das Natrium von allen Seiten herausgezogen.“ Dadurch kommt es zu mechanischen Spannungen, die das Material dauerhaft schädigen können.

Forschende am Institut für Nanotechnologie (INT) und am IAM-MMS des KIT haben nun gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern an der Universität Ulm und am Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) diese Zusammenhänge mithilfe von Simulationen aufgedeckt und berichten darüber in npj Computational Materials, einer Zeitschrift aus dem Nature-Portfolio.

Experimente bestätigen Simulationsergebnisse

„Computermodelle können verschiedene Längenskalen beschreiben, von der Anordnung der Atome in Elektrodenmaterialien über deren Mikrostruktur bis hin zur Zelle als funktionale Einheit jeder Batterie“, sagt Daubner. Diese verbinden Mikrostrukturmodelle mit langsamen Lade- und Entladeexperimenten, um das Schichtoxid NaXNi1/3Mn2/3O2 zu untersuchen. Das Material weist mehrere Degradationsmechanismen auf, die zu Kapazitätsverlust führen. Daher taugt es derzeit noch nicht für kommerzielle Anwendungen. Wenn sich die Kristallstruktur ändert, kommt es zu einer elastischen Verformung. Der Kristall schrumpft, was zu Rissen führen kann und die verfügbare Kapazität mindert. Wie am INT und am IAM-MMS vorgenommene Simulationen zeigten, ist dieser mechanische Einfluss so stark, dass er maßgeblich beeinflusst, wie schnell sich das Material laden lässt. Experimentelle Untersuchungen am ZSW bestätigten die Ergebnisse.

Die in der Studie gewonnenen Erkenntnisse lassen sich teilweise auf andere Schichtoxide übertragen. „Da wir nun die grundlegenden Vorgänge verstehen, können wir uns in weiteren Arbeiten der Entwicklung von Batteriematerialien widmen, die langlebig sind und sich möglichst schnell laden lassen“, fasst Daubner zusammen. Dadurch könnte der großflächige Einsatz von Natrium-Ionen-Batterien in fünf bis zehn Jahren Wirklichkeit werden. (or)

Verbrenner gewinnt – Tesla Verliert

(Pioneer) – E-Autohersteller: Tesla hat im vergangenen Quartal den ersten Umsatzrückgang seit fast vier Jahren verbucht. Die Erlöse fielen im Jahresvergleich um neun Prozent auf 21,3 Milliarden Dollar. Unterm Strich fiel der Quartalsgewinn um 55 Prozent auf 1,13 Milliarden Dollar. Tesla trifft nach rasantem Wachstum in den vergangenen Jahren auf eine schwächere Nachfrage sowie wachsende Konkurrenz vor allem aus China.

Neue Modelle, besser als erwartete Marge: Tesla bestätigte aber, dass neue Modelle in die Produktion gehen sollen. Die sollen auch schon früher kommen als gedacht. Man werde die ursprünglich für das zweite Halbjahr 2025 geplante Produktion auf den Jahresanfang 2025 oder gar auf Ende 2024 vorziehen, sagte Tesla-Chef Elon Musk. Die Bruttomarge fiel auf 17,4 Prozent. Analysten hatten jedoch noch Schlimmeres erwartet. Die Anleger an der Wall Street feierten das mit einem nachbörslichen Aktienplus von 11 Prozent.

Der Blick nach Deutschland: Firmenchef Elon Musk lässt gerade mehr als jeden zehnten Job weltweit streichen. Am Standort in Grünheide bei Berlin plant Tesla, 400 Stellen abzubauen. Im Rahmen eines Freiwilligenprogramms soll die Belegschaft – inzwischen arbeiten über 12.000 Menschen in der Fabrik – reduziert werden. Die Verträge mit 300 Leiharbeitern wurden bereits nicht verlängert.

Strömungsforschung am Rand des Weltraums

(HZDR) – Zur Beschreibung einer wichtigen Klasse von Durchmischungseffekten, die beispielsweise bei der Strömung in einem chemischen Reaktor auftreten, werden seit Jahren verschiedenste Modelle entwickelt. Doch deren experimentelle Validierung hinkt aufgrund der Überlagerung mit Schwerkrafteffekten deutlich hinterher. Ein europäisches Forschungsteam mit Beteiligung des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) und Partnern aus der Universität Szeged (Ungarn) und der Université libre de Bruxelles (Belgien) hat diese Lücke nun durch Experimente unter Schwerelosigkeit geschlossen. Ihre Resultate haben die Forschenden kürzlich im Nature Journal npj Microgravity publiziert
Sogenannte Reaktions-Diffusions-Fronten entstehen, wenn zwei chemische Stoffe miteinander reagieren und sich gleichzeitig in einem Raum ausbreiten. Wissenschaftler*innen können damit Probleme in Chemie und Physik, aber auch aus ganz anderen Bereichen wie etwa der Finanzwelt oder den Sprachwissenschaften modellieren und besser verstehen, da die zugrundeliegenden mathematischen Gleichungen dieselben Eigenschaften aufweisen. Komplexer wird es, wenn die Forschenden diese Reaktionen mit Strömungen kombinieren. Solche Prozesse sind wichtig für technologische Anwendungen rund um Verbrennungsprozesse, der Geologie, bei der Herstellung bestimmter Stoffe und der Speicherung von Kohlendioxid. Trotz der vielfältigen Anwendungen sind wesentliche Teile dieser Systeme noch nicht vollständig verstanden.
„Bisherige Experimente zur Überprüfung von Modellen solcher Prozesse sind aufgrund von Auftriebseffekten verzerrt. Ursache dafür sind Dichteunterschiede zwischen den Reaktionslösungen. Um dieses Problem zu isolieren, haben wir an Bord einer Höhenforschungsrakete Experimente in der Schwerelosigkeit durchgeführt. Parallel dazu haben unsere Partner numerische Simulationen gemacht, um die Bedeutung von zweidimensionalen Effekten zu zeigen, die in einfachen eindimensionalen Modellen nicht berücksichtigt werden können“, umreißt Dr. Karin Schwarzenberger vom HZDR-Institut für Fluiddynamik kurz die Arbeit ihres Teams.
Raketenstart am Polarkreis
Das Experiment fand bereits am 1. Oktober 2022 statt – an Bord der Höhenforschungsrakete TEXUS-57, die vom Esrange Space Center, 40 Kilometer östlich vom schwedischen Kiruna gelegen, startete. Das Kooperationsprojekt von Airbus Defense & Space, der Europäischen Raumfahrtagentur ESA und dem Deutschen Zentrum für Luft- und Raumfahrt beförderte unter anderem auch das Experimentiermodul des Teams um Schwarzenberger an den Rand des Weltalls. Das Modul trug drei verschieden dimensionierte Reaktoren, die aus unterschiedlich eng übereinanderliegenden Glasscheiben bestehen. Die Rakete kam auf eine Höhe von etwa 240 Kilometern. Dabei wurde für knapp sechs Minuten ein Zustand annähernder Schwerelosigkeit erreicht, in dem die Forschenden ihre Experimente automatisiert ablaufen ließen – Experimente, für deren akribische Planung mehrere Jahre notwendig waren. Mit dem Eintreten der Schwerelosigkeit wurde die Reaktion gestartet. Drei hochauflösende Kameras filmten die Reaktionsfronten, die sich zwischen zwei strömenden Flüssigkeiten ausbreiten. Diese Aufnahmen waren es, denen der ganze Aufwand des Teams galt: Mit ihrer Hilfe können die Forschenden nun einen ganz bestimmten Durchmischungseffekt von anderen Strömungsphänomenen trennen.
Strömungsphysik in der Schwerelosigkeit
Strömungen in Flüssigkeitskanälen haben durch die Wandreibung eine ungleichmäßige Geschwindigkeitsverteilung, die in der Folge den Transport von gelösten Stoffen und diffundierenden Reaktionspartnern in der Flüssigkeit beeinflusst. Dieser Diffusionseffekt ist bekannt als Taylor-Aris-Dispersion, benannt nach den beiden Forschern, die bereits in den 1950er Jahren das Fundament für ihr Verständnis legten. Um das Zusammenspiel von Taylor-Aris-Dispersion und Reaktion der Stoffe zu beschreiben, wurden in theoretischen Arbeiten in der Vergangenheit unterschiedlich komplexe Modelle vorgeschlagen.
Im Hinblick auf Anwendungen ist es jedoch wichtig abzuschätzen, unter welchen Voraussetzungen die verschiedenen Modelle angewendet werden können. Dazu wurden Experimente notwendig, die die Taylor-Aris-Dispersion von anderen Strömungsphänomenen isolieren können. Auf der Erde ist die Taylor-Aris-Dispersion vor allem von Auftriebseffekten überlagert, die durch die Schwerkraft verursacht werden. Bislang haben Wissenschaftler*innen sich damit beholfen, die Auftriebseffekte durch den Einsatz von flachen Reaktoren zu minimieren – vollständig gelang das jedoch nie. Denn es muss immer noch ein gewisser Bereich von Reaktorhöhen und Strömungsgeschwindigkeiten abgedeckt werden, um viele Anwendungsgebiete zu erfassen. Doch je größer das Strömungssystem ist, desto stärker wirkt die Schwerkraft. In der Schwerelosigkeit konnten die Forschenden diese Einschränkungen nun überwinden.
Der Vergleich mit den Referenzexperimenten am Boden zeigte, dass bei größeren Reaktorhöhen unter Schwerelosigkeit deutlich weniger Reaktionsprodukt entsteht. Noch wichtiger waren die Bilddaten der Reaktionsfronten, die nicht durch die Auftriebseffekte verzerrt wurden. So konnten die Brüsseler Partner die Entwicklung der Front mit den verschiedenen theoretischen Modellen nachbilden. Die gemeinsame Auswertung ergab, dass in sehr flachen Reaktoren mit langsamer Strömung einfache eindimensionale Modelle verwendet werden können. Bei größeren Reaktoren oder schnellerer Strömung sind aber zweidimensionale Modelle mit Taylor-Aris-Dispersion nötig. Innerhalb dieser Gültigkeitsbereiche können die entsprechenden Korrelationsbeziehungen nun zur Vorhersage der Produktbildung genutzt werden. Dies findet Anwendung bei der Auslegung von innovativen Reaktoren, der gezielten Synthese von Partikeln und dem Flüssigkeitstransport in geologischen Schichten, aber auch bei der Versorgung von Raumstationen, wo andere Gravitationsbedingungen als auf der Erde herrschen.

Solarzellen neue Dimension

Erstmals hat das Solarforschungsinstitut Fraunhofer ISE eine TOPCon-Solarzelle im M10-Format hergestellt und damit 24 Prozent Wirkungsgrad erreicht. Ziel ist es, Industriepartner bei der Entwicklung von Photovoltaik-Modulen mit Solarzellen im großflächigen Format zu unterstützen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat als erstes europäisches Forschungsinstitut den Umstieg auf großflächige M10-Silizium-Wafer vollzogen. In der Photovoltaik-Industrie geht der Trend zu immer größeren Solarzellen. Während 2018 Wafer mit 156,75 Millimetern Kantenlänge noch 80 Prozent des Marktes ausmachten, dominiert mittlerweile das Waferformat mit einer Kantenlänge von 182 Millimetern – die quadratischen Solarzellen tragen den Handelsnamen M10. Solarmodule mit großem Zellformat sind nicht nur in den Herstellungskosten überlegen, sondern auch in Leistung und Effizienz. Große Photovoltaik-Unternehmen haben daher ihre Investitionen auf großflächige Wafer ausgerichtet.

Das Fraunhofer ISE hat mit der Prozessierung von TOPCon-Solarzellen (TOPCon steht für Tunnel Oxide Passivated Contact) in seinem Technologie-Evaluationszentrum PV-TEC den Umstieg auf das neue Format vollzogen. Das Institut können jetzt Industriepartner dabei unterstützen, mit diesem großflächigen Format ihre Technologieentwicklung zu optimieren oder ganz neu in die Produktion solcher Solarzellen einzusteigen, so Sabrina Lohmüller. Die Physikerin ist stellvertretende Leiterin der Abteilung Silizium- und Perowskit-Silizium Tandemsolarzellen und auch für das Qualitätsmanagement im PV-TEC verantwortlich.

Die hocheffiziente TOPCon-Zellarchitektur hat das Fraunhofer ISE entwickelt und 2013 erstmalig mit Rekordwirkungsgrad präsentiert. In den letzten beiden Jahren wurde die Produktionskapazität weltweit massiv ausgebaut. 2024 werden TOPCon-Solarzellen laut der vom VDMA publizierten International Roadmap Photovoltaics bereits knapp 50 Prozent Marktanteil erreichen.

Mittelfristiges Ziel: Siliziumbasierte Tandem-Solarzellen auf Basis der M10-Silizium-Wafer

Die beim Photovoltaik-Technologiebeiratstreffen erstmals vor Industrievertretern und Fördermittelgebern präsentierte TOPCon-Solarzelle großen Formats haben Forscher:innen des Fraunhofer ISE vollständig prozessiert. Die hocheffiziente, ungefähr 120 µm dünne Solarzelle hat man mit siebgedruckten Kontaktfingern metallisiert und im CalTeC am Institut für Solarenergieforschung in Hameln (ISFH) kalibriert. Die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer ISE metallisieren M10-Solarzellen auch mit galvanisch abgeschiedenem Kupfer.

„Mit dem ersten Los einen Wirkungsgrad von 24,0 Prozent zu erreichen, legt nahe, dass wir mit den nächsten Optimierungsschritten 25 Prozent übertreffen werden. Darüber hinaus schaffen wir damit ein Fundament für unser mittelfristiges Ziel in Richtung großflächiger siliziumbasierten Tandem-Solarzellen, mit einem Wirkungsgradpotenzial von weit über 30 Prozent“, sagt Ralf Preu, Bereichsleiter Photovoltaik am Fraunhofer ISE.

Zukunft der Architektur in sieben Trends … Mit einer Einführung von Jean Pütz

Schon im Jahr 1990, als die Gebäude 40% des CO2 Ausstoßes Deutschlands bewirkten, habe ich, Jean Pütz, im technologischen Flaggschiff des WDRs „Bilder aus der Wissenschaft“ zwei Sendungen zu diesem Thema moderiert und das Drehbuch erstellt. Den Energieverlust in den Gebäuden habe ich mit großen Ballons, die den CO2-Ausstoß symbolisierten demonstriert. Auch heute hat sich an der Situation wenig geändert. Immer noch sind die Gebäude für mindestens 35% CO2-Ausstoß in Deutschland verantwortlich. Hier die Links der beiden Sendungen aus Juli und August 1990:

Bilder aus der Wissenschaft Youtube Folge 1

Bilder aus der Wissenschaft Youtube Folge 2

Reaktionen der Politik gleich 0. Die Photovoltaik war damals noch so teuer, dass ich diese nicht berücksichtigte. Unter diesen Aspekten gibt es heutzutage natürlich wesentlich mehr Möglichkeiten der Energieeinsparung. Ja sogar Häuser sind erschwinglich, die mehr Energie im Jahresverlauf erzeugen als sie für Heizung, Klimaanlagen und Sonstiges benötigen. Persönlich ist es mir gelungen zwei Häuser dieser Art zu bauen. Sie sind nich teurer als herkömmliche und durch ökologisdche Wärmeisolation (Holzwolle) und einer Thermosolaranlage mit Wärmespeicher von 3000l und einer Photovoltaikanlage (20 kWp). Diese Anlagen existieren bereits seit 15 Jahren. Heutzutage ist sie mindestens um die Hälfte preiswerter zu erreichten.

Lesen Sie dazu jetzt diesen Beitrag, dem Thema habe ich übrigens bereits 1970 eine Sendung gewidmet im WDR Fernsehen unter dem Titel „Stein auf Stein“ und forderte ein Apolloprogramm für die Bauwirtschaft. Damals war schon absehbar, dass modernes Bauen dringend notwendig wurde, schon allein aus sozialen Gründen. Aber der Ruf verhalte ungehört in der Medienwüste.“

(pts)- Der Hamburger Architekt Dipl. Arch. Justus Asselmeyer unterstreicht eine internationale Studie, die sieben wichtige Trends in der Architektur aus den Aussagen von Architekten und Bauprofis in zwölf Ländern herausgefiltert hat. „Diese Trends decken sich mit meiner Vision der ‚Identitätsarchitektur'“, so Asselmeyer, der auf eine neue Generation von Architekten hofft, denen Nachhaltigkeit und identitätsstarke Gebäudearchitektur wichtig sind.

Wichtigster Trend: Nachhaltigkeit

Angesichts der Auswirkungen des Klimawandels überrascht diese Priorität nicht. Aber erst in den letzten Jahren wurde die sogenannte „graue Energie“ auch zu einem wichtigen Kriterium am Bau. „Nachhaltigkeit umfasst jedoch verschiedene Aspekte, die von den verschiedenen Ländern auch unterschiedlich interpretiert werden. Die meisten Länder legen Wert auf die Null-Emissions-Bauweise als Merkmal zukünftiger Bauvorhaben. Es geht darum, Gebäude so zu gestalten, dass während des Baus so wenig CO2 wie möglich freigesetzt wird, so wenig Material wie nötig verwendet, aber auch entsorgt werden muss und die entstehenden Emissionen anderweitig kompensiert werden“, so Asselmeyer.

Trend: Geänderte urbane Mobilität

Die Zukunft der Architektur liegt auch in geänderten Mobilitätskonzepten, in denen der Fokus auf Fußgängern, Fahrrädern, dem öffentlichen Nahverkehr und der Integration erneuerbarer Energien liegt. Asselmeyer: „Zudem spielt die Wahl der Baumaterialien eine Rolle, wobei moderner Beton, Holz und andere natürliche Baustoffe, aber auch recycelte Materialien in Zukunft vermehrt zum Einsatz kommen sollen.“

Trend: Null-Emissions-Gebäude

„Ein wirklich innovativer Trend ist der Bau von Gebäuden, bei denen während des gesamten Lebenszyklus keine CO2-Emissionen entstehen. Eine große Herausforderung für die Haustechnik, aber natürlich auch für die Architekten und Baufirmen“, betont Asselmeyer. Echter Vorreiter ist hier das Prinzip 22-26, entwickelt von Baumschlager Eberle Architekten, welches über das gesamte Jahr ohne Haustechnik und nur durch das Nutzen der solaren Wärme sowie der Abwärme der Nutzer eine Temperatur von 22 bis 26°C sicherstellt.

Trend: Lebensqualität

Egal, ob Wohnen oder Arbeiten: Der Fokus liegt auf der Lebensqualität und einem menschenzentrierten Design, bei dem Gebäude so gestaltet werden, dass sie das Wohlbefinden und die Gesundheit der Menschen verbessern.

Trend: Gebäude im Kontext mit seiner Umwelt

Die Architektur der Zukunft wird verstärkt lokale Ressourcen, Umweltbedingungen und extreme Wetterbedingungen berücksichtigen. Es geht darum, Gebäude in Einklang mit ihrer Umgebung zu entwickeln und widerstandsfähiger gegen die Auswirkungen des Klimawandels zu machen. Aber auch mit deutlich mehr Rücksicht auf ihre Umgebung. Umwelttechnisch und geschichtlich in Bezug auf die gewachsene Identität der Bewohner der Gegend.

Trend: Nachnutzung und Wiederverwendung

Ein wichtiger Trend ist auch die Wiederverwendung und Umnutzung von bestehenden Gebäuden, um Ressourcen zu schonen und nachhaltiges Bauen zu fördern. Zusätzlich wird verstärkt auf lokale Stadtplanung geachtet, um die Abhängigkeit vom Auto zu reduzieren und die Lebensqualität zu verbessern.

Trend: Nachhaltige Stadtplanung

Architekt Dipl. Arch. Justus Asselmeyer unterstützt vor allem auch den Trend einer verstärkten lokalen Stadtplanung, um die Abhängigkeit vom Auto zu verringern und auch die Nahversorgung zu gewährleisten. Hier gibt es in Amerika schon viele Gegenden, die komplett von der Lebensmittelversorgung abgeschnitten sind. Das darf bei uns nicht passieren. Egal, ob Lebensmittelläden, Schulen, Freizeitanlagen, Gesundheitsdienste bis hin zu Co-Working-Spaces: Alles sollte in fußläufiger Entfernung zu den Wohnanlagen liegen.

All das ist der Mega-Zukunftstrend = Identitätsarchitektur

Asselmeyers Ansatz betont die Bedeutung von Nachhaltigkeit, Kontextualisierung und menschenzentriertem Design. Er geht davon aus, dass die Architektur der Zukunft eine ganzheitliche Sichtweise haben sollte, die die Bedürfnisse der Menschen, die Umwelt und die Aspekte der Nachhaltigkeit berücksichtigt.

Mit seiner Expertise und innovativen Projekten trägt Asselmeyer dazu bei, dass die Architektur der Zukunft den globalen Trends entspricht und eine nachhaltige und lebenswerte Umgebung schafft. Durch seinen Beitrag zur Entwicklung von Identitätsarchitektur zeigt er, wie Architektur zu einer besseren Welt beitragen kann.

Wasserstoffspeicherung in Magnesium

(pte) – Forscher der Polnischen Akademie der Wissenschaften haben mit Kollegen des Eidgenössischen Insituts für Materialwissenschaften und Technologie und der Universität Zürich ein neues Modell der thermodynamischen und Elektronenprozesse entwickelt, die in Magnesium beim Kontakt mit Wasserstoffatomen ablaufen. Magnesiumhydrid gilt seit Jahrzehnten als aussichtsreicher Kandidat zur Speicherung von gasförmigem Wasserstoff bei normalem Luftdruck und Umgebungstemperatur. Doch die Menge pro Volumeneinheit reichte bei weitem nicht, um das Verfahren im Vergleich zur Speicherung unter hohem Druck oder in flüssiger Form bei einer Temperatur von minus 253 Grad Celsius konkurrenzfähig zu machen.

Zweierpack ist zu trennen

Wasserstoff kann von Magnesiumhydrid nur aufgenommen werden, wenn er atomar vorliegt. Normalerweise handelt es sich jedoch um ein Zweierpack, das mithilfe eines Katalysators getrennt werden muss. Das gelingt bisher nicht so wirksam, dass sich das Speichern lohnt. Die Forscher konnten nun aber zeigen, dass der Grund für das langjährige Scheitern in einem unvollständigen Verständnis der Phänomene liegt, die bei der Wasserstoffinjektion im Magnesium auftreten.

Das Modell sagt voraus, dass sich bei der Wanderung von Wasserstoffatomen lokale, thermodynamisch stabile Magnesiumhydrid-Cluster im Material bilden. An den Grenzen zwischen dem metallischen Magnesium und seinem Hydrid kommt es dann zu Veränderungen in der elektronischen Struktur des Materials, die maßgeblich zur Verringerung der Beweglichkeit von Wasserstoff-Ionen beitragen. Sie gelangen also nicht schnell genug in den Speicher hinein und können nicht alle freien Speicherplätze besetzen.

Katalysator gezielt möglich

Mit diesem Know-how glauben die Forscher, gezielt einen Katalysator entwickeln zu können, der diese Wasserstoffbremse löst. Theoretisch ist Magnesiumhydrid den anderen Speichermöglichkeiten weit überlegen. Es kann pro Volumeneinheit 50 Prozent mehr Wasserstoff aufnehmen als Kryospeicher, in denen das Gas in flüssiger Form vorliegt, und sogar mehr als doppelt so viel wie ein Drucktank. Zudem ist die Speicherung in Hydrid absolut sicher, wie es heißt. Es kann somit keine Brände und erst recht keine Explosionen geben.

Perowskit-Solarzellen: Vakuumverfahren kann zur Marktreife führen

(KIT) – Weltweit arbeiten Forschung und Industrie an der Kommerzialisierung der Perowskit-Photovoltaik. In den meisten Forschungslaboren stehen lösungsmittelbasierte Herstellungsverfahren im Fokus, da diese vielseitig und einfach anzuwenden sind. Etablierte Photovoltaikfirmen setzen heute jedoch fast ausschließlich auf Vakuumverfahren zur Abscheidung von hochqualitativen Dünnschichten. Ein internationales Konsortium unter der Leitung des Karlsruher Instituts für Technologie (KIT) und des U.S. Department of Energy’s National Renewable Energy Laboratory (NREL, USA) hat diese kritische Diskrepanz zwischen Labor und Industrie analysiert. Sie heben hervor: Industriell erprobte Vakuumverfahren könnten mit gewissen Verbesserungen zur schnellen Kommerzialisierung bei den Perowskit-Solarzellen beitragen.

Perowskit-Silizium-Tandemsolarzellen haben in den vergangenen zehn Jahren eine rasante Entwicklung durchlaufen: In der Forschung konnten Wirkungsgrade von mehr als 33 Prozent erreicht werden. Damit liegen sie bereits heute über den herkömmlichen siliziumbasierten Solarzellen. Die Marktreife steht allerdings noch aus. Eine der Hürden ist die ungeklärte Frage, mit welchem Verfahren sich Perowskit-Solarzellen als Massenprodukt am besten herstellen lassen. Dabei stehen lösungsmittelbasierte Herstellungsverfahren, die in den Laboren weltweit angewandt werden, Dampfphasenabscheidungsverfahren im Vakuum gegenüber, die auch heute noch Standard in der Herstellung von Dünnschichten in der Photovoltaik oder bei der Produktion organischer Leuchtdioden (OLEDs) sind.

In einer aktuellen Vergleichsstudie zeigte ein internationales Konsortium aus akademischen und industriellen Partnern unter der Leitung des NREL und des KIT große Unterschiede in der wissenschaftlichen Auseinandersetzung mit diesen Produktionsverfahren auf. Tenure-Track-Professor Ulrich W. Paetzold vom Institut für Mikrostrukturtechnik sowie vom Lichttechnischen Institut des KIT erklärt: „98 Prozent aller wissenschaftlichen Studien im Jahr 2022 wurden zu lösungsmittelbasierten Verfahren publiziert. Vakuumbasierte Verfahren, die sich seit Jahrzehnten in der Industrie bewährt haben und eine Kommerzialisierung der Solarzellen entscheidend voranbringen könnten, werden stiefmütterlich behandelt.“

Zur Erläuterung: Bei der lösungsmittelbasierten Herstellung werden Tinten genutzt, in denen organische und anorganische Salze in einem Lösungsmittel gelöst werden. Diese Tinten können dann über verschiedene Drucktechniken auf der Oberfläche eines Substrats abgeschieden werden. Im Gegensatz dazu verwendet die vakuumbasierte Herstellung trockene und lösungsmittelfreie Verfahren. Dabei werden die Materialien in einem Vakuum unter Zufuhr von Wärme sublimiert, das heißt vom festen in den gasförmigen Aggregatszustand überführt und auf der Substratoberfläche kondensiert. Prinzipiell ist es auch möglich, beide Verfahren für die Herstellung von Perowskit-Solarzellen zu kombinieren.

Laborwirkungsgrade und Durchsatz sind nicht alles, wenn es um die Massenproduktion geht

In der Studie analysierten die Autorinnen und Autoren die Vor- und Nachteile beider Methoden. Die bisherige Dominanz der lösungsmittelbasierten Herstellung in der Forschung liegt demnach in der unkomplizierten Handhabung in Laboren, der sehr guten Ergebnisse im Hinblick auf den Wirkungsgrad unter Laborbedingungen und ihren geringen Kosten begründet. Dazu kommt die mögliche skalierbare Rolle-zu-Rolle-Fertigung, also die Endlosabscheidung zwischen zwei Rollen, ähnlich des Zeitungsdrucks.

Das vakuumbasierte Produktionsverfahren verursacht im Vergleich dazu etwas höhere Investitionskosten und liegt aktuell – legt man die in der Forschung angewandten Verfahren zugrunde – hinsichtlich der Abscheidungsgeschwindigkeit, das heißt dem Produktionsdurchsatz, noch im Hintertreffen. Die Autorinnen und Autoren zeigen jedoch eine Vielzahl von Lösungsansätzen auf und schätzen ab, dass es unter Berücksichtigung von realen Parametern wie Stromkosten, Produktionsertrag, Material-, Stilllegungs- oder Recyclingkosten konkurrenzfähig ist. Vor allem die gute Wiederholbarkeit der Abscheidung, die einfache Prozesskontrolle, die Verfügbarkeit von industriellem Prozessequipment und die einfache Skalierung der Abscheidung von den kleinen Solarzellenflächen aus dem Labor hin zu anwendungsrelevanten Produktflächen machen das Verfahren demnach hochinteressant für die Kommerzialisierung.  „Die vakuumbasierte Herstellung schneidet also besser ab als ihr Ruf“, so Tobias Abzieher (Swift Solar). Somit ist es auch nicht verwunderlich, dass die Autorinnen und Autoren in einem erstmalig veröffentlichten Überblick über Kommerzialisierungsaktivitäten in der Perowskit-Technologie bereits heute ein reges Interesse an vakuumbasierten Verfahren für die Herstellung von Perowskit-Solarzellen vonseiten der Industrie nachweisen konnten – trotz der Diskrepanz im Hinblick auf die hauptsächlich eingesetzte Methode in der Forschung.

Damit vakuumbasierte Verfahren ihre Skalierungseffekte voll ausspielen können, müsse die Herstellungsmethode dennoch weiter verbessert werden, so die Forschenden. Unter anderem müsse weiter an der Qualität der Abscheidung geforscht werden, um den Wirkungsgrad noch weiter zu steigern. Zudem gelte es, die Geschwindigkeit der Abscheidung deutlich zu erhöhen. „Vakuumbasierte Herstellungsverfahren sind nicht nur die erste Wahl der Industrie, wenn es darum geht, die Dünnschicht-Technologien zur Marktreife zu bringen. Unsere Analyse zeigt auch, dass die Verfahren wettbewerbsfähig mit lösungsmittelbasierten Ansätzen sind“, ergänzt David More vom NREL. (mfe)

 

3D-Blick ins Chaos

Mein persönlicher Kommentar:

Diese Frage hat mich persönlich immer wieder beschäftigt. Welche Kräfte bewirken, dass sich gegen den 2.. Hauptsatz der Dynamik trotzdem auch im Mikrokosmos  und im Weltall z. B. Leben entstanden auf einem außerordentlichen Planeten wie die Erde. Dabei spielt auch die Energie eine entscheidende Rolle. Kräfte, die sogar das einzelne Atom beeinflussen. Das alles unter der Maßnahme, dass es nur 3 Grundkräfte gibt:

1. Gravitation oder Massenanziehung. Sie wirkt in der räumlichen Unendlichkeit, ist aber auch dafür verantwortlich, dass wir – obwohl die Erde rotiert – nicht wegfliegen

2. Elektromagnetische Kraft. Sie ist die Kraft, die wir als Menschen unmittelbar erfahren. Wenn wir einen Körper anfühlen, wirkt er auf uns zurück. es ist also alles das, was auch unsere Sinne fühlen und sehen.

3. Kernkraft. Durch sie sind die Elemente entstanden, erstaunlich, dass es dem Menschen gelungen ist, Einblicke selbst in diese Mikrosphäre zu gewinnen.

Im folgenden Beitrag beweist menschliche Genialität, dass noch viele Einblicke in das chaotische Verhalten in Flüssigkeiten für die Forschung möglich werden. Immer geht es darum, Ordnung und Unordnung und ihre Übergänge zu beschreiben. Es wäre schön, wenn im Physik-Unterricht diese Ansätze gelehrt würden.

in den 80er Jahren habe ich eine in der Wissenschaft sehr beachtete Sendung in der ARD zum Thema ‚Synergetik – Ordnung aus dem Chaos‘ gemacht. Leider liegt sie nicht auf You Tube vor.

Jean Pütz

(Helmholtz) – Experimente mit Flüssigmetallen könnten nicht nur zu spannenden Erkenntnissen über geo- und astrophysikalische Strömungsphänomene führen, wie etwa den atmosphärischen Störungen am Sonnenrand oder der Strömung im äußeren Erdkern. Auch industrielle Anwendungen könnten davon profitieren, zum Beispiel das Abgießen von flüssigem Stahl. Da diese Fluide allerdings intransparent sind, fehlen immer noch geeignete Messtechniken. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun erstmalig mit einem vor Ort entwickelten Verfahren ein detailliertes dreidimensionales Abbild einer turbulenten temperaturgetriebenen Strömung in einem Flüssigmetall erhalten. In der Zeitschrift Journal of Fluid Mechanics (DOI: 10.1017/jfm.2023.794) berichten sie von den Herausforderungen, die sie dafür meistern mussten.

Seitdem Forschende die Eigenschaften turbulenter Strömungen in Fluiden erkunden, bedienen sie sich prinzipiell eines zunächst sehr einfach anmutenden Experiments: Sie füllen ihr Fluid in ein Gefäß, dessen Bodenplatte sie erhitzen und dessen Deckel sie gleichzeitig kühlen. Was dabei genau geschieht, erforscht ein Team vom Institut für Fluiddynamik am HZDR. „Überschreitet der Temperaturunterschied im Fluid eine bestimmte Grenze, wird der Wärmetransport drastisch erhöht“, sagt Teamleiter Dr. Thomas Wondrak. Das geschieht, weil sich eine sogenannte konvektive Strömung ausbildet, die die Wärme effektiv transportiert. Dabei dehnt sich die Flüssigkeit am Boden aus, wird leichter und steigt nach oben, während die kälteren Schichten oben aufgrund ihrer höheren Dichte nach unten sinken. „Anfangs bildet sich eine regelmäßige Zirkulation aus, aber bei höheren Temperaturdifferenzen wird die Strömung zunehmend turbulent. Diese dann auch korrekt dreidimensional abzubilden, ist eine Herausforderung“, beschreibt Wondrak kurz die Ausgangslage des Experiments.

Hier kommt die am HZDR entwickelte kontaktlose induktive Strömungstomographie (contactless inductive flow tomography: CIFT) ins Spiel: Mit ihrer Hilfe sind die Forschenden in der Lage, eine dreidimensionale Strömung in elektrisch leitfähigen Flüssigkeiten zu visualisieren. Dabei nutzen sie das Prinzip der Bewegungsinduktion: Legt man ein statisches Magnetfeld an, wird aufgrund der Flüssigkeitsbewegung ein elektrischer Strom im Fluid erzeugt. Diese Wirbelströme bewirken eine Änderung des ursprünglichen Magnetfeldes, die außerhalb des Gefäßes messbar ist. Auf diese Weise bildet sich die Strömungsstruktur in der Magnetfeldverteilung ab und kann mit einem geeigneten mathematischen Verfahren aus den Messdaten extrahiert werden. Diese Messtechnik hat das Team um Wondrak nun eingesetzt, um die temperaturgetriebene Strömung in einer Gallium-Indium-Zinn-Legierung zu messen, die schon bei rund 10 Grad Celsius schmilzt. Die zentrale Komponente des Experiments ist ein 64 Zentimeter hoher Zylinder, der mit einer ausgeklügelten Anordnung von 68 Sensoren zur Erfassung der Temperaturverteilung sowie 42 hochempfindlichen Magnetsensoren ausgestattet ist und in dem sich rund 50 Liter (ungefähr 350 Kilogramm) Flüssigmetall befinden.

Störungsarme nächtliche Experimente

Neben der anspruchsvollen Mathematik zur Rekonstruktion des Geschwindigkeitsfeldes aus den Magnetdaten liegen die Herausforderungen vor allem bei der Messung der sehr kleinen strömungsinduzierten Magnetfelder, da diese typischerweise etwa zwei bis fünf Größenordnungen kleiner als das angelegte Magnetfeld sind. Bei einem Erregerfeld von 1.000 Mikrotesla liegt das zu messende strömungsinduzierte Magnetfeld bei einer Größenordnung von 0,1 Mikrotesla. Zum Vergleich: Das Erdmagnetfeld, das auch erfasst und von den Werten der Messung abgezogen wird, ist etwa 50 Mikrotesla stark. „Kleinste elektromagnetische Störungen, die beispielsweise beim Einschalten von elektrischen Geräten entstehen, können das Messsignal überlagern und müssen herausgefiltert werden. Um den Einfluss der Störungen von vorn herein möglichst gering zu halten, experimentieren wir nur nachts“, erläutert Wondrak diese Besonderheit der Messungen. Jede dieser Nachtmessungen liefert eine große Menge an experimentellen Strömungsdaten, die den Forschenden einen völlig neuartigen Einblick in die komplizierten, sich ständig verändernden Strömungsstrukturen gewähren. Die experimentell erzielten Daten sind einzigartig, da numerische Simulationen für dieselben Strömungsparameter mit vergleichbarer Dauer selbst im heutigen Zeitalter der Hochleistungscomputer nicht in vertretbarer Zeit durchführbar sind.

Wondaks Team wendet moderne mathematische Konzepte an, um in den komplexen Geschwindigkeitsfeldern räumliche Strukturen zu erkennen. So konnten die Wissenschaftler*innen wiederkehrende Muster aus einer oder mehreren im Experimentier-Zylinder übereinanderliegenden rotierenden Wirbel identifizieren. Damit bringen sie zumindest ein wenig Ordnung in das turbulente Chaos und helfen damit unter anderem, den Zusammenhang zwischen Strömung und Wärmetransport besser zu verstehen.

Ausblick: Neue Ziele

Die im Laborexperiment gewonnenen Erkenntnisse können die Physiker*innen durch Anwendung dimensionsloser Kennzahlen, die ihren Ursprung in der Ähnlichkeitstheorie haben, auch auf wesentlich größere Dimensionen in der Geo- und Astrophysik übertragen, etwa auf Strömungsprozesse im Inneren von Planeten und Sternen.

Nachdem die Forschenden mit der aktuellen Veröffentlichung das Potential der kontaktlosen Strömungstomographie unter Beweis gestellt haben, wenden sie sich nun der Weiterentwicklung der Messmethode zu. Die Erweiterung um ein zusätzliches Anregungsmagnetfeld und die Verwendung neuartiger Magnetfeldsensoren versprechen dabei eine Steigerung der Messgenauigkeit. Wondraks Team ist optimistisch, mit dieser Methode bald noch tiefere Einblicke in turbulente Flüssigmetallströmungen zu gewinnen.