Archiv der Kategorie: Physik, Chemie, Technik

Stromspeicher auf dem Meeresgrund geplant

(pte) – Das israelische Start-up BaroMar baut vor der Küste Zyperns auf dem Meeresgrund einen neuen Stromspeicher, der sich an einem Konzept des Fraunhofer-Instituts für Energiewirtschaft und Energiesystemtechni  orientiert. An Land werden große Stahlbetontanks zum Bestimmungsort geschleppt. Dort laufen sie voll mit Meerwasser, sinken auf den Grund und werden dort durch Felsbrocken in einem Käfig auf dem Tank fixiert. Über ein Rohr sind sie mit dem Festland verbunden.

Dort befindet sich ein reversibler Turbogenerator. Er kann im Motormodus Luft in den Tank pumpen, sodass das Wasser herausgedrückt wird. Wird Strom benötigt, öffnen sich Ventile, die das Wasser in den Tank zurückströmen lassen und die darin befindliche Luft mit hohem Druck herauspressen. Diese strömt in den Turbogenerator und erzeugt dort Strom. Dieser Zyklus lässt sich beliebig oft wiederholen.

Tanks für vier Megawattstunden

Laut BaroMar-Gründer Yonadav Buber lassen sich die Stromspeicher problemlos installieren, weil sie die Schifffahrt nicht behindern. Sie würden in Tiefen von bis zu 700 Metern verankert. Auch die Küsten selbst würden kaum beeinträchtigt – der Turbogenerator benötige lediglich ein kleines Gebäude. Lärm dringe nicht nach außen. Für Zypern plant er mehrere Tanks, die vier Megawattstunden speichern können. Die Kosten sollen mit 100 Dollar pro Megawattstunde niedriger sein als bei anderen Stromspeicherlösungen.

Buber betont, dass die benötigten technologischen Komponenten ausgereift sind und keiner umfangreichen Entwicklung bedürfen, im Gegensatz zu anderen neuen Technologien zur Langzeitspeicherung von Energie. Er weist darauf hin, dass die wichtigsten Herausforderungen, die zwischen dem Pilotprojekt und dem kommerziellen Einsatz liegen, lediglich rechtliche und technische Anforderungen im Zusammenhang mit dem Meer sind.

Batterien: Heute die Materialien von morgen modellieren

(KIT) – Die Forschung zu neuen Batteriematerialien zielt nicht nur darauf, Leistung und Lebensdauer zu optimieren sowie Kosten zu senken. Vielmehr geht es auch darum, seltene Elemente wie Lithium und Kobalt sowie toxische Bestandteile zu reduzieren. Als vielversprechend gelten Natrium-Ionen-Batterien, die auf ähnlichen Prinzipien basieren wie Lithium-Ionen-Batterien, sich jedoch aus in Europa ausreichend verfügbaren Rohstoffen herstellen lassen. Sie eignen sich für stationäre und mobile Anwendungen. „Als Materialien für die Kathode sind Schichtoxide wie Natrium-Nickel-Manganoxide vielversprechend“, berichtet Dr. Simon Daubner, Gruppenleiter am Institut für Angewandte Materialien – Mikrostruktur-Modellierung und Simulation (IAM-MMS) des KIT und korrespondierender Autor der Studie. Im Exzellenzcluster POLiS (steht für: Post Lithium Storage) forscht er an der Natrium-Ionen-Technologie.

Beim schnellen Laden kommt es zu mechanischen Spannungen

Bei diesen Kathodenmaterialien gibt es allerdings ein Problem: Natrium-Nickel-Manganoxide ändern ihre Kristallstruktur, je nachdem, wie viel Natrium gerade gespeichert ist. Wird das Material langsam geladen, geht alles geordnet zu. „Schicht für Schicht geht das Natrium aus dem Material – wie in einem Parkhaus, das sich etagenweise leert“, erklärt Daubner. „Aber wenn es schnell gehen muss, wird das Natrium von allen Seiten herausgezogen.“ Dadurch kommt es zu mechanischen Spannungen, die das Material dauerhaft schädigen können.

Forschende am Institut für Nanotechnologie (INT) und am IAM-MMS des KIT haben nun gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern an der Universität Ulm und am Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) diese Zusammenhänge mithilfe von Simulationen aufgedeckt und berichten darüber in npj Computational Materials, einer Zeitschrift aus dem Nature-Portfolio.

Experimente bestätigen Simulationsergebnisse

„Computermodelle können verschiedene Längenskalen beschreiben, von der Anordnung der Atome in Elektrodenmaterialien über deren Mikrostruktur bis hin zur Zelle als funktionale Einheit jeder Batterie“, sagt Daubner. Diese verbinden Mikrostrukturmodelle mit langsamen Lade- und Entladeexperimenten, um das Schichtoxid NaXNi1/3Mn2/3O2 zu untersuchen. Das Material weist mehrere Degradationsmechanismen auf, die zu Kapazitätsverlust führen. Daher taugt es derzeit noch nicht für kommerzielle Anwendungen. Wenn sich die Kristallstruktur ändert, kommt es zu einer elastischen Verformung. Der Kristall schrumpft, was zu Rissen führen kann und die verfügbare Kapazität mindert. Wie am INT und am IAM-MMS vorgenommene Simulationen zeigten, ist dieser mechanische Einfluss so stark, dass er maßgeblich beeinflusst, wie schnell sich das Material laden lässt. Experimentelle Untersuchungen am ZSW bestätigten die Ergebnisse.

Die in der Studie gewonnenen Erkenntnisse lassen sich teilweise auf andere Schichtoxide übertragen. „Da wir nun die grundlegenden Vorgänge verstehen, können wir uns in weiteren Arbeiten der Entwicklung von Batteriematerialien widmen, die langlebig sind und sich möglichst schnell laden lassen“, fasst Daubner zusammen. Dadurch könnte der großflächige Einsatz von Natrium-Ionen-Batterien in fünf bis zehn Jahren Wirklichkeit werden. (or)

Verbrenner gewinnt – Tesla Verliert

(Pioneer) – E-Autohersteller: Tesla hat im vergangenen Quartal den ersten Umsatzrückgang seit fast vier Jahren verbucht. Die Erlöse fielen im Jahresvergleich um neun Prozent auf 21,3 Milliarden Dollar. Unterm Strich fiel der Quartalsgewinn um 55 Prozent auf 1,13 Milliarden Dollar. Tesla trifft nach rasantem Wachstum in den vergangenen Jahren auf eine schwächere Nachfrage sowie wachsende Konkurrenz vor allem aus China.

Neue Modelle, besser als erwartete Marge: Tesla bestätigte aber, dass neue Modelle in die Produktion gehen sollen. Die sollen auch schon früher kommen als gedacht. Man werde die ursprünglich für das zweite Halbjahr 2025 geplante Produktion auf den Jahresanfang 2025 oder gar auf Ende 2024 vorziehen, sagte Tesla-Chef Elon Musk. Die Bruttomarge fiel auf 17,4 Prozent. Analysten hatten jedoch noch Schlimmeres erwartet. Die Anleger an der Wall Street feierten das mit einem nachbörslichen Aktienplus von 11 Prozent.

Der Blick nach Deutschland: Firmenchef Elon Musk lässt gerade mehr als jeden zehnten Job weltweit streichen. Am Standort in Grünheide bei Berlin plant Tesla, 400 Stellen abzubauen. Im Rahmen eines Freiwilligenprogramms soll die Belegschaft – inzwischen arbeiten über 12.000 Menschen in der Fabrik – reduziert werden. Die Verträge mit 300 Leiharbeitern wurden bereits nicht verlängert.

Strömungsforschung am Rand des Weltraums

(HZDR) – Zur Beschreibung einer wichtigen Klasse von Durchmischungseffekten, die beispielsweise bei der Strömung in einem chemischen Reaktor auftreten, werden seit Jahren verschiedenste Modelle entwickelt. Doch deren experimentelle Validierung hinkt aufgrund der Überlagerung mit Schwerkrafteffekten deutlich hinterher. Ein europäisches Forschungsteam mit Beteiligung des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) und Partnern aus der Universität Szeged (Ungarn) und der Université libre de Bruxelles (Belgien) hat diese Lücke nun durch Experimente unter Schwerelosigkeit geschlossen. Ihre Resultate haben die Forschenden kürzlich im Nature Journal npj Microgravity publiziert
Sogenannte Reaktions-Diffusions-Fronten entstehen, wenn zwei chemische Stoffe miteinander reagieren und sich gleichzeitig in einem Raum ausbreiten. Wissenschaftler*innen können damit Probleme in Chemie und Physik, aber auch aus ganz anderen Bereichen wie etwa der Finanzwelt oder den Sprachwissenschaften modellieren und besser verstehen, da die zugrundeliegenden mathematischen Gleichungen dieselben Eigenschaften aufweisen. Komplexer wird es, wenn die Forschenden diese Reaktionen mit Strömungen kombinieren. Solche Prozesse sind wichtig für technologische Anwendungen rund um Verbrennungsprozesse, der Geologie, bei der Herstellung bestimmter Stoffe und der Speicherung von Kohlendioxid. Trotz der vielfältigen Anwendungen sind wesentliche Teile dieser Systeme noch nicht vollständig verstanden.
„Bisherige Experimente zur Überprüfung von Modellen solcher Prozesse sind aufgrund von Auftriebseffekten verzerrt. Ursache dafür sind Dichteunterschiede zwischen den Reaktionslösungen. Um dieses Problem zu isolieren, haben wir an Bord einer Höhenforschungsrakete Experimente in der Schwerelosigkeit durchgeführt. Parallel dazu haben unsere Partner numerische Simulationen gemacht, um die Bedeutung von zweidimensionalen Effekten zu zeigen, die in einfachen eindimensionalen Modellen nicht berücksichtigt werden können“, umreißt Dr. Karin Schwarzenberger vom HZDR-Institut für Fluiddynamik kurz die Arbeit ihres Teams.
Raketenstart am Polarkreis
Das Experiment fand bereits am 1. Oktober 2022 statt – an Bord der Höhenforschungsrakete TEXUS-57, die vom Esrange Space Center, 40 Kilometer östlich vom schwedischen Kiruna gelegen, startete. Das Kooperationsprojekt von Airbus Defense & Space, der Europäischen Raumfahrtagentur ESA und dem Deutschen Zentrum für Luft- und Raumfahrt beförderte unter anderem auch das Experimentiermodul des Teams um Schwarzenberger an den Rand des Weltalls. Das Modul trug drei verschieden dimensionierte Reaktoren, die aus unterschiedlich eng übereinanderliegenden Glasscheiben bestehen. Die Rakete kam auf eine Höhe von etwa 240 Kilometern. Dabei wurde für knapp sechs Minuten ein Zustand annähernder Schwerelosigkeit erreicht, in dem die Forschenden ihre Experimente automatisiert ablaufen ließen – Experimente, für deren akribische Planung mehrere Jahre notwendig waren. Mit dem Eintreten der Schwerelosigkeit wurde die Reaktion gestartet. Drei hochauflösende Kameras filmten die Reaktionsfronten, die sich zwischen zwei strömenden Flüssigkeiten ausbreiten. Diese Aufnahmen waren es, denen der ganze Aufwand des Teams galt: Mit ihrer Hilfe können die Forschenden nun einen ganz bestimmten Durchmischungseffekt von anderen Strömungsphänomenen trennen.
Strömungsphysik in der Schwerelosigkeit
Strömungen in Flüssigkeitskanälen haben durch die Wandreibung eine ungleichmäßige Geschwindigkeitsverteilung, die in der Folge den Transport von gelösten Stoffen und diffundierenden Reaktionspartnern in der Flüssigkeit beeinflusst. Dieser Diffusionseffekt ist bekannt als Taylor-Aris-Dispersion, benannt nach den beiden Forschern, die bereits in den 1950er Jahren das Fundament für ihr Verständnis legten. Um das Zusammenspiel von Taylor-Aris-Dispersion und Reaktion der Stoffe zu beschreiben, wurden in theoretischen Arbeiten in der Vergangenheit unterschiedlich komplexe Modelle vorgeschlagen.
Im Hinblick auf Anwendungen ist es jedoch wichtig abzuschätzen, unter welchen Voraussetzungen die verschiedenen Modelle angewendet werden können. Dazu wurden Experimente notwendig, die die Taylor-Aris-Dispersion von anderen Strömungsphänomenen isolieren können. Auf der Erde ist die Taylor-Aris-Dispersion vor allem von Auftriebseffekten überlagert, die durch die Schwerkraft verursacht werden. Bislang haben Wissenschaftler*innen sich damit beholfen, die Auftriebseffekte durch den Einsatz von flachen Reaktoren zu minimieren – vollständig gelang das jedoch nie. Denn es muss immer noch ein gewisser Bereich von Reaktorhöhen und Strömungsgeschwindigkeiten abgedeckt werden, um viele Anwendungsgebiete zu erfassen. Doch je größer das Strömungssystem ist, desto stärker wirkt die Schwerkraft. In der Schwerelosigkeit konnten die Forschenden diese Einschränkungen nun überwinden.
Der Vergleich mit den Referenzexperimenten am Boden zeigte, dass bei größeren Reaktorhöhen unter Schwerelosigkeit deutlich weniger Reaktionsprodukt entsteht. Noch wichtiger waren die Bilddaten der Reaktionsfronten, die nicht durch die Auftriebseffekte verzerrt wurden. So konnten die Brüsseler Partner die Entwicklung der Front mit den verschiedenen theoretischen Modellen nachbilden. Die gemeinsame Auswertung ergab, dass in sehr flachen Reaktoren mit langsamer Strömung einfache eindimensionale Modelle verwendet werden können. Bei größeren Reaktoren oder schnellerer Strömung sind aber zweidimensionale Modelle mit Taylor-Aris-Dispersion nötig. Innerhalb dieser Gültigkeitsbereiche können die entsprechenden Korrelationsbeziehungen nun zur Vorhersage der Produktbildung genutzt werden. Dies findet Anwendung bei der Auslegung von innovativen Reaktoren, der gezielten Synthese von Partikeln und dem Flüssigkeitstransport in geologischen Schichten, aber auch bei der Versorgung von Raumstationen, wo andere Gravitationsbedingungen als auf der Erde herrschen.

Solarzellen neue Dimension

Erstmals hat das Solarforschungsinstitut Fraunhofer ISE eine TOPCon-Solarzelle im M10-Format hergestellt und damit 24 Prozent Wirkungsgrad erreicht. Ziel ist es, Industriepartner bei der Entwicklung von Photovoltaik-Modulen mit Solarzellen im großflächigen Format zu unterstützen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat als erstes europäisches Forschungsinstitut den Umstieg auf großflächige M10-Silizium-Wafer vollzogen. In der Photovoltaik-Industrie geht der Trend zu immer größeren Solarzellen. Während 2018 Wafer mit 156,75 Millimetern Kantenlänge noch 80 Prozent des Marktes ausmachten, dominiert mittlerweile das Waferformat mit einer Kantenlänge von 182 Millimetern – die quadratischen Solarzellen tragen den Handelsnamen M10. Solarmodule mit großem Zellformat sind nicht nur in den Herstellungskosten überlegen, sondern auch in Leistung und Effizienz. Große Photovoltaik-Unternehmen haben daher ihre Investitionen auf großflächige Wafer ausgerichtet.

Das Fraunhofer ISE hat mit der Prozessierung von TOPCon-Solarzellen (TOPCon steht für Tunnel Oxide Passivated Contact) in seinem Technologie-Evaluationszentrum PV-TEC den Umstieg auf das neue Format vollzogen. Das Institut können jetzt Industriepartner dabei unterstützen, mit diesem großflächigen Format ihre Technologieentwicklung zu optimieren oder ganz neu in die Produktion solcher Solarzellen einzusteigen, so Sabrina Lohmüller. Die Physikerin ist stellvertretende Leiterin der Abteilung Silizium- und Perowskit-Silizium Tandemsolarzellen und auch für das Qualitätsmanagement im PV-TEC verantwortlich.

Die hocheffiziente TOPCon-Zellarchitektur hat das Fraunhofer ISE entwickelt und 2013 erstmalig mit Rekordwirkungsgrad präsentiert. In den letzten beiden Jahren wurde die Produktionskapazität weltweit massiv ausgebaut. 2024 werden TOPCon-Solarzellen laut der vom VDMA publizierten International Roadmap Photovoltaics bereits knapp 50 Prozent Marktanteil erreichen.

Mittelfristiges Ziel: Siliziumbasierte Tandem-Solarzellen auf Basis der M10-Silizium-Wafer

Die beim Photovoltaik-Technologiebeiratstreffen erstmals vor Industrievertretern und Fördermittelgebern präsentierte TOPCon-Solarzelle großen Formats haben Forscher:innen des Fraunhofer ISE vollständig prozessiert. Die hocheffiziente, ungefähr 120 µm dünne Solarzelle hat man mit siebgedruckten Kontaktfingern metallisiert und im CalTeC am Institut für Solarenergieforschung in Hameln (ISFH) kalibriert. Die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer ISE metallisieren M10-Solarzellen auch mit galvanisch abgeschiedenem Kupfer.

„Mit dem ersten Los einen Wirkungsgrad von 24,0 Prozent zu erreichen, legt nahe, dass wir mit den nächsten Optimierungsschritten 25 Prozent übertreffen werden. Darüber hinaus schaffen wir damit ein Fundament für unser mittelfristiges Ziel in Richtung großflächiger siliziumbasierten Tandem-Solarzellen, mit einem Wirkungsgradpotenzial von weit über 30 Prozent“, sagt Ralf Preu, Bereichsleiter Photovoltaik am Fraunhofer ISE.

Zukunft der Architektur in sieben Trends … Mit einer Einführung von Jean Pütz

Schon im Jahr 1990, als die Gebäude 40% des CO2 Ausstoßes Deutschlands bewirkten, habe ich, Jean Pütz, im technologischen Flaggschiff des WDRs „Bilder aus der Wissenschaft“ zwei Sendungen zu diesem Thema moderiert und das Drehbuch erstellt. Den Energieverlust in den Gebäuden habe ich mit großen Ballons, die den CO2-Ausstoß symbolisierten demonstriert. Auch heute hat sich an der Situation wenig geändert. Immer noch sind die Gebäude für mindestens 35% CO2-Ausstoß in Deutschland verantwortlich. Hier die Links der beiden Sendungen aus Juli und August 1990:

Bilder aus der Wissenschaft Youtube Folge 1

Bilder aus der Wissenschaft Youtube Folge 2

Reaktionen der Politik gleich 0. Die Photovoltaik war damals noch so teuer, dass ich diese nicht berücksichtigte. Unter diesen Aspekten gibt es heutzutage natürlich wesentlich mehr Möglichkeiten der Energieeinsparung. Ja sogar Häuser sind erschwinglich, die mehr Energie im Jahresverlauf erzeugen als sie für Heizung, Klimaanlagen und Sonstiges benötigen. Persönlich ist es mir gelungen zwei Häuser dieser Art zu bauen. Sie sind nich teurer als herkömmliche und durch ökologisdche Wärmeisolation (Holzwolle) und einer Thermosolaranlage mit Wärmespeicher von 3000l und einer Photovoltaikanlage (20 kWp). Diese Anlagen existieren bereits seit 15 Jahren. Heutzutage ist sie mindestens um die Hälfte preiswerter zu erreichten.

Lesen Sie dazu jetzt diesen Beitrag, dem Thema habe ich übrigens bereits 1970 eine Sendung gewidmet im WDR Fernsehen unter dem Titel „Stein auf Stein“ und forderte ein Apolloprogramm für die Bauwirtschaft. Damals war schon absehbar, dass modernes Bauen dringend notwendig wurde, schon allein aus sozialen Gründen. Aber der Ruf verhalte ungehört in der Medienwüste.“

(pts)- Der Hamburger Architekt Dipl. Arch. Justus Asselmeyer unterstreicht eine internationale Studie, die sieben wichtige Trends in der Architektur aus den Aussagen von Architekten und Bauprofis in zwölf Ländern herausgefiltert hat. „Diese Trends decken sich mit meiner Vision der ‚Identitätsarchitektur'“, so Asselmeyer, der auf eine neue Generation von Architekten hofft, denen Nachhaltigkeit und identitätsstarke Gebäudearchitektur wichtig sind.

Wichtigster Trend: Nachhaltigkeit

Angesichts der Auswirkungen des Klimawandels überrascht diese Priorität nicht. Aber erst in den letzten Jahren wurde die sogenannte „graue Energie“ auch zu einem wichtigen Kriterium am Bau. „Nachhaltigkeit umfasst jedoch verschiedene Aspekte, die von den verschiedenen Ländern auch unterschiedlich interpretiert werden. Die meisten Länder legen Wert auf die Null-Emissions-Bauweise als Merkmal zukünftiger Bauvorhaben. Es geht darum, Gebäude so zu gestalten, dass während des Baus so wenig CO2 wie möglich freigesetzt wird, so wenig Material wie nötig verwendet, aber auch entsorgt werden muss und die entstehenden Emissionen anderweitig kompensiert werden“, so Asselmeyer.

Trend: Geänderte urbane Mobilität

Die Zukunft der Architektur liegt auch in geänderten Mobilitätskonzepten, in denen der Fokus auf Fußgängern, Fahrrädern, dem öffentlichen Nahverkehr und der Integration erneuerbarer Energien liegt. Asselmeyer: „Zudem spielt die Wahl der Baumaterialien eine Rolle, wobei moderner Beton, Holz und andere natürliche Baustoffe, aber auch recycelte Materialien in Zukunft vermehrt zum Einsatz kommen sollen.“

Trend: Null-Emissions-Gebäude

„Ein wirklich innovativer Trend ist der Bau von Gebäuden, bei denen während des gesamten Lebenszyklus keine CO2-Emissionen entstehen. Eine große Herausforderung für die Haustechnik, aber natürlich auch für die Architekten und Baufirmen“, betont Asselmeyer. Echter Vorreiter ist hier das Prinzip 22-26, entwickelt von Baumschlager Eberle Architekten, welches über das gesamte Jahr ohne Haustechnik und nur durch das Nutzen der solaren Wärme sowie der Abwärme der Nutzer eine Temperatur von 22 bis 26°C sicherstellt.

Trend: Lebensqualität

Egal, ob Wohnen oder Arbeiten: Der Fokus liegt auf der Lebensqualität und einem menschenzentrierten Design, bei dem Gebäude so gestaltet werden, dass sie das Wohlbefinden und die Gesundheit der Menschen verbessern.

Trend: Gebäude im Kontext mit seiner Umwelt

Die Architektur der Zukunft wird verstärkt lokale Ressourcen, Umweltbedingungen und extreme Wetterbedingungen berücksichtigen. Es geht darum, Gebäude in Einklang mit ihrer Umgebung zu entwickeln und widerstandsfähiger gegen die Auswirkungen des Klimawandels zu machen. Aber auch mit deutlich mehr Rücksicht auf ihre Umgebung. Umwelttechnisch und geschichtlich in Bezug auf die gewachsene Identität der Bewohner der Gegend.

Trend: Nachnutzung und Wiederverwendung

Ein wichtiger Trend ist auch die Wiederverwendung und Umnutzung von bestehenden Gebäuden, um Ressourcen zu schonen und nachhaltiges Bauen zu fördern. Zusätzlich wird verstärkt auf lokale Stadtplanung geachtet, um die Abhängigkeit vom Auto zu reduzieren und die Lebensqualität zu verbessern.

Trend: Nachhaltige Stadtplanung

Architekt Dipl. Arch. Justus Asselmeyer unterstützt vor allem auch den Trend einer verstärkten lokalen Stadtplanung, um die Abhängigkeit vom Auto zu verringern und auch die Nahversorgung zu gewährleisten. Hier gibt es in Amerika schon viele Gegenden, die komplett von der Lebensmittelversorgung abgeschnitten sind. Das darf bei uns nicht passieren. Egal, ob Lebensmittelläden, Schulen, Freizeitanlagen, Gesundheitsdienste bis hin zu Co-Working-Spaces: Alles sollte in fußläufiger Entfernung zu den Wohnanlagen liegen.

All das ist der Mega-Zukunftstrend = Identitätsarchitektur

Asselmeyers Ansatz betont die Bedeutung von Nachhaltigkeit, Kontextualisierung und menschenzentriertem Design. Er geht davon aus, dass die Architektur der Zukunft eine ganzheitliche Sichtweise haben sollte, die die Bedürfnisse der Menschen, die Umwelt und die Aspekte der Nachhaltigkeit berücksichtigt.

Mit seiner Expertise und innovativen Projekten trägt Asselmeyer dazu bei, dass die Architektur der Zukunft den globalen Trends entspricht und eine nachhaltige und lebenswerte Umgebung schafft. Durch seinen Beitrag zur Entwicklung von Identitätsarchitektur zeigt er, wie Architektur zu einer besseren Welt beitragen kann.

Wasserstoffspeicherung in Magnesium

(pte) – Forscher der Polnischen Akademie der Wissenschaften haben mit Kollegen des Eidgenössischen Insituts für Materialwissenschaften und Technologie und der Universität Zürich ein neues Modell der thermodynamischen und Elektronenprozesse entwickelt, die in Magnesium beim Kontakt mit Wasserstoffatomen ablaufen. Magnesiumhydrid gilt seit Jahrzehnten als aussichtsreicher Kandidat zur Speicherung von gasförmigem Wasserstoff bei normalem Luftdruck und Umgebungstemperatur. Doch die Menge pro Volumeneinheit reichte bei weitem nicht, um das Verfahren im Vergleich zur Speicherung unter hohem Druck oder in flüssiger Form bei einer Temperatur von minus 253 Grad Celsius konkurrenzfähig zu machen.

Zweierpack ist zu trennen

Wasserstoff kann von Magnesiumhydrid nur aufgenommen werden, wenn er atomar vorliegt. Normalerweise handelt es sich jedoch um ein Zweierpack, das mithilfe eines Katalysators getrennt werden muss. Das gelingt bisher nicht so wirksam, dass sich das Speichern lohnt. Die Forscher konnten nun aber zeigen, dass der Grund für das langjährige Scheitern in einem unvollständigen Verständnis der Phänomene liegt, die bei der Wasserstoffinjektion im Magnesium auftreten.

Das Modell sagt voraus, dass sich bei der Wanderung von Wasserstoffatomen lokale, thermodynamisch stabile Magnesiumhydrid-Cluster im Material bilden. An den Grenzen zwischen dem metallischen Magnesium und seinem Hydrid kommt es dann zu Veränderungen in der elektronischen Struktur des Materials, die maßgeblich zur Verringerung der Beweglichkeit von Wasserstoff-Ionen beitragen. Sie gelangen also nicht schnell genug in den Speicher hinein und können nicht alle freien Speicherplätze besetzen.

Katalysator gezielt möglich

Mit diesem Know-how glauben die Forscher, gezielt einen Katalysator entwickeln zu können, der diese Wasserstoffbremse löst. Theoretisch ist Magnesiumhydrid den anderen Speichermöglichkeiten weit überlegen. Es kann pro Volumeneinheit 50 Prozent mehr Wasserstoff aufnehmen als Kryospeicher, in denen das Gas in flüssiger Form vorliegt, und sogar mehr als doppelt so viel wie ein Drucktank. Zudem ist die Speicherung in Hydrid absolut sicher, wie es heißt. Es kann somit keine Brände und erst recht keine Explosionen geben.

Perowskit-Solarzellen: Vakuumverfahren kann zur Marktreife führen

(KIT) – Weltweit arbeiten Forschung und Industrie an der Kommerzialisierung der Perowskit-Photovoltaik. In den meisten Forschungslaboren stehen lösungsmittelbasierte Herstellungsverfahren im Fokus, da diese vielseitig und einfach anzuwenden sind. Etablierte Photovoltaikfirmen setzen heute jedoch fast ausschließlich auf Vakuumverfahren zur Abscheidung von hochqualitativen Dünnschichten. Ein internationales Konsortium unter der Leitung des Karlsruher Instituts für Technologie (KIT) und des U.S. Department of Energy’s National Renewable Energy Laboratory (NREL, USA) hat diese kritische Diskrepanz zwischen Labor und Industrie analysiert. Sie heben hervor: Industriell erprobte Vakuumverfahren könnten mit gewissen Verbesserungen zur schnellen Kommerzialisierung bei den Perowskit-Solarzellen beitragen.

Perowskit-Silizium-Tandemsolarzellen haben in den vergangenen zehn Jahren eine rasante Entwicklung durchlaufen: In der Forschung konnten Wirkungsgrade von mehr als 33 Prozent erreicht werden. Damit liegen sie bereits heute über den herkömmlichen siliziumbasierten Solarzellen. Die Marktreife steht allerdings noch aus. Eine der Hürden ist die ungeklärte Frage, mit welchem Verfahren sich Perowskit-Solarzellen als Massenprodukt am besten herstellen lassen. Dabei stehen lösungsmittelbasierte Herstellungsverfahren, die in den Laboren weltweit angewandt werden, Dampfphasenabscheidungsverfahren im Vakuum gegenüber, die auch heute noch Standard in der Herstellung von Dünnschichten in der Photovoltaik oder bei der Produktion organischer Leuchtdioden (OLEDs) sind.

In einer aktuellen Vergleichsstudie zeigte ein internationales Konsortium aus akademischen und industriellen Partnern unter der Leitung des NREL und des KIT große Unterschiede in der wissenschaftlichen Auseinandersetzung mit diesen Produktionsverfahren auf. Tenure-Track-Professor Ulrich W. Paetzold vom Institut für Mikrostrukturtechnik sowie vom Lichttechnischen Institut des KIT erklärt: „98 Prozent aller wissenschaftlichen Studien im Jahr 2022 wurden zu lösungsmittelbasierten Verfahren publiziert. Vakuumbasierte Verfahren, die sich seit Jahrzehnten in der Industrie bewährt haben und eine Kommerzialisierung der Solarzellen entscheidend voranbringen könnten, werden stiefmütterlich behandelt.“

Zur Erläuterung: Bei der lösungsmittelbasierten Herstellung werden Tinten genutzt, in denen organische und anorganische Salze in einem Lösungsmittel gelöst werden. Diese Tinten können dann über verschiedene Drucktechniken auf der Oberfläche eines Substrats abgeschieden werden. Im Gegensatz dazu verwendet die vakuumbasierte Herstellung trockene und lösungsmittelfreie Verfahren. Dabei werden die Materialien in einem Vakuum unter Zufuhr von Wärme sublimiert, das heißt vom festen in den gasförmigen Aggregatszustand überführt und auf der Substratoberfläche kondensiert. Prinzipiell ist es auch möglich, beide Verfahren für die Herstellung von Perowskit-Solarzellen zu kombinieren.

Laborwirkungsgrade und Durchsatz sind nicht alles, wenn es um die Massenproduktion geht

In der Studie analysierten die Autorinnen und Autoren die Vor- und Nachteile beider Methoden. Die bisherige Dominanz der lösungsmittelbasierten Herstellung in der Forschung liegt demnach in der unkomplizierten Handhabung in Laboren, der sehr guten Ergebnisse im Hinblick auf den Wirkungsgrad unter Laborbedingungen und ihren geringen Kosten begründet. Dazu kommt die mögliche skalierbare Rolle-zu-Rolle-Fertigung, also die Endlosabscheidung zwischen zwei Rollen, ähnlich des Zeitungsdrucks.

Das vakuumbasierte Produktionsverfahren verursacht im Vergleich dazu etwas höhere Investitionskosten und liegt aktuell – legt man die in der Forschung angewandten Verfahren zugrunde – hinsichtlich der Abscheidungsgeschwindigkeit, das heißt dem Produktionsdurchsatz, noch im Hintertreffen. Die Autorinnen und Autoren zeigen jedoch eine Vielzahl von Lösungsansätzen auf und schätzen ab, dass es unter Berücksichtigung von realen Parametern wie Stromkosten, Produktionsertrag, Material-, Stilllegungs- oder Recyclingkosten konkurrenzfähig ist. Vor allem die gute Wiederholbarkeit der Abscheidung, die einfache Prozesskontrolle, die Verfügbarkeit von industriellem Prozessequipment und die einfache Skalierung der Abscheidung von den kleinen Solarzellenflächen aus dem Labor hin zu anwendungsrelevanten Produktflächen machen das Verfahren demnach hochinteressant für die Kommerzialisierung.  „Die vakuumbasierte Herstellung schneidet also besser ab als ihr Ruf“, so Tobias Abzieher (Swift Solar). Somit ist es auch nicht verwunderlich, dass die Autorinnen und Autoren in einem erstmalig veröffentlichten Überblick über Kommerzialisierungsaktivitäten in der Perowskit-Technologie bereits heute ein reges Interesse an vakuumbasierten Verfahren für die Herstellung von Perowskit-Solarzellen vonseiten der Industrie nachweisen konnten – trotz der Diskrepanz im Hinblick auf die hauptsächlich eingesetzte Methode in der Forschung.

Damit vakuumbasierte Verfahren ihre Skalierungseffekte voll ausspielen können, müsse die Herstellungsmethode dennoch weiter verbessert werden, so die Forschenden. Unter anderem müsse weiter an der Qualität der Abscheidung geforscht werden, um den Wirkungsgrad noch weiter zu steigern. Zudem gelte es, die Geschwindigkeit der Abscheidung deutlich zu erhöhen. „Vakuumbasierte Herstellungsverfahren sind nicht nur die erste Wahl der Industrie, wenn es darum geht, die Dünnschicht-Technologien zur Marktreife zu bringen. Unsere Analyse zeigt auch, dass die Verfahren wettbewerbsfähig mit lösungsmittelbasierten Ansätzen sind“, ergänzt David More vom NREL. (mfe)

 

3D-Blick ins Chaos

Mein persönlicher Kommentar:

Diese Frage hat mich persönlich immer wieder beschäftigt. Welche Kräfte bewirken, dass sich gegen den 2.. Hauptsatz der Dynamik trotzdem auch im Mikrokosmos  und im Weltall z. B. Leben entstanden auf einem außerordentlichen Planeten wie die Erde. Dabei spielt auch die Energie eine entscheidende Rolle. Kräfte, die sogar das einzelne Atom beeinflussen. Das alles unter der Maßnahme, dass es nur 3 Grundkräfte gibt:

1. Gravitation oder Massenanziehung. Sie wirkt in der räumlichen Unendlichkeit, ist aber auch dafür verantwortlich, dass wir – obwohl die Erde rotiert – nicht wegfliegen

2. Elektromagnetische Kraft. Sie ist die Kraft, die wir als Menschen unmittelbar erfahren. Wenn wir einen Körper anfühlen, wirkt er auf uns zurück. es ist also alles das, was auch unsere Sinne fühlen und sehen.

3. Kernkraft. Durch sie sind die Elemente entstanden, erstaunlich, dass es dem Menschen gelungen ist, Einblicke selbst in diese Mikrosphäre zu gewinnen.

Im folgenden Beitrag beweist menschliche Genialität, dass noch viele Einblicke in das chaotische Verhalten in Flüssigkeiten für die Forschung möglich werden. Immer geht es darum, Ordnung und Unordnung und ihre Übergänge zu beschreiben. Es wäre schön, wenn im Physik-Unterricht diese Ansätze gelehrt würden.

in den 80er Jahren habe ich eine in der Wissenschaft sehr beachtete Sendung in der ARD zum Thema ‚Synergetik – Ordnung aus dem Chaos‘ gemacht. Leider liegt sie nicht auf You Tube vor.

Jean Pütz

(Helmholtz) – Experimente mit Flüssigmetallen könnten nicht nur zu spannenden Erkenntnissen über geo- und astrophysikalische Strömungsphänomene führen, wie etwa den atmosphärischen Störungen am Sonnenrand oder der Strömung im äußeren Erdkern. Auch industrielle Anwendungen könnten davon profitieren, zum Beispiel das Abgießen von flüssigem Stahl. Da diese Fluide allerdings intransparent sind, fehlen immer noch geeignete Messtechniken. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun erstmalig mit einem vor Ort entwickelten Verfahren ein detailliertes dreidimensionales Abbild einer turbulenten temperaturgetriebenen Strömung in einem Flüssigmetall erhalten. In der Zeitschrift Journal of Fluid Mechanics (DOI: 10.1017/jfm.2023.794) berichten sie von den Herausforderungen, die sie dafür meistern mussten.

Seitdem Forschende die Eigenschaften turbulenter Strömungen in Fluiden erkunden, bedienen sie sich prinzipiell eines zunächst sehr einfach anmutenden Experiments: Sie füllen ihr Fluid in ein Gefäß, dessen Bodenplatte sie erhitzen und dessen Deckel sie gleichzeitig kühlen. Was dabei genau geschieht, erforscht ein Team vom Institut für Fluiddynamik am HZDR. „Überschreitet der Temperaturunterschied im Fluid eine bestimmte Grenze, wird der Wärmetransport drastisch erhöht“, sagt Teamleiter Dr. Thomas Wondrak. Das geschieht, weil sich eine sogenannte konvektive Strömung ausbildet, die die Wärme effektiv transportiert. Dabei dehnt sich die Flüssigkeit am Boden aus, wird leichter und steigt nach oben, während die kälteren Schichten oben aufgrund ihrer höheren Dichte nach unten sinken. „Anfangs bildet sich eine regelmäßige Zirkulation aus, aber bei höheren Temperaturdifferenzen wird die Strömung zunehmend turbulent. Diese dann auch korrekt dreidimensional abzubilden, ist eine Herausforderung“, beschreibt Wondrak kurz die Ausgangslage des Experiments.

Hier kommt die am HZDR entwickelte kontaktlose induktive Strömungstomographie (contactless inductive flow tomography: CIFT) ins Spiel: Mit ihrer Hilfe sind die Forschenden in der Lage, eine dreidimensionale Strömung in elektrisch leitfähigen Flüssigkeiten zu visualisieren. Dabei nutzen sie das Prinzip der Bewegungsinduktion: Legt man ein statisches Magnetfeld an, wird aufgrund der Flüssigkeitsbewegung ein elektrischer Strom im Fluid erzeugt. Diese Wirbelströme bewirken eine Änderung des ursprünglichen Magnetfeldes, die außerhalb des Gefäßes messbar ist. Auf diese Weise bildet sich die Strömungsstruktur in der Magnetfeldverteilung ab und kann mit einem geeigneten mathematischen Verfahren aus den Messdaten extrahiert werden. Diese Messtechnik hat das Team um Wondrak nun eingesetzt, um die temperaturgetriebene Strömung in einer Gallium-Indium-Zinn-Legierung zu messen, die schon bei rund 10 Grad Celsius schmilzt. Die zentrale Komponente des Experiments ist ein 64 Zentimeter hoher Zylinder, der mit einer ausgeklügelten Anordnung von 68 Sensoren zur Erfassung der Temperaturverteilung sowie 42 hochempfindlichen Magnetsensoren ausgestattet ist und in dem sich rund 50 Liter (ungefähr 350 Kilogramm) Flüssigmetall befinden.

Störungsarme nächtliche Experimente

Neben der anspruchsvollen Mathematik zur Rekonstruktion des Geschwindigkeitsfeldes aus den Magnetdaten liegen die Herausforderungen vor allem bei der Messung der sehr kleinen strömungsinduzierten Magnetfelder, da diese typischerweise etwa zwei bis fünf Größenordnungen kleiner als das angelegte Magnetfeld sind. Bei einem Erregerfeld von 1.000 Mikrotesla liegt das zu messende strömungsinduzierte Magnetfeld bei einer Größenordnung von 0,1 Mikrotesla. Zum Vergleich: Das Erdmagnetfeld, das auch erfasst und von den Werten der Messung abgezogen wird, ist etwa 50 Mikrotesla stark. „Kleinste elektromagnetische Störungen, die beispielsweise beim Einschalten von elektrischen Geräten entstehen, können das Messsignal überlagern und müssen herausgefiltert werden. Um den Einfluss der Störungen von vorn herein möglichst gering zu halten, experimentieren wir nur nachts“, erläutert Wondrak diese Besonderheit der Messungen. Jede dieser Nachtmessungen liefert eine große Menge an experimentellen Strömungsdaten, die den Forschenden einen völlig neuartigen Einblick in die komplizierten, sich ständig verändernden Strömungsstrukturen gewähren. Die experimentell erzielten Daten sind einzigartig, da numerische Simulationen für dieselben Strömungsparameter mit vergleichbarer Dauer selbst im heutigen Zeitalter der Hochleistungscomputer nicht in vertretbarer Zeit durchführbar sind.

Wondaks Team wendet moderne mathematische Konzepte an, um in den komplexen Geschwindigkeitsfeldern räumliche Strukturen zu erkennen. So konnten die Wissenschaftler*innen wiederkehrende Muster aus einer oder mehreren im Experimentier-Zylinder übereinanderliegenden rotierenden Wirbel identifizieren. Damit bringen sie zumindest ein wenig Ordnung in das turbulente Chaos und helfen damit unter anderem, den Zusammenhang zwischen Strömung und Wärmetransport besser zu verstehen.

Ausblick: Neue Ziele

Die im Laborexperiment gewonnenen Erkenntnisse können die Physiker*innen durch Anwendung dimensionsloser Kennzahlen, die ihren Ursprung in der Ähnlichkeitstheorie haben, auch auf wesentlich größere Dimensionen in der Geo- und Astrophysik übertragen, etwa auf Strömungsprozesse im Inneren von Planeten und Sternen.

Nachdem die Forschenden mit der aktuellen Veröffentlichung das Potential der kontaktlosen Strömungstomographie unter Beweis gestellt haben, wenden sie sich nun der Weiterentwicklung der Messmethode zu. Die Erweiterung um ein zusätzliches Anregungsmagnetfeld und die Verwendung neuartiger Magnetfeldsensoren versprechen dabei eine Steigerung der Messgenauigkeit. Wondraks Team ist optimistisch, mit dieser Methode bald noch tiefere Einblicke in turbulente Flüssigmetallströmungen zu gewinnen.

 

Wasserstofffusion in der Sonne

(Helmholtz) – Die nukleare Astrophysik untersucht die Entstehung der Elemente im Universum seit Anbeginn der Zeit. Ihre Modelle verwenden Parameter, die die Forschenden aus Messdaten gewinnen. Eine wichtige Rolle spielen dabei Kernreaktionen, die im Inneren der Sterne ablaufen. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun gemeinsam mit Forschenden aus Italien, Ungarn und Schottland am Dresdner Felsenkeller- Beschleuniger erneut eine der zentralen Reaktionen untersucht – mit einem überraschenden Ergebnis, wie sie im Fachmagazin Physical Review C (berichten.

 „Wir haben eine altbekannte Kernreaktion unter die Lupe genommen, die für die Elemententstehung in massereichen Sternen bedeutsam und darüber hinaus eine der frühesten ist, die im Labor mit Beschleunigern untersucht wurde: Die Kollision eines Wasserstoffkerns mit einem Kohlenstoffkern, in deren Folge das Isotop Stickstoff-13 entsteht und Gammastrahlung freigesetzt wird. Sie ist der erste Schritt des sogenannten CNO-Zyklus, auch als Bethe-Weizsäcker-Zyklus bekannt. Wir waren vor allem am Wirkungsquerschnitt dieser Reaktion interessiert, der Auskunft über die Wahrscheinlichkeit ihres Auftretens gibt“, sagt Prof. Daniel Bemmerer vom HZDR-Institut für Strahlenphysik.

Diesen Parameter hat ein Team aus italienischen, ungarischen, schottischen und deutschen Wissenschaftler*innen im Untertagelabor Felsenkeller nun mit bisher beispielloser Präzision bestimmt. Das überraschende Ergebnis: der bisher akzeptierte Wert muss um rund 25 Prozent nach unten korrigiert werden. Das Ergebnis legt nahe, dass das Einbrennen des CNO-Zyklus länger gedauert hat als bisher gedacht und die Emission solarer 13N-Neutrinos im Mittel näher am Zentrum der Sonne stattfindet als vermutet. Die neuen Daten erlauben zudem genauere theoretische Vorhersagen für das Verhältnis der Kohlenstoff-Isotope 12C/13C in Sternen, die wiederum helfen, Modelle für die Vorgänge in deren Innerem zu überprüfen und zu verbessern.

Die Sonne ins Labor holen – en miniature
Sterne beziehen ihre Energie aus der Fusion von Wasserstoff zu Helium. In Abhängigkeit der Masse des Himmelskörpers sind dafür unterschiedliche Prozesse bekannt. So läuft in massearmen Sternen wie unserer Sonne vor allem die sogenannte Proton-Proton-Kette ab. In massereichen Sternen pressen die starken Gravitationskräfte die Wasserstoffkerne jedoch so sehr zusammen, dass hier deutlich höhere Temperaturen herrschen. Dadurch können die Wasserstoffkerne zusätzlich mit Kohlenstoffkernen reagieren. Obwohl diese keine zwei Prozent der interstellaren Materie ausmachen, aus der Sterne entstehen, reicht diese Konzentration aus, um den CNO-Zyklus in Gang zu bringen und am Laufen zu halten. Sie wirken dabei als Katalysator: Sie beschleunigen die Reaktion, ohne jedoch selbst dabei verbraucht zu werden. Die Netto-Reaktion ist am Ende die gleiche wie beim Proton-Proton-Zyklus: die Fusion von Wasserstoff zu Helium. Doch in Sternen mit CNO-Zyklus läuft diese Reaktion wesentlich schneller ab.

„Als Targets verwenden wir Scheiben aus Tantal, auf die Kohlenstoff aufgedampft ist. Darauf schießen wir Protonen, die aus unserem 5-MV-Pelletron-Beschleuniger stammen und einen relativ weiten Energiebereich überstreichen. Die bei der Reaktion entstehenden Gammaquanten können wir mit 20 empfindlichen Reinstgermanium-Detektoren nachweisen“, schildert Bemmerer das experimentelle Vorgehen.

Das gemeinsam vom HZDR und der TU Dresden betriebene Untertagelabor Felsenkeller im Plauenschen Grund ist für solche Messungen optimal. Eine 45 Meter dicke Felsschicht im Stollen des ehemaligen Eislagers der Dresdner Felsenkeller-Brauerei schützt die Detektoren vor kosmischer Strahlung, deren Hintergrundsignale die Ergebnisse verfälschen können. Die aktuelle Arbeit ist darüber hinaus ein gutes Beispiel für die innereuropäische Zusammenarbeit in der Astrophysik-Community: Ein Doktorand der Universität Padua forschte während des Experiments für sechs Monate am Felsenkeller. Die Teilnahme weiterer Messgäste aus Italien, Ungarn und Schottland wurde von der EU im Rahmen des Projekts „ChETEC-INFRA“ finanziell unterstützt.