Alle Beiträge von Minge

Die großen Fehler der EU-Präsidentin Ursula v. d. Leyen

(Pioneer) – Wie die Endmoräne eines Gletschers, so ragt Ursula von der Leyen aus der Merkelzeit in die Gegenwart hinein. Sie will – aus persönlich nachvollziehbaren Gründen – für eine zweite Amtszeit als EU-Kommissionspräsidentin kandidieren. Hier sind die 7 Gründe, warum das für Europa keine gute Idee ist:

#1 Europa wurde zum Schuldner

Sie hat Europa, das über keine eigenen Steuereinnahmen verfügt, als Schuldner an den Kapitalmarkt herangeführt. Erstmals in der Geschichte der EU hat sich die Gemeinschaft im Zuge der Coronakrise für das Wiederaufbauprogramm „Next Generation EU“ selbst verschuldet.

Es geht um ein Volumen von 750 Milliarden Euro, die nun als Gemeinschaftsschulden existieren. De facto hat von der Leyen damit Eurobonds eingeführt. Nur zur Erinnerung: Die Union hatte ihren Wählern versprochen, dass das niemals passieren würde.

#2 Europa kommt beim Freihandel nicht voran

In der für den Kontinent überlebenswichtigen Handelspolitik konnte diese Präsidentin keine Impulse setzen. Und wenn sie doch Impulse setzte, dann in die falsche Richtung.

An vorderster Stelle trat sie als Befürworterin harter Wirtschaftssanktionen gegen Russland auf, die in ihrer Konsequenz nicht die russische Volkswirtschaft, sondern die europäischen Volkswirtschaften schädigten. Im Chinahandel folgte sie treuherzig den Amerikanern, die ihren Erzrivalen aus Asien gerne mithilfe des Protektionismus loswerden wollen.

Von der Leyen hat es nicht geschafft, das Freihandelsabkommen mit den vier südamerikanischen Mercosur-Staaten vom Konzeptpapier in die Wirklichkeit zu befördern. Der Grund: Sie unternahm den untauglichen Versuch, die Idee einer wertegebundenden Außenpolitik auf die Handelsbeziehungen zu übertragen. Das stößt weltweit auf allergische Abwehrreaktionen. In Asien und Lateinamerika will man gerne europäische Waren importieren, aber nicht die politischen Vorgaben der EU-Kommissionspräsidentin. Die sind international unverkäuflich.

#3 Sündenfall: Green Deal

Die 34 Gesetzentwürfe unter der Überschrift „Green Deal“ haben Europa weiter denn je von einer funktionierenden Marktwirtschaft entfernt. Der Staat will nicht nur in der Energiepolitik – Stichwort Strommarktdesign – die entscheidende Rolle spielen, sondern greift auch tief in die industriellen Wertschöpfungsketten des Kontinents ein.

Mit dem Verbot der Neuzulassung von Verbrennermotoren setzte Ursula von der Leyen ein Symbol ihrer grünen Gesinnung, das der Kontinent allerdings – und hier insbesondere die Automobilnationen Italien, Frankreich und Deutschland – mit Wohlstandsverlusten bezahlen wird.

Von der Leyen ist der weibliche Robert Habeck. Ihr Rivale und intimer Feind, der EVP-Fraktionschef Manfred Weber (CSU), will das für 2035 geplante Verbrenner-Aus verständlicherweise rückgängig machen. Die Automobilindustrie steht auf seiner Seite.

#4 Europa wurde zum Feindesland für die Künstliche Intelligenz

Der „AI Act“ – das Gesetz zur Regulierung Künstlicher Intelligenz (KI) – ist politisch korrekt und ökonomisch unbrauchbar. Die europäischen KI-Forscher haben die Aufholjagd zu den USA verloren, bevor sie sie begonnen haben.

Sie werden von der EU-Kommissionspräsidentin dazu verdonnert, ihre Arbeit künftig engmaschig zu dokumentieren und auch die Trainingsdaten gegenüber dem Staat transparent zu machen. Da es in den USA solche Vorschriften nicht gibt und eine gemeinsame transatlantische Regulierung nicht zustande kam, betrat Europa das neue Zeitalter mit Bleigewichten an den Füßen.

#5 Europa ohne Kapitalmarkt

Die dringend notwendige Kapitalmarktunion, also die Harmonisierung der Geldkreisläufe, kam in ihrer Amtszeit nicht voran. In den USA stellt der Marktwert börsennotierter Unternehmen 160 Prozent des Bruttoinlandsproduktes (BIP) dar, in Frankreich mehr als 80 Prozent, in Deutschland weniger als 60 Prozent. Dies hat vor allem damit zu tun, dass dem Kapitalmarkt in Europa die Tiefe fehlt. Also wenige Investoren, kleinere Börsenbewertungen und kleine Indizes.

#6 Europa versagt in der Migrationspolitik

Dieses Scheitern wiegt politisch am schwersten, weil es den Aufstieg der Rechtspopulisten überall in Europa begünstigt. Erst gestern meldete das Bundesinnenministerium einen erneuten Anstieg der festgenommenen Schleuser an den deutschen Grenzen; in den ersten elf Monaten des Jahres 2023 wurden bundesweit 2.767 Schleuser aufgegriffen. Im Jahr 2022 wurden 2.728 und im Jahr davor 2.132 Schleuser gefasst. Während der großen Flüchtlingsströme 2015 wurde ein Rekordwert von 5.226 Personen gemessen.

Der Syrer Hasan gab gegenüber der Tagesschau zu Protokoll, dass sein Vater umgerechnet 4.100 Euro für die Überfahrt seines Sohnes nach Italien bezahlt habe. Andere sagen, sie hätten bis zu 6.000 Euro für einen Platz im Boot bezahlt. Ein Schlepper aus Tunesien, den die italienische Zeitung La Repubblica interviewte, nennt sein Geschäftsmodell „ein illegales Reisebüro“.

Die Expansion dieser Menschengeschäfte unter den Augen des Staates nehmen die Bürger der Politik übel. Oder anders gesagt: Der Aufstieg der AfD ist auch das Werk einer Politikerin wie Ursula von der Leyen.

#7 Europa wurde international marginalisiert

In ihrer Amtszeit konnte die europäische Außen- und Militärpolitik keinerlei Konturen gewinnen. Amerika bestimmt im Westen wie gehabt das Geschehen. Die Russen trumpfen auf – auf dem europäischen Gefechtsfeld mit ihrer Armee und in den europäischen Datennetzen mit ihren Trollfarmen.

Die Überlegungen zur europäischen Verteidigung kommen nicht voran und Ursula von der Leyen schaut tatenlos zu, wie Donald Trump und führende Republikaner die EU den Russen zum Fraß vorwerfen. Erst kürzlich sagte Trump bei einer Wahlkampfveranstaltung:

Fazit: Ursula von der Leyen hat ihre Chance gehabt. Die Ära Merkel ist vorbei. Und vielleicht kann ja beim nächsten Mal nicht der Hinterzimmer-Poker der Regierungschefs entscheiden, sondern das Volk in Gestalt seiner Volksvertretung. Das nennt man in den Schulbüchern: Demokratie.

Klimawandel und Versicherung

(Pioneer) – Das berühmte Essay der Frauenrechtlerin Carol Hanischs „The Personal Is Political“ erfährt im Zuge des Klimawandels eine neue Interpretation. Wieder sind es die privaten Verhältnisse – diesmal die von Wohn- und Hauseigentümern –, die im Zuge extremer Wetterlagen politisch geworden sind. Es geht diesmal nicht um Geschlechter-, es geht um Eigentumsfragen.

Warum das wichtig ist: Die Versicherungsbranche muss feststellen, dass ihre Risikomodelle im Zeitalter der extremen Wetterphänomene nicht mehr funktionieren. Das Ganze hat enorme Auswirkungen auf die Stabilität der Prämien, auf die Versicherungsbilanzen und die soziale Frage der westlichen Mittelstandsgesellschaften.

Politiker und Finanzmarktregulierer sind alarmiert. Vor wenigen Wochen hat das US-Finanzministerium erstmals Daten bei den Versicherern angefragt, um das Ausmaß künftiger Verwerfungen besser beurteilen zu können. Die Financial Times kommt in ihrem gestrigen Report zu einem für Firmen und Hauseigentümer verstörenden Resultat:

Das sind die fünf unbequemen Fakten, die man zu diesem Thema heute Morgen wissen sollte:

1. Die Extremwetter nehmen zu.

Die Zahl der Naturkatastrophen steigt weiter an. Allein 2023 starben bei Extremwetter-Ereignissen weltweit rund 74.000 Menschen und damit fast doppelt so viele wie im 30-Jahre-Durchschnitt, wo 40.000 Tote gezählt wurden. Das geht aus dem aktuellen Naturkatastrophenreport des weltgrößten Rückversicherers hervor, der Munich Re.

Das Erdbeben im Südosten der Türkei und Syrien sorgte weltweit für die schadensreichste Katastrophe 2023. Im Februar starben dort fast 60.000 Menschen. Der Vorstandschef der Rückversicherung, Thomas Blunck, obwohl routiniert im Umgang mit Schadensereignissen, ist berührt:

2. Die Schadenssummen explodieren.

Diese Entwicklung spiegelt sich auch in den jährlichen Schadenssummen wider. Insgesamt entstanden 2023 Schäden durch Überschwemmungen, Erdbeben und Brände in Höhe von 250 Milliarden US-Dollar, wovon nur 95 Milliarden US-Dollar versichert waren – 67 Prozent über dem 30-Jahres-Durchschnitt.

Weltweit warnen Führungskräfte davor, dass die Versicherungspreise nach einer Reihe von extremen Wetterereignissen auf dem Kontinent weiter steigen müssen. „Wir können solche Ereignisse nicht mehr als zweitrangig bezeichnen“, sagt Ernst Rauch, leitender Klimawissenschaftler bei Munich Re.

3. Die Risikomodelle der Versicherer versagen.

Führungskräfte der Versicherungswirtschaft geben hinter vorgehaltener Hand den Risikoanalysen, auf die sich die Versicherer bei der Prognose von Schäden stützen, eine Teilschuld an der Misere. Die Modelle würden die Beschleunigung, die Häufigkeit und die Schwere extremer Wetterereignisse nicht korrekt abbilden.

Zugleich scheut sich die Versicherungsindustrie, ihre Modellierung von Risiken der neuen Wirklichkeit anzupassen. Die Auswirkungen auf die Prämiensysteme bergen sozialen Sprengstoff: In Australien würde demnach einer von 25 Haushalten bis 2030 nicht versicherbar sein, so das dortige Climate Council.

4. Ein weltweites Re-Pricing

Dennoch: Für Hausbesitzer, die in Regionen leben, wo extreme Wetterereignisse wie Stürme, Überschwemmungen und Waldbrände immer häufiger und heftiger auftreten werden, werden die Kosten ihrer Versicherung deutlich steigen. „Dies ist das erste Mal, dass wir eine Rechnung für den Klimawandel an den Verbraucher weitergeben“, sagte Christian Mumenthaler, Vorstandsvorsitzender von Swiss Re, einem der größten Rückversicherer der Welt, im Januar in Davos.

Steigende Versicherungsprämien seien eine Art CO2-Aufschlag für die Verbraucher, sagte er, und die höheren Kosten resultieren daraus, „dass wir so leben, wie wir gelebt haben“.

5. Vorsicht Steuerzahler: Das kann teuer werden.

Zwischen Politik und Versicherungen ist ein „blame game“ entstanden. Jeder weist dem anderen die Schuld zu. Swiss Re schreibt in einem Report:

In den USA, Großbritannien und zahlreichen anderen Ländern hilft bereits Steuerzahlergeld, um die Risiken der Bürger abzudecken. Etwa in Kalifornien, wo Hausbesitzer in vielen Regionen ihren Versicherungsschutz aufgrund des erhöhten Risikos von Waldbränden verloren haben, wurde der vom Bundesstaat finanzierte FAIR Plan ins Leben gerufen. Inzwischen sind mehr als 270.000 Hausbesitzer über das Programm versichert, doppelt so viele wie noch 2018.

Michael Steel, Leiter der Risikoanalyse-Firma Moody’s RMS, die Modelle anbietet, mit denen Versicherer ihre potenziellen Verluste durch Naturkatastrophen abschätzen können, kritisiert die Branche scharf. Sie dürfe sich nicht aus der Verantwortung stehlen,

Fazit: Die Politik des Nichthörens, Nichtsehens und Nichtsprechens kann nur giftige Früchte tragen. Die seriöse Befassung mit den Klimafolgen für die privaten Haushalte ist nicht schick und nicht grün, sondern ökonomisch geboten. Auch der Haus- und Städtebau muss neu gedacht werden.

Wasserstoffspeicherung in Magnesium

(pte) – Forscher der Polnischen Akademie der Wissenschaften haben mit Kollegen des Eidgenössischen Insituts für Materialwissenschaften und Technologie und der Universität Zürich ein neues Modell der thermodynamischen und Elektronenprozesse entwickelt, die in Magnesium beim Kontakt mit Wasserstoffatomen ablaufen. Magnesiumhydrid gilt seit Jahrzehnten als aussichtsreicher Kandidat zur Speicherung von gasförmigem Wasserstoff bei normalem Luftdruck und Umgebungstemperatur. Doch die Menge pro Volumeneinheit reichte bei weitem nicht, um das Verfahren im Vergleich zur Speicherung unter hohem Druck oder in flüssiger Form bei einer Temperatur von minus 253 Grad Celsius konkurrenzfähig zu machen.

Zweierpack ist zu trennen

Wasserstoff kann von Magnesiumhydrid nur aufgenommen werden, wenn er atomar vorliegt. Normalerweise handelt es sich jedoch um ein Zweierpack, das mithilfe eines Katalysators getrennt werden muss. Das gelingt bisher nicht so wirksam, dass sich das Speichern lohnt. Die Forscher konnten nun aber zeigen, dass der Grund für das langjährige Scheitern in einem unvollständigen Verständnis der Phänomene liegt, die bei der Wasserstoffinjektion im Magnesium auftreten.

Das Modell sagt voraus, dass sich bei der Wanderung von Wasserstoffatomen lokale, thermodynamisch stabile Magnesiumhydrid-Cluster im Material bilden. An den Grenzen zwischen dem metallischen Magnesium und seinem Hydrid kommt es dann zu Veränderungen in der elektronischen Struktur des Materials, die maßgeblich zur Verringerung der Beweglichkeit von Wasserstoff-Ionen beitragen. Sie gelangen also nicht schnell genug in den Speicher hinein und können nicht alle freien Speicherplätze besetzen.

Katalysator gezielt möglich

Mit diesem Know-how glauben die Forscher, gezielt einen Katalysator entwickeln zu können, der diese Wasserstoffbremse löst. Theoretisch ist Magnesiumhydrid den anderen Speichermöglichkeiten weit überlegen. Es kann pro Volumeneinheit 50 Prozent mehr Wasserstoff aufnehmen als Kryospeicher, in denen das Gas in flüssiger Form vorliegt, und sogar mehr als doppelt so viel wie ein Drucktank. Zudem ist die Speicherung in Hydrid absolut sicher, wie es heißt. Es kann somit keine Brände und erst recht keine Explosionen geben.

Perowskit-Solarzellen: Vakuumverfahren kann zur Marktreife führen

(KIT) – Weltweit arbeiten Forschung und Industrie an der Kommerzialisierung der Perowskit-Photovoltaik. In den meisten Forschungslaboren stehen lösungsmittelbasierte Herstellungsverfahren im Fokus, da diese vielseitig und einfach anzuwenden sind. Etablierte Photovoltaikfirmen setzen heute jedoch fast ausschließlich auf Vakuumverfahren zur Abscheidung von hochqualitativen Dünnschichten. Ein internationales Konsortium unter der Leitung des Karlsruher Instituts für Technologie (KIT) und des U.S. Department of Energy’s National Renewable Energy Laboratory (NREL, USA) hat diese kritische Diskrepanz zwischen Labor und Industrie analysiert. Sie heben hervor: Industriell erprobte Vakuumverfahren könnten mit gewissen Verbesserungen zur schnellen Kommerzialisierung bei den Perowskit-Solarzellen beitragen.

Perowskit-Silizium-Tandemsolarzellen haben in den vergangenen zehn Jahren eine rasante Entwicklung durchlaufen: In der Forschung konnten Wirkungsgrade von mehr als 33 Prozent erreicht werden. Damit liegen sie bereits heute über den herkömmlichen siliziumbasierten Solarzellen. Die Marktreife steht allerdings noch aus. Eine der Hürden ist die ungeklärte Frage, mit welchem Verfahren sich Perowskit-Solarzellen als Massenprodukt am besten herstellen lassen. Dabei stehen lösungsmittelbasierte Herstellungsverfahren, die in den Laboren weltweit angewandt werden, Dampfphasenabscheidungsverfahren im Vakuum gegenüber, die auch heute noch Standard in der Herstellung von Dünnschichten in der Photovoltaik oder bei der Produktion organischer Leuchtdioden (OLEDs) sind.

In einer aktuellen Vergleichsstudie zeigte ein internationales Konsortium aus akademischen und industriellen Partnern unter der Leitung des NREL und des KIT große Unterschiede in der wissenschaftlichen Auseinandersetzung mit diesen Produktionsverfahren auf. Tenure-Track-Professor Ulrich W. Paetzold vom Institut für Mikrostrukturtechnik sowie vom Lichttechnischen Institut des KIT erklärt: „98 Prozent aller wissenschaftlichen Studien im Jahr 2022 wurden zu lösungsmittelbasierten Verfahren publiziert. Vakuumbasierte Verfahren, die sich seit Jahrzehnten in der Industrie bewährt haben und eine Kommerzialisierung der Solarzellen entscheidend voranbringen könnten, werden stiefmütterlich behandelt.“

Zur Erläuterung: Bei der lösungsmittelbasierten Herstellung werden Tinten genutzt, in denen organische und anorganische Salze in einem Lösungsmittel gelöst werden. Diese Tinten können dann über verschiedene Drucktechniken auf der Oberfläche eines Substrats abgeschieden werden. Im Gegensatz dazu verwendet die vakuumbasierte Herstellung trockene und lösungsmittelfreie Verfahren. Dabei werden die Materialien in einem Vakuum unter Zufuhr von Wärme sublimiert, das heißt vom festen in den gasförmigen Aggregatszustand überführt und auf der Substratoberfläche kondensiert. Prinzipiell ist es auch möglich, beide Verfahren für die Herstellung von Perowskit-Solarzellen zu kombinieren.

Laborwirkungsgrade und Durchsatz sind nicht alles, wenn es um die Massenproduktion geht

In der Studie analysierten die Autorinnen und Autoren die Vor- und Nachteile beider Methoden. Die bisherige Dominanz der lösungsmittelbasierten Herstellung in der Forschung liegt demnach in der unkomplizierten Handhabung in Laboren, der sehr guten Ergebnisse im Hinblick auf den Wirkungsgrad unter Laborbedingungen und ihren geringen Kosten begründet. Dazu kommt die mögliche skalierbare Rolle-zu-Rolle-Fertigung, also die Endlosabscheidung zwischen zwei Rollen, ähnlich des Zeitungsdrucks.

Das vakuumbasierte Produktionsverfahren verursacht im Vergleich dazu etwas höhere Investitionskosten und liegt aktuell – legt man die in der Forschung angewandten Verfahren zugrunde – hinsichtlich der Abscheidungsgeschwindigkeit, das heißt dem Produktionsdurchsatz, noch im Hintertreffen. Die Autorinnen und Autoren zeigen jedoch eine Vielzahl von Lösungsansätzen auf und schätzen ab, dass es unter Berücksichtigung von realen Parametern wie Stromkosten, Produktionsertrag, Material-, Stilllegungs- oder Recyclingkosten konkurrenzfähig ist. Vor allem die gute Wiederholbarkeit der Abscheidung, die einfache Prozesskontrolle, die Verfügbarkeit von industriellem Prozessequipment und die einfache Skalierung der Abscheidung von den kleinen Solarzellenflächen aus dem Labor hin zu anwendungsrelevanten Produktflächen machen das Verfahren demnach hochinteressant für die Kommerzialisierung.  „Die vakuumbasierte Herstellung schneidet also besser ab als ihr Ruf“, so Tobias Abzieher (Swift Solar). Somit ist es auch nicht verwunderlich, dass die Autorinnen und Autoren in einem erstmalig veröffentlichten Überblick über Kommerzialisierungsaktivitäten in der Perowskit-Technologie bereits heute ein reges Interesse an vakuumbasierten Verfahren für die Herstellung von Perowskit-Solarzellen vonseiten der Industrie nachweisen konnten – trotz der Diskrepanz im Hinblick auf die hauptsächlich eingesetzte Methode in der Forschung.

Damit vakuumbasierte Verfahren ihre Skalierungseffekte voll ausspielen können, müsse die Herstellungsmethode dennoch weiter verbessert werden, so die Forschenden. Unter anderem müsse weiter an der Qualität der Abscheidung geforscht werden, um den Wirkungsgrad noch weiter zu steigern. Zudem gelte es, die Geschwindigkeit der Abscheidung deutlich zu erhöhen. „Vakuumbasierte Herstellungsverfahren sind nicht nur die erste Wahl der Industrie, wenn es darum geht, die Dünnschicht-Technologien zur Marktreife zu bringen. Unsere Analyse zeigt auch, dass die Verfahren wettbewerbsfähig mit lösungsmittelbasierten Ansätzen sind“, ergänzt David More vom NREL. (mfe)

 

Elektronischer Turmbau zu Babel?

(Pioneer) – Wenn wir die Gegenwart von allen Geräuschen und Blendeffekten befreien, dann hören und sehen wir klarer. Manchmal bekommen wir die Gegenwart sogar in zwei Worten zu packen, die sich ihrerseits in ein Kürzel pressen und in einer Aktie verdichten lassen.

Diese Aktie ist derzeit Nvidia. Der Chiphersteller steht für das neue Zeitalter der Künstlichen Intelligenz, das in der Geheimsprache von Wirtschaftsführern und Börsianern nur als KI bezeichnet wird.

Das Unternehmen schlägt mit seinen KI-Chips Quartal für Quartal die Erwartungen der Analysten. Die Aktie kletterte bisher auf sagenhafte Höhen. Die Börse bewertet Nvidia inzwischen mit zwei Billionen Dollar. Das entspricht dem Bruttoinlandsprodukt Italiens. Aufklärung tut also not:

Die Firma

Das Tech-Unternehmen Nvidia wurde 1993 von dem taiwanesisch-amerikanischen Elektroingenieur Jensen Huang (61) zusammen mit Chris Malachowsky (64) und Curtis Priem (64) gegründet. Die drei wollten die Rechenleistung von Computern verbessern, besonders bei Videospielen und der Grafikbearbeitung sahen sie großes Wachstumspotenzial. Mit einem Startkapital von 40.000 Dollar wurde Nvidia gegründet.

Heute ist Nvidia Marktführer im Bereich Grafikkarten und Chipsätze und die Börsenbewertung liegt bei gut zwei Billionen Dollar. Hinter Microsoft, Apple und Saudi Aramco steht Nvidia damit auf Platz vier der wertvollsten Unternehmen der Welt. Im Fiskaljahr 2024, das am 31.01.2024 zu Ende ging, erzielte die Firma einen Nettogewinn von 29,7 Milliarden US-Dollar – ein sagenhaftes Plus von 580 Prozent im Vergleich zum Vorjahr.

CEO und Gründer Jensen Huang ist dadurch Milliardär geworden. Er hält rund drei Prozent der Aktien seines Unternehmens, Huangs Vermögen wird von Forbes inzwischen auf über 70 Milliarden Dollar geschätzt.

Der Markt

Ein KI-Modell, auch neuronales Netz genannt, ist im Wesentlichen eine „mathematische Lasagne“, wie Nvidia es nennt, die aus mehreren Schichten linearer Algebra-Gleichungen besteht. Die tausenden winzigen Recheneinheiten einer Grafikkarte arbeiten parallel, um diese „Lasagne“ eines KI-Modells zu zerlegen, sodass eine Künstliche Intelligenz innerhalb weniger Sekunden brauchbare Antworten liefern kann.

Diese Hardware liefert Nvidia mit seinen Chips, die in den Rechenzentren von Kunden wie Meta oder Microsoft verbaut werden. ChatGPT wurde mit Hilfe von tausenden Nvidia-Grafikkarten entwickelt und läuft heute auf Datenzentren, die mit Nvidia-Hardware ausgestattet sind. Im Segment der KI-Chips kommt Nvidia derzeit auf einen Marktanteil von über 90 Prozent.

Nvidias wichtigstes Produkt ist derzeit der Grafikchip H100. Er ist einer der leistungsfähigsten Chips und das derzeit begehrteste elektronische Bauteil der Welt. Das Angebot kann die Nachfrage auf dem Weltmarkt derzeit nicht befriedigen. Das bedeutet: Nvidia besitzt eine Preisfestsetzungsmacht.

Die Hoffnung

Nvidia-CEO Jensen Huang sieht die Menschheit durch KI am Beginn einer neuen Industriellen Revolution. Seine Vision ist der Aufbau einer weltweiten KI-Infrastruktur, um Quantensprünge in der heutigen Rechenleistung zu erzielen.

Die Hoffnung besteht darin, dass Nvidia einen Megatrend der Globalökonomie bedient. Das glaubt auch eine Reihe namhafter Analysten, die trotz der Rally der Nvidia-Aktie (über 1.000 Prozent seit 2020) und einer hohen Bewertung weiterhin zum Kauf der Aktie raten. Das durchschnittliche Kursziel liegt bei 873 US-Dollar (aktueller Kurs 798 US-Dollar).

Der Hype

Die Begründung für weitere Kurssteigerungen fußt in allen Analysen auf dem hohen Umsatzwachstum – und dessen erhoffter Fortsetzung. Laut Vivek Arya von der Bank of America sei die Bewertung darum weiterhin „überzeugend“. KI stecke noch in den Kinderschuhen. Durch die marktbeherrschende Stellung und Partnerschaften (wie beispielsweise mit Dell, SAP und ServiceNow) könnten die Anleger hier noch weitere Allzeithochs erwarten.

Der aktuell größte Optimist der Analystenriege ist Ananda Baruah von Loop Capital. Er erwartet für die Nvidia-Aktie Kurse um 1.200 US-Dollar. Das wäre ein nochmaliges Kursplus von 50 Prozent. Baruah geht davon aus, dass Nvidia weiterhin die Analystenschätzungen Quartal für Quartal schlagen wird.

Denn die Konkurrenz schläft nicht. Advanced Micro Devices (AMD) aus Santa Clara in Kalifornien produziert inzwischen einen leistungsstärkeren KI-Chip – und ist dabei günstiger als Nvidia. AMDs neue, im Dezember gelaunchte KI-Chips MI300X arbeiten nach eigener Aussage 1,6-mal so schnell wie Nvidias Produkte. Der durchschnittliche Verkaufspreis des AMD-Chips liegt zwischen 10.000 und 15.000 US-Dollar, so der Citi-Analyst Christopher Danely. Das ist deutlich günstiger als Nvidia (25.000 bis 40.000 US-Dollar).

Fazit: An der Börse gibt es keine absoluten Wahrheiten, sondern nur Wahrheiten auf Zeit.

 

Safran – Arzneipflanze 2024 im Einsatz gegen depressive Zustände

(pte) – Alljährlich wählen die Wissenschaftler:innen der Herbal Medicinal Products Platform Austria (HMPPA) die Arzneipflanze des Jahres. Heuer ist ihre Wahl auf Safran gefallen. Und das aus gutem Grund: Verschiedene unabhängige Studien belegen seine antidepressive Wirkung. Neue Präparate machen sich seine vielversprechenden Effekte zunutze. Sie unterstützen die Frau vor der Periode und während der Menopause.

„Rotes Gold“ – Safran trägt diesen Namen nicht nur als Gewürz, er könnte auch in der Welt der Psychopharmaka so bezeichnet werden. Denn Safran gilt als natürlich wirksames Antidepressivum. Verschiedene Studien sowie Meta-Analysen haben die antidepressive Wirkung von Safran bei leichten bis mittelschweren Depressions-Symptomen belegt.(1-2) Die Arzneipflanze zeigt sich gegen Placebo signifikant überlegen und namhaften synthetischen Antidepressiva als ebenbürtig. Als Arzneipflanze hat Safran bereits eine lange Tradition bei Regelbeschwerden und Verstimmungszuständen. Schon in der Antike wurde er zu deren Linderung als Heilpflanze eingesetzt. Heute weiß man, dass vor allem Crocine und der Aromastoff Safranal für seine Wirkung verantwortlich sind. Safran wirkt nicht nur stimmungsaufhellend und beruhigend, sondern ebenso entkrampfend, entzündungshemmend und neuroprotektiv. Er verbessert außerdem die Gehirnleistung, stärkt die Konzentration und ist dabei gut verträglich.

Safran als idealer Begleiter bei PMS und während der Wechseljahre

Kein Wunder, dass Safran als vielversprechende Option in der natürlichen Behandlung depressiver Verstimmungszustände sowie als idealer Wegbegleiter bei PMS (prämenstruelles Syndrom) oder in der Menopause eingesetzt wird. Gemeinsam mit Mönchspfeffer, Vitamin B6 und C, sowie Chrom, Eisen und Magnesium trägt Safran im neuen Produkt Safralind® PRE DAYS zum Wohlbefinden vor der Menstruation sowie zur emotionalen Balance vor der Periode bei.(3) Der standardisierte Extrakt (Affron®) kommt darüber hinaus auch bei Wechselbeschwerden zum Einsatz. Im Präparat Safralind® MENO sorgt er für Entspannung und hilft, eine gute Stimmung aufrecht zu erhalten. Gemeinsam mit der bewährten Arzneipflanze Salbei, sowie den Vitaminen B6, D3 und speziellen Mineralstoffen, leistet Safran so einen völlig hormonfreien, wertvollen Beitrag zum seelischen und körperlichen Gleichgewicht während der Menopause

 

E-Mobilität nötig?

Meine Bemerkung:

Seit 10 Jahren mache ich darauf aufmerksam, dass nur mit Methanol  die Klimarettung möglich ist. Der Weg führt über grüne elektrische Energie zum Wasserstoff, zum regenerativem Methanol mit CO2-Gewinnung aus der Atmosphären-Luft.

Was die Mobilität anbelangt, so ist nicht das Batterie schwere Elektro-Auto, sondern das 200 kg leichtere serielle Hybrid-Elektroauto mit einer Kombination aus kleinem Methanol-Verbrennungs-Motor, mit reinem elektromotorischen Antrieb die Lösung. Meine Veröffentlichungen sowohl auf meiner Homepage als auch bei Facebook mit über 100.000 Followern brachten bisher nur den Erfolg, dass sich die österreichische Technologie-Schmiede Obrist sich dem Thema annahm. Sie entwickelte mit einem genialen Lademotor (40 kW, 2 Zylinder) auf der Basis reiner Elektromobilität ein von ihnen genanntes Hyper-Hybrid E-Auto, welches alle meine Voraussagen des physikalisch geringsten Verbrauchs (1,5 l auf 100 km) und ohne eines mechanischen Getriebes und Differenzial 10 Prototypen im Mittelklasse-Sektor. Die Produktionskosten sind etwa im Bereich eines Diesel-PKWs.

Ich selbst bin mit einem Prototypen in den bayrischen Alpen unterwegs gewesen. Bisher erkannte kaum jemand die Chance, die diese Erfindung der Klima neutralen Mobilität bietet. Sogar die in der Welt führende deutsche Automobilindustrie ließ diese Möglichkeit links liegen und verrannte sich in ein Auto, mit dem Elon Musk der Welt weiß machen wollte, welches die Klimarettung bringen würde. Es fiel ihm leicht, weil in Kalifornien mit seinem Smogs in größeren Städten, ebenso wie in China, die Luft so verpestet wurde, dass diese abgasfreie Möglichkeit dafür eine ideale Lösung war. Tesla ist mittlerweile ein Begriff geworden und steht leider mittlerweile für die Elektromobilität. Dem Klimaschutz hat er aber nicht geholfen, doch es gelang ihm, der Welt weiß zu machen, nur so sei ein technischer Fortschritt möglich.

Dass es aber auch ganz anders geht, und zwar mit von Anfang an Co2-neutralem und in der Konsequenz sogar CO2-negativen Antrieb, darauf ist bisher die Automobil-Industrie nicht eingegangen. Dass sogar große Manager dieser Industrie darauf reingefallen sind, das beweist das nachfolgende Interview mit Stefan Hartung, dem CO des größten Automobilzulieferers Bosch.

Weil meine bisherigen Veröffentlichungen diese Meinungen nicht beeinflussen konnten, habe ich mir im honen Alter die Mühe gemacht, ein Buch mit dem Titel ‚Wohlstand und Wirtschaftswachstum ohne Reue‘ zu schreiben, welches den bisherigen Mainstream widerlegt, die individuelle Mobilität für jeder erschwinglich hält und vor allen Dingen die Dritte-Welt-Länder mit einbezieht. Aber noch viel wichtiger, nur so ist eine globale Klimarettung letztlich erfolgreich. Wer glaubt, dies seien Wolkenkuckucksheime, dem empfehle ich mein Buch zu lesen. Es ist in drei Sprachen erschienen und hat zu einem Konsortium von drei einflussreichen Interessenten geführt, Geld zur Verfügung zu stellen, um dieses zu verwirklichen. Die Verträge über ein Grundkapital von 2 Milliarden Euro sind verbindlich abgeschlossen, über die Börse sollen bis zu 10 Milliarden eingesammelt werden, um die technische Realisierung zu verwirklichen. Das heißt, nicht nur den Energie-Bedarf der Mobilität der Zukunft erheblich zu verringern und umweltfreundlicher zu gestalten, sondern auch mit relativ wenig Investitionen in die Infrastruktur zu verwirklichen und unseren gesamten Globus auf regenerative Energien umzustellen, und zwar preiswerter als bisher. Alles, was an CO2-produzierenden fossiler Kohle, Erdöl und Erdgas aus der Erde geholt wurde. Dann stellt sich die Industrie schädliche Dekarbonisierung von selbst ein, ohne staatliche Reglementierung.

Der Schlusssatz meines Buches lautet: ‚Wohlstand allen Ländern, die guten Willens sind und der Vernunft eine Chance geben.‘

So, jetzt lesen Sie zunächst einmal, dass die derzeitige Elektro-Mobilität in eine Sackgasse geraten ist und immer noch an falschen Methoden gedoktert wird, die notwendige Klimarettung zu verwirklichen.

Jean Pütz

Klassische Elektromobilität in der Krise

 

 

Künstliche DNA – 12 Millionen für Forschung

Meine persönliche Meinung:

gelegentlich werden Wissenschaften so, wie sie sind, übernommen. Bei diesem Forschungsobjekt möchte ich aber meine Bedenken anmelden:

Der  Manipulation der biologischen Welt öffnet das Tür und Tor. Ich hoffe, dass da auch Forscher, die sich mit Ethik beschäftigen, integriert werden. In der Bibel wird der Turmbau zu Babel und sein Schicksal beschrieben. Mit der künstlichen Intelligenz ist heute alles möglich. Ich möchte nur den Zauberlehrling von Goethe zitieren: ‚Die Geister, die ich rief, die werd‘ ich nicht mehr los‘, um Faust zu zitieren:

Jean Pütz

(KIT) – Die Anwendung und Entwicklung neuer Technologien der DNA-Synthese voranzutreiben, um den Weg für die Herstellung ganzer künstlicher Genome zu ebnen – das ist das Ziel eines neuen interdisziplinären Zentrums, das an der Universität Heidelberg, dem Karlsruher Institut für Technologie (KIT) und der Johannes Gutenberg-Universität Mainz (JGU) entsteht. Im Center for Synthetic Genomics sollen neue Entwicklungen in der Synthetischen Genomik durch Grundlagenforschung und Technologieentwicklung unter Einsatz von Methoden der Künstlichen Intelligenz (KI) angestoßen werden. Den Aufbau fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit insgesamt zwölf Millionen Euro.

Langfristig soll es so möglich werden, lange DNA-Sequenzen für Anwendungen in der Forschung, den Nanomaterialwissenschaften oder der Medizin zu entwerfen und herzustellen. Erster Sprecher des neuen Zentrums ist der Systembiologe Professor Michael Knop, stellvertretender Direktor des Zentrums für Molekulare Biologie der Universität Heidelberg (ZMBH).

Waren die vergangenen zwei Jahrzehnte in der Genomforschung von der Entwicklung neuer Genom-Sequenziertechniken geprägt, wird es zukünftig möglich sein, mithilfe neuartiger Verfahren der DNA-Synthese und Genomassemblierung Genome immer schneller und einfacher zu verändern und sogar vollständig neue Genome herzustellen. Diese Vision wird das Carl-Zeiss-Stiftung Center for Synthetic Genomics Heidelberg – Karlsruhe – Mainz (CZS Center SynGen) in den kommenden Jahren verfolgen. Dazu wollen die beteiligten Forscherinnen und Forscher der drei Universitäten auch mithilfe von KI-basierten Analyse- und Modellierungsverfahren synthetische DNA-Sequenzen entwerfen, um damit das Genom von Organismen gezielt zu verändern und mit neuen Funktionalitäten zu versehen. Ziel ist es, daraus sogenannte Biologika, das heißt biotechnologisch hergestellte Produkte, zu gewinnen. Sie sollen langfristig genutzt werden, um bio-basierte Arzneien herzustellen, Gentherapien für Krankheiten zu entwickeln, schädlingsresistente Pflanzen zu züchten, Biotreibstoffe zu produzieren oder die Forschung an neuartigen Materialien voranzutreiben.

„Mit den CZS Centern bündeln wir Expertisen über Standorte und Disziplinen hinweg. Gerade die Lebenswissenschaften benötigen eine hohe Interdisziplinarität. Im CZS Center SynGen soll die Herstellung künstlicher DNA vorangetrieben und das immense Potenzial für Forschung, Medizin und darüber hinaus nutzbar gemacht werden“, erklärt Dr. Felix Streiter, Geschäftsführer der Carl-Zeiss-Stiftung, die Motivation zur Förderung des zweiten CZS Centers in Deutschland.

„Das Center for Synthetic Genomics bündelt die Kompetenzen dreier forschungsstarker Einrichtungen, die nun gemeinsam von der Grundlagenforschung bis zur Technologieentwicklung an einem wichtigen Zukunftsfeld arbeiten“, so Professor Oliver Kraft, in Vertretung des Präsidenten des KIT. „Ziel sind vielfältige Anwendungen in der Biotechnologie, etwa für die Medizin, aber auch für die Materialwissenschaften. Wir freuen uns sehr, mit unserem Know-how dazu beizutragen.“

Synthetische Genomik

„Die Synthetische Genomik ist ein junges, aber global rasant wachsendes Forschungsgebiet mit Transferpotenzial für verschiedene gesellschaftlich relevante Herausforderungen. In unserem neuen Zentrum bündeln wir die komplementäre Expertise der drei forschungsstarken Universitäten Heidelberg, Karlsruhe und Mainz in den Lebenswissenschaften, dem Molecular Systems Engineering und der biomedizinischen Forschung. So wollen wir alle Schritte der Synthetischen Genomik vom Design über die Herstellung bis hin zur Anwendung von synthetischen genetischen Materialien und Organismen steuern“, sagt der Sprecher des Zentrums, Professor Michael Knop. „Das neue Center wird uns eine einzigartige Gelegenheit geben, die verschiedenen Expertisen und Disziplinen neu zu verknüpfen. Vor allem der Diskurs von Biologie und Medizin mit Expertinnen und Experten in Simulation und Modelling wird uns neue Wege aufzeigen, nicht nur um synthetische Genome zu generieren, sondern auch um natürliche und artifizielle Modifikationen und epigenetische Mechanismen besser zu verstehen und zu nutzen“, erklärt Professorin Sylvia Erhardt, Molekularbiologin am KIT. Dem dreiköpfigen Direktorium des CZS Center SynGen gehört neben Knop und Erhardt auch der biophysikalische Chemiker Professor Edward Lemke von der Universität Mainz an.

Das CZS Center SynGen hat seine Arbeit im Januar 2024 aufgenommen. An den drei Standorten arbeiten Forscherinnen und Forscher verschiedener Disziplinen zusammen, darunter aus Biologie, Biochemie, Biophysik, Biotechnologie, Synthetischer Biologie und Bioengineering, aber auch Philosophie und Rechtswissenschaft sowie Genomik, Immunologie, Epigenetik, Virologie und Data Science. Dazu sollen weitere internationale Expertinnen und Experten sowie Nachwuchsforschende für die Arbeit in dem neuen Zentrum gewonnen werden. Zudem wird in Heidelberg ein Kompetenzzentrum für die Synthese synthetischer DNA eingerichtet, das sogenannte CZS Center Synthetic DNA Accelerator Lab. In Karlsruhe wird die bereits bestehende Virtual Material Platform um eine DNA-Unit erweitert, um die Expertise des multiskalierten Modellings und des virtuellen Designs auf Nukleinsäuren wie DNA zu erweitern. In das CZS Center SynGen eingebunden sind auch Wissenschaftlerinnen und Wissenschaftler des Deutschen Krebsforschungszentrums und des Heidelberg Institute for Theoretical Studies, ebenso wie externe Partner aus Wissenschaft und Wirtschaft.

Offiziell eröffnet wurde das CZS Center SynGen mit einer Festveranstaltung am 4. März 2024 an der Universität Heidelberg. Daran nahmen neben den federführenden Forschenden auch Vertreterinnen und Vertreter der Carl-Zeiss-Stiftung sowie der beteiligten Universitäten teil.

Über die Carl-Zeiss-Stiftung

Die Carl-Zeiss-Stiftung hat sich zum Ziel gesetzt, Freiräume für wissenschaftliche Durchbrüche zu schaffen. Als Partner exzellenter Wissenschaft unterstützt sie sowohl Grundlagenforschung als auch anwendungsorientierte Forschung und Lehre in den MINT-Fachbereichen (Mathematik, Informatik, Naturwissenschaften und Technik). 1889 von dem Physiker und Mathematiker Ernst Abbe gegründet, ist die Carl-Zeiss-Stiftung eine der ältesten und größten privaten wissenschaftsfördernden Stiftungen in Deutschland. (jho)

3D-Blick ins Chaos

Mein persönlicher Kommentar:

Diese Frage hat mich persönlich immer wieder beschäftigt. Welche Kräfte bewirken, dass sich gegen den 2.. Hauptsatz der Dynamik trotzdem auch im Mikrokosmos  und im Weltall z. B. Leben entstanden auf einem außerordentlichen Planeten wie die Erde. Dabei spielt auch die Energie eine entscheidende Rolle. Kräfte, die sogar das einzelne Atom beeinflussen. Das alles unter der Maßnahme, dass es nur 3 Grundkräfte gibt:

1. Gravitation oder Massenanziehung. Sie wirkt in der räumlichen Unendlichkeit, ist aber auch dafür verantwortlich, dass wir – obwohl die Erde rotiert – nicht wegfliegen

2. Elektromagnetische Kraft. Sie ist die Kraft, die wir als Menschen unmittelbar erfahren. Wenn wir einen Körper anfühlen, wirkt er auf uns zurück. es ist also alles das, was auch unsere Sinne fühlen und sehen.

3. Kernkraft. Durch sie sind die Elemente entstanden, erstaunlich, dass es dem Menschen gelungen ist, Einblicke selbst in diese Mikrosphäre zu gewinnen.

Im folgenden Beitrag beweist menschliche Genialität, dass noch viele Einblicke in das chaotische Verhalten in Flüssigkeiten für die Forschung möglich werden. Immer geht es darum, Ordnung und Unordnung und ihre Übergänge zu beschreiben. Es wäre schön, wenn im Physik-Unterricht diese Ansätze gelehrt würden.

in den 80er Jahren habe ich eine in der Wissenschaft sehr beachtete Sendung in der ARD zum Thema ‚Synergetik – Ordnung aus dem Chaos‘ gemacht. Leider liegt sie nicht auf You Tube vor.

Jean Pütz

(Helmholtz) – Experimente mit Flüssigmetallen könnten nicht nur zu spannenden Erkenntnissen über geo- und astrophysikalische Strömungsphänomene führen, wie etwa den atmosphärischen Störungen am Sonnenrand oder der Strömung im äußeren Erdkern. Auch industrielle Anwendungen könnten davon profitieren, zum Beispiel das Abgießen von flüssigem Stahl. Da diese Fluide allerdings intransparent sind, fehlen immer noch geeignete Messtechniken. Ein Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) hat nun erstmalig mit einem vor Ort entwickelten Verfahren ein detailliertes dreidimensionales Abbild einer turbulenten temperaturgetriebenen Strömung in einem Flüssigmetall erhalten. In der Zeitschrift Journal of Fluid Mechanics (DOI: 10.1017/jfm.2023.794) berichten sie von den Herausforderungen, die sie dafür meistern mussten.

Seitdem Forschende die Eigenschaften turbulenter Strömungen in Fluiden erkunden, bedienen sie sich prinzipiell eines zunächst sehr einfach anmutenden Experiments: Sie füllen ihr Fluid in ein Gefäß, dessen Bodenplatte sie erhitzen und dessen Deckel sie gleichzeitig kühlen. Was dabei genau geschieht, erforscht ein Team vom Institut für Fluiddynamik am HZDR. „Überschreitet der Temperaturunterschied im Fluid eine bestimmte Grenze, wird der Wärmetransport drastisch erhöht“, sagt Teamleiter Dr. Thomas Wondrak. Das geschieht, weil sich eine sogenannte konvektive Strömung ausbildet, die die Wärme effektiv transportiert. Dabei dehnt sich die Flüssigkeit am Boden aus, wird leichter und steigt nach oben, während die kälteren Schichten oben aufgrund ihrer höheren Dichte nach unten sinken. „Anfangs bildet sich eine regelmäßige Zirkulation aus, aber bei höheren Temperaturdifferenzen wird die Strömung zunehmend turbulent. Diese dann auch korrekt dreidimensional abzubilden, ist eine Herausforderung“, beschreibt Wondrak kurz die Ausgangslage des Experiments.

Hier kommt die am HZDR entwickelte kontaktlose induktive Strömungstomographie (contactless inductive flow tomography: CIFT) ins Spiel: Mit ihrer Hilfe sind die Forschenden in der Lage, eine dreidimensionale Strömung in elektrisch leitfähigen Flüssigkeiten zu visualisieren. Dabei nutzen sie das Prinzip der Bewegungsinduktion: Legt man ein statisches Magnetfeld an, wird aufgrund der Flüssigkeitsbewegung ein elektrischer Strom im Fluid erzeugt. Diese Wirbelströme bewirken eine Änderung des ursprünglichen Magnetfeldes, die außerhalb des Gefäßes messbar ist. Auf diese Weise bildet sich die Strömungsstruktur in der Magnetfeldverteilung ab und kann mit einem geeigneten mathematischen Verfahren aus den Messdaten extrahiert werden. Diese Messtechnik hat das Team um Wondrak nun eingesetzt, um die temperaturgetriebene Strömung in einer Gallium-Indium-Zinn-Legierung zu messen, die schon bei rund 10 Grad Celsius schmilzt. Die zentrale Komponente des Experiments ist ein 64 Zentimeter hoher Zylinder, der mit einer ausgeklügelten Anordnung von 68 Sensoren zur Erfassung der Temperaturverteilung sowie 42 hochempfindlichen Magnetsensoren ausgestattet ist und in dem sich rund 50 Liter (ungefähr 350 Kilogramm) Flüssigmetall befinden.

Störungsarme nächtliche Experimente

Neben der anspruchsvollen Mathematik zur Rekonstruktion des Geschwindigkeitsfeldes aus den Magnetdaten liegen die Herausforderungen vor allem bei der Messung der sehr kleinen strömungsinduzierten Magnetfelder, da diese typischerweise etwa zwei bis fünf Größenordnungen kleiner als das angelegte Magnetfeld sind. Bei einem Erregerfeld von 1.000 Mikrotesla liegt das zu messende strömungsinduzierte Magnetfeld bei einer Größenordnung von 0,1 Mikrotesla. Zum Vergleich: Das Erdmagnetfeld, das auch erfasst und von den Werten der Messung abgezogen wird, ist etwa 50 Mikrotesla stark. „Kleinste elektromagnetische Störungen, die beispielsweise beim Einschalten von elektrischen Geräten entstehen, können das Messsignal überlagern und müssen herausgefiltert werden. Um den Einfluss der Störungen von vorn herein möglichst gering zu halten, experimentieren wir nur nachts“, erläutert Wondrak diese Besonderheit der Messungen. Jede dieser Nachtmessungen liefert eine große Menge an experimentellen Strömungsdaten, die den Forschenden einen völlig neuartigen Einblick in die komplizierten, sich ständig verändernden Strömungsstrukturen gewähren. Die experimentell erzielten Daten sind einzigartig, da numerische Simulationen für dieselben Strömungsparameter mit vergleichbarer Dauer selbst im heutigen Zeitalter der Hochleistungscomputer nicht in vertretbarer Zeit durchführbar sind.

Wondaks Team wendet moderne mathematische Konzepte an, um in den komplexen Geschwindigkeitsfeldern räumliche Strukturen zu erkennen. So konnten die Wissenschaftler*innen wiederkehrende Muster aus einer oder mehreren im Experimentier-Zylinder übereinanderliegenden rotierenden Wirbel identifizieren. Damit bringen sie zumindest ein wenig Ordnung in das turbulente Chaos und helfen damit unter anderem, den Zusammenhang zwischen Strömung und Wärmetransport besser zu verstehen.

Ausblick: Neue Ziele

Die im Laborexperiment gewonnenen Erkenntnisse können die Physiker*innen durch Anwendung dimensionsloser Kennzahlen, die ihren Ursprung in der Ähnlichkeitstheorie haben, auch auf wesentlich größere Dimensionen in der Geo- und Astrophysik übertragen, etwa auf Strömungsprozesse im Inneren von Planeten und Sternen.

Nachdem die Forschenden mit der aktuellen Veröffentlichung das Potential der kontaktlosen Strömungstomographie unter Beweis gestellt haben, wenden sie sich nun der Weiterentwicklung der Messmethode zu. Die Erweiterung um ein zusätzliches Anregungsmagnetfeld und die Verwendung neuartiger Magnetfeldsensoren versprechen dabei eine Steigerung der Messgenauigkeit. Wondraks Team ist optimistisch, mit dieser Methode bald noch tiefere Einblicke in turbulente Flüssigmetallströmungen zu gewinnen.

 

Fossile CO2-Emissionen auf neuem Rekordhoch

(pte) – Die 2016 in Paris beschlossenen Klimaziele werden immer unrealistischer. Laut einer neuen Analyse der Universität München im Rahmen des „Global Carbon Projects“ werden sich die fossilen CO2-Emissionen 2023 voraussichtlich auf 36,8 Mrd. Tonnen summieren und ein neues Rekordniveau erreichen. Dieses liegt dann 1,1 Prozent über den Werten von 2022.

Problem Indien und China

Während die fossilen Emissionen in Indien und China anstiegen (plus 8,2 beziehungsweise plus vier Prozent), sanken sie in Europa und den USA (minus 7,4 beziehungsweise minus drei Prozent) und geringfügig auch im Rest der Welt (minus 0,4 Prozent).

Für Europa etwa begründen die Autoren den Rückgang mit dem Ausbau der Erneuerbaren und den Auswirkungen der Energiekrise. Das Wachstum in China sei teilweise auf eine verzögerte Erholung von den Auswirkungen der COVID-bedingten Lockdowns zurückzuführen.

Die Zeit wird immer knapper

Zusammen mit den Emissionen aus der Landnutzung belaufen sich die globalen CO2-Emissionen 2023 auf etwa 40,9 Mrd. Tonnen. Dies ist weit entfernt von den deutlichen Einsparungen, die nötig wären, um die Pariser Klimaziele zu erreichen.

Zwar sei die Schätzung des verbleibenden Kohlenstoffbudgets mit Unsicherheiten behaftet, klar sei aber, dass die Zeit knapp wird: Bei Beibehaltung des aktuellen CO2-Emissionsniveaus könnte das verbleibende Kohlenstoffbudget für eine 50-prozentige Chance, die Erwärmung auf 1,5°C zu begrenzen, in sieben Jahren und für 1,7 Grad Celsius in 15 Jahren aufgebraucht sein.