Alle Beiträge von Minge

Dümmste Klimapolitik der Welt – Wolfgang Reitzle packt bei Gabor Steingart aus

Klare Ansage: Der ehemalige Vorstandsvorsitzende der Linde AG und heutige Multi-Aufsichtsrat der Linde plc., der Continental AG und der Springer SE, Wolfgang Reitzle, ist unzufrieden mit der Ampel-Regierung und einem gesellschaftlichen Klima, das wirtschaftliche Leistung und technologische Neugier nicht durchgehend belohnt.

„Gefragt sind nicht mehr Leistung und Wettbewerb, sondern Wokeness und politisches Wunschdenken. An die Stelle von Wohlstand und Wachstum treten Verzichts- und ,Degrowth‘-Ideologie. Gleichzeitig sollen immer Menschen vom Staat alimentiert werden, ohne selbst einen Beitrag leisten zu müssen. “

Agenda 2024? Im Pioneer-Gastbeitrag reagiert Reitzle auf das am Montag beschlossene 12-Punkte-Papier des FDP-Präsidiums. Es sei „alles richtig, was die FDP in ihrem sogenannten ,Scheidungspapier‘ vorschlägt: Selbstverantwortung, Leistung, Wettbewerb und freier Markt.“

Er fordert, jetzt müsse die Partei aber auch durchziehen und damit notfalls auch den Ausstieg aus der Ampel in Kauf nehmen:

Wer die Scheidungspapiere einreicht, der muss in letzter Konsequenz auch den Mut haben, zu gehen.

Mit der einen Hand auf den Tisch schlagen und sich mit der anderen an die Fünf-Prozent-Hürde klammern – das verträgt sich nicht.

Geht es mit dieser Politik so weiter, wird es bald sehr dunkel in Deutschland – nicht nur wegen der vergeigten Energiewende, die uns durch die wahrscheinlich dümmste Klimapolitik der Welt sehenden Auges in eine doppelte Sackgasse führt. Weil sie dem Klima nichts bringt, aber die Wirtschaft stranguliert.

Reitzle will Christian Lindner zum Loslassen ermuntern:

Klare Kante wird von den Wählern honoriert.

Klimarettung ohne staatliche Subventionen und fast ohne Nebenwirkungen

Das ist kein Aprilscherz, sondern gewissermaßen ein Ostergeschenk, das ich meinen über 100.000 Facebook-Followern präsentieren möchte.
Zunächst aber, frohe Ostern und Frieden den Ländern die guten Willens sind. Dazu gehört auch eine vernunftbetonte Wirtschaftspolitik. Die Regierung sucht nach vielen Ursachen warum es in dieser Hinsicht mit der Konjunktur trotz vielen Subventionen abwärts geht, im Gegensatz zu vielen anderen Ländern Europas und der Welt.

Das möglicherweise daran auch eine falsche Ideologie der Klimarettung beteiligt ist, unter anderem die erfolglosen Bemühungen um radikale Dekarbonisierung, das weisen die Verantwortlichen weit von sich.

Ich, der sich seit über 50 Jahren mit dem Thema nachhaltige Energie beschäftigt, weist auf einen ganz entscheidenden Widerspruch der heutigen Methode der Klimarettung hin.

Ursache und Wirkung werden oft verwechselt. Die Ursache ist, dass wir seit 150 Jahren gedankenlos die fossile Energie verwendet haben, wovon vor allen Dingen nur die Industrieländer profitiert haben. Also die Förderung dieser fossilen Energie ist die eigentliche Ursache, CO2 nur die Folge.

In Hunderten von Beiträgen und Mails an Politiker habe ich frühzeitig auf den Widerspruch hingewiesen, dass noch nie so viel fossile Energie aus der Erdkruste gefördert wurde wie heutzutage. Was bringt dann die Dekarbonisierung, wenn sich diese Kohle- oder Erdöl- produzierenden Länder eine goldene Nase verdienen, die ihnen einen brutalen Einfluss auf die Weltpolitik verschaffen?

Verhängnisvoll ist, dass diese Staaten meist autoritär regiert werden und die Demokratie infrage stellen bis hin – wie im Falle Russlands – einen rücksichtslosen Krieg mit der Ukraine anzuzetteln.

Die derzeitigen Bemühungen gutmeinender Länder, die Freisetzung jedes einzelne CO2-Molekül möglichst zu vermeiden, sind deshalb wirkungslos. Im Gegenteil, sie ermöglichen ihnen sogar skrupellos weiter zu fördern. Da kann doch etwas nicht stimmen.

Die einzige Möglichkeit, diesen Widerspruch auszuhebeln ist für mich, regenerative Energien preiswerter zur Verfügung zu stellen als die fossilen. Der Technologie ist das bereits mit dem elektrischen Strom gelungen. Aber das reicht nicht, um den hohen Wärmebedarf weltweit zu befriedigen.

Vom Mainstream wurde erkannt, dass Wasserstoffgas dazu geeignet ist. Allerdings erfordert das eine völlige Transformation der bisherigen Methoden mit Kosten für eine neue Infrastruktur, die sich noch nicht einmal ein reiches Land wie Deutschland leisten kann.

Ich umgehe gewissermaßen diese Tatsache, indem ich auf flüssiges grünes Methanol setze, welches alle fossilen Energien auf Anhieb ohne extreme Kosten ersetzen kann.
Dabei habe ich kreative Mitstreiter gefunden, die die gewünschte preiswerte Defossilisierung letztlich ermöglicht.
Sie entwickelten ein sogenanntes Obrist-Konzept, das in der Lage ist, sogar in Wüsten und Brachflächen unseres Globus extrem preiswert diesen universalen Energieträger in einer Menge zu produzieren, die den derzeitigen und auch zukünftigen globalen Energiebedarfbefriedigen kann.

Der Trick: Besonders sonnenreiche Gegenden dieser Erde liefern nicht nur über die Photovoltaik extrem billige elektrische Energie, sondern auch das Wasser, welches für die Produktion von Wasserstoff Voraussetzung ist, und das notwendige CO2 aus der Atmosphären-Luft, mit dem CO2-neutrales Methanol über Energie sparende Katalysatoren hergestellt werden kann. Hinzu kommt, dass mit der Obrist-Methode der Atmosphäre sogar mehr CO2 entzogen wird, als für die Produktion von Methanol notwendig ist.

Damit wird dieses vermaledeite CO2 zu einem wertvollen Rohstoff, so dass auf lange Sicht der Treibhauseffekt reduziert wird. Eine perfekte Defossilisierung schafft automatisch die Dekarbonisierung ohne wirtschaftsschädigende Vorschriften.

Das alles wird ausführlich und für jedermann verständlich in meinem neu erschienen Buch unter dem Titel ‚‘Wohlstand und Wirtschaftswachstum ohne Reue, Klimarettung ja! – Deindustrialisierung nein!“ erklärt.

Ich habe es bewusst in dem internationalen Verlag ‚Diplomatic Council‘, unter Mitwirkung des Wirtschaftsjournalisten Andreas Dripke, herausgegeben, denn allein aus Deutschland heraus kann das Klima nicht beeinflusst werden.

Auf der internationalen Klimakonferenz COP28 in Dubai hat es bereits Erfolge gebracht. Es hat mitgeholfen, dass sich ein Konsortium in Abu Dhabi gebildet hat, welches 10 Milliarden Euro zur Verfügung stellen will, um die Voraussetzung zur Realisierung dieses sogenannten Obrist-Konzepts zu verwirklichen – und das ohne Subventionen aus der Politik.
Frieden den Ländern, die guten Willens sind!

Ihr Jean Pütz

Die großen Fehler der EU-Präsidentin Ursula v. d. Leyen

(Pioneer) – Wie die Endmoräne eines Gletschers, so ragt Ursula von der Leyen aus der Merkelzeit in die Gegenwart hinein. Sie will – aus persönlich nachvollziehbaren Gründen – für eine zweite Amtszeit als EU-Kommissionspräsidentin kandidieren. Hier sind die 7 Gründe, warum das für Europa keine gute Idee ist:

#1 Europa wurde zum Schuldner

Sie hat Europa, das über keine eigenen Steuereinnahmen verfügt, als Schuldner an den Kapitalmarkt herangeführt. Erstmals in der Geschichte der EU hat sich die Gemeinschaft im Zuge der Coronakrise für das Wiederaufbauprogramm „Next Generation EU“ selbst verschuldet.

Es geht um ein Volumen von 750 Milliarden Euro, die nun als Gemeinschaftsschulden existieren. De facto hat von der Leyen damit Eurobonds eingeführt. Nur zur Erinnerung: Die Union hatte ihren Wählern versprochen, dass das niemals passieren würde.

#2 Europa kommt beim Freihandel nicht voran

In der für den Kontinent überlebenswichtigen Handelspolitik konnte diese Präsidentin keine Impulse setzen. Und wenn sie doch Impulse setzte, dann in die falsche Richtung.

An vorderster Stelle trat sie als Befürworterin harter Wirtschaftssanktionen gegen Russland auf, die in ihrer Konsequenz nicht die russische Volkswirtschaft, sondern die europäischen Volkswirtschaften schädigten. Im Chinahandel folgte sie treuherzig den Amerikanern, die ihren Erzrivalen aus Asien gerne mithilfe des Protektionismus loswerden wollen.

Von der Leyen hat es nicht geschafft, das Freihandelsabkommen mit den vier südamerikanischen Mercosur-Staaten vom Konzeptpapier in die Wirklichkeit zu befördern. Der Grund: Sie unternahm den untauglichen Versuch, die Idee einer wertegebundenden Außenpolitik auf die Handelsbeziehungen zu übertragen. Das stößt weltweit auf allergische Abwehrreaktionen. In Asien und Lateinamerika will man gerne europäische Waren importieren, aber nicht die politischen Vorgaben der EU-Kommissionspräsidentin. Die sind international unverkäuflich.

#3 Sündenfall: Green Deal

Die 34 Gesetzentwürfe unter der Überschrift „Green Deal“ haben Europa weiter denn je von einer funktionierenden Marktwirtschaft entfernt. Der Staat will nicht nur in der Energiepolitik – Stichwort Strommarktdesign – die entscheidende Rolle spielen, sondern greift auch tief in die industriellen Wertschöpfungsketten des Kontinents ein.

Mit dem Verbot der Neuzulassung von Verbrennermotoren setzte Ursula von der Leyen ein Symbol ihrer grünen Gesinnung, das der Kontinent allerdings – und hier insbesondere die Automobilnationen Italien, Frankreich und Deutschland – mit Wohlstandsverlusten bezahlen wird.

Von der Leyen ist der weibliche Robert Habeck. Ihr Rivale und intimer Feind, der EVP-Fraktionschef Manfred Weber (CSU), will das für 2035 geplante Verbrenner-Aus verständlicherweise rückgängig machen. Die Automobilindustrie steht auf seiner Seite.

#4 Europa wurde zum Feindesland für die Künstliche Intelligenz

Der „AI Act“ – das Gesetz zur Regulierung Künstlicher Intelligenz (KI) – ist politisch korrekt und ökonomisch unbrauchbar. Die europäischen KI-Forscher haben die Aufholjagd zu den USA verloren, bevor sie sie begonnen haben.

Sie werden von der EU-Kommissionspräsidentin dazu verdonnert, ihre Arbeit künftig engmaschig zu dokumentieren und auch die Trainingsdaten gegenüber dem Staat transparent zu machen. Da es in den USA solche Vorschriften nicht gibt und eine gemeinsame transatlantische Regulierung nicht zustande kam, betrat Europa das neue Zeitalter mit Bleigewichten an den Füßen.

#5 Europa ohne Kapitalmarkt

Die dringend notwendige Kapitalmarktunion, also die Harmonisierung der Geldkreisläufe, kam in ihrer Amtszeit nicht voran. In den USA stellt der Marktwert börsennotierter Unternehmen 160 Prozent des Bruttoinlandsproduktes (BIP) dar, in Frankreich mehr als 80 Prozent, in Deutschland weniger als 60 Prozent. Dies hat vor allem damit zu tun, dass dem Kapitalmarkt in Europa die Tiefe fehlt. Also wenige Investoren, kleinere Börsenbewertungen und kleine Indizes.

#6 Europa versagt in der Migrationspolitik

Dieses Scheitern wiegt politisch am schwersten, weil es den Aufstieg der Rechtspopulisten überall in Europa begünstigt. Erst gestern meldete das Bundesinnenministerium einen erneuten Anstieg der festgenommenen Schleuser an den deutschen Grenzen; in den ersten elf Monaten des Jahres 2023 wurden bundesweit 2.767 Schleuser aufgegriffen. Im Jahr 2022 wurden 2.728 und im Jahr davor 2.132 Schleuser gefasst. Während der großen Flüchtlingsströme 2015 wurde ein Rekordwert von 5.226 Personen gemessen.

Der Syrer Hasan gab gegenüber der Tagesschau zu Protokoll, dass sein Vater umgerechnet 4.100 Euro für die Überfahrt seines Sohnes nach Italien bezahlt habe. Andere sagen, sie hätten bis zu 6.000 Euro für einen Platz im Boot bezahlt. Ein Schlepper aus Tunesien, den die italienische Zeitung La Repubblica interviewte, nennt sein Geschäftsmodell „ein illegales Reisebüro“.

Die Expansion dieser Menschengeschäfte unter den Augen des Staates nehmen die Bürger der Politik übel. Oder anders gesagt: Der Aufstieg der AfD ist auch das Werk einer Politikerin wie Ursula von der Leyen.

#7 Europa wurde international marginalisiert

In ihrer Amtszeit konnte die europäische Außen- und Militärpolitik keinerlei Konturen gewinnen. Amerika bestimmt im Westen wie gehabt das Geschehen. Die Russen trumpfen auf – auf dem europäischen Gefechtsfeld mit ihrer Armee und in den europäischen Datennetzen mit ihren Trollfarmen.

Die Überlegungen zur europäischen Verteidigung kommen nicht voran und Ursula von der Leyen schaut tatenlos zu, wie Donald Trump und führende Republikaner die EU den Russen zum Fraß vorwerfen. Erst kürzlich sagte Trump bei einer Wahlkampfveranstaltung:

Fazit: Ursula von der Leyen hat ihre Chance gehabt. Die Ära Merkel ist vorbei. Und vielleicht kann ja beim nächsten Mal nicht der Hinterzimmer-Poker der Regierungschefs entscheiden, sondern das Volk in Gestalt seiner Volksvertretung. Das nennt man in den Schulbüchern: Demokratie.

Klimawandel und Versicherung

(Pioneer) – Das berühmte Essay der Frauenrechtlerin Carol Hanischs „The Personal Is Political“ erfährt im Zuge des Klimawandels eine neue Interpretation. Wieder sind es die privaten Verhältnisse – diesmal die von Wohn- und Hauseigentümern –, die im Zuge extremer Wetterlagen politisch geworden sind. Es geht diesmal nicht um Geschlechter-, es geht um Eigentumsfragen.

Warum das wichtig ist: Die Versicherungsbranche muss feststellen, dass ihre Risikomodelle im Zeitalter der extremen Wetterphänomene nicht mehr funktionieren. Das Ganze hat enorme Auswirkungen auf die Stabilität der Prämien, auf die Versicherungsbilanzen und die soziale Frage der westlichen Mittelstandsgesellschaften.

Politiker und Finanzmarktregulierer sind alarmiert. Vor wenigen Wochen hat das US-Finanzministerium erstmals Daten bei den Versicherern angefragt, um das Ausmaß künftiger Verwerfungen besser beurteilen zu können. Die Financial Times kommt in ihrem gestrigen Report zu einem für Firmen und Hauseigentümer verstörenden Resultat:

Das sind die fünf unbequemen Fakten, die man zu diesem Thema heute Morgen wissen sollte:

1. Die Extremwetter nehmen zu.

Die Zahl der Naturkatastrophen steigt weiter an. Allein 2023 starben bei Extremwetter-Ereignissen weltweit rund 74.000 Menschen und damit fast doppelt so viele wie im 30-Jahre-Durchschnitt, wo 40.000 Tote gezählt wurden. Das geht aus dem aktuellen Naturkatastrophenreport des weltgrößten Rückversicherers hervor, der Munich Re.

Das Erdbeben im Südosten der Türkei und Syrien sorgte weltweit für die schadensreichste Katastrophe 2023. Im Februar starben dort fast 60.000 Menschen. Der Vorstandschef der Rückversicherung, Thomas Blunck, obwohl routiniert im Umgang mit Schadensereignissen, ist berührt:

2. Die Schadenssummen explodieren.

Diese Entwicklung spiegelt sich auch in den jährlichen Schadenssummen wider. Insgesamt entstanden 2023 Schäden durch Überschwemmungen, Erdbeben und Brände in Höhe von 250 Milliarden US-Dollar, wovon nur 95 Milliarden US-Dollar versichert waren – 67 Prozent über dem 30-Jahres-Durchschnitt.

Weltweit warnen Führungskräfte davor, dass die Versicherungspreise nach einer Reihe von extremen Wetterereignissen auf dem Kontinent weiter steigen müssen. „Wir können solche Ereignisse nicht mehr als zweitrangig bezeichnen“, sagt Ernst Rauch, leitender Klimawissenschaftler bei Munich Re.

3. Die Risikomodelle der Versicherer versagen.

Führungskräfte der Versicherungswirtschaft geben hinter vorgehaltener Hand den Risikoanalysen, auf die sich die Versicherer bei der Prognose von Schäden stützen, eine Teilschuld an der Misere. Die Modelle würden die Beschleunigung, die Häufigkeit und die Schwere extremer Wetterereignisse nicht korrekt abbilden.

Zugleich scheut sich die Versicherungsindustrie, ihre Modellierung von Risiken der neuen Wirklichkeit anzupassen. Die Auswirkungen auf die Prämiensysteme bergen sozialen Sprengstoff: In Australien würde demnach einer von 25 Haushalten bis 2030 nicht versicherbar sein, so das dortige Climate Council.

4. Ein weltweites Re-Pricing

Dennoch: Für Hausbesitzer, die in Regionen leben, wo extreme Wetterereignisse wie Stürme, Überschwemmungen und Waldbrände immer häufiger und heftiger auftreten werden, werden die Kosten ihrer Versicherung deutlich steigen. „Dies ist das erste Mal, dass wir eine Rechnung für den Klimawandel an den Verbraucher weitergeben“, sagte Christian Mumenthaler, Vorstandsvorsitzender von Swiss Re, einem der größten Rückversicherer der Welt, im Januar in Davos.

Steigende Versicherungsprämien seien eine Art CO2-Aufschlag für die Verbraucher, sagte er, und die höheren Kosten resultieren daraus, „dass wir so leben, wie wir gelebt haben“.

5. Vorsicht Steuerzahler: Das kann teuer werden.

Zwischen Politik und Versicherungen ist ein „blame game“ entstanden. Jeder weist dem anderen die Schuld zu. Swiss Re schreibt in einem Report:

In den USA, Großbritannien und zahlreichen anderen Ländern hilft bereits Steuerzahlergeld, um die Risiken der Bürger abzudecken. Etwa in Kalifornien, wo Hausbesitzer in vielen Regionen ihren Versicherungsschutz aufgrund des erhöhten Risikos von Waldbränden verloren haben, wurde der vom Bundesstaat finanzierte FAIR Plan ins Leben gerufen. Inzwischen sind mehr als 270.000 Hausbesitzer über das Programm versichert, doppelt so viele wie noch 2018.

Michael Steel, Leiter der Risikoanalyse-Firma Moody’s RMS, die Modelle anbietet, mit denen Versicherer ihre potenziellen Verluste durch Naturkatastrophen abschätzen können, kritisiert die Branche scharf. Sie dürfe sich nicht aus der Verantwortung stehlen,

Fazit: Die Politik des Nichthörens, Nichtsehens und Nichtsprechens kann nur giftige Früchte tragen. Die seriöse Befassung mit den Klimafolgen für die privaten Haushalte ist nicht schick und nicht grün, sondern ökonomisch geboten. Auch der Haus- und Städtebau muss neu gedacht werden.

Wasserstoffspeicherung in Magnesium

(pte) – Forscher der Polnischen Akademie der Wissenschaften haben mit Kollegen des Eidgenössischen Insituts für Materialwissenschaften und Technologie und der Universität Zürich ein neues Modell der thermodynamischen und Elektronenprozesse entwickelt, die in Magnesium beim Kontakt mit Wasserstoffatomen ablaufen. Magnesiumhydrid gilt seit Jahrzehnten als aussichtsreicher Kandidat zur Speicherung von gasförmigem Wasserstoff bei normalem Luftdruck und Umgebungstemperatur. Doch die Menge pro Volumeneinheit reichte bei weitem nicht, um das Verfahren im Vergleich zur Speicherung unter hohem Druck oder in flüssiger Form bei einer Temperatur von minus 253 Grad Celsius konkurrenzfähig zu machen.

Zweierpack ist zu trennen

Wasserstoff kann von Magnesiumhydrid nur aufgenommen werden, wenn er atomar vorliegt. Normalerweise handelt es sich jedoch um ein Zweierpack, das mithilfe eines Katalysators getrennt werden muss. Das gelingt bisher nicht so wirksam, dass sich das Speichern lohnt. Die Forscher konnten nun aber zeigen, dass der Grund für das langjährige Scheitern in einem unvollständigen Verständnis der Phänomene liegt, die bei der Wasserstoffinjektion im Magnesium auftreten.

Das Modell sagt voraus, dass sich bei der Wanderung von Wasserstoffatomen lokale, thermodynamisch stabile Magnesiumhydrid-Cluster im Material bilden. An den Grenzen zwischen dem metallischen Magnesium und seinem Hydrid kommt es dann zu Veränderungen in der elektronischen Struktur des Materials, die maßgeblich zur Verringerung der Beweglichkeit von Wasserstoff-Ionen beitragen. Sie gelangen also nicht schnell genug in den Speicher hinein und können nicht alle freien Speicherplätze besetzen.

Katalysator gezielt möglich

Mit diesem Know-how glauben die Forscher, gezielt einen Katalysator entwickeln zu können, der diese Wasserstoffbremse löst. Theoretisch ist Magnesiumhydrid den anderen Speichermöglichkeiten weit überlegen. Es kann pro Volumeneinheit 50 Prozent mehr Wasserstoff aufnehmen als Kryospeicher, in denen das Gas in flüssiger Form vorliegt, und sogar mehr als doppelt so viel wie ein Drucktank. Zudem ist die Speicherung in Hydrid absolut sicher, wie es heißt. Es kann somit keine Brände und erst recht keine Explosionen geben.

Perowskit-Solarzellen: Vakuumverfahren kann zur Marktreife führen

(KIT) – Weltweit arbeiten Forschung und Industrie an der Kommerzialisierung der Perowskit-Photovoltaik. In den meisten Forschungslaboren stehen lösungsmittelbasierte Herstellungsverfahren im Fokus, da diese vielseitig und einfach anzuwenden sind. Etablierte Photovoltaikfirmen setzen heute jedoch fast ausschließlich auf Vakuumverfahren zur Abscheidung von hochqualitativen Dünnschichten. Ein internationales Konsortium unter der Leitung des Karlsruher Instituts für Technologie (KIT) und des U.S. Department of Energy’s National Renewable Energy Laboratory (NREL, USA) hat diese kritische Diskrepanz zwischen Labor und Industrie analysiert. Sie heben hervor: Industriell erprobte Vakuumverfahren könnten mit gewissen Verbesserungen zur schnellen Kommerzialisierung bei den Perowskit-Solarzellen beitragen.

Perowskit-Silizium-Tandemsolarzellen haben in den vergangenen zehn Jahren eine rasante Entwicklung durchlaufen: In der Forschung konnten Wirkungsgrade von mehr als 33 Prozent erreicht werden. Damit liegen sie bereits heute über den herkömmlichen siliziumbasierten Solarzellen. Die Marktreife steht allerdings noch aus. Eine der Hürden ist die ungeklärte Frage, mit welchem Verfahren sich Perowskit-Solarzellen als Massenprodukt am besten herstellen lassen. Dabei stehen lösungsmittelbasierte Herstellungsverfahren, die in den Laboren weltweit angewandt werden, Dampfphasenabscheidungsverfahren im Vakuum gegenüber, die auch heute noch Standard in der Herstellung von Dünnschichten in der Photovoltaik oder bei der Produktion organischer Leuchtdioden (OLEDs) sind.

In einer aktuellen Vergleichsstudie zeigte ein internationales Konsortium aus akademischen und industriellen Partnern unter der Leitung des NREL und des KIT große Unterschiede in der wissenschaftlichen Auseinandersetzung mit diesen Produktionsverfahren auf. Tenure-Track-Professor Ulrich W. Paetzold vom Institut für Mikrostrukturtechnik sowie vom Lichttechnischen Institut des KIT erklärt: „98 Prozent aller wissenschaftlichen Studien im Jahr 2022 wurden zu lösungsmittelbasierten Verfahren publiziert. Vakuumbasierte Verfahren, die sich seit Jahrzehnten in der Industrie bewährt haben und eine Kommerzialisierung der Solarzellen entscheidend voranbringen könnten, werden stiefmütterlich behandelt.“

Zur Erläuterung: Bei der lösungsmittelbasierten Herstellung werden Tinten genutzt, in denen organische und anorganische Salze in einem Lösungsmittel gelöst werden. Diese Tinten können dann über verschiedene Drucktechniken auf der Oberfläche eines Substrats abgeschieden werden. Im Gegensatz dazu verwendet die vakuumbasierte Herstellung trockene und lösungsmittelfreie Verfahren. Dabei werden die Materialien in einem Vakuum unter Zufuhr von Wärme sublimiert, das heißt vom festen in den gasförmigen Aggregatszustand überführt und auf der Substratoberfläche kondensiert. Prinzipiell ist es auch möglich, beide Verfahren für die Herstellung von Perowskit-Solarzellen zu kombinieren.

Laborwirkungsgrade und Durchsatz sind nicht alles, wenn es um die Massenproduktion geht

In der Studie analysierten die Autorinnen und Autoren die Vor- und Nachteile beider Methoden. Die bisherige Dominanz der lösungsmittelbasierten Herstellung in der Forschung liegt demnach in der unkomplizierten Handhabung in Laboren, der sehr guten Ergebnisse im Hinblick auf den Wirkungsgrad unter Laborbedingungen und ihren geringen Kosten begründet. Dazu kommt die mögliche skalierbare Rolle-zu-Rolle-Fertigung, also die Endlosabscheidung zwischen zwei Rollen, ähnlich des Zeitungsdrucks.

Das vakuumbasierte Produktionsverfahren verursacht im Vergleich dazu etwas höhere Investitionskosten und liegt aktuell – legt man die in der Forschung angewandten Verfahren zugrunde – hinsichtlich der Abscheidungsgeschwindigkeit, das heißt dem Produktionsdurchsatz, noch im Hintertreffen. Die Autorinnen und Autoren zeigen jedoch eine Vielzahl von Lösungsansätzen auf und schätzen ab, dass es unter Berücksichtigung von realen Parametern wie Stromkosten, Produktionsertrag, Material-, Stilllegungs- oder Recyclingkosten konkurrenzfähig ist. Vor allem die gute Wiederholbarkeit der Abscheidung, die einfache Prozesskontrolle, die Verfügbarkeit von industriellem Prozessequipment und die einfache Skalierung der Abscheidung von den kleinen Solarzellenflächen aus dem Labor hin zu anwendungsrelevanten Produktflächen machen das Verfahren demnach hochinteressant für die Kommerzialisierung.  „Die vakuumbasierte Herstellung schneidet also besser ab als ihr Ruf“, so Tobias Abzieher (Swift Solar). Somit ist es auch nicht verwunderlich, dass die Autorinnen und Autoren in einem erstmalig veröffentlichten Überblick über Kommerzialisierungsaktivitäten in der Perowskit-Technologie bereits heute ein reges Interesse an vakuumbasierten Verfahren für die Herstellung von Perowskit-Solarzellen vonseiten der Industrie nachweisen konnten – trotz der Diskrepanz im Hinblick auf die hauptsächlich eingesetzte Methode in der Forschung.

Damit vakuumbasierte Verfahren ihre Skalierungseffekte voll ausspielen können, müsse die Herstellungsmethode dennoch weiter verbessert werden, so die Forschenden. Unter anderem müsse weiter an der Qualität der Abscheidung geforscht werden, um den Wirkungsgrad noch weiter zu steigern. Zudem gelte es, die Geschwindigkeit der Abscheidung deutlich zu erhöhen. „Vakuumbasierte Herstellungsverfahren sind nicht nur die erste Wahl der Industrie, wenn es darum geht, die Dünnschicht-Technologien zur Marktreife zu bringen. Unsere Analyse zeigt auch, dass die Verfahren wettbewerbsfähig mit lösungsmittelbasierten Ansätzen sind“, ergänzt David More vom NREL. (mfe)

 

Elektronischer Turmbau zu Babel?

(Pioneer) – Wenn wir die Gegenwart von allen Geräuschen und Blendeffekten befreien, dann hören und sehen wir klarer. Manchmal bekommen wir die Gegenwart sogar in zwei Worten zu packen, die sich ihrerseits in ein Kürzel pressen und in einer Aktie verdichten lassen.

Diese Aktie ist derzeit Nvidia. Der Chiphersteller steht für das neue Zeitalter der Künstlichen Intelligenz, das in der Geheimsprache von Wirtschaftsführern und Börsianern nur als KI bezeichnet wird.

Das Unternehmen schlägt mit seinen KI-Chips Quartal für Quartal die Erwartungen der Analysten. Die Aktie kletterte bisher auf sagenhafte Höhen. Die Börse bewertet Nvidia inzwischen mit zwei Billionen Dollar. Das entspricht dem Bruttoinlandsprodukt Italiens. Aufklärung tut also not:

Die Firma

Das Tech-Unternehmen Nvidia wurde 1993 von dem taiwanesisch-amerikanischen Elektroingenieur Jensen Huang (61) zusammen mit Chris Malachowsky (64) und Curtis Priem (64) gegründet. Die drei wollten die Rechenleistung von Computern verbessern, besonders bei Videospielen und der Grafikbearbeitung sahen sie großes Wachstumspotenzial. Mit einem Startkapital von 40.000 Dollar wurde Nvidia gegründet.

Heute ist Nvidia Marktführer im Bereich Grafikkarten und Chipsätze und die Börsenbewertung liegt bei gut zwei Billionen Dollar. Hinter Microsoft, Apple und Saudi Aramco steht Nvidia damit auf Platz vier der wertvollsten Unternehmen der Welt. Im Fiskaljahr 2024, das am 31.01.2024 zu Ende ging, erzielte die Firma einen Nettogewinn von 29,7 Milliarden US-Dollar – ein sagenhaftes Plus von 580 Prozent im Vergleich zum Vorjahr.

CEO und Gründer Jensen Huang ist dadurch Milliardär geworden. Er hält rund drei Prozent der Aktien seines Unternehmens, Huangs Vermögen wird von Forbes inzwischen auf über 70 Milliarden Dollar geschätzt.

Der Markt

Ein KI-Modell, auch neuronales Netz genannt, ist im Wesentlichen eine „mathematische Lasagne“, wie Nvidia es nennt, die aus mehreren Schichten linearer Algebra-Gleichungen besteht. Die tausenden winzigen Recheneinheiten einer Grafikkarte arbeiten parallel, um diese „Lasagne“ eines KI-Modells zu zerlegen, sodass eine Künstliche Intelligenz innerhalb weniger Sekunden brauchbare Antworten liefern kann.

Diese Hardware liefert Nvidia mit seinen Chips, die in den Rechenzentren von Kunden wie Meta oder Microsoft verbaut werden. ChatGPT wurde mit Hilfe von tausenden Nvidia-Grafikkarten entwickelt und läuft heute auf Datenzentren, die mit Nvidia-Hardware ausgestattet sind. Im Segment der KI-Chips kommt Nvidia derzeit auf einen Marktanteil von über 90 Prozent.

Nvidias wichtigstes Produkt ist derzeit der Grafikchip H100. Er ist einer der leistungsfähigsten Chips und das derzeit begehrteste elektronische Bauteil der Welt. Das Angebot kann die Nachfrage auf dem Weltmarkt derzeit nicht befriedigen. Das bedeutet: Nvidia besitzt eine Preisfestsetzungsmacht.

Die Hoffnung

Nvidia-CEO Jensen Huang sieht die Menschheit durch KI am Beginn einer neuen Industriellen Revolution. Seine Vision ist der Aufbau einer weltweiten KI-Infrastruktur, um Quantensprünge in der heutigen Rechenleistung zu erzielen.

Die Hoffnung besteht darin, dass Nvidia einen Megatrend der Globalökonomie bedient. Das glaubt auch eine Reihe namhafter Analysten, die trotz der Rally der Nvidia-Aktie (über 1.000 Prozent seit 2020) und einer hohen Bewertung weiterhin zum Kauf der Aktie raten. Das durchschnittliche Kursziel liegt bei 873 US-Dollar (aktueller Kurs 798 US-Dollar).

Der Hype

Die Begründung für weitere Kurssteigerungen fußt in allen Analysen auf dem hohen Umsatzwachstum – und dessen erhoffter Fortsetzung. Laut Vivek Arya von der Bank of America sei die Bewertung darum weiterhin „überzeugend“. KI stecke noch in den Kinderschuhen. Durch die marktbeherrschende Stellung und Partnerschaften (wie beispielsweise mit Dell, SAP und ServiceNow) könnten die Anleger hier noch weitere Allzeithochs erwarten.

Der aktuell größte Optimist der Analystenriege ist Ananda Baruah von Loop Capital. Er erwartet für die Nvidia-Aktie Kurse um 1.200 US-Dollar. Das wäre ein nochmaliges Kursplus von 50 Prozent. Baruah geht davon aus, dass Nvidia weiterhin die Analystenschätzungen Quartal für Quartal schlagen wird.

Denn die Konkurrenz schläft nicht. Advanced Micro Devices (AMD) aus Santa Clara in Kalifornien produziert inzwischen einen leistungsstärkeren KI-Chip – und ist dabei günstiger als Nvidia. AMDs neue, im Dezember gelaunchte KI-Chips MI300X arbeiten nach eigener Aussage 1,6-mal so schnell wie Nvidias Produkte. Der durchschnittliche Verkaufspreis des AMD-Chips liegt zwischen 10.000 und 15.000 US-Dollar, so der Citi-Analyst Christopher Danely. Das ist deutlich günstiger als Nvidia (25.000 bis 40.000 US-Dollar).

Fazit: An der Börse gibt es keine absoluten Wahrheiten, sondern nur Wahrheiten auf Zeit.

 

Safran – Arzneipflanze 2024 im Einsatz gegen depressive Zustände

(pte) – Alljährlich wählen die Wissenschaftler:innen der Herbal Medicinal Products Platform Austria (HMPPA) die Arzneipflanze des Jahres. Heuer ist ihre Wahl auf Safran gefallen. Und das aus gutem Grund: Verschiedene unabhängige Studien belegen seine antidepressive Wirkung. Neue Präparate machen sich seine vielversprechenden Effekte zunutze. Sie unterstützen die Frau vor der Periode und während der Menopause.

„Rotes Gold“ – Safran trägt diesen Namen nicht nur als Gewürz, er könnte auch in der Welt der Psychopharmaka so bezeichnet werden. Denn Safran gilt als natürlich wirksames Antidepressivum. Verschiedene Studien sowie Meta-Analysen haben die antidepressive Wirkung von Safran bei leichten bis mittelschweren Depressions-Symptomen belegt.(1-2) Die Arzneipflanze zeigt sich gegen Placebo signifikant überlegen und namhaften synthetischen Antidepressiva als ebenbürtig. Als Arzneipflanze hat Safran bereits eine lange Tradition bei Regelbeschwerden und Verstimmungszuständen. Schon in der Antike wurde er zu deren Linderung als Heilpflanze eingesetzt. Heute weiß man, dass vor allem Crocine und der Aromastoff Safranal für seine Wirkung verantwortlich sind. Safran wirkt nicht nur stimmungsaufhellend und beruhigend, sondern ebenso entkrampfend, entzündungshemmend und neuroprotektiv. Er verbessert außerdem die Gehirnleistung, stärkt die Konzentration und ist dabei gut verträglich.

Safran als idealer Begleiter bei PMS und während der Wechseljahre

Kein Wunder, dass Safran als vielversprechende Option in der natürlichen Behandlung depressiver Verstimmungszustände sowie als idealer Wegbegleiter bei PMS (prämenstruelles Syndrom) oder in der Menopause eingesetzt wird. Gemeinsam mit Mönchspfeffer, Vitamin B6 und C, sowie Chrom, Eisen und Magnesium trägt Safran im neuen Produkt Safralind® PRE DAYS zum Wohlbefinden vor der Menstruation sowie zur emotionalen Balance vor der Periode bei.(3) Der standardisierte Extrakt (Affron®) kommt darüber hinaus auch bei Wechselbeschwerden zum Einsatz. Im Präparat Safralind® MENO sorgt er für Entspannung und hilft, eine gute Stimmung aufrecht zu erhalten. Gemeinsam mit der bewährten Arzneipflanze Salbei, sowie den Vitaminen B6, D3 und speziellen Mineralstoffen, leistet Safran so einen völlig hormonfreien, wertvollen Beitrag zum seelischen und körperlichen Gleichgewicht während der Menopause

 

E-Mobilität nötig?

Meine Bemerkung:

Seit 10 Jahren mache ich darauf aufmerksam, dass nur mit Methanol  die Klimarettung möglich ist. Der Weg führt über grüne elektrische Energie zum Wasserstoff, zum regenerativem Methanol mit CO2-Gewinnung aus der Atmosphären-Luft.

Was die Mobilität anbelangt, so ist nicht das Batterie schwere Elektro-Auto, sondern das 200 kg leichtere serielle Hybrid-Elektroauto mit einer Kombination aus kleinem Methanol-Verbrennungs-Motor, mit reinem elektromotorischen Antrieb die Lösung. Meine Veröffentlichungen sowohl auf meiner Homepage als auch bei Facebook mit über 100.000 Followern brachten bisher nur den Erfolg, dass sich die österreichische Technologie-Schmiede Obrist sich dem Thema annahm. Sie entwickelte mit einem genialen Lademotor (40 kW, 2 Zylinder) auf der Basis reiner Elektromobilität ein von ihnen genanntes Hyper-Hybrid E-Auto, welches alle meine Voraussagen des physikalisch geringsten Verbrauchs (1,5 l auf 100 km) und ohne eines mechanischen Getriebes und Differenzial 10 Prototypen im Mittelklasse-Sektor. Die Produktionskosten sind etwa im Bereich eines Diesel-PKWs.

Ich selbst bin mit einem Prototypen in den bayrischen Alpen unterwegs gewesen. Bisher erkannte kaum jemand die Chance, die diese Erfindung der Klima neutralen Mobilität bietet. Sogar die in der Welt führende deutsche Automobilindustrie ließ diese Möglichkeit links liegen und verrannte sich in ein Auto, mit dem Elon Musk der Welt weiß machen wollte, welches die Klimarettung bringen würde. Es fiel ihm leicht, weil in Kalifornien mit seinem Smogs in größeren Städten, ebenso wie in China, die Luft so verpestet wurde, dass diese abgasfreie Möglichkeit dafür eine ideale Lösung war. Tesla ist mittlerweile ein Begriff geworden und steht leider mittlerweile für die Elektromobilität. Dem Klimaschutz hat er aber nicht geholfen, doch es gelang ihm, der Welt weiß zu machen, nur so sei ein technischer Fortschritt möglich.

Dass es aber auch ganz anders geht, und zwar mit von Anfang an Co2-neutralem und in der Konsequenz sogar CO2-negativen Antrieb, darauf ist bisher die Automobil-Industrie nicht eingegangen. Dass sogar große Manager dieser Industrie darauf reingefallen sind, das beweist das nachfolgende Interview mit Stefan Hartung, dem CO des größten Automobilzulieferers Bosch.

Weil meine bisherigen Veröffentlichungen diese Meinungen nicht beeinflussen konnten, habe ich mir im honen Alter die Mühe gemacht, ein Buch mit dem Titel ‚Wohlstand und Wirtschaftswachstum ohne Reue‘ zu schreiben, welches den bisherigen Mainstream widerlegt, die individuelle Mobilität für jeder erschwinglich hält und vor allen Dingen die Dritte-Welt-Länder mit einbezieht. Aber noch viel wichtiger, nur so ist eine globale Klimarettung letztlich erfolgreich. Wer glaubt, dies seien Wolkenkuckucksheime, dem empfehle ich mein Buch zu lesen. Es ist in drei Sprachen erschienen und hat zu einem Konsortium von drei einflussreichen Interessenten geführt, Geld zur Verfügung zu stellen, um dieses zu verwirklichen. Die Verträge über ein Grundkapital von 2 Milliarden Euro sind verbindlich abgeschlossen, über die Börse sollen bis zu 10 Milliarden eingesammelt werden, um die technische Realisierung zu verwirklichen. Das heißt, nicht nur den Energie-Bedarf der Mobilität der Zukunft erheblich zu verringern und umweltfreundlicher zu gestalten, sondern auch mit relativ wenig Investitionen in die Infrastruktur zu verwirklichen und unseren gesamten Globus auf regenerative Energien umzustellen, und zwar preiswerter als bisher. Alles, was an CO2-produzierenden fossiler Kohle, Erdöl und Erdgas aus der Erde geholt wurde. Dann stellt sich die Industrie schädliche Dekarbonisierung von selbst ein, ohne staatliche Reglementierung.

Der Schlusssatz meines Buches lautet: ‚Wohlstand allen Ländern, die guten Willens sind und der Vernunft eine Chance geben.‘

So, jetzt lesen Sie zunächst einmal, dass die derzeitige Elektro-Mobilität in eine Sackgasse geraten ist und immer noch an falschen Methoden gedoktert wird, die notwendige Klimarettung zu verwirklichen.

Jean Pütz

Klassische Elektromobilität in der Krise

 

 

Künstliche DNA – 12 Millionen für Forschung

Meine persönliche Meinung:

gelegentlich werden Wissenschaften so, wie sie sind, übernommen. Bei diesem Forschungsobjekt möchte ich aber meine Bedenken anmelden:

Der  Manipulation der biologischen Welt öffnet das Tür und Tor. Ich hoffe, dass da auch Forscher, die sich mit Ethik beschäftigen, integriert werden. In der Bibel wird der Turmbau zu Babel und sein Schicksal beschrieben. Mit der künstlichen Intelligenz ist heute alles möglich. Ich möchte nur den Zauberlehrling von Goethe zitieren: ‚Die Geister, die ich rief, die werd‘ ich nicht mehr los‘, um Faust zu zitieren:

Jean Pütz

(KIT) – Die Anwendung und Entwicklung neuer Technologien der DNA-Synthese voranzutreiben, um den Weg für die Herstellung ganzer künstlicher Genome zu ebnen – das ist das Ziel eines neuen interdisziplinären Zentrums, das an der Universität Heidelberg, dem Karlsruher Institut für Technologie (KIT) und der Johannes Gutenberg-Universität Mainz (JGU) entsteht. Im Center for Synthetic Genomics sollen neue Entwicklungen in der Synthetischen Genomik durch Grundlagenforschung und Technologieentwicklung unter Einsatz von Methoden der Künstlichen Intelligenz (KI) angestoßen werden. Den Aufbau fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit insgesamt zwölf Millionen Euro.

Langfristig soll es so möglich werden, lange DNA-Sequenzen für Anwendungen in der Forschung, den Nanomaterialwissenschaften oder der Medizin zu entwerfen und herzustellen. Erster Sprecher des neuen Zentrums ist der Systembiologe Professor Michael Knop, stellvertretender Direktor des Zentrums für Molekulare Biologie der Universität Heidelberg (ZMBH).

Waren die vergangenen zwei Jahrzehnte in der Genomforschung von der Entwicklung neuer Genom-Sequenziertechniken geprägt, wird es zukünftig möglich sein, mithilfe neuartiger Verfahren der DNA-Synthese und Genomassemblierung Genome immer schneller und einfacher zu verändern und sogar vollständig neue Genome herzustellen. Diese Vision wird das Carl-Zeiss-Stiftung Center for Synthetic Genomics Heidelberg – Karlsruhe – Mainz (CZS Center SynGen) in den kommenden Jahren verfolgen. Dazu wollen die beteiligten Forscherinnen und Forscher der drei Universitäten auch mithilfe von KI-basierten Analyse- und Modellierungsverfahren synthetische DNA-Sequenzen entwerfen, um damit das Genom von Organismen gezielt zu verändern und mit neuen Funktionalitäten zu versehen. Ziel ist es, daraus sogenannte Biologika, das heißt biotechnologisch hergestellte Produkte, zu gewinnen. Sie sollen langfristig genutzt werden, um bio-basierte Arzneien herzustellen, Gentherapien für Krankheiten zu entwickeln, schädlingsresistente Pflanzen zu züchten, Biotreibstoffe zu produzieren oder die Forschung an neuartigen Materialien voranzutreiben.

„Mit den CZS Centern bündeln wir Expertisen über Standorte und Disziplinen hinweg. Gerade die Lebenswissenschaften benötigen eine hohe Interdisziplinarität. Im CZS Center SynGen soll die Herstellung künstlicher DNA vorangetrieben und das immense Potenzial für Forschung, Medizin und darüber hinaus nutzbar gemacht werden“, erklärt Dr. Felix Streiter, Geschäftsführer der Carl-Zeiss-Stiftung, die Motivation zur Förderung des zweiten CZS Centers in Deutschland.

„Das Center for Synthetic Genomics bündelt die Kompetenzen dreier forschungsstarker Einrichtungen, die nun gemeinsam von der Grundlagenforschung bis zur Technologieentwicklung an einem wichtigen Zukunftsfeld arbeiten“, so Professor Oliver Kraft, in Vertretung des Präsidenten des KIT. „Ziel sind vielfältige Anwendungen in der Biotechnologie, etwa für die Medizin, aber auch für die Materialwissenschaften. Wir freuen uns sehr, mit unserem Know-how dazu beizutragen.“

Synthetische Genomik

„Die Synthetische Genomik ist ein junges, aber global rasant wachsendes Forschungsgebiet mit Transferpotenzial für verschiedene gesellschaftlich relevante Herausforderungen. In unserem neuen Zentrum bündeln wir die komplementäre Expertise der drei forschungsstarken Universitäten Heidelberg, Karlsruhe und Mainz in den Lebenswissenschaften, dem Molecular Systems Engineering und der biomedizinischen Forschung. So wollen wir alle Schritte der Synthetischen Genomik vom Design über die Herstellung bis hin zur Anwendung von synthetischen genetischen Materialien und Organismen steuern“, sagt der Sprecher des Zentrums, Professor Michael Knop. „Das neue Center wird uns eine einzigartige Gelegenheit geben, die verschiedenen Expertisen und Disziplinen neu zu verknüpfen. Vor allem der Diskurs von Biologie und Medizin mit Expertinnen und Experten in Simulation und Modelling wird uns neue Wege aufzeigen, nicht nur um synthetische Genome zu generieren, sondern auch um natürliche und artifizielle Modifikationen und epigenetische Mechanismen besser zu verstehen und zu nutzen“, erklärt Professorin Sylvia Erhardt, Molekularbiologin am KIT. Dem dreiköpfigen Direktorium des CZS Center SynGen gehört neben Knop und Erhardt auch der biophysikalische Chemiker Professor Edward Lemke von der Universität Mainz an.

Das CZS Center SynGen hat seine Arbeit im Januar 2024 aufgenommen. An den drei Standorten arbeiten Forscherinnen und Forscher verschiedener Disziplinen zusammen, darunter aus Biologie, Biochemie, Biophysik, Biotechnologie, Synthetischer Biologie und Bioengineering, aber auch Philosophie und Rechtswissenschaft sowie Genomik, Immunologie, Epigenetik, Virologie und Data Science. Dazu sollen weitere internationale Expertinnen und Experten sowie Nachwuchsforschende für die Arbeit in dem neuen Zentrum gewonnen werden. Zudem wird in Heidelberg ein Kompetenzzentrum für die Synthese synthetischer DNA eingerichtet, das sogenannte CZS Center Synthetic DNA Accelerator Lab. In Karlsruhe wird die bereits bestehende Virtual Material Platform um eine DNA-Unit erweitert, um die Expertise des multiskalierten Modellings und des virtuellen Designs auf Nukleinsäuren wie DNA zu erweitern. In das CZS Center SynGen eingebunden sind auch Wissenschaftlerinnen und Wissenschaftler des Deutschen Krebsforschungszentrums und des Heidelberg Institute for Theoretical Studies, ebenso wie externe Partner aus Wissenschaft und Wirtschaft.

Offiziell eröffnet wurde das CZS Center SynGen mit einer Festveranstaltung am 4. März 2024 an der Universität Heidelberg. Daran nahmen neben den federführenden Forschenden auch Vertreterinnen und Vertreter der Carl-Zeiss-Stiftung sowie der beteiligten Universitäten teil.

Über die Carl-Zeiss-Stiftung

Die Carl-Zeiss-Stiftung hat sich zum Ziel gesetzt, Freiräume für wissenschaftliche Durchbrüche zu schaffen. Als Partner exzellenter Wissenschaft unterstützt sie sowohl Grundlagenforschung als auch anwendungsorientierte Forschung und Lehre in den MINT-Fachbereichen (Mathematik, Informatik, Naturwissenschaften und Technik). 1889 von dem Physiker und Mathematiker Ernst Abbe gegründet, ist die Carl-Zeiss-Stiftung eine der ältesten und größten privaten wissenschaftsfördernden Stiftungen in Deutschland. (jho)