Alle Beiträge von Minge

Klimawandel: Steigende Temperaturen beeinträchtigen Grundwasserqualität

(KIT) – Das Klimasystem erwärmt sich. Grund dafür ist die erhöhte Konzentration von Treibhausgasen in der Atmosphäre, welche die Wärmeabstrahlung einschränken. Einen großen Teil dieser Wärme nehmen die Ozeane auf, aber auch Böden und das Grundwasser wirken als Wärmesenken. Bisher ist jedoch wenig darüber bekannt, wie sich diese Erwärmung der Erdoberfläche räumlich und zeitlich auf das Grundwasser auswirkt. „Um die Lücke zu schließen, haben wir die prognostizierten Veränderungen der Grundwassertemperatur bis zum Jahr 2100 auf globaler Ebene dargestellt“, sagt Dr. Susanne Benz vom Institut für Photogrammetrie und Fernerkundung (IPF) des KIT, welche die Studie gemeinsam mit Dr. Kathrin Menberg und Professor Philipp Blum vom Institut für Angewandte Geowissenschaften (AGW) des KIT erstellt hat. „Wir stellen globale Temperaturkarten für Grundwasser in verschiedenen Tiefen unter der Erdoberfläche zur Verfügung. Diese zeigen, dass an Orten mit flachem Grundwasserspiegel und/oder hoher atmosphärischer Erwärmung weltweit die höchsten Grundwassererwärmungsraten zu erwarten sind.“
Die Forschenden beziehen sich auf die Klimaszenarien „SSP2-4.5“ und „SSP5-8.5“. Solche Szenarien beschreiben verschiedene sozioökonomische Entwicklungen sowie unterschiedliche Verläufe des atmosphärischen Treibhausgasgehalts in der Zukunft. SSP2-4.5 stellt dabei etwa die Mitte der möglichen zukünftigen Treibhausgasentwicklungen dar, SSP5-8.5 den oberen Rand.
Millionen Menschen von zu warmem Trinkwasser betroffen
Die Studie zeigt, dass die Grundwassertemperaturen bis zum Jahr 2100 um 2,1 Grad Celsius nach SSP2-4.5 und um 3,5 Grad Celsius nach SSP5-8.5 ansteigen werden. „Schon heute leben rund 30 Millionen Menschen in Gebieten, in denen das Grundwasser wärmer ist, als die strengsten Richtlinien für Trinkwasser vorgeben. Das bedeutet, dass das Wasser dort nicht bedenkenlos direkt getrunken werden kann, sondern zum Beispiel abgekocht werden muss. Denn auch das Trinkwasser in den Wasserleitungen wird durch die Wärme im Boden aufgeheizt“, so die Wissenschaftlerin. „Je nach Klimaszenario werden bis zum Jahr 2100 bis zu mehrere Hundert Millionen Menschen betroffen sein.“ Nach SSP2-4.5 steige die Zahl auf 77 bis 188 Millionen Menschen, nach SSP5-8.5 auf 59 bis 588 Millionen an, so die Studie. Die starken Schwankungen hängen mit der räumlichen Variabilität des Klimawandels und der Bevölkerungsentwicklung zusammen. Die geringsten Erwärmungsraten prognostizieren die Forschenden für Gebirgsregionen mit tief liegendem Grundwasserspiegel wie die Anden oder die Rocky Mountains.
Temperaturänderungen beeinflussen Ökosysteme
Die Temperatur des Grundwassers spielt eine entscheidende Rolle für die Wasserqualität. Sie beeinflusst eine Vielzahl chemischer, biologischer und physikalischer Prozesse. „Wenn die Bedingungen stimmen, können steigende Grundwassertemperaturen indirekt dazu führen, dass sich schädliche Stoffe wie Arsen oder Mangan im Grundwasser anreichern. Diese erhöhten Konzentrationen können sich negativ auf die menschliche Gesundheit auswirken, insbesondere wenn das Grundwasser als Trinkwasserquelle genutzt wird“, sagt Benz. Zudem beeinflusse wärmeres Grundwasser den Temperaturhaushalt von Flüssen, grundwasserabhängige Ökosysteme, aquatische biogeochemische Prozesse und das geothermische Potenzial. Dies stelle eine Herausforderung für die biologische Vielfalt dar und berge das Risiko, dass Kohlenstoff- und Nährstoffkreisläufe gestört werden.
Darüber hinaus können die erhöhten Temperaturen im oberflächennahen Boden und im Grundwasser kritische Schwellenwerte in den Wasserverteilungsnetzen überschreiten. Dies könnte gesundheitliche Folgen haben, beispielsweise durch das Wachstum von Krankheitserregern wie Legionella spp. Auch Fischarten, insbesondere der Lachs, sind von den veränderten Bedingungen betroffen. Laichplätze in Flüssen, die auf das Grundwasser angewiesen sind, könnten durch die Erwärmung zu warm werden und so die Fortpflanzung gefährden. „Unsere Ergebnisse zeigen, wie wichtig es ist, Maßnahmen zum Schutz der Grundwasserressourcen zu ergreifen und nachhaltige Lösungen zu finden, um den negativen Auswirkungen des Klimawandels auf das Grundwasser entgegenzuwirken“, appelliert Benz. (swi)

Kohle und Öl noch nie so viel gefördert – die Folgen

(Pioneer) – die Frage lautet: Was haben Erderwärmung und Inflation gemeinsam?

Die Antwort: Bei ihrer Bekämpfung wird das, was die Wissenschaft empfiehlt, hartnäckig ignoriert.

Die Bekämpfung des Klimawandels kann mit dieser vorsätzlichen Ignoranz nicht vorankommen: Wir wissen heute, dass Kohlendioxid und Methan die Treiber der Erderwärmung sind, und dennoch stieg laut dem Global Energy Monitor im vergangenen Jahr die industriell verfügbare Kapazität der Kohleenergie weltweit um 48,4 Gigawatt. Etwa zwei Drittel der neuen Kohlekraftwerke entfielen allein auf China.

Auch die USA, ohnehin schon die Öl-Nation Nummer eins, haben ihre Ölförderung weiter gesteigert.

Die Folge: Die Erde erwärmt sich mit ungebremstem Tempo.

Bei der Inflationsbekämpfung das gleiche Spiel: Wirtschaftswissenschaftler wissen sehr genau, wie Geldentwertung entsteht: Wenn man mehr Geldscheine in die Umlaufbahn schickt, als dort Waren, Rohstoffe und Dienstleistungen zirkulieren, entsteht überschüssige Liquidität.

Diese überschüssige Liquidität führt zur Inflationierung der Preise. Und: Sie macht die Währungen weich. Plötzlich muss für Öl, Stahl und Bananen auf dem Weltmarkt mehr bezahlt werden als zuvor.

Und genau das passiert: Die Inflation in den USA ist vom Zwei-Prozent-Ziel mit derzeit 3,5 Prozent deutlich entfernt. Die Kerninflation (also ohne die Preise für Energie und Nahrung) beträgt sogar 3,8 Prozent, sodass unklar ist, wann und ob überhaupt noch in diesem Jahr eine Zinssenkung der Notenbank erfolgen kann.

Es sind – wie beim Klimawandel – nicht anonyme Mächte, sondern Regierungen, die den Notfall beklagen und zugleich herbeiführen. Sie selbst sind der Teufel, den sie austreiben wollen. Sie haben den Notenbanken am Sonntag feierlich das Mandat zur Inflationsbekämpfung erteilt, um werktags zusätzliche Billionen am Kapitalmarkt zu leihen, die dann dem Wirtschaftskreislauf injiziert werden.

Fakt ist: Die Geldpolitik der Notenbanken und die Finanzpolitik der Regierungen kommen sich ständig in die Quere.

Beispiel Italien

Die Superbonus-Regelung ermöglicht den Bürgern, 110 Prozent der Kosten für die Verbesserung der Energieeffizienz ihrer Häuser über Steuergutschriften vom Staat zu decken, also de facto ein riesiges Steuergeschenk. Die Regierung von Giorgia Meloni, die das Programm zuvor kritisiert hatte, verlängerte nun die Steuervergünstigungen um ein weiteres Jahr.

Wahnsinn mit System. Kostenpunkt in nur vier Jahren: über 160 Milliarden Euro.

Die Staatsschuldenquote Italiens liegt auch deshalb bei 137,3 Prozent – mehr als das Doppelte der im Vertrag von Maastricht vereinbarten 60-Prozent-Obergrenze.

Beispiel Großbritannien

Die Staatsverschuldung Großbritanniens liegt derzeit bei 100 Prozent des Bruttoinlandsprodukts. Vor 20 Jahren lag sie noch bei rund 35 Prozent. Die Schulden wachsen, die reale Wirtschaft dagegen kaum. Der IWF prognostiziert ein BIP-Wachstum von 0,5 Prozent für 2024.

Beispiel USA

Joe Biden will sich den Aufschwung und damit seinen Wahlsieg offenbar kaufen. Das von seiner Administration global ausgerollte Subventionsprogramm heißt zwar Inflation Reduction Act, hat aber mit Inflationsbekämpfung nichts zu tun. Im Gegenteil: Die Regierung nimmt Kredite auf, um Firmen aus Übersee in den USA anzusiedeln.

Durch das gesteigerte Tempo der US-Neuverschuldung kamen allein im ersten Quartal 2024 für sieben Billionen Dollar neue Staatsanleihen an den Markt. Der IWF rechnet für die US-Staatsverschuldung mit einem Anstieg von aktuell rund 34,5 Billionen US-Dollar auf knapp 45 Billionen Dollar in 2028. Zur Erinnerung: Zehn Jahre zuvor – also 2014 – waren es erst 18 Billionen US-Dollar.

Die Teuerungsraten reflektieren eine expansive Fiskalpolitik, die die Wirtschaft gezielt ankurbelt und damit die Geldverknappung und Wirtschaftsdämpfung der Notenbank unterläuft. Mittlerweile müssen die USA eine Billion US-Dollar allein für den Zinsdienst aufbringen.

Kein Wunder also: Die US-Inflationsraten sind wieder auf deutlich höherem Niveau angelangt und mit fast vier Prozent weit von der Zielinflation (zwei Prozent) entfernt.

Das Haushaltsdefizit der USA stelle ein „erhebliches Risiko“ für die Weltwirtschaft dar, warnte der IWF. Der Fonds erklärte, er rechne damit, dass die USA im nächsten Jahr ein Defizit von 7,1 Prozent verzeichnen werden – mehr als dreimal so viel wie der Durchschnitt der anderen fortgeschrittenen Volkswirtschaften.

Die USA, China, aber auch Großbritannien und Italien müssten „endlich die fundamentalen Ungleichgewichte zwischen Einnahmen und Ausgaben des Staates in den Griff bekommen“, heißt es in einem Report, der am Mittwoch veröffentlicht wurde.

Wo bleibt das Positive?

Deutschland, das darf an dieser Stelle nicht verschwiegen werden, ist die einsame Ausnahme von der internationalen Regel. Hier wirken die Schuldenbremse im Grundgesetz, das Schuldenurteil des Bundesverfassungsgerichts und ein liberaler Finanzminister, der lieber untergeht, als die Geldschleuse zu öffnen. Das alles zügelt die Augenblicksgier der Politik und dämpft damit die Expansion der Geldmenge.

Allerdings: Auch hier sind die Gemeinsamkeiten von Erderwärmung und Inflation nicht zu übersehen. Die deutschen Anstrengungen einer soliden Fiskal- und einer ökologischen Klimapolitik werden von anderen Nationen nicht befolgt, sondern belächelt und konterkariert. Was im Umkehrschluss bedeutet: Am deutschen Wesen wird auch bei der Inflationsbekämpfung die Welt nicht genesen.

Mikroplastik wandert vom Darm ins Gehirn

(pte) – Mikroplastik kann sich vom Darm auf lebenswichtige Organe des Körpers wie das Gehirn, die Leber und die Nieren ausbreiten, zeigt eine an Mäusen durchgeführte Studie von Marcus Garcia vom University of New Mexico College of Pharmacy. Dabei wurde untersucht, wie sich die Aufnahme von Mengen an Mikroplastik bei den Tieren auswirkt, wie sie auch in der Umwelt zu finden sind. Laut den in „Environmental Health Perspectives“ veröffentlichten Erkenntnissen kann Mikroplastik zu Stoffwechselveränderungen und damit auch zu systemischen Wirkungen führen.

„Erhebliche Auswirkungen“

„Die Auswirkungen unserer Forschungsergebnisse auf die menschliche Gesundheit sind erheblich“, so Garcia. Mikroplastik sei heute in der Umwelt sehr stark vertreten. Davon betroffen seien der Boden, Nahrungsmittel und Wasser. Die Forscher haben für diese Studie Mikroplastik als Partikel definiert, die kleiner als fünf Millimeter sind.

Die Mäuse wurden über die Nahrung verschiedenen Mengen von Polystyrol oder Mikrokügelchen aus gemischten Polymeren ausgesetzt. In der Folge untersuchten die Forscher das Serum, Gehirn, Leber, Nieren und auch das Gewebe des Dickdarms auf das Vorhandensein von Mikroplastik.

Als Ergebnis konnten die Forscher zeigen, wie sich Mikroplastik auch in andere, weit entfernte Bereiche des Körpers ausbreitet. In Dickdarm, Leber und Gehirn kam es zudem zu spezifischen Stoffwechselveränderungen. Die Art der Veränderungen hing dabei davon ab, wie groß die Belastung der Mäuse gewesen ist und welcher Art von Mikroplastik sie ausgesetzt waren.

Mehr Forschung nötig

Da diese wissenschaftliche Untersuchung an Mäusen durchgeführt wurde, sind laut Garcia weitere Erhebungen erforderlich, um zu bestätigen, dass sich diese Ergebnisse auch auf den Menschen anwenden lassen. Derzeit erforscht Garcia bereits, wie Mikroplastik in das Gehirn gelangt.

Zusätzlich werden neue Verfahren dazu eingesetzt, die Ansammlung von Mikroplastik im menschlichen Gehirn, der Leber und den Nieren zu untersuchen. Sie werden dafür mittels Pyrolyse-Gaschromatographie/Massenspektrometrie aus dem biologischen Gewebe isoliert und anschließend quantitativ bestimmt.

Kant zum 300. Geburtstag

Ich bin ein Kantianer und verehre Immanuel Kant als Vordenker der modernen Aufklärung. Sein kategorischer Imperativ führt konsequent zur Formulierung der Menschenrechte.

(Pioneer) – Immanuel Kant ist der bedeutendste Philosoph der Neuzeit. Heute jährt sich sein Geburtstag zum 300. Mal.

Geboren und gestorben ist er in Königsberg, das er zeit seines Lebens – 80 Jahre lang – fast nie verlassen hat. So beschränkt sein geografischer Radius auch war – sein Denken kannte keine Grenzen. Er schrieb und forschte zu den Naturwissenschaften, der Metaphysik, zu Fragen von Ethik und Ästhetik, zu Recht und Religion, zu Astronomie und Geschichte.

Sapere Aude – zu deutsch: Habe den Mut, Dich deines Verstandes zu bedienen.

Mit diesem lateinischen Sprichwort beantwortet Kant die Frage: Was ist Aufklärung? Er legt dem modernen Menschen die Bürde der Selbstertüchtigung und Selbstermächtigung auf und befreit ihn gleichzeitig aus den Fesseln seiner Unmündigkeit.

Kant begreift den Begriff des Menschen nicht auf Basis biologischer, soziologischer oder historischer Tatsachen. Menschsein ist für Kant von moralischer Dimension.

Der Philosoph Omri Boehm legt in seinem Buch „Radikaler Universalismus“, das jüngst mit dem Leipziger Buchpreis für europäische Verständigung ausgezeichnet wurde, Kants Erbe neu aus:

Was Menschen menschlich macht, ist keine natürliche Eigenschaft, sondern ihre Freiheit, ihrer Verpflichtung auf moralische Gesetze zu folgen.

Mit Kants 300. Geburtstag feiern wir den Aufbruch in die Welt, in der wir heute leben. Doch dieser Jahrestag ist auch eine Erinnerung daran, dass Meinungsfreiheit, Demokratie und insbesondere die Freiheit der Wissenschaft weltweit unter Druck stehen.

Das Erbe von Immanuel Kant ist also nicht gesichert. Für ihn muss heute nicht gebetet, sondern gekämpft werden.

Batterien: Heute die Materialien von morgen modellieren

(KIT) – Die Forschung zu neuen Batteriematerialien zielt nicht nur darauf, Leistung und Lebensdauer zu optimieren sowie Kosten zu senken. Vielmehr geht es auch darum, seltene Elemente wie Lithium und Kobalt sowie toxische Bestandteile zu reduzieren. Als vielversprechend gelten Natrium-Ionen-Batterien, die auf ähnlichen Prinzipien basieren wie Lithium-Ionen-Batterien, sich jedoch aus in Europa ausreichend verfügbaren Rohstoffen herstellen lassen. Sie eignen sich für stationäre und mobile Anwendungen. „Als Materialien für die Kathode sind Schichtoxide wie Natrium-Nickel-Manganoxide vielversprechend“, berichtet Dr. Simon Daubner, Gruppenleiter am Institut für Angewandte Materialien – Mikrostruktur-Modellierung und Simulation (IAM-MMS) des KIT und korrespondierender Autor der Studie. Im Exzellenzcluster POLiS (steht für: Post Lithium Storage) forscht er an der Natrium-Ionen-Technologie.

Beim schnellen Laden kommt es zu mechanischen Spannungen

Bei diesen Kathodenmaterialien gibt es allerdings ein Problem: Natrium-Nickel-Manganoxide ändern ihre Kristallstruktur, je nachdem, wie viel Natrium gerade gespeichert ist. Wird das Material langsam geladen, geht alles geordnet zu. „Schicht für Schicht geht das Natrium aus dem Material – wie in einem Parkhaus, das sich etagenweise leert“, erklärt Daubner. „Aber wenn es schnell gehen muss, wird das Natrium von allen Seiten herausgezogen.“ Dadurch kommt es zu mechanischen Spannungen, die das Material dauerhaft schädigen können.

Forschende am Institut für Nanotechnologie (INT) und am IAM-MMS des KIT haben nun gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern an der Universität Ulm und am Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) diese Zusammenhänge mithilfe von Simulationen aufgedeckt und berichten darüber in npj Computational Materials, einer Zeitschrift aus dem Nature-Portfolio.

Experimente bestätigen Simulationsergebnisse

„Computermodelle können verschiedene Längenskalen beschreiben, von der Anordnung der Atome in Elektrodenmaterialien über deren Mikrostruktur bis hin zur Zelle als funktionale Einheit jeder Batterie“, sagt Daubner. Diese verbinden Mikrostrukturmodelle mit langsamen Lade- und Entladeexperimenten, um das Schichtoxid NaXNi1/3Mn2/3O2 zu untersuchen. Das Material weist mehrere Degradationsmechanismen auf, die zu Kapazitätsverlust führen. Daher taugt es derzeit noch nicht für kommerzielle Anwendungen. Wenn sich die Kristallstruktur ändert, kommt es zu einer elastischen Verformung. Der Kristall schrumpft, was zu Rissen führen kann und die verfügbare Kapazität mindert. Wie am INT und am IAM-MMS vorgenommene Simulationen zeigten, ist dieser mechanische Einfluss so stark, dass er maßgeblich beeinflusst, wie schnell sich das Material laden lässt. Experimentelle Untersuchungen am ZSW bestätigten die Ergebnisse.

Die in der Studie gewonnenen Erkenntnisse lassen sich teilweise auf andere Schichtoxide übertragen. „Da wir nun die grundlegenden Vorgänge verstehen, können wir uns in weiteren Arbeiten der Entwicklung von Batteriematerialien widmen, die langlebig sind und sich möglichst schnell laden lassen“, fasst Daubner zusammen. Dadurch könnte der großflächige Einsatz von Natrium-Ionen-Batterien in fünf bis zehn Jahren Wirklichkeit werden. (or)

Verbrenner gewinnt – Tesla Verliert

(Pioneer) – E-Autohersteller: Tesla hat im vergangenen Quartal den ersten Umsatzrückgang seit fast vier Jahren verbucht. Die Erlöse fielen im Jahresvergleich um neun Prozent auf 21,3 Milliarden Dollar. Unterm Strich fiel der Quartalsgewinn um 55 Prozent auf 1,13 Milliarden Dollar. Tesla trifft nach rasantem Wachstum in den vergangenen Jahren auf eine schwächere Nachfrage sowie wachsende Konkurrenz vor allem aus China.

Neue Modelle, besser als erwartete Marge: Tesla bestätigte aber, dass neue Modelle in die Produktion gehen sollen. Die sollen auch schon früher kommen als gedacht. Man werde die ursprünglich für das zweite Halbjahr 2025 geplante Produktion auf den Jahresanfang 2025 oder gar auf Ende 2024 vorziehen, sagte Tesla-Chef Elon Musk. Die Bruttomarge fiel auf 17,4 Prozent. Analysten hatten jedoch noch Schlimmeres erwartet. Die Anleger an der Wall Street feierten das mit einem nachbörslichen Aktienplus von 11 Prozent.

Der Blick nach Deutschland: Firmenchef Elon Musk lässt gerade mehr als jeden zehnten Job weltweit streichen. Am Standort in Grünheide bei Berlin plant Tesla, 400 Stellen abzubauen. Im Rahmen eines Freiwilligenprogramms soll die Belegschaft – inzwischen arbeiten über 12.000 Menschen in der Fabrik – reduziert werden. Die Verträge mit 300 Leiharbeitern wurden bereits nicht verlängert.

Europa: Die Idiotie mit dem Verbrennerverbot

(Pioneer) – Das Wolkenkuckucksheim besitzt eine Repräsentanz auf Erden. Und die befindet sich in Straßburg, genauer gesagt: im Europäischen Parlament. Nirgendwo sonst auf der Welt werden derart vorsätzlich und lustvoll weltfremde Beschlüsse gefasst.

Womit wir beim Verbot der Verbrennertechnologie für Automobile wären. Ab 2035, so hat das Europäische Parlament Mitte Februar 2023 beschlossen, darf in Europa kein neues Automobil zugelassen werden, das mit Benzin oder Diesel betankt wird. Die falsche Analyse der technologischen Möglichkeiten bei gleichzeitiger Missachtung der industriellen Interessen Europas und der Kundenbedürfnisse führte zum falschen Beschluss – und von dort war es bis zur Falschmeldung der Tagesschau nicht mehr weit:
„Das EU-Parlament hat endgültig für das Aus des Verbrennungsmotors gestimmt“, wurde mit einem Fanfarenstoß am 14.02.2023 um 16:48 Uhr gemeldet.

Doch diese Finalität war eine behauptete. Von „endgültig“ kann in Wahrheit keine Rede sein. Das Europaparlament wird nach der Wahl im Juni 2024 das Verbrennerverbot 2035 ungültig stempeln müssen.

Der Rückwärtsgang ist für die betroffenen Akteure und ihre medialen Beifahrer schmerzhaft, aber unvermeidlich. Das Wolkenkuckucksheim ist kein Ort, an dem es sich gut leben lässt. Hier die fünf Gründe, warum der Eingriff des Europäischen Parlaments in den europäischen Automobilmarkt nicht funktionieren konnte.

1. Elektromobilität ist global gesehen ein Nischenprodukt

Die Elektromobilität wird sich weltweit nicht auf die Schnelle durchsetzen. Derzeit sind weltweit rund 1,4 Milliarden Fahrzeuge auf den Straßen unterwegs – rund 98 Prozent davon Verbrenner.

Mit einem jährlichen Neuwagen-Ausstoß von 90 Millionen Fahrzeugen bleibt die schnelle Elektrifizierung aller Verkehre eine Fata Morgana. Bosch-Chef Stefan Hartung rechnet vor:

Wenn wir jetzt sofort alles, was wir im Moment an Produktion haben, umstellen würden, also über 90 Millionen Fahrzeuge pro Jahr ab jetzt voll elektrisch bauen würden, bräuchten wir etwa 16 Jahre, um die gesamte Fahrzeugflotte auszutauschen.

Aber dieses Gedankenexperiment wird für immer ein Experiment bleiben. Es ist undenkbar, dass in absehbarer Zeit der gesamte Produktionsausstoß der weltweiten Automobilindustrie von China bis Detroit elektrisch sein wird.

In großen Teilen dieser Welt ist der Anteil der Elektromobile gar nicht messbar. Die Ladeinfrastruktur fehlt nahezu komplett.

Bosch-Chef Hartung sagt den Bewohnern des Wolkenkuckucksheims,

Ein Teil der Mobilität wird am Ende gar nicht elektrisch sein.

2. Auch in Deutschland ist kein E-Boom ausgebrochen

Auch auf deutschen Straßen sind zu 97 Prozent Verbrennermotoren unterwegs. Und das Zuwachstempo der Elektromobilität hat sich nicht erhöht, sondern gedrosselt. In 2022 waren es noch plus 30 Prozent bei den Neuzulassungen; in 2023 nur noch plus 11,4 Prozent; in 2024 minus 14 Prozent, so eine Prognose des VDA.

Kaum hatte die Bundesregierung ihr Bonusprogramm für die Käufer von E-Autos storniert, war es mit der Begehrlichkeit vorbei. Im Dezember 2023 wurden fast 55.000 neue E-Autos zugelassen – minus 47 Prozent gegenüber dem Vorjahresmonat. Damit liegt der Marktanteil von elektrisch betriebenen Autos bei den Neuzulassungen aktuell bei knapp 11 Prozent.

Unrealistisches Ziel: Offiziell will die Bundesregierung in sechs Jahren mindestens 15 Millionen E-Autos auf deutschen Straßen sehen. Nach einer Prognose des Think-Tanks Agora Verkehrswende müssten dafür täglich rund 5.500 E-Autos in Deutschland zugelassen werden. Im März waren es täglich nur etwas mehr als 1.000.

3. Ladeinfrastruktur kommt kaum voran

„Wir machen Deutschland zum Leitmarkt für Elektromobilität“, heißt es im Koalitionsvertrag. Die Wahrheit zwei Jahre später: Der Ausbau der Ladeinfrastruktur kommt nur im Schneckentempo voran.

Gestrichen wurde ein Programm, das mit rund 200 Millionen Euro im Jahr 2024 allein in private Ladestationen, plus die dazugehörigen Solaranlagen und Stromspeicher, investieren sollte. Nun muss jeder E-Autobesitzer sehen, wie klarkommt.

Enttäuschend: Bis 2030 sollten rund 15 Millionen E-Autos an etwa einer Million Ladesäulen geladen werden können.

Die Realität: Um das Ziel der Bundesregierung zu erreichen, müsste sich – so der Verband der Automobilindustrie – das Ausbautempo verdreifachen.

4. China First

Mit dem geplanten Markteingriff würde die EU-Kommission das Herzstück der deutschen Industriegesellschaft schädigen. Denn erst mit Verspätung haben die hiesigen Autokonzerne mit der Entwicklung von Elektroautos begonnen, da hatte Pionier Tesla den Markt bereits eröffnet.

Aber auch China hat sich mit staatlicher Unterstützung einen Vorsprung in der Elektro- und in der Batterietechnologie erarbeitet. Nirgendwo werden heute so ausgereifte, so viele und vor allem so günstige Elektroautos gebaut.

Im chinesischen Markt, wo deutsche Automobile den Verbrennermarkt beherrschten, hat bei der Elektromobilität das chinesische Zeitalter begonnen. Und plötzlich liegen die Marktführer des Verbrenners, vorneweg Volkswagen, ganz weit hinten. Keine drei Prozent des chinesischen Stromermarktes konnten die Wolfsburger bisher für sich erobern.

Ein Verbrennerverbot in Europa nutzt vor allem der chinesischen E-Autoindustrie. Sie wartet nur darauf, mit ihren günstigeren Modellen die europäische Automobilindustrie deklassieren zu können. Ursula von der Leyen und die von ihr geführte EU-Kommission haben diesen geostrategischen Aspekt der Parlamentsentscheidung nie verstanden. Mit dem Verbrennerverbot 2035 würden sie zu nützlichen Idioten der Chinesen.

5. Autoindustrie schwingt um

Das verhaltene Kundeninteresse reflektiert sich mittlerweile auch in der Modellpolitik und den Produktionsplänen der Automobilkonzerne.

Beispiel VW: Dort reduziert man die E-Auto-Produktion in Deutschland; der ID.3 soll wegen zu geringer Nachfrage nun doch nicht im Stammwerk Wolfsburg produziert werden.

Beispiel Mercedes: CEO Ola Källenius hatte in seinem jugendlichen Leichtsinn „Electric only“ als Konzernstrategie ausgerufen. Bereits 2025 sollten reinrassige Elektroautos und Plug-in-Hybride die Hälfte des Absatzes ausmachen. Nachdem Vorgänger Dieter Zetsche (2006–2019) kein einziges E-Auto auf die Straße gebracht hatte, wollte sein Ziehsohn richtig durchstarten.

Neuer Realismus: Inzwischen legt sich der Autoboss nur noch auf das Ziel fest, in der zweiten Hälfte des Jahrzehnts „bis zu 50 Prozent“ Autos mit E-Motor verkaufen zu wollen. Das reflektiert weniger seine Zögerlichkeit als die Marktsituation.

Fazit: Der Elektromobilität gehört vermutlich die Zukunft – aber nicht überall, nicht allein und eben die Zukunft, nicht die Gegenwart. Die gute Nachricht: Mit seinem Beschluss, der nun wieder kassiert werden muss, hat das Europaparlament die einzig wirklich CO₂-freie Energie emittiert: heiße Luft. Damit schafft man es zwar nicht auf die Straße, aber immerhin in die Tagesschau.

Wohnungsmangel – und wie er zu bewältigen ist

(Pioneer) – Die Schlagzeilen gehören den Kriegen in Nahost und der Ukraine – und den medial durchsetzungsstarken Apokalyptikern: Klimakatastrophe! Soziale Spaltung! Globale Massenflucht!

So schafft es die lautlose, aber nicht minder dramatische Entwicklung auf dem deutschen Wohnungsmarkt nur selten in den Fokus der Aufmerksamkeit. Diese Krise besitzt keinen Glitzerfaktor und damit nicht das, was die Amerikaner „Star-Power“ nennen.

Nahezu unbemerkt von der Öffentlichkeit erodiert ein Grundpfeiler unserer Gesellschaft und das zentrale Versprechen der Bundesrepublik wird ungültig gestempelt: der bezahlbare Wohnraum für alle und die realistische Chance der Mittelklasse auf ein Eigenheim.

Die Hauptversammlung von Vonovia – Deutschlands größter Vermieter mit rund 483.000 Wohnungen in der Bundesrepublik – warf in dieser Woche für ein paar wenige Stunden das Scheinwerferlicht auf eine Lage, die für eines der reichsten Länder der Welt inakzeptabel ist.

Seine Firma, sagte der Vorstandsvorsitzende Rolf Buch, würde „täglich von Hunderten, an manchen Tagen von Tausenden“ Menschen kontaktiert, die verzweifelt auf der Suche nach einer Wohnung seien.

Wohnungsnot erhöhe die Ungleichheit und spiele populistischen Parteien in die Hände, so Buch. Der Vorstandschef wurde deutlicher als deutlich:

Mir fehlt das Verständnis, warum unsere gesamte Regierung dieses Thema nicht sehr viel beherzter angeht.

Denn bei stagnierender Neubautätigkeit hält der Zustrom nach Deutschland unvermindert an. Ohne weiteres Zutun der Politiker verschärft sich das Problem also im Selbstlauf.

  • Bis 2027 sollen bis zu 830.000 Wohnungen in Deutschland fehlen, das ist das Ergebnis von Schätzungen des Zentralen Immobilien Ausschusses.
  • Rolf Buch rechnet in seinen Prognosen mit einem Anwachsen der Wohnbevölkerung in Deutschland von heute 84 Millionen auf 86 Millionen Menschen – denen kein entsprechendes Wohnraumangebot gegenübersteht.

     

Es gibt also viele gute Gründe für Olaf Scholz und seine Bauministerin Klara Geywitz, die Reformbaustelle zu betreten. Diese sechs Punkte würden dem Wohnungsmarkt und damit auch dem Ansehen der Regierung massiv helfen:

1. Weniger Bürokratie, mehr Kapitalismus

Bauen in Deutschland ist kompliziert geworden. Während es 1990 noch rund 5.000 Bauvorschriften in unserem Land gab, sind es heute um die 20.000. Der Staat will sich in der Baupolitik selbst verwirklichen.

Eine radikale Entbürokratisierung der Bauwirtschaft ist also notwendig, was im Kern auch eine Entpolitisierung des Bauens bedeuten muss.

Es gibt keinen anderen Weg, als dass der Staat die Investoren zur Investition einlädt und ihnen also Flächen gewährt, gestalterischen Freiraum einräumt und kapitalistische Rendite, also die angemessene Verzinsung ihrer Investitionen, gestattet.

2. Weniger Umweltschutz, mehr Baugenehmigungen

Der Staat stellt immer höhere Anforderungen, gerade für Umweltschutz und Energieeffizienz. In einem Bericht von Februar schätzt der Zentrale Immobilien Ausschuss den Anteil von staatlich bedingten Kosten am Verkaufspreis eines Mehrfamilienhauses auf fast 40 Prozent.

Der Staat hat mit seinen gut gemeinten Eingriffen in den freien Wohnungsmarkt diesen nicht etwa gerechter und ökologischer, sondern kaputt gemacht. Das Wort der Stunde ist Überregulierung. Tim-Oliver Müller, Hauptgeschäftsführer des Hauptverbandes der Deutschen Bauindustrie:

Die Politik muss sich entscheiden: Will sie sich im Detail verregulieren oder effizient Wohnungen bauen?

3. Der Immobilienmarkt brauchte dringend die Zinssenkung der EZB

Die Zinspolitik spielt eine wichtige Rolle für den Wohnungsbau. Rolf Buch sagt:

Wir haben bis vor kurzem für 3.000 Euro pro Quadratmeter gebaut und bauen jetzt für 5.000 Euro pro Quadratmeter.

Das „whatever it takes“ von EZB-Präsident Mario Draghi war kein Glücksfall, wie bei der Jubiläumsfeier der EZB kürzlich wieder gesagt wurde, sondern ein Jahrhundertirrtum. Deshalb ist Inflationsbekämpfung, auch durch das Einhalten der Schuldenbremse, eine wichtige Voraussetzung für die Sanierung der Bauindustrie.

4. Konjunkturprogramm für die Bauindustrie

Statt mit Bürgergeld und Kindergrundsicherung den Sozialstaat weiter auszubauen, wäre die effektivste Sozialpolitik ein staatliches Wohnungsbauförderprogramm. Denn ohne einen solchen Impuls bricht die Bauindustrie in Deutschland sehenden Auges zusammen.

40 Prozent der Baufirmen klagen über Auftragsmangel. Jede zehnte Baufirma steckt bereits in Finanzierungsschwierigkeiten, berichten die Experten.

5. Ohne andere Verkehrspolitik kein Bauboom

„Es gibt ausreichend Bauland in Deutschland. So viel wie die Größe Berlins oder 140.000 Fußballfelder“, sagte Bauministerin Klara Geywitz vor rund zwei Jahren.

Das stimmt. Das Problem ist jedoch: Das Fehlen von guten Verkehrsanbindungen in die peripheren Räume sorgt für eine erhöhte Nachfrage in den Ballungsgebieten und genau da fehlen die Wohnungen.

Die Lösung? Christian Ulbrich – CEO der Immobilienberatung JLL – nennt ein Argument:

Sie werden kein preiswertes Wohnen im städtischen Bereich mehr hinbekommen. Das heißt: Sie müssen den Erschließungsraum über einen hervorragenden öffentlichen Nahverkehr ausweiten.

6. Die Mietpreisbremse führt zur Fehlallokation

Das Statistische Bundesamt liefert die Evidenz für diese Behauptung: Demnach war 2022 – das sind die aktuellsten Daten aus Wiesbaden – die verfügbare pro Kopf Fläche umso größer, je weniger Personen in einem Haushalt wohnen.

Alleinlebende (das sind rund 40 Prozent aller Haushalte in Deutschland) hatten 2022 im Schnitt 73,4 Quadratmeter zur Verfügung. Zum Vergleich: Die Pro-Kopf-Wohnfläche in einem Vier-Personen-Haushalt beträgt lediglich rund 30 Quadratmeter.

Eine kürzliche Anfrage von Sahra Wagenknecht an das Statistische Bundesamt zeigt: 11,3 Prozent der deutschen Bevölkerung – also mehr als jeder Zehnte – leben in einer überfüllten Wohnung. Und viele Ältere, die aus guten Gründen keinen Wechsel in den unregulierten Teil des Marktes wagen, leben vergleichsweise großzügig.

Fazit: Der deutsche Wohnungsmarkt, der kein richtiger Markt mehr ist, zeigt alle Merkmale von Dysfunktionalität. Die gute Nachricht: Diese Krise ist menschengemacht und innerhalb der Grenzen des Nationalstaates zu bewältigen. Wenn die Ampel-Koalition die Selbstbeschäftigung einstellt, könnte sie sich an die Arbeit machen.

Strömungsforschung am Rand des Weltraums

(HZDR) – Zur Beschreibung einer wichtigen Klasse von Durchmischungseffekten, die beispielsweise bei der Strömung in einem chemischen Reaktor auftreten, werden seit Jahren verschiedenste Modelle entwickelt. Doch deren experimentelle Validierung hinkt aufgrund der Überlagerung mit Schwerkrafteffekten deutlich hinterher. Ein europäisches Forschungsteam mit Beteiligung des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) und Partnern aus der Universität Szeged (Ungarn) und der Université libre de Bruxelles (Belgien) hat diese Lücke nun durch Experimente unter Schwerelosigkeit geschlossen. Ihre Resultate haben die Forschenden kürzlich im Nature Journal npj Microgravity publiziert
Sogenannte Reaktions-Diffusions-Fronten entstehen, wenn zwei chemische Stoffe miteinander reagieren und sich gleichzeitig in einem Raum ausbreiten. Wissenschaftler*innen können damit Probleme in Chemie und Physik, aber auch aus ganz anderen Bereichen wie etwa der Finanzwelt oder den Sprachwissenschaften modellieren und besser verstehen, da die zugrundeliegenden mathematischen Gleichungen dieselben Eigenschaften aufweisen. Komplexer wird es, wenn die Forschenden diese Reaktionen mit Strömungen kombinieren. Solche Prozesse sind wichtig für technologische Anwendungen rund um Verbrennungsprozesse, der Geologie, bei der Herstellung bestimmter Stoffe und der Speicherung von Kohlendioxid. Trotz der vielfältigen Anwendungen sind wesentliche Teile dieser Systeme noch nicht vollständig verstanden.
„Bisherige Experimente zur Überprüfung von Modellen solcher Prozesse sind aufgrund von Auftriebseffekten verzerrt. Ursache dafür sind Dichteunterschiede zwischen den Reaktionslösungen. Um dieses Problem zu isolieren, haben wir an Bord einer Höhenforschungsrakete Experimente in der Schwerelosigkeit durchgeführt. Parallel dazu haben unsere Partner numerische Simulationen gemacht, um die Bedeutung von zweidimensionalen Effekten zu zeigen, die in einfachen eindimensionalen Modellen nicht berücksichtigt werden können“, umreißt Dr. Karin Schwarzenberger vom HZDR-Institut für Fluiddynamik kurz die Arbeit ihres Teams.
Raketenstart am Polarkreis
Das Experiment fand bereits am 1. Oktober 2022 statt – an Bord der Höhenforschungsrakete TEXUS-57, die vom Esrange Space Center, 40 Kilometer östlich vom schwedischen Kiruna gelegen, startete. Das Kooperationsprojekt von Airbus Defense & Space, der Europäischen Raumfahrtagentur ESA und dem Deutschen Zentrum für Luft- und Raumfahrt beförderte unter anderem auch das Experimentiermodul des Teams um Schwarzenberger an den Rand des Weltalls. Das Modul trug drei verschieden dimensionierte Reaktoren, die aus unterschiedlich eng übereinanderliegenden Glasscheiben bestehen. Die Rakete kam auf eine Höhe von etwa 240 Kilometern. Dabei wurde für knapp sechs Minuten ein Zustand annähernder Schwerelosigkeit erreicht, in dem die Forschenden ihre Experimente automatisiert ablaufen ließen – Experimente, für deren akribische Planung mehrere Jahre notwendig waren. Mit dem Eintreten der Schwerelosigkeit wurde die Reaktion gestartet. Drei hochauflösende Kameras filmten die Reaktionsfronten, die sich zwischen zwei strömenden Flüssigkeiten ausbreiten. Diese Aufnahmen waren es, denen der ganze Aufwand des Teams galt: Mit ihrer Hilfe können die Forschenden nun einen ganz bestimmten Durchmischungseffekt von anderen Strömungsphänomenen trennen.
Strömungsphysik in der Schwerelosigkeit
Strömungen in Flüssigkeitskanälen haben durch die Wandreibung eine ungleichmäßige Geschwindigkeitsverteilung, die in der Folge den Transport von gelösten Stoffen und diffundierenden Reaktionspartnern in der Flüssigkeit beeinflusst. Dieser Diffusionseffekt ist bekannt als Taylor-Aris-Dispersion, benannt nach den beiden Forschern, die bereits in den 1950er Jahren das Fundament für ihr Verständnis legten. Um das Zusammenspiel von Taylor-Aris-Dispersion und Reaktion der Stoffe zu beschreiben, wurden in theoretischen Arbeiten in der Vergangenheit unterschiedlich komplexe Modelle vorgeschlagen.
Im Hinblick auf Anwendungen ist es jedoch wichtig abzuschätzen, unter welchen Voraussetzungen die verschiedenen Modelle angewendet werden können. Dazu wurden Experimente notwendig, die die Taylor-Aris-Dispersion von anderen Strömungsphänomenen isolieren können. Auf der Erde ist die Taylor-Aris-Dispersion vor allem von Auftriebseffekten überlagert, die durch die Schwerkraft verursacht werden. Bislang haben Wissenschaftler*innen sich damit beholfen, die Auftriebseffekte durch den Einsatz von flachen Reaktoren zu minimieren – vollständig gelang das jedoch nie. Denn es muss immer noch ein gewisser Bereich von Reaktorhöhen und Strömungsgeschwindigkeiten abgedeckt werden, um viele Anwendungsgebiete zu erfassen. Doch je größer das Strömungssystem ist, desto stärker wirkt die Schwerkraft. In der Schwerelosigkeit konnten die Forschenden diese Einschränkungen nun überwinden.
Der Vergleich mit den Referenzexperimenten am Boden zeigte, dass bei größeren Reaktorhöhen unter Schwerelosigkeit deutlich weniger Reaktionsprodukt entsteht. Noch wichtiger waren die Bilddaten der Reaktionsfronten, die nicht durch die Auftriebseffekte verzerrt wurden. So konnten die Brüsseler Partner die Entwicklung der Front mit den verschiedenen theoretischen Modellen nachbilden. Die gemeinsame Auswertung ergab, dass in sehr flachen Reaktoren mit langsamer Strömung einfache eindimensionale Modelle verwendet werden können. Bei größeren Reaktoren oder schnellerer Strömung sind aber zweidimensionale Modelle mit Taylor-Aris-Dispersion nötig. Innerhalb dieser Gültigkeitsbereiche können die entsprechenden Korrelationsbeziehungen nun zur Vorhersage der Produktbildung genutzt werden. Dies findet Anwendung bei der Auslegung von innovativen Reaktoren, der gezielten Synthese von Partikeln und dem Flüssigkeitstransport in geologischen Schichten, aber auch bei der Versorgung von Raumstationen, wo andere Gravitationsbedingungen als auf der Erde herrschen.

Solarzellen neue Dimension

Erstmals hat das Solarforschungsinstitut Fraunhofer ISE eine TOPCon-Solarzelle im M10-Format hergestellt und damit 24 Prozent Wirkungsgrad erreicht. Ziel ist es, Industriepartner bei der Entwicklung von Photovoltaik-Modulen mit Solarzellen im großflächigen Format zu unterstützen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat als erstes europäisches Forschungsinstitut den Umstieg auf großflächige M10-Silizium-Wafer vollzogen. In der Photovoltaik-Industrie geht der Trend zu immer größeren Solarzellen. Während 2018 Wafer mit 156,75 Millimetern Kantenlänge noch 80 Prozent des Marktes ausmachten, dominiert mittlerweile das Waferformat mit einer Kantenlänge von 182 Millimetern – die quadratischen Solarzellen tragen den Handelsnamen M10. Solarmodule mit großem Zellformat sind nicht nur in den Herstellungskosten überlegen, sondern auch in Leistung und Effizienz. Große Photovoltaik-Unternehmen haben daher ihre Investitionen auf großflächige Wafer ausgerichtet.

Das Fraunhofer ISE hat mit der Prozessierung von TOPCon-Solarzellen (TOPCon steht für Tunnel Oxide Passivated Contact) in seinem Technologie-Evaluationszentrum PV-TEC den Umstieg auf das neue Format vollzogen. Das Institut können jetzt Industriepartner dabei unterstützen, mit diesem großflächigen Format ihre Technologieentwicklung zu optimieren oder ganz neu in die Produktion solcher Solarzellen einzusteigen, so Sabrina Lohmüller. Die Physikerin ist stellvertretende Leiterin der Abteilung Silizium- und Perowskit-Silizium Tandemsolarzellen und auch für das Qualitätsmanagement im PV-TEC verantwortlich.

Die hocheffiziente TOPCon-Zellarchitektur hat das Fraunhofer ISE entwickelt und 2013 erstmalig mit Rekordwirkungsgrad präsentiert. In den letzten beiden Jahren wurde die Produktionskapazität weltweit massiv ausgebaut. 2024 werden TOPCon-Solarzellen laut der vom VDMA publizierten International Roadmap Photovoltaics bereits knapp 50 Prozent Marktanteil erreichen.

Mittelfristiges Ziel: Siliziumbasierte Tandem-Solarzellen auf Basis der M10-Silizium-Wafer

Die beim Photovoltaik-Technologiebeiratstreffen erstmals vor Industrievertretern und Fördermittelgebern präsentierte TOPCon-Solarzelle großen Formats haben Forscher:innen des Fraunhofer ISE vollständig prozessiert. Die hocheffiziente, ungefähr 120 µm dünne Solarzelle hat man mit siebgedruckten Kontaktfingern metallisiert und im CalTeC am Institut für Solarenergieforschung in Hameln (ISFH) kalibriert. Die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer ISE metallisieren M10-Solarzellen auch mit galvanisch abgeschiedenem Kupfer.

„Mit dem ersten Los einen Wirkungsgrad von 24,0 Prozent zu erreichen, legt nahe, dass wir mit den nächsten Optimierungsschritten 25 Prozent übertreffen werden. Darüber hinaus schaffen wir damit ein Fundament für unser mittelfristiges Ziel in Richtung großflächiger siliziumbasierten Tandem-Solarzellen, mit einem Wirkungsgradpotenzial von weit über 30 Prozent“, sagt Ralf Preu, Bereichsleiter Photovoltaik am Fraunhofer ISE.