Alle Beiträge von Minge

Batterien: Heute die Materialien von morgen modellieren

(KIT) – Die Forschung zu neuen Batteriematerialien zielt nicht nur darauf, Leistung und Lebensdauer zu optimieren sowie Kosten zu senken. Vielmehr geht es auch darum, seltene Elemente wie Lithium und Kobalt sowie toxische Bestandteile zu reduzieren. Als vielversprechend gelten Natrium-Ionen-Batterien, die auf ähnlichen Prinzipien basieren wie Lithium-Ionen-Batterien, sich jedoch aus in Europa ausreichend verfügbaren Rohstoffen herstellen lassen. Sie eignen sich für stationäre und mobile Anwendungen. „Als Materialien für die Kathode sind Schichtoxide wie Natrium-Nickel-Manganoxide vielversprechend“, berichtet Dr. Simon Daubner, Gruppenleiter am Institut für Angewandte Materialien – Mikrostruktur-Modellierung und Simulation (IAM-MMS) des KIT und korrespondierender Autor der Studie. Im Exzellenzcluster POLiS (steht für: Post Lithium Storage) forscht er an der Natrium-Ionen-Technologie.

Beim schnellen Laden kommt es zu mechanischen Spannungen

Bei diesen Kathodenmaterialien gibt es allerdings ein Problem: Natrium-Nickel-Manganoxide ändern ihre Kristallstruktur, je nachdem, wie viel Natrium gerade gespeichert ist. Wird das Material langsam geladen, geht alles geordnet zu. „Schicht für Schicht geht das Natrium aus dem Material – wie in einem Parkhaus, das sich etagenweise leert“, erklärt Daubner. „Aber wenn es schnell gehen muss, wird das Natrium von allen Seiten herausgezogen.“ Dadurch kommt es zu mechanischen Spannungen, die das Material dauerhaft schädigen können.

Forschende am Institut für Nanotechnologie (INT) und am IAM-MMS des KIT haben nun gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern an der Universität Ulm und am Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) diese Zusammenhänge mithilfe von Simulationen aufgedeckt und berichten darüber in npj Computational Materials, einer Zeitschrift aus dem Nature-Portfolio.

Experimente bestätigen Simulationsergebnisse

„Computermodelle können verschiedene Längenskalen beschreiben, von der Anordnung der Atome in Elektrodenmaterialien über deren Mikrostruktur bis hin zur Zelle als funktionale Einheit jeder Batterie“, sagt Daubner. Diese verbinden Mikrostrukturmodelle mit langsamen Lade- und Entladeexperimenten, um das Schichtoxid NaXNi1/3Mn2/3O2 zu untersuchen. Das Material weist mehrere Degradationsmechanismen auf, die zu Kapazitätsverlust führen. Daher taugt es derzeit noch nicht für kommerzielle Anwendungen. Wenn sich die Kristallstruktur ändert, kommt es zu einer elastischen Verformung. Der Kristall schrumpft, was zu Rissen führen kann und die verfügbare Kapazität mindert. Wie am INT und am IAM-MMS vorgenommene Simulationen zeigten, ist dieser mechanische Einfluss so stark, dass er maßgeblich beeinflusst, wie schnell sich das Material laden lässt. Experimentelle Untersuchungen am ZSW bestätigten die Ergebnisse.

Die in der Studie gewonnenen Erkenntnisse lassen sich teilweise auf andere Schichtoxide übertragen. „Da wir nun die grundlegenden Vorgänge verstehen, können wir uns in weiteren Arbeiten der Entwicklung von Batteriematerialien widmen, die langlebig sind und sich möglichst schnell laden lassen“, fasst Daubner zusammen. Dadurch könnte der großflächige Einsatz von Natrium-Ionen-Batterien in fünf bis zehn Jahren Wirklichkeit werden. (or)

Verbrenner gewinnt – Tesla Verliert

(Pioneer) – E-Autohersteller: Tesla hat im vergangenen Quartal den ersten Umsatzrückgang seit fast vier Jahren verbucht. Die Erlöse fielen im Jahresvergleich um neun Prozent auf 21,3 Milliarden Dollar. Unterm Strich fiel der Quartalsgewinn um 55 Prozent auf 1,13 Milliarden Dollar. Tesla trifft nach rasantem Wachstum in den vergangenen Jahren auf eine schwächere Nachfrage sowie wachsende Konkurrenz vor allem aus China.

Neue Modelle, besser als erwartete Marge: Tesla bestätigte aber, dass neue Modelle in die Produktion gehen sollen. Die sollen auch schon früher kommen als gedacht. Man werde die ursprünglich für das zweite Halbjahr 2025 geplante Produktion auf den Jahresanfang 2025 oder gar auf Ende 2024 vorziehen, sagte Tesla-Chef Elon Musk. Die Bruttomarge fiel auf 17,4 Prozent. Analysten hatten jedoch noch Schlimmeres erwartet. Die Anleger an der Wall Street feierten das mit einem nachbörslichen Aktienplus von 11 Prozent.

Der Blick nach Deutschland: Firmenchef Elon Musk lässt gerade mehr als jeden zehnten Job weltweit streichen. Am Standort in Grünheide bei Berlin plant Tesla, 400 Stellen abzubauen. Im Rahmen eines Freiwilligenprogramms soll die Belegschaft – inzwischen arbeiten über 12.000 Menschen in der Fabrik – reduziert werden. Die Verträge mit 300 Leiharbeitern wurden bereits nicht verlängert.

Europa: Die Idiotie mit dem Verbrennerverbot

(Pioneer) – Das Wolkenkuckucksheim besitzt eine Repräsentanz auf Erden. Und die befindet sich in Straßburg, genauer gesagt: im Europäischen Parlament. Nirgendwo sonst auf der Welt werden derart vorsätzlich und lustvoll weltfremde Beschlüsse gefasst.

Womit wir beim Verbot der Verbrennertechnologie für Automobile wären. Ab 2035, so hat das Europäische Parlament Mitte Februar 2023 beschlossen, darf in Europa kein neues Automobil zugelassen werden, das mit Benzin oder Diesel betankt wird. Die falsche Analyse der technologischen Möglichkeiten bei gleichzeitiger Missachtung der industriellen Interessen Europas und der Kundenbedürfnisse führte zum falschen Beschluss – und von dort war es bis zur Falschmeldung der Tagesschau nicht mehr weit:
„Das EU-Parlament hat endgültig für das Aus des Verbrennungsmotors gestimmt“, wurde mit einem Fanfarenstoß am 14.02.2023 um 16:48 Uhr gemeldet.

Doch diese Finalität war eine behauptete. Von „endgültig“ kann in Wahrheit keine Rede sein. Das Europaparlament wird nach der Wahl im Juni 2024 das Verbrennerverbot 2035 ungültig stempeln müssen.

Der Rückwärtsgang ist für die betroffenen Akteure und ihre medialen Beifahrer schmerzhaft, aber unvermeidlich. Das Wolkenkuckucksheim ist kein Ort, an dem es sich gut leben lässt. Hier die fünf Gründe, warum der Eingriff des Europäischen Parlaments in den europäischen Automobilmarkt nicht funktionieren konnte.

1. Elektromobilität ist global gesehen ein Nischenprodukt

Die Elektromobilität wird sich weltweit nicht auf die Schnelle durchsetzen. Derzeit sind weltweit rund 1,4 Milliarden Fahrzeuge auf den Straßen unterwegs – rund 98 Prozent davon Verbrenner.

Mit einem jährlichen Neuwagen-Ausstoß von 90 Millionen Fahrzeugen bleibt die schnelle Elektrifizierung aller Verkehre eine Fata Morgana. Bosch-Chef Stefan Hartung rechnet vor:

Wenn wir jetzt sofort alles, was wir im Moment an Produktion haben, umstellen würden, also über 90 Millionen Fahrzeuge pro Jahr ab jetzt voll elektrisch bauen würden, bräuchten wir etwa 16 Jahre, um die gesamte Fahrzeugflotte auszutauschen.

Aber dieses Gedankenexperiment wird für immer ein Experiment bleiben. Es ist undenkbar, dass in absehbarer Zeit der gesamte Produktionsausstoß der weltweiten Automobilindustrie von China bis Detroit elektrisch sein wird.

In großen Teilen dieser Welt ist der Anteil der Elektromobile gar nicht messbar. Die Ladeinfrastruktur fehlt nahezu komplett.

Bosch-Chef Hartung sagt den Bewohnern des Wolkenkuckucksheims,

Ein Teil der Mobilität wird am Ende gar nicht elektrisch sein.

2. Auch in Deutschland ist kein E-Boom ausgebrochen

Auch auf deutschen Straßen sind zu 97 Prozent Verbrennermotoren unterwegs. Und das Zuwachstempo der Elektromobilität hat sich nicht erhöht, sondern gedrosselt. In 2022 waren es noch plus 30 Prozent bei den Neuzulassungen; in 2023 nur noch plus 11,4 Prozent; in 2024 minus 14 Prozent, so eine Prognose des VDA.

Kaum hatte die Bundesregierung ihr Bonusprogramm für die Käufer von E-Autos storniert, war es mit der Begehrlichkeit vorbei. Im Dezember 2023 wurden fast 55.000 neue E-Autos zugelassen – minus 47 Prozent gegenüber dem Vorjahresmonat. Damit liegt der Marktanteil von elektrisch betriebenen Autos bei den Neuzulassungen aktuell bei knapp 11 Prozent.

Unrealistisches Ziel: Offiziell will die Bundesregierung in sechs Jahren mindestens 15 Millionen E-Autos auf deutschen Straßen sehen. Nach einer Prognose des Think-Tanks Agora Verkehrswende müssten dafür täglich rund 5.500 E-Autos in Deutschland zugelassen werden. Im März waren es täglich nur etwas mehr als 1.000.

3. Ladeinfrastruktur kommt kaum voran

„Wir machen Deutschland zum Leitmarkt für Elektromobilität“, heißt es im Koalitionsvertrag. Die Wahrheit zwei Jahre später: Der Ausbau der Ladeinfrastruktur kommt nur im Schneckentempo voran.

Gestrichen wurde ein Programm, das mit rund 200 Millionen Euro im Jahr 2024 allein in private Ladestationen, plus die dazugehörigen Solaranlagen und Stromspeicher, investieren sollte. Nun muss jeder E-Autobesitzer sehen, wie klarkommt.

Enttäuschend: Bis 2030 sollten rund 15 Millionen E-Autos an etwa einer Million Ladesäulen geladen werden können.

Die Realität: Um das Ziel der Bundesregierung zu erreichen, müsste sich – so der Verband der Automobilindustrie – das Ausbautempo verdreifachen.

4. China First

Mit dem geplanten Markteingriff würde die EU-Kommission das Herzstück der deutschen Industriegesellschaft schädigen. Denn erst mit Verspätung haben die hiesigen Autokonzerne mit der Entwicklung von Elektroautos begonnen, da hatte Pionier Tesla den Markt bereits eröffnet.

Aber auch China hat sich mit staatlicher Unterstützung einen Vorsprung in der Elektro- und in der Batterietechnologie erarbeitet. Nirgendwo werden heute so ausgereifte, so viele und vor allem so günstige Elektroautos gebaut.

Im chinesischen Markt, wo deutsche Automobile den Verbrennermarkt beherrschten, hat bei der Elektromobilität das chinesische Zeitalter begonnen. Und plötzlich liegen die Marktführer des Verbrenners, vorneweg Volkswagen, ganz weit hinten. Keine drei Prozent des chinesischen Stromermarktes konnten die Wolfsburger bisher für sich erobern.

Ein Verbrennerverbot in Europa nutzt vor allem der chinesischen E-Autoindustrie. Sie wartet nur darauf, mit ihren günstigeren Modellen die europäische Automobilindustrie deklassieren zu können. Ursula von der Leyen und die von ihr geführte EU-Kommission haben diesen geostrategischen Aspekt der Parlamentsentscheidung nie verstanden. Mit dem Verbrennerverbot 2035 würden sie zu nützlichen Idioten der Chinesen.

5. Autoindustrie schwingt um

Das verhaltene Kundeninteresse reflektiert sich mittlerweile auch in der Modellpolitik und den Produktionsplänen der Automobilkonzerne.

Beispiel VW: Dort reduziert man die E-Auto-Produktion in Deutschland; der ID.3 soll wegen zu geringer Nachfrage nun doch nicht im Stammwerk Wolfsburg produziert werden.

Beispiel Mercedes: CEO Ola Källenius hatte in seinem jugendlichen Leichtsinn „Electric only“ als Konzernstrategie ausgerufen. Bereits 2025 sollten reinrassige Elektroautos und Plug-in-Hybride die Hälfte des Absatzes ausmachen. Nachdem Vorgänger Dieter Zetsche (2006–2019) kein einziges E-Auto auf die Straße gebracht hatte, wollte sein Ziehsohn richtig durchstarten.

Neuer Realismus: Inzwischen legt sich der Autoboss nur noch auf das Ziel fest, in der zweiten Hälfte des Jahrzehnts „bis zu 50 Prozent“ Autos mit E-Motor verkaufen zu wollen. Das reflektiert weniger seine Zögerlichkeit als die Marktsituation.

Fazit: Der Elektromobilität gehört vermutlich die Zukunft – aber nicht überall, nicht allein und eben die Zukunft, nicht die Gegenwart. Die gute Nachricht: Mit seinem Beschluss, der nun wieder kassiert werden muss, hat das Europaparlament die einzig wirklich CO₂-freie Energie emittiert: heiße Luft. Damit schafft man es zwar nicht auf die Straße, aber immerhin in die Tagesschau.

Wohnungsmangel – und wie er zu bewältigen ist

(Pioneer) – Die Schlagzeilen gehören den Kriegen in Nahost und der Ukraine – und den medial durchsetzungsstarken Apokalyptikern: Klimakatastrophe! Soziale Spaltung! Globale Massenflucht!

So schafft es die lautlose, aber nicht minder dramatische Entwicklung auf dem deutschen Wohnungsmarkt nur selten in den Fokus der Aufmerksamkeit. Diese Krise besitzt keinen Glitzerfaktor und damit nicht das, was die Amerikaner „Star-Power“ nennen.

Nahezu unbemerkt von der Öffentlichkeit erodiert ein Grundpfeiler unserer Gesellschaft und das zentrale Versprechen der Bundesrepublik wird ungültig gestempelt: der bezahlbare Wohnraum für alle und die realistische Chance der Mittelklasse auf ein Eigenheim.

Die Hauptversammlung von Vonovia – Deutschlands größter Vermieter mit rund 483.000 Wohnungen in der Bundesrepublik – warf in dieser Woche für ein paar wenige Stunden das Scheinwerferlicht auf eine Lage, die für eines der reichsten Länder der Welt inakzeptabel ist.

Seine Firma, sagte der Vorstandsvorsitzende Rolf Buch, würde „täglich von Hunderten, an manchen Tagen von Tausenden“ Menschen kontaktiert, die verzweifelt auf der Suche nach einer Wohnung seien.

Wohnungsnot erhöhe die Ungleichheit und spiele populistischen Parteien in die Hände, so Buch. Der Vorstandschef wurde deutlicher als deutlich:

Mir fehlt das Verständnis, warum unsere gesamte Regierung dieses Thema nicht sehr viel beherzter angeht.

Denn bei stagnierender Neubautätigkeit hält der Zustrom nach Deutschland unvermindert an. Ohne weiteres Zutun der Politiker verschärft sich das Problem also im Selbstlauf.

  • Bis 2027 sollen bis zu 830.000 Wohnungen in Deutschland fehlen, das ist das Ergebnis von Schätzungen des Zentralen Immobilien Ausschusses.
  • Rolf Buch rechnet in seinen Prognosen mit einem Anwachsen der Wohnbevölkerung in Deutschland von heute 84 Millionen auf 86 Millionen Menschen – denen kein entsprechendes Wohnraumangebot gegenübersteht.

     

Es gibt also viele gute Gründe für Olaf Scholz und seine Bauministerin Klara Geywitz, die Reformbaustelle zu betreten. Diese sechs Punkte würden dem Wohnungsmarkt und damit auch dem Ansehen der Regierung massiv helfen:

1. Weniger Bürokratie, mehr Kapitalismus

Bauen in Deutschland ist kompliziert geworden. Während es 1990 noch rund 5.000 Bauvorschriften in unserem Land gab, sind es heute um die 20.000. Der Staat will sich in der Baupolitik selbst verwirklichen.

Eine radikale Entbürokratisierung der Bauwirtschaft ist also notwendig, was im Kern auch eine Entpolitisierung des Bauens bedeuten muss.

Es gibt keinen anderen Weg, als dass der Staat die Investoren zur Investition einlädt und ihnen also Flächen gewährt, gestalterischen Freiraum einräumt und kapitalistische Rendite, also die angemessene Verzinsung ihrer Investitionen, gestattet.

2. Weniger Umweltschutz, mehr Baugenehmigungen

Der Staat stellt immer höhere Anforderungen, gerade für Umweltschutz und Energieeffizienz. In einem Bericht von Februar schätzt der Zentrale Immobilien Ausschuss den Anteil von staatlich bedingten Kosten am Verkaufspreis eines Mehrfamilienhauses auf fast 40 Prozent.

Der Staat hat mit seinen gut gemeinten Eingriffen in den freien Wohnungsmarkt diesen nicht etwa gerechter und ökologischer, sondern kaputt gemacht. Das Wort der Stunde ist Überregulierung. Tim-Oliver Müller, Hauptgeschäftsführer des Hauptverbandes der Deutschen Bauindustrie:

Die Politik muss sich entscheiden: Will sie sich im Detail verregulieren oder effizient Wohnungen bauen?

3. Der Immobilienmarkt brauchte dringend die Zinssenkung der EZB

Die Zinspolitik spielt eine wichtige Rolle für den Wohnungsbau. Rolf Buch sagt:

Wir haben bis vor kurzem für 3.000 Euro pro Quadratmeter gebaut und bauen jetzt für 5.000 Euro pro Quadratmeter.

Das „whatever it takes“ von EZB-Präsident Mario Draghi war kein Glücksfall, wie bei der Jubiläumsfeier der EZB kürzlich wieder gesagt wurde, sondern ein Jahrhundertirrtum. Deshalb ist Inflationsbekämpfung, auch durch das Einhalten der Schuldenbremse, eine wichtige Voraussetzung für die Sanierung der Bauindustrie.

4. Konjunkturprogramm für die Bauindustrie

Statt mit Bürgergeld und Kindergrundsicherung den Sozialstaat weiter auszubauen, wäre die effektivste Sozialpolitik ein staatliches Wohnungsbauförderprogramm. Denn ohne einen solchen Impuls bricht die Bauindustrie in Deutschland sehenden Auges zusammen.

40 Prozent der Baufirmen klagen über Auftragsmangel. Jede zehnte Baufirma steckt bereits in Finanzierungsschwierigkeiten, berichten die Experten.

5. Ohne andere Verkehrspolitik kein Bauboom

„Es gibt ausreichend Bauland in Deutschland. So viel wie die Größe Berlins oder 140.000 Fußballfelder“, sagte Bauministerin Klara Geywitz vor rund zwei Jahren.

Das stimmt. Das Problem ist jedoch: Das Fehlen von guten Verkehrsanbindungen in die peripheren Räume sorgt für eine erhöhte Nachfrage in den Ballungsgebieten und genau da fehlen die Wohnungen.

Die Lösung? Christian Ulbrich – CEO der Immobilienberatung JLL – nennt ein Argument:

Sie werden kein preiswertes Wohnen im städtischen Bereich mehr hinbekommen. Das heißt: Sie müssen den Erschließungsraum über einen hervorragenden öffentlichen Nahverkehr ausweiten.

6. Die Mietpreisbremse führt zur Fehlallokation

Das Statistische Bundesamt liefert die Evidenz für diese Behauptung: Demnach war 2022 – das sind die aktuellsten Daten aus Wiesbaden – die verfügbare pro Kopf Fläche umso größer, je weniger Personen in einem Haushalt wohnen.

Alleinlebende (das sind rund 40 Prozent aller Haushalte in Deutschland) hatten 2022 im Schnitt 73,4 Quadratmeter zur Verfügung. Zum Vergleich: Die Pro-Kopf-Wohnfläche in einem Vier-Personen-Haushalt beträgt lediglich rund 30 Quadratmeter.

Eine kürzliche Anfrage von Sahra Wagenknecht an das Statistische Bundesamt zeigt: 11,3 Prozent der deutschen Bevölkerung – also mehr als jeder Zehnte – leben in einer überfüllten Wohnung. Und viele Ältere, die aus guten Gründen keinen Wechsel in den unregulierten Teil des Marktes wagen, leben vergleichsweise großzügig.

Fazit: Der deutsche Wohnungsmarkt, der kein richtiger Markt mehr ist, zeigt alle Merkmale von Dysfunktionalität. Die gute Nachricht: Diese Krise ist menschengemacht und innerhalb der Grenzen des Nationalstaates zu bewältigen. Wenn die Ampel-Koalition die Selbstbeschäftigung einstellt, könnte sie sich an die Arbeit machen.

Strömungsforschung am Rand des Weltraums

(HZDR) – Zur Beschreibung einer wichtigen Klasse von Durchmischungseffekten, die beispielsweise bei der Strömung in einem chemischen Reaktor auftreten, werden seit Jahren verschiedenste Modelle entwickelt. Doch deren experimentelle Validierung hinkt aufgrund der Überlagerung mit Schwerkrafteffekten deutlich hinterher. Ein europäisches Forschungsteam mit Beteiligung des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) und Partnern aus der Universität Szeged (Ungarn) und der Université libre de Bruxelles (Belgien) hat diese Lücke nun durch Experimente unter Schwerelosigkeit geschlossen. Ihre Resultate haben die Forschenden kürzlich im Nature Journal npj Microgravity publiziert
Sogenannte Reaktions-Diffusions-Fronten entstehen, wenn zwei chemische Stoffe miteinander reagieren und sich gleichzeitig in einem Raum ausbreiten. Wissenschaftler*innen können damit Probleme in Chemie und Physik, aber auch aus ganz anderen Bereichen wie etwa der Finanzwelt oder den Sprachwissenschaften modellieren und besser verstehen, da die zugrundeliegenden mathematischen Gleichungen dieselben Eigenschaften aufweisen. Komplexer wird es, wenn die Forschenden diese Reaktionen mit Strömungen kombinieren. Solche Prozesse sind wichtig für technologische Anwendungen rund um Verbrennungsprozesse, der Geologie, bei der Herstellung bestimmter Stoffe und der Speicherung von Kohlendioxid. Trotz der vielfältigen Anwendungen sind wesentliche Teile dieser Systeme noch nicht vollständig verstanden.
„Bisherige Experimente zur Überprüfung von Modellen solcher Prozesse sind aufgrund von Auftriebseffekten verzerrt. Ursache dafür sind Dichteunterschiede zwischen den Reaktionslösungen. Um dieses Problem zu isolieren, haben wir an Bord einer Höhenforschungsrakete Experimente in der Schwerelosigkeit durchgeführt. Parallel dazu haben unsere Partner numerische Simulationen gemacht, um die Bedeutung von zweidimensionalen Effekten zu zeigen, die in einfachen eindimensionalen Modellen nicht berücksichtigt werden können“, umreißt Dr. Karin Schwarzenberger vom HZDR-Institut für Fluiddynamik kurz die Arbeit ihres Teams.
Raketenstart am Polarkreis
Das Experiment fand bereits am 1. Oktober 2022 statt – an Bord der Höhenforschungsrakete TEXUS-57, die vom Esrange Space Center, 40 Kilometer östlich vom schwedischen Kiruna gelegen, startete. Das Kooperationsprojekt von Airbus Defense & Space, der Europäischen Raumfahrtagentur ESA und dem Deutschen Zentrum für Luft- und Raumfahrt beförderte unter anderem auch das Experimentiermodul des Teams um Schwarzenberger an den Rand des Weltalls. Das Modul trug drei verschieden dimensionierte Reaktoren, die aus unterschiedlich eng übereinanderliegenden Glasscheiben bestehen. Die Rakete kam auf eine Höhe von etwa 240 Kilometern. Dabei wurde für knapp sechs Minuten ein Zustand annähernder Schwerelosigkeit erreicht, in dem die Forschenden ihre Experimente automatisiert ablaufen ließen – Experimente, für deren akribische Planung mehrere Jahre notwendig waren. Mit dem Eintreten der Schwerelosigkeit wurde die Reaktion gestartet. Drei hochauflösende Kameras filmten die Reaktionsfronten, die sich zwischen zwei strömenden Flüssigkeiten ausbreiten. Diese Aufnahmen waren es, denen der ganze Aufwand des Teams galt: Mit ihrer Hilfe können die Forschenden nun einen ganz bestimmten Durchmischungseffekt von anderen Strömungsphänomenen trennen.
Strömungsphysik in der Schwerelosigkeit
Strömungen in Flüssigkeitskanälen haben durch die Wandreibung eine ungleichmäßige Geschwindigkeitsverteilung, die in der Folge den Transport von gelösten Stoffen und diffundierenden Reaktionspartnern in der Flüssigkeit beeinflusst. Dieser Diffusionseffekt ist bekannt als Taylor-Aris-Dispersion, benannt nach den beiden Forschern, die bereits in den 1950er Jahren das Fundament für ihr Verständnis legten. Um das Zusammenspiel von Taylor-Aris-Dispersion und Reaktion der Stoffe zu beschreiben, wurden in theoretischen Arbeiten in der Vergangenheit unterschiedlich komplexe Modelle vorgeschlagen.
Im Hinblick auf Anwendungen ist es jedoch wichtig abzuschätzen, unter welchen Voraussetzungen die verschiedenen Modelle angewendet werden können. Dazu wurden Experimente notwendig, die die Taylor-Aris-Dispersion von anderen Strömungsphänomenen isolieren können. Auf der Erde ist die Taylor-Aris-Dispersion vor allem von Auftriebseffekten überlagert, die durch die Schwerkraft verursacht werden. Bislang haben Wissenschaftler*innen sich damit beholfen, die Auftriebseffekte durch den Einsatz von flachen Reaktoren zu minimieren – vollständig gelang das jedoch nie. Denn es muss immer noch ein gewisser Bereich von Reaktorhöhen und Strömungsgeschwindigkeiten abgedeckt werden, um viele Anwendungsgebiete zu erfassen. Doch je größer das Strömungssystem ist, desto stärker wirkt die Schwerkraft. In der Schwerelosigkeit konnten die Forschenden diese Einschränkungen nun überwinden.
Der Vergleich mit den Referenzexperimenten am Boden zeigte, dass bei größeren Reaktorhöhen unter Schwerelosigkeit deutlich weniger Reaktionsprodukt entsteht. Noch wichtiger waren die Bilddaten der Reaktionsfronten, die nicht durch die Auftriebseffekte verzerrt wurden. So konnten die Brüsseler Partner die Entwicklung der Front mit den verschiedenen theoretischen Modellen nachbilden. Die gemeinsame Auswertung ergab, dass in sehr flachen Reaktoren mit langsamer Strömung einfache eindimensionale Modelle verwendet werden können. Bei größeren Reaktoren oder schnellerer Strömung sind aber zweidimensionale Modelle mit Taylor-Aris-Dispersion nötig. Innerhalb dieser Gültigkeitsbereiche können die entsprechenden Korrelationsbeziehungen nun zur Vorhersage der Produktbildung genutzt werden. Dies findet Anwendung bei der Auslegung von innovativen Reaktoren, der gezielten Synthese von Partikeln und dem Flüssigkeitstransport in geologischen Schichten, aber auch bei der Versorgung von Raumstationen, wo andere Gravitationsbedingungen als auf der Erde herrschen.

Solarzellen neue Dimension

Erstmals hat das Solarforschungsinstitut Fraunhofer ISE eine TOPCon-Solarzelle im M10-Format hergestellt und damit 24 Prozent Wirkungsgrad erreicht. Ziel ist es, Industriepartner bei der Entwicklung von Photovoltaik-Modulen mit Solarzellen im großflächigen Format zu unterstützen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat als erstes europäisches Forschungsinstitut den Umstieg auf großflächige M10-Silizium-Wafer vollzogen. In der Photovoltaik-Industrie geht der Trend zu immer größeren Solarzellen. Während 2018 Wafer mit 156,75 Millimetern Kantenlänge noch 80 Prozent des Marktes ausmachten, dominiert mittlerweile das Waferformat mit einer Kantenlänge von 182 Millimetern – die quadratischen Solarzellen tragen den Handelsnamen M10. Solarmodule mit großem Zellformat sind nicht nur in den Herstellungskosten überlegen, sondern auch in Leistung und Effizienz. Große Photovoltaik-Unternehmen haben daher ihre Investitionen auf großflächige Wafer ausgerichtet.

Das Fraunhofer ISE hat mit der Prozessierung von TOPCon-Solarzellen (TOPCon steht für Tunnel Oxide Passivated Contact) in seinem Technologie-Evaluationszentrum PV-TEC den Umstieg auf das neue Format vollzogen. Das Institut können jetzt Industriepartner dabei unterstützen, mit diesem großflächigen Format ihre Technologieentwicklung zu optimieren oder ganz neu in die Produktion solcher Solarzellen einzusteigen, so Sabrina Lohmüller. Die Physikerin ist stellvertretende Leiterin der Abteilung Silizium- und Perowskit-Silizium Tandemsolarzellen und auch für das Qualitätsmanagement im PV-TEC verantwortlich.

Die hocheffiziente TOPCon-Zellarchitektur hat das Fraunhofer ISE entwickelt und 2013 erstmalig mit Rekordwirkungsgrad präsentiert. In den letzten beiden Jahren wurde die Produktionskapazität weltweit massiv ausgebaut. 2024 werden TOPCon-Solarzellen laut der vom VDMA publizierten International Roadmap Photovoltaics bereits knapp 50 Prozent Marktanteil erreichen.

Mittelfristiges Ziel: Siliziumbasierte Tandem-Solarzellen auf Basis der M10-Silizium-Wafer

Die beim Photovoltaik-Technologiebeiratstreffen erstmals vor Industrievertretern und Fördermittelgebern präsentierte TOPCon-Solarzelle großen Formats haben Forscher:innen des Fraunhofer ISE vollständig prozessiert. Die hocheffiziente, ungefähr 120 µm dünne Solarzelle hat man mit siebgedruckten Kontaktfingern metallisiert und im CalTeC am Institut für Solarenergieforschung in Hameln (ISFH) kalibriert. Die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer ISE metallisieren M10-Solarzellen auch mit galvanisch abgeschiedenem Kupfer.

„Mit dem ersten Los einen Wirkungsgrad von 24,0 Prozent zu erreichen, legt nahe, dass wir mit den nächsten Optimierungsschritten 25 Prozent übertreffen werden. Darüber hinaus schaffen wir damit ein Fundament für unser mittelfristiges Ziel in Richtung großflächiger siliziumbasierten Tandem-Solarzellen, mit einem Wirkungsgradpotenzial von weit über 30 Prozent“, sagt Ralf Preu, Bereichsleiter Photovoltaik am Fraunhofer ISE.

Body Mass Index ungeeignet im Alter

(pte) – Der Body Mass Index (BMI) gilt seit jeher als Indikator für normales beziehungsweise zu hohes Körpergewicht von Menschen. Wer mehr als 30 Kilo pro Quadatmeter (kg/m²) hat, gilt als fettleibig, so die allgemeine Überzeugung. Doch Forschungsergebnisse, die kürzlich auf dem European Congress on Obesity in Venedig vorgestellt wurden, deuten darauf hin, dass der derzeitige BMI-Fettleibigkeits-Grenzwert für Erwachsene, die älter sind als 40 Jahre, möglicherweise nicht geeignet ist. Experten empfehlen daher einen niedrigeren Grenzwert von 27 kg/m².

Muskeln und Fett verändert

Der BMI ist der Quotient aus Körpergewicht und dem Quadrat der Körpergröße in Metern. Diese Anpassung könnte zu einer genaueren Gesundheitsbewertung und einem besseren Management von Adipositas-bedingten Erkrankungen in der Bevölkerung mittleren und höheren Alters führen. Adipositas ist eine chronische Krankheit, die durch übermäßige Fettablagerungen definiert ist, und ihre Identifizierung auf der Grundlage der Menge an Körperfett scheint die genaueste Methode zu sein.

In Anbetracht der Veränderungen der Körperzusammensetzung mit zunehmendem Alter, wie eine Zunahme des Körperfetts und eine Abnahme der fettfreien Masse (Muskeln, die nach dem 30. Lebensjahr um fast fünf Prozent pro Jahrzehnt abnehmen), ist die Verwendung des derzeitigen BMI-Grenzwerts als Indikator für Fettleibigkeit für alle Altersgruppen möglicherweise nicht mehr angemessen, so die Wissenschaftler.

Test bei 4800 Erwachsenen

Die neue BMI-Empfehlung basiert auf der Klassifizierung von Fettleibigkeit bei Italienern mittleren und höheren Alters. Forscher der Universitäten Rom Tor Vergata und Modena und Reggio Emilia sowie der Arabischen Universität Beirut haben 4.800 Erwachsene (61,5 Prozent Frauen im Alter von 40 bis 80 Jahren) auf ihren Körperfettanteil und den Zusammenhang mit dem individuellen BMI untersucht.

Viele Teilnehmer mit einem BMI, der auf ein gesundes Gewicht hindeutet, wurden bei Berücksichtigung des Körperfettanteils als fettleibig eingestuft. Letztlich hatten etwa 38 Prozent der Männer und 41 Prozent der Frauen einen BMI von 30 kg/m² oder mehr nach den WHO-Kriterien, was auf Fettleibigkeit hindeutet. Bei einer Bewertung nach dem Körperfettanteil wurden jedoch etwa zwei Drittel der Männer (71 Prozent) und Frauen (64 Prozent) als fettleibig eingestuft. Die Auswertung hat ergeben, dass der ideale BMI-Grenzwert zur Erkennung von Fettleibigkeit für Männer und Frauen ab 40 Jahren bei 27 kg/m² liegt.

Antibiotikum unterscheidet Gut und Böse

(pte) – Forscher der University of Illinois Urbana-Champaign haben ein neuartiges Antibiotikum gegen Superbugs entwickelt. Das Präparat greift jedoch wichtige Bakterien im Darm für die Gesunderhaltung nicht an. „Heute eingesetzte Antibiotika töten gute Bakterien ab, während sie die Infektion behandeln“, sagt Paul Hergenrother, der das Präparat gemeinsam mit seiner ehemaligen Doktorandin Kristen Muñoz geschaffen hat. „Wir brauchen eine neue Generation von Antibiotika, die nur die pathogenen Bakterien abtöten und nicht die nützlichen.“

Kahlschlag angesagt

Antibiotikabedingte Störungen des Darmmikrobioms erhöhen die Anfälligkeit für weitere Infektionen und können zu Magen-Darm-, Nieren- und Leberproblemen führen. „Die meisten klinisch zugelassenen Antibiotika töten nur grampositive Bakterien ab oder sowohl grampositive als auch gramnegative“, ergänzt Muñoz. Grampositive und gramnegative Bakterien unterscheiden sich durch ihre Zellwände. Grampositive haben keine, sind also leichter zu bekämpfen. Gramnegative Bakterien haben dagegen eine doppelte Schutzschicht, die schwerer zu durchdringen ist.

Das Team hat sich auf eine Reihe von Medikamenten konzentriert, die das Pharmaunternehmen AstraZeneca entwickelt hat. Diese hemmen das sogenannte Lipoprotein-Transportsystem, das es nur bei gramnegativen Bakterien gibt und das sich bei pathogenen und nützlichen Mikroben genetisch unterscheidet. Da die AstraZeneca-Antibiotika in Zellkulturexperimenten zwischen nützlichen und pathogenen gramnegativen Bakterien unterscheiden können, sind sie vielversprechende Kandidaten für weitere Untersuchungen, verdeutlicht Hergenrother.

Erfolgsquote 90 Prozent

In einer Reihe von Experimenten hat Muñoz strukturelle Variationen der Präparate entwickelt und ihr Potenzial zur Bekämpfung gramnegativer und grampositiver Bakterien in Zellkulturen untersucht. Eine der neuen Verbindungen, Lolamicin, wirkte selektiv gegen einige „Laborstämme gramnegativer Krankheitserreger wie Escherichia coli, Klebsiella pneumoniae und Enterobacter cloacae“. Lolamicin hatte keine nachweisbare Wirkung auf gram-positive nützliche Bakterien in Zellkulturen. In höheren Dosen tötete Lolamicin bis zu 90 Prozent der gefährlichen Bakterien.

Die positiven Auswirkungen zeigten sich auch in Experimenten mit Mäusen. „Das Mikrobiom der Maus ist ein gutes Werkzeug für die Modellierung menschlicher Infektionen, da die Darmmikrobiome von Mensch und Maus sehr ähnlich sind“, unterstreicht Muñoz. Das lässt darauf hoffen, dass das modifizierte Medikament in naher Zukunft an Menschen eingesetzt werden kann.

Kapitalmarkt: Blick in unsere Seele

Verehrte Besucher meiner Homepage. Die folgenden Gedanken eines klugen Journalisten möchte ich Ihnen nicht vorenthalten. Er spricht die Bürger an, aber er vergisst, dass leider die Politiker meistens ähnlich gepolt sind. Das Problem in unserer Demokratie besteht darin, dass es offenbar ohne extremen Populismus nicht mehr geht. Viele Politiker sind unfähig Wahrheit, Realität und Wunschdenken zu trennen.

Jean Pütz

(Pioneer) – das liebste Hobby vieler Menschen besteht darin, die Wirklichkeit in die Eindimensionalität ihrer eigenen Überzeugungen zu pressen. Man sieht, was man sehen will.

Dabei wissen wir seit Hegel, dass die wahre Wirklichkeit sich darin gefällt, widersprüchlich zu sein. These und Antithese bringen mit naturgesetzlicher Gewalt die Synthese hervor. Oder um es etwas handfester mit Martin Walser zu formulieren:

Nichts ist ohne sein Gegenteil wahr.

Deshalb ist es lohnend, nicht auf die Fortschrittsmärchen der Regierungspolitiker und die Niedergangsgeschichten der Opposition zu vertrauen, sondern die Gesellschaft eigenständig in den Blick zu nehmen. Der perfekte Ort dafür ist der Kapitalmarkt.

Hier treffen sich die Zukunftserwartungen der Investoren mit den Notwendigkeiten und Wünschen echter Menschen. Das Auf und Ab von Industriezweigen, Firmen und Ländern liefert nicht nur das EKG der Gegenwartsgesellschaft, sondern berichtet auch über das Kommende. An der Börse, das hat uns André Kostolany gelehrt, wird die Zukunft gehandelt.

1 Der Krieg wird vorbereitet

Die Auftragslage der Rüstungskonzerne erzählt uns von der wieder gestiegenen Neigung, Auseinandersetzungen militärisch zu führen. Es gibt keinen Krieg ohne vorherige Aufrüstung. Es gibt keine Aufrüstung, die nicht früher oder später zum Krieg führt. Die Logik des Kalten Krieges – wenn du den Krieg vermeiden willst, bereite ihn vor – hat sich seither oft schon als wertlos erwiesen.

2 Splendid Isolation: Amerika strebt nach Autarkie

Der Wirtschaftskrieg zwischen China und den USA wird heftiger. Die Chinesen bauen ihre Dollarreserven ab, so wie die USA ihre Importsucht nach chinesischen Waren zu dämpfen versuchen.+

Die Bilanzzahlen und Aktienkurse eines Chipherstellers wie Nvidia erzählen von dem amerikanischen Streben nach technologischer Autarkie. Gerade im Bereich der hochleistungsfähigen Speicherchips, die man für Künstliche Intelligenz braucht, will Amerika nicht abhängig sein: Autarkie sichert Angriffs- und Abwehrfähigkeit.

3 Vertrauen funktioniert – auch als Geschäftsmodell

Inmitten des Neuen erweist sich das Alte als langlebig. Das gilt umso mehr im Finanzgewerbe, wo Vertrauen seit jeher die Schlüsselrolle spielt. Der deutsche Mittelstand wird deshalb trotz aller Lockangebote amerikanischer Investmentbanken nicht auf das heimische Geldgewerbe verzichten wollen.

Die Aktienkurse von Commerzbank und der Deutschen Bank haben zwar durch den Aufstieg der amerikanischen Geldindustrie und die Überregulierung nach der Finanzkrise gelitten, aber die Notwendigkeit nationaler Geldkreisläufe ist geblieben. Die Börse honoriert die Kraftanstrengungen der dortigen Vorstände. Totgesagte leben länger.

4 China ist gekommen, um zu bleiben

Was als verlängerter Arm der westlichen Großkonzerne begann, setzt sich in der Selbstständigkeit fort. China will nicht Diener, sondern Herr sein. Der kommunistischen Führung geht es jetzt darum, ökonomische Energie in politische Macht zu verwandeln.

Dollar weg, Gold her, ist die neue Devise im Reich der Mitte. In Peking möchte man seine lang ersehnte Souveränität nicht an die USA und den Dollar binden.

5 Nasdaq vs. Dax: Innovation schlägt Tradition

Der relative Abstieg der Bundesrepublik ist auch an der Entwicklung von Dax und Nasdaq abzulesen. Die Technologiebörse der USA vereint mit Apple, Microsoft, Nvidia und Tesla mehrere Unternehmen, die jedes für sich es mit den 40 wertvollsten deutschen Unternehmen aufnehmen können.

In Deutschland werden in aller Regel die Erfindungen der Väter weiterentwickelt. In Amerika wird neu gedacht – die Raumfahrt, das Automobil, die Kommunikation und auch das Finanzgewerbe, wo der Banker sich als Risk-Taker und nicht als Mitarbeiter einer Kreditanstalt versteht.

6 GameStop: Der Mensch ist kein Homo Oeconomicus

Unser Selbstbild vom rational handelnden Wesen wird vom Kapitalmarkt nicht bestätigt. Wider besseren Wissens setzten erneut Millionen Menschen in den vergangenen Tagen auf die Aktie einer nahezu wertlosen Firma namens GameStop. Ein Einpeitscher namens Roaring Kitty (im echten Leben der 38-jährige Keith Gill aus Massachusetts) hat sie im Internet dazu verführt.

Wobei die meisten sich gerne verführen lassen. Die Spekulanten wissen um die Wertlosigkeit der Firma. Aber der Wert ihres Investments liegt ja gerade im Spiel selbst begründet. Der Reiz des Gewinns wird stimuliert durch die Aussicht auf Totalverlust.

Fazit: An der Börse erfahren wir mehr über unsere Gegenwart als im Deutschen Bundestag. In der Anonymität der Geldströme und der Klarheit der pekuniären Motive wird die Wirklichkeit nicht fiktionalisiert und banalisiert, sondern gespiegelt. Wer genau hinschaut, erkennt in dieser Spiegelung die kollektiven Sehnsüchte und Ängste einer Gesellschaft – und immer auch sich selbst.

Süßstoff und Gesundheit – Mit einer Einführung von Jean Pütz

Das Ergebnis dieser Forschung habe ich persönlich für mich schon seit 50 Jahren vorausgesehen. Nicht umsonst habe ich einen Süßstoff entwickelt, der ohne Risiken Zucken ersetzt und gleichzeitig im Geschmack zu Zucker nicht zu unterscheiden ist. Wir haben es früher in der „Leitsüß“ genannt. Vor allen Dingen haben wir Wert darauf gelegt, dass die Tablette sich auch in kalten Flüssigkeiten auflöst. 70% dieses Süßstoffs beruhen auf sog. Acesulfam vom Darm, der nicht verdaut werden kann und als Ballaststoff den Körper wieder verlässt. Wird er ohne Zusatz verwendet, schmeckt er leicht metallisch. Da Aspartam hitzeempfindlich ist, haben wir für Marmeladen und gekochten Nachtisch ihn mit Zyklamat versetzt und damit einen unnachahmlichen Geschmack erreicht, der von Zucker nicht zu unterscheiden ist.

Ihr Jean Pütz

(pte) – Süßstoffe, die als Zuckerersatz für Geschmack sorgen, aber keine Kalorien enthalten, sollen helfen, schlank zu bleiben. Es gibt aber Studien, die besagen, dass diese Mittel ein Hungergefühl erzeugen, sodass der Schuss nach hinten losgeht. Falsch, sagen Forscher der University of Leeds. Denn Süßstoffe lösen demnach kein Hungergefühl aus und senken zudem den Blutzuckerspiegel, was für Menschen, die Typ-2-Diabetes-gefährdet sind, einen zusätzlichen Vorteil bietet. Das zeigt eine Studie der Forscher zusammen mit Kollegen des Rhône-Alpes Research Center for Human Nutrition.

Vorbeugen gegen Diabetes

Es handelt sich um die jüngste Studie des SWEET-Konsortiums, das sich aus 29 europäischen Forschungs-, Verbraucher- und Industriepartnern zusammensetzt und an der Entwicklung und Überprüfung von Erkenntnissen über die langfristigen Vorteile und potenziellen Risiken der Umstellung auf Süßstoffe arbeitet. Das Projekt wurde von Horizon Europe finanziert, einem Forschungsprogramm der Europäischen Union (EU).

„Die Verringerung des Zuckerkonsums ist zu einem der wichtigsten Ziele der öffentlichen Gesundheit im Kampf gegen die zunehmende Belastung durch fettleibigkeitsbedingte Stoffwechselkrankheiten wie Typ-2-Diabetes geworden. Einfach nur den Zucker aus Lebensmitteln zu verbannen, ohne ihn zu ersetzen, kann sich jedoch negativ auf den Geschmack auswirken oder das Verlangen nach Süßem verstärken, was es schwierig macht, eine zuckerarme Ernährung durchzuhalten“, so Expertin Catherine Gibbons.

Gewicht und Blutzucker

„Unsere Studie liefert entscheidende Beweise, die den täglichen Gebrauch von Süßstoffen und Süßkraftverstärkern zur Kontrolle von Körpergewicht und Blutzucker unterstützen“, sagt Leeds-Studienleiter Graham Finlayson. Das Team hat die Auswirkungen des Verzehrs von Keksen untersucht, die entweder Zucker oder zwei Arten von Süßungsmitteln enthielten: den natürlichen Zuckeraustauschstoff Stevia oder den künstlichen Süßstoff Neotame, auf 53 erwachsene Männer und Frauen mit Übergewicht oder Fettleibigkeit. Die Teilnehmer waren zwischen 18 und 60 Jahre alt.

Die Probanden mussten dreimal zwei Wochen lang eine bestimmte Menge an Keksen essen, die eins der drei Süßungsmittel enthielten. Gemessen wurden unter anderem Glukose- und Insulinwerte. Außerdem sollten die Teilnehmer aufschreiben, wie es um ihr Hungergefühl in den Stunden nach dem Verzehr der Kekse bestellt war. Das Ergebnis: Die Süßstoffe regten den Appetit nicht stärker an als natürlicher Zucker.