Archiv der Kategorie: Physik, Chemie, Technik

Daimler-Betriebsrat fassungslos wegen Motorenbau in China

(Business Insider) – Der deutsche Autobauer Daimler will ab 2024 Hunderttausende Motoren pro Jahr in China bauen lassen. Bei der Produktion arbeiten die Stuttgarter demnach mit dem chinesischen Autohersteller Geely zusammen, der gleichzeitig Großaktionär bei Daimler ist.

Daimler hat die Pläne bestätigt. „Die Unternehmen planen die Entwicklung eines hocheffizienten modularen Motors, der Hybridfahrzeuganwendungen der nächsten Generation ermöglicht, die in Europa und China hergestellt werden“, sagte ein Konzernsprecher. Die deutschen Werke würden in dem Zuge nach und nach auf Elektro umstellen.

Bei der Arbeitnehmerseite herrscht indessen Unverständnis für die Entscheidung. “Wir sind fassungslos. Nicht einmal Diskussionen über alternative Fertigungsstandorte waren möglich”, sagte Michael Häberle, Betriebsratschef des führenden Antriebswerks in Stuttgart-Untertürkheim, der Nachrichtenagentur Reuters.

Mit der Kooperation will Daimler offenbar seine Wettbewerbsfähigkeit verbessern. Geely kann in China zu wesentlich günstigeren Bedingungen produzieren. Daimlers Ziel sei eine jährliche Kosteneinsparung im dreistelligen Millionenbereich.

Die gemeinsam entwickelten Motoren sollen laut dem Stuttgarter Autobauer nicht nur in Daimler-Fahrzeugen, sondern auch in Volvo-Autos zum Einsatz kommen. Geely und Volvo sind eng miteinander verflochten.

Daimler hatte Anfang Oktober bekannt gegeben, künftig noch stärker als bis dato angekündigt auf die E-Mobilität setzen zu wollen. Man strebe nicht weniger als „die führende Position“ bei Elektroantrieben und Fahrzeug-Software an, hieß es. Der Konzern betonte nun, man setze seine Bestrebungen fort, „die bestehenden Antriebsstrangwerke auf elektrische Umfänge umzustellen“.

Umweltfreundliches Hybrid-Flugzeug auf der Basis des HyperHybrid -Antriebs – Mit einer Einschätzung von Jean Pütz

Das ist das Prinzip des umweltfreundlichsten Flugzeugs der Zukunft.  Eine innenliegende Turbine treibt einen Generator an, der die Elektromotoren am Propeller mit elektrischer Energie versorgt. Der große Vorteil, in herkömmlicherweise kann der Treibstoff sowohl aus Erdöl oder Erdgas gewonnen werden als auch – und dann ist es extrem umweltfreundlich – aus regenerativ gewonnenem Methanol oder Äthanol über Verwertung von solarem Wasserstoff. Mit diesem HyperHybrid-System lassen sich auch die Probleme mit Bodenfahrzeugen wie Privat-PKWs, Lastwagen usw. mit erheblich  reduzierter Batterielast gegenüber dem reinen Elektro-Auto lösen.

Jean Pütz

(pte) – Das Flugzeug der Zukunft transportiert sein Antriebssystem im Frachtraum, jedenfalls wenn es nach den Vorstellungen von Steven Barrett und seinem Team vom Massachusetts Institute of Technology (MIT) geht. Damit soll das größte Umweltproblem der Luftfahrt gelöst werden. Stickoxide werden verhindert, indem die Turbine mit einem Generator gekoppelt wird, der Strom für die Motoren produziert.

Kat und Harnstofflösung
Vorbild für die Innovation sind Dieselfahrzeuge und Bahnen, die auf Level null unterwegs sind. Die modernen Versionen haben ein Abgasreinigungssystem, das unter anderem Stickoxide in harmlose Stoffe zerlegt. Das gelingt mit einem Katalysator und der Einspritzung einer wässrigen Harnstofflösung in den Abgasstrom, bekannt unter dem Markennamen AdBlue.

Ein solches System lässt sich an den normalen Triebwerken, die unter den Tragflächen montiert sind, nicht installieren, weil die Abgase aus der Verbrennung von Kerosin großflächig nach hinten entweichen. Sie müssten eingefangen und kanalisiert werden, um die Stickoxide zu knacken. Das ist nicht möglich, da die Anlagen so groß sein müssten, dass die Aerodynamik litte. Wird die Turbine dagegen in den Frachtraum verlegt, lässt sich das Abgasreinigungssystem installieren. Stickoxid-Emissionen würden um 95 Prozent reduziert.

Synthetisches Bio-Kerosin
„Ein solches Hybridflugzeug wäre eine enorme technische Herausforderung. Es gibt keine grundlegenden physikalischen Einschränkungen“, verdeutlicht Barrett. Er hält diese Lösung für einen praktikablen Weg, die Umweltauswirkungen des Luftverkehrs zu reduzieren. Würden diese Flugzeuge synthetisches Kerosin tanken, das aus Biomasse oder Kohlendioxid und Ökostrom hergestellt wird, wären sie nahezu umweltneutral, heißt es von dem Wissenschaftler.

Barrett und sein Team haben ausgerechnet, dass ein solches Konzept den Treibstoffverbrauch wegen des zusätzlichen Gewichts um nur 0,6 Prozent erhöhen würde. Die MIT-Ingenieure ermittelten diesen Wert für den Fall, dass eine Boeing 737 oder ein Airbus 320 mit dem Hybridsystem ausgerüstet würde. Platz sei in den Laderäumen genügend vorhanden. Während Hybridflugzeuge einige 100 Kilogramm mehr wiegen würden als konventionelle, ginge es bei rein elektrisch betriebenen Luftfahrzeugen um einige Tonnen zusätzlichen Batteriegewichts.

Endlich: Forschung sucht nach effizienten Stromspeichersystemen

(HZDR) – Damit einer Industrienation wie Deutschland der Schritt zur regenerativen Energieversorgung gelingt, sind verlässliche und kostengünstige Speichersysteme für große Energiemengen nötig. Diese bis zur Anwendungsreife zu bringen, hat sich ein internationales Team um Tom Weier und Norbert Weber vom Institut für Fluiddynamik des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) vorgenommen. Im Projekt SOLSTICE – zu Deutsch Sonnenwende – wollen sie ab Januar 2021 Stromspeicher auf der Basis von flüssigem Natrium und flüssigem Zink entwickeln. Die Europäische Union fördert das Projekt über das Programm Horizont 2020 mit acht Millionen Euro.

Flüssige Metalle und geschmolzene Salze, mehrere hundert Grad Celsius heiß und nur getrennt von einer halbdurchlässigen Membran, könnten stromintensive Industrien in das regenerative Zeitalter führen. In großem Maßstab sollen sie die aus Wind und Sonne gewonnene Energie speichern und in der Nacht oder bei ungünstigen Wetterbedingungen wieder zur Verfügung stellen. Wissenschaftler*innen aus neun Forschungsinstituten und drei Unternehmen haben sich jetzt zusammengeschlossen, um die dafür nötige Technologie einsatzreif zu machen.

„Die Entwicklung effizienter Energiespeicher für industrielle Anwendungen brennt aktuell unter den Nägeln“, erzählt Dr. Tom Weier vom HZDR-Fachbereich Magnetohydrodynamik. „Das Ende von Kohleverstromung und Kernenergie macht solche Speichersysteme einfach unumgänglich.“ Denn die Stromerzeugung aus regenerativen Quellen unterliegt nicht nur jahreszeitlichen Schwankungen, sondern auch solchen zwischen Tag und Nacht. Aktuell werden Zeiten geringer Stromproduktion noch durch konventionelle Kraftwerke abgefedert. Gehen diese in den kommenden Jahren vom Netz, müssen andere Lösungen her. Für Zeiträume von mehreren Monaten bieten sich Langzeitspeicher auf der Basis von regenerativ erzeugtem Wasserstoff oder Methan an. Für die Überbrückung der Nacht sind jedoch Kurzzeitspeicher geeigneter, die auf Batterietechnologie basieren.

„Eine wirklich überzeugende Lösung gibt es dafür aber bisher nicht“, erläutert Weier. „Systeme mit Lithium-Ionen-Akkus funktionieren zwar prinzipiell, wären im industriellen Maßstab aber eine Ressourcenverschwendung.“ Denn der Lithiumvorrat ist begrenzt und die Lagerstätten weiträumig verteilt. Außerdem sind die heutigen Lithium-Ionen-Akkus aus vielen kleinen Batteriezellen aufgebaut. „Das Aktivmaterial, das uns zur Energiespeicherung dient, ist dabei in kleinen Portionen verpackt“, erklärt Weier. „Diese müssen dann auch noch miteinander verdrahtet werden. Zusammen verbraucht das eine große Menge Konstruktionsmaterial.“

Natrium statt Lithium
Deshalb gehen er und seine Kollegen einen anderen Weg. „Bei den Aktivmaterialien setzen wir auf Natrium und Zink“, erklärt sein Kollege Dr. Norbert Weber. Das hat ganz praktische Gründe. Natrium ist das sechsthäufigste Element auf der Erde und in großen Mengen verfügbar. Als Bestandteil verschiedener Salze sind zum Beispiel in jedem Liter Meerwasser etwa elf Gramm des Alkalimetalls gelöst. Zink ist zwar seltener, die weltweit verfügbaren Zinkressourcen sind aber dennoch gewaltig. Und während Lithium heute vor allem aus China, Australien oder Chile importiert werden muss, verfügt Europa über eigene aktive Zinkminen. Das, so Weber, würde erheblich dazu beitragen, die Abhängigkeit europäischer Energieprojekte von anderen Ländern zu verringern.

In ihrem Forschungsprojekt haben die Wissenschaftler*innen zwei verschiedene Systeme im Sinn. Eines soll bei 600 Grad Celsius arbeiten, das andere bei 300 Grad Celsius. „Beim ersten System sind sowohl die Elektroden als auch der Elektrolyt flüssig“, beschreibt Weber die Zusammenstellung. „Unsere norwegischen Partner haben bereits mit diesem Aufbau experimentiert und die Funktionstüchtigkeit des Prinzips nachgewiesen. Hier sollen Energien im Megawattstunden-Bereich gespeichert werden, was solche Batterien für Industrieanwendungen prädestiniert.“

Auch beim zweiten System dienen die flüssigen Metalle als Elektroden der Batterie. Der Elektrolyt hingegen ist fest. „Unsere Partner aus der Schweiz haben hier schon funktionsfähige Systeme, die allerdings mit Nickelchlorid arbeiten. Das wollen wir im Projekt durch Zinkchlorid ersetzen“, erklärt der Experte. „Im Kilowattstundenbereich angesiedelt, ist für diese Batterien sogar ein Einsatz als Heimspeicher denkbar.“ Innerhalb der kommenden vier Jahre wollen die Wissenschaftler beide Systeme mindestens so weit entwickeln, dass sie ihre Fähigkeiten in einer realistischen Umgebung unter Beweis stellen können. Das zweite System könnte in dieser Zeit sogar nahe an die Marktreife gebracht werden.

Beitrag zur Energiewende
Das HZDR übernimmt dabei nicht nur die Projektkoordination, sondern auch den Bau der Batteriezellen. „Am Institut für Fluiddynamik haben wir bereits langjährige Erfahrung im Umgang mit großen Mengen flüssigen Natriums“, erzählt Weier und verweist auf das Infrastrukturprojekt DRESDYN, bei dem umfangreiche Experimente mit Flüssigmetallen stattfinden. „Neben der Anwendung spielt beim Projekt SOLSTICE natürlich auch die Forschung eine wichtige Rolle“, ergänzt Weber. „Denn wir wollen verstehen, welche Vorgänge in unseren Speichersystemen genau ablaufen.“

Dass ihr Ansatz einen wichtigen Beitrag für die Energiewende leisten kann, da sind sich die beiden Wissenschaftler sicher. „Unser Vorteil ist die sehr einfache Konstruktion“, schätzt Weier ein. „Dadurch sind diese Batterien gut skalierbar. Zusammen mit den günstigen Aktivmaterialien könnten wir deshalb einen deutlich niedrigeren Systempreis als bei anderen Elektroenergiespeichern erreichen.“

Daimler will Motoren künftig in großem Stil in China bauen lassen

(Business-Insider) – Der deutsche Autobauer Daimler will ab 2024 Hunderttausende Motoren pro Jahr in China bauen lassen. Bei der Produktion arbeiten die Stuttgarter demnach mit dem chinesischen Autohersteller Geely zusammen, der gleichzeitig Großaktionär bei Daimler ist.

Daimler hat die Pläne bestätigt. „Die Unternehmen planen die Entwicklung eines hocheffizienten modularen Motors, der Hybridfahrzeuganwendungen der nächsten Generation ermöglicht, die in Europa und China hergestellt werden“, sagte ein Konzernsprecher. Die deutschen Werke würden in dem Zuge nach und nach auf Elektro umstellen.

Bei der Arbeitnehmerseite herrscht indessen Unverständnis für die Entscheidung. “Wir sind fassungslos. Nicht einmal Diskussionen über alternative Fertigungsstandorte waren möglich”, sagte Michael Häberle, Betriebsratschef des führenden Antriebswerks in Stuttgart-Untertürkheim, der Nachrichtenagentur Reuters.

Mit der Kooperation will Daimler offenbar seine Wettbewerbsfähigkeit verbessern. Geely kann in China zu wesentlich günstigeren Bedingungen produzieren. Daimlers Ziel sei eine jährliche Kosteneinsparung im dreistelligen Millionenbereich.

Die gemeinsam entwickelten Motoren sollen laut dem Stuttgarter Autobauer nicht nur in Daimler-Fahrzeugen, sondern auch in Volvo-Autos zum Einsatz kommen. Geely und Volvo sind eng miteinander verflochten.

Daimler hatte Anfang Oktober bekannt gegeben, künftig noch stärker als bis dato angekündigt auf die E-Mobilität setzen zu wollen Man strebe nicht weniger als „die führende Position“ bei Elektroantrieben und Fahrzeug-Software an, hieß es. Der Konzern betonte nun, man setze seine Bestrebungen fort, „die bestehenden Antriebsstrangwerke auf elektrische Umfänge umzustellen“.

Nachhaltigkeit im Blick: Lithium aus dem Oberrheingraben

(KIT) – Weltweit steigt der Bedarf an Lithium: Vor allem für die E-Mobilität ist der Rohstoff heiß begehrt. Um den tendenziell weiter steigenden Bedarf decken zu können, wird seit einigen Jahren auch die Produktion von Lithium aus Anlagen der Tiefengeothermie diskutiert, vereinzelt sind bereits Pilotprojekte in der Umsetzung – unter anderem im Oberrheingraben. Das Bundesministerium für Wirtschaft und Energie fördert nun das Verbundprojekt UnLimited, bei dem die EnBW Energie Baden-Württemberg AG als Kooperationsführer gemeinsam mit dem Karlsruher Institut für Technologie (KIT) und den Partnern BESTEC, HYDROSION und Universität Göttingen eine Pilotanlage im Geothermiekraftwerk in Bruchsal einrichten wird.

Deutschland deckt seinen Bedarf an Lithium bislang vollständig über Importe, doch die Nachfrage steigt stetig, da Lithium-Ionen-Batterien auch für mobile und tragbare Anwendungen sehr gefragt sind. Weltweit zeigen auch Geothermieanlagen zum Teil beachtliche Gehalte an Lithium im Tiefenwasser – die Frage ist, wie es extrahiert werden kann. Das Projekt UnLimited („Untersuchungen zur Lithiumproduktion aus heißen Tiefenwässern in Deutschland“) setzt sich zum Ziel, die notwendigen technischen und wirtschaftlichen Grundlagen für eine Lithiumproduktion aus heißem Tiefenwasser in Deutschland zu entwickeln.

Heimische Produktion eröffnet Alternativen für Lieferketten
„Das in Bruchsal erbohrte Wasser ist mit rund 150 mg Lithium pro Liter Wasser relativ reich an Lithium“, so Professor Jochen Kolb, Leiter der Abteilung Geochemie und Lagerstättenkunde am Institut für Angewandte Geowissenschaften des KIT. Es werde zwar nicht die bundesweit benötigte Menge liefern, doch diese heimische Produktion eröffne Alternativen für Lieferketten und reduzierte Umwelteinwirkung. „Kurze Transportwege, Flexibilität gegenüber anderen Anbietern, Versorgungssicherheit und erweiterte Lieferketten: Wir nutzen den Rohstoff Geothermalwasser effizienter“, sagt Kolb, „und das hat den Nebeneffekt, dass es auch einen ökonomischen Boost für die Geothermie geben könnte.“
In der Geothermieanlage Bruchsal, welche die EnBW gemeinsam mit den Stadtwerken Bruchsal seit 2010 betreibt, wird Tiefenwasser für Wärme und Strom gefördert und nach der thermischen Nutzung wieder in das Reservoir zurückgeführt. Mit dem Wasserdurchsatz werden dabei überschlägig rund 800 Tonnen Lithiumchlorid pro Betriebsjahr ungenutzt gefördert und zurückgeführt. Im Rahmen eines Projekts entwickelte die EnBW gemeinsam mit dem KIT ein Verfahren, mit dem sich im Labormaßstab das im Tiefenwasser gelöste Lithium nachhaltig gewinnen lässt.
„Die Laboruntersuchungen stimmen uns optimistisch. Wir haben belegen können, dass es technisch grundsätzlich machbar ist. Jetzt gilt es, in einem nächsten Schritt die technische Umsetzung unter Realverhältnissen zu prüfen und die Wirtschaftlichkeit auch im größeren Maßstab zu bestimmen“, betont Dr. Thomas Kölbel, Konzernexperte Geothermie bei der EnBW. „Unsere Bruchsaler Anlage arbeitet in einem geschlossenen Kreislauf. Das bedeutet, dass weder Gase noch Flüssigkeiten an die Umwelt abgegeben werden. Und nun wollen wir zeigen, dass wir auch im industriellen Maßstab eine nachhaltige und umweltverträgliche Produktion umsetzen können.“

Lithiumgehalt in Thermalwässern effizient nutzen
Bisherige Untersuchungen zeigen, dass es im Norddeutschen Becken und im Oberrheingraben erhöhte Lithiumgehalte in Thermalwässern gibt. Aus Schichten zwischen 3 000 und 5 000 Metern Tiefe wird das zwischen 160 und 180 Grad Celsius heiße Tiefenwasser erbohrt, das dann durch einen Wärmetauscher geht. Dort setzen die Wissenschaftlerinnen und Wissenschaftler an – parallel zum Geothermiebetrieb – und bringen ein Ionensieb ein. „Ein wirtschaftlich sinnvolles Extraktionsverfahren bietet die Chance, die Profitabilität solcher Anlagen zu verbessern“, so Kolb. Im Labor laufen die Prozesse mit etwa 85- bis 95-prozentiger Effizienz, angestrebt ist eine Effizienz im Reallabor von etwa 70 Prozent.

In Bruchsal könnte Lithium für 20 000 Batterien gewonnen werden
Ziel ist, am Ende des Verbundprojekts im Pilotmaßstab Lithium aus Geothermalwasser bei gleichzeitigem Anlagenbetrieb zu gewinnen. Rund 30 bis 70 Liter Wasser werden pro Sekunde in jeder Geothermieanlage des Oberrheingrabens nach oben gebracht. „Da wäre in rund 40 Minuten die Menge Lithium zum Beispiel für eine Batterie zusammen“, erläutert Kolb. „In etwa zwei Minuten die Menge für ein E-Bike.“ So könnte bei rund 8 000 Betriebsstunden jährlich in der Geothermieanlage in Bruchsal eine Lithiummenge gewonnen werden, die ausreichend ist für die Produktion von etwa 20 000 Batterien.
„Mit einer intensiven Reservoiranalyse wollen wir zusammen mit den Projektpartnern die Nachhaltigkeit und damit auch die Wirtschaftlichkeit der Lithiumextraktion aus dem Tiefenwasser nachweisen“, erklärt Dr. Jochen Schneider, Geschäftsführer der HYDROSION GmbH. „Ein weiterer wichtiger Punkt ist aber auch die Qualität des Lithiums und dass keine schädlichen Abfälle in die Umwelt gelangen.“ Lithiumgewinnung aus einem erneuerbaren Energieträger müsse höchsten Umweltstandards genügen und die Öffentlichkeit müsse transparent über das Verfahren informiert werden.

Für die Abschätzung der Lithium-Ressource im geologischen Untergrund ist es essenziell, die Freisetzungsprozesse für Lithium im Geothermalreservoir und die Größe des Reservoirs (von der Zirkulation erfasstes Volumen) zu kennen. Zur Quantifizierung der Lithiumfracht setzen die Angewandten Geowissenschaftlerinnen und -wissenschaftler der Universität Göttingen Methoden ein, die die hydrogeochemischen Vorgänge an der Grenze zwischen Festgestein und zirkulierendem Fluid untersuchen. Dazu wird insbesondere die Verteilung der stabilen Isotope des Lithiums verwendet.

Die Projektkosten liegen bei rund 3,4 Millionen Euro. Das Bundesministerium für Wirtschaft und Energie fördert das Projekt UnLimited mit einem Betrag von 2,7 Millionen Euro.

Neue Techniken ermöglichen demnächst umweltfreundlichen Transport mit großen Lastwagen

(KIT) – Das EU-Klimaziel, den CO2-Ausstoß von neuen Pkw bis 2030 um 37,5 Prozent zu senken, soll bereits in fünf Jahren auch auf schwere Nutzfahrzeuge ausgedehnt werden. Weitere Verschärfungen der Ziele werden aktuell in der EU diskutiert. 2019 wurden 409 801 Nutzfahrzeuge, davon 38 620 Sattelzugmaschinen in Deutschland zugelassen, für die bisher keine CO2-Flottenminderungsziele galten. Forscherinnen und Forscher das Karlsruher Instituts für Technologie (KIT) setzen sich im Projekt „KliMEA“ intensiv mit dem Antrieb schwerer Nutzfahrzeuge sowie der Brennstoffzellentechnologie auseinander und erarbeiten Wege, um künftig die Produktion von Brennstoffzellenkomponenten den neuen Anforderungen anzupassen.

Um bis zum Jahr 2025 bei schweren Nutzfahrzeugen 15 Prozent CO2-Emissionen und bis 2030 sogar 30 Prozent einzusparen, erscheint die Brennstoffzellentechnologie vielversprechend. Konventionelle LKW-Antriebsstränge mit Dieselaggregaten sind bereits in hohem Maße optimiert und bieten hier wenig Ausbaupotenzial. Bestehende Lösungen zum batterieelektrischen Antrieb von Pkw lassen sich aber nicht direkt übertragen, da die benötigte Batterie zu schwer und die Ladezeiten zu lange wären.

„Neben dem Einsatz synthetischer Kraftstoffe sehen wir insbesondere großes Potenzial, wenn das Nutzfahrzeug über eine Brennstoffzelle durch die Nutzung von Wasserstoff mit Energie versorgt wird. Erste Fahrzeuge sind bereits verfügbar, jedoch muss die Brennstoffzellenentwicklung bei einer Einführung bis 2025 deutlich beschleunigt werden. Taktgeber für die Beschleunigung der Brennstoffzellenentwicklung ist die Produktionstechnik“, so Dr. Nicole Hoffmeister-Kraut, die baden-württembergische Landesministerin für Wirtschaft, Arbeit und Wohnungsbau.

Membran in der Brennstoffzelle ist entscheidend
Bei einem Brennstoffzellenfahrzeug genügt zum Antrieb ein leichteres Brennstoffzellensystem, und der benötigte Wasserstoff lässt sich schnell nachtanken. Ein entscheidender Schritt in der Fertigung einer Brennstoffzelle besteht darin, die „Membrane Electrode Assembly“ (MEA) herzustellen und zu verarbeiten. Die MEA ist ein Verbundbauteil, dessen Kernstück die Polymer-Elektrolyt-Membran (PEM) ist. Die PEM ist nur wenige Mikrometer dünn und verändert sich stark, wenn sich die Luftfeuchtigkeit ändert. Dadurch können Beschädigungen, Risse oder Ablösungen entstehen, durch die das gesamte Verbundbauteil nicht mehr nutzbar ist. Aktuell muss, um dies zu vermeiden, die gesamte Produktionsfläche klimatisiert und geregelt werden. „Ein solches System zu installieren, erfordert derzeit einen hohen Planungshorizont und verursacht hohe Kosten, sowohl in der Anschaffung als auch im Betrieb. In unserem Forschungsvorhaben ‚KliMEA‛ untersuchen wir daher die Möglichkeiten, das MEA-Verbundbauteil nur lokal in Form eines sogenannten Microenvironments zu klimatisieren. Hierbei wird die PEM an mehreren Stellen unter einer Art Käseglocke gesondert mit dem richtigen Klima an der richtigen Stelle verarbeitet“, so Professor Jürgen Fleischer, Leiter des wbk Instituts für Produktionstechnik des KIT. „Mit diesem Verfahren könnten wir die MEA-Fertigung künftig stückzahlflexibel gestalten, maßgeblich beschleunigen und somit ressourcenschonender und kostengünstiger umsetzen.“

Über „KliMEA“: Ziele und Partner
„KliMEA“ steht für „Klimaadaptive und modellgestützte Membrane-Electrode-Assembly-Fertigung“. Das wbk leitet das Projekt mit zwei Fachbereichen. Als Projektpartner untersucht die Arbeitsgruppe Thin Film Technologies (TFT) des KIT vor allem das Feuchtigkeitsaufnahmeverhalten der PEM. Dieses Bauteil beeinflusst das Verhalten der MEA wesentlich. Es wird länger oder kürzer, wenn sich die Luftfeuchtigkeit verändert. Ein Team des wbk untersucht darauf aufbauend in Simulationen genauer, wie sich die Veränderungen der PEM auf die MEA auswirken, um so das nötige Prozesswissen zu erlangen. Mittels eines „digitalen Zwillings“, also einer betriebsbegleitenden Simulation, die sehr realitätsnah und ausreichend detailliert das System digital widerspiegelt, untersucht das zweite Forschungsteam des wbk die Verknüpfung mit der realen Anlage und leitet geeignete Messstrategien ab. Die erhobenen Daten sind entscheidend für die Qualitätssicherung und zugleich für die Rückverfolgbarkeit (Traceability). Auf dieser Basis lässt sich entscheiden, ob hinsichtlich einer bestimmten Baugruppe ein Risiko besteht und Gegenmaßnahmen ergriffen werden müssen.

Als assoziierter Projektpartner bringt die Daimler Truck Fuel Cell GmbH ihr Expertenwissen zur industriellen MEA-Fertigung ein. Die e-mobil BW GmbH unterstützt das Projekt mit ihrer Kompetenz aus dem langjährigen Management des Clusters Brennstoffzelle Baden-Württemberg. Im Rahmen des Strategiedialogs Automobilwirtschaft Baden-Württemberg fördert das Ministerium für Wirtschaft, Arbeit und Wohnungsbau das Forschungsvorhaben bis Ende 2021 mit rund einer Million Euro.

Mikroprozessor-Chips werden immer leistungsfähiger – Mit einer Einführung von Jean Pütz

Meine erste von mir 1972 moderierte Sendereihe lautete ‚Einführung in die Elektronik‘ (13 Folgen). Zwei Jahre später folgte die Sendereihe ‚Einführung in die Digitaltechnik (ebenfalls 13 Folgen) mit Seminaren, begleitet vom VDI. Etwa 800.000 verkaufte Bücher bewiesen die Akzeptanz. Aber die Halbleiter-Technik ging mit rasanten Schritten weiter. Es erschienen die ersten Mikroprozessoren mit mittlerweile schon mehr als 1000 Transistorfunktionen auf einen Chip. Die Folge war, dass ich bereits 1978 im ersten Programm der ARD als Autor eine Sendung produzieren und moderieren durfte mit dem Titel: ‚Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik‘. Daraufhin bekam ich den ersten Preis für Wissenschaftsjournalisten, den sogenannten Batelle-Preis verliehen, dotiert mit 10.000 DM. Vor allen Dingen ging es darum, Hartware zu ersetzen durch Software. Ich war also eng mit dem Thema verbunden, hätte aber nie geglaubt, dass es irgendwann einmal möglich werden würde, auf einem kleinen Siliziumplättchen – nicht größer als ein Daumennagel – mehr als eine Milliarde Transistorfunktionen unterzubringen und so zu vernetzen, dass ein ganzer Computer untergebracht werden konnte. Früher hätte man dazu mehrere Räume – vollbepackt mit Elektronik – benötigt.

Alles dies sind Voraussetzungen mittlerweile für eine sogenannte ‚Künstliche Intelligenz‘ – aber besser ausgedrückt mit maschinelles Lernen – möglich wurde. Das heißt, ein solch kleines Computersystem kann nicht nur das vollführen, was die Software ihm vorschreibt, sondern ist in der Lage zu lernen – aus Fehlern, aber auch aus Erfolgen. Doch wer von uns Bürgern weiß noch, worauf z. B. ein System wie das Smartphone aufbaut. Fünf amerikanische Konzerne haben daher eine Art Weltmonopol geschaffen, dass die Utopie von George Orwell, der das in seinem Buch 1984 als Warnung beschrieben hat, irgendwann einmal möglich wird.

Umso schlimmer ist es, dass wenige Menschen nur noch an diesem Prozess beteiligt sind. Einer, der für diese rasante Entwicklung mitverantwortlich ist, ist Steve Jobs, der Gründer von Apple, einer der kreativsten Menschen, die je geboren wurden.

Nur so nebenbei bemerkt: Er musste sich selbst der Natur beugen und starb an Krebs.

Wir haben eine Art technischen Turmbau zu Babel gebaut, der es ermöglicht, mit Unvernunft bequem zu leben, aber ohne Vernunft wird dieser Turmbau zu Babel wie in der Bibel zusammenbrechen. Das sind Gedanken, die mich in der letzten Zeit sehr stark beschäftigen, nehmen Sie es mir bitte nicht übel

Jean Pütz

(XING) – Die Apple-Revolution: Kampfansage aus Cupertino – wie der M1-Chip den PC-Markt umkrempeln wird

Apple macht sich mit einem eigenen Computer-Chip unabhängig. Die Präsentation der ersten drei Mac-Modelle mit „Apple Silicon“ läutet das Ende der Intel-Ära bei Apple ein. Das könnte sich auf den gesamten PC-Markt auswirken.

Bei Apple beginnt ein neues Zeitalter: 15 Jahre lang hat der Konzern seine Macintosh-Computer mit den Chips von Intel gebaut. Künftig gehen Apple und Intel aber getrennte Wege. Der iPhone-Konzern hat nun die ersten drei Mac-Modelle mit Chips aus eigener Entwicklung vorgestellt.

Apple verspricht, dass die Computer dadurch deutlich schneller und auch stromsparender arbeiten. Mit dem Umstieg kann der Konzern zudem erstmals seine Macs auf derselben Software-Plattform wie seine iPhones und iPads betreiben. „Dies ist ein historischer Tag für den Mac“, sagte Apple-Chef Tim Cook.

M1 – kein einfacher Mikroprozessor
Der hauseigene Chip mit der Bezeichnung M1 ist nicht nur ein einfacher Mikroprozessor, sondern ein komplexes „System on a Chip“. In ihm stecken 16 Milliarden Transistoren. Der Hauptprozessor besteht aus acht Kernen, vier davon erledigen Hochleistungsanforderungen, die anderen vier kommen stromsparend ins Spiel, wenn leichtere Aufgaben erledigt werden müssen.

Dazu kommen ein leistungsfähiger Grafikchip sowie der geheimnisumwitterte Sicherheitschip „Secure Enclave“. Und das gesamte M1-System kann auf einen gemeinsamen Arbeitsspeicher zugreifen.

Dies ist ein historischer Tag für den Mac
Cook ist aber auch klar, dass die Kunden einen Computer nicht vorrangig wegen einer neuen Chip-Architektur auswählen. Daher standen bei der Videopräsentation aus dem Apple-Hauptquartier ganz praktische Dinge im Vordergrund.

Akkulaufzeit fast verdoppelt
So betonte Apple, dass sich die Akkulaufzeit fast verdoppeln werde. Apps würden viel schneller als bisher starten, und auch anspruchsvolle Programme liefen flüssiger, versprach Software-Chef Craig Federighi. Wie beim iPhone soll ein spezieller Bereich zum Beispiel die Bildbearbeitung mit maschinellem Lernen verbessern.

Apple hat seine ersten Mac-Computer mit Chips aus eigener Entwicklung statt Intel-Prozessoren vorgestellt.

Apple stattete mit dem M1-Chip unter anderen das populärste Mac-Modell aus, das Macbook Air. Es kommt nun ohne einen Lüfter aus. Dank des sparsameren Chips halte die Batterie 15 Stunden Surfen im Web und 18 Stunden Videowiedergabe stand. Das Macbook Air ist der populärste Apple-Computer.

Außerdem bekommen auch das leistungsstärkere Macbook Pro mit 13-Zoll-Display und der Tischrechner Mac Mini den neuen Apple-Prozessor. Beim Macbook Pro spricht Apple von 17 Stunden Surfzeit und 20 Stunden Videowiedergabe. Beim Mac Mini und dem Macbook Pro behält Apple zunächst auch Modelle mit Intel-Chips im Angebot – das Macbook Air gibt es beim Konzern dagegen nur noch mit dem M1. Äußerlich sehen die Geräte aus wie bisher.

Das Ende der Intel-Vorherrschaft?
Apple bricht mit dem Umstieg aus der eingefahrenen Spur der PC-Branche aus, die bisher von Intel-Prozessoren dominiert wurde. Die M1-Chips basieren auf der Architektur des Chipdesigners ARM, mit der auch die iPhones und iPads laufen. Damit können die Entwickler auch iPhone-Apps auf die Macs bringen.

Ursprünglich auf Intel-Prozessoren zugeschnittene Mac-Programme, die noch nicht für die Apple-Chips angepasst wurden, sollen unterdessen in Echtzeit „übersetzt“ werden. Dabei gebe es keine Leistungseinschränkungen, betont Apple. Weiterhin mit Intel-Chips ausgestattet bleiben vorläufig die iMac-Modelle und der Profi-Rechner Mac Pro.

Neben dem neuen Betriebssystem macOS Big Sur und Apple-eigenen Apps wie der Videobearbeitungssoftware Final Cut Pro werden kurzfristig auch Programme von Drittherstellern die neuen Möglichkeiten des M1-Systems direkt ausnutzen, darunter Fotobearbeitungssoftware von Adobe und Computer-Spiele.

Umstieg kommt wenig überraschend
Der Umstieg kündigte sich bereits seit einiger Zeit an. Auf iPhone und iPad war es Apple gelungen, durch hauseigene Chipentwicklung viel Leistung in kleines Format zu packen. Beim Mac musste der Konzern dagegen wiederholt auf neue Prozessoren von Intel warten. Bei der Ankündigung des Umstiegs im Juni hieß es, er solle binnen zwei Jahren alle Modelle erfassen.

Für die Macs ist es der dritte Wechsel der Chip-Plattform nach dem Übergang von Motorola zu IBMs PowerPC Anfang der 1990er Jahre und zu Intel im Jahr 2005.

Die Frage ist nun, ob Apples Beispiel in der Branche Schule machen könnte, wenn die M1-Macs ihren Nutzern einen spürbaren Vorteil gegenüber Computern anderer Hersteller mit Intel-Chips bieten können. Unter anderem Microsoft und Samsung haben bereits Laptops mit Chips auf Basis der ARM-Architektur im Angebot, sie blieben bisher aber eher Nischenmodelle. Neuer Schub könnte von dem chinesischen Technologiekonzern Huawei ausgehen. Wegen der von US-Präsident Donald Trump verhängten Sanktionen versuchen die Chinesen ohnehin, eine eigene Chipproduktion aufzubauen.

Goethe, Trump und die Mathematik

Zur Bedeutung der Mathematik in der digitalen Bildung

(Ulrich Trottenberg) –  Goethe und Trump in einem Atemzug? Eines der größten literarischen Genies der Geschichte und die Inkarnation der aggressiven Ignoranz – die haben doch gar nichts gemeinsam, sollte man meinen. In einem Bereich leider doch: Beide hatten und haben ein sehr distanziertes Verhältnis zur Mathematik und zur mathematischen Wahrheit. Bei Trump, der in einer selbst geschaffenen narzisstischen Realität lebt, bedarf das vielleicht keiner genaueren Erläuterung, weil man weiß, wie er ganz allgemein mit der Wahrheit und mit Erkenntnissen der Naturwissenschaften umgeht. Aber Goethe – der mit seinen naturwissenschaftlichen Studien mehr Zeit verbracht hat als mit seiner Dichtung und dem zum Beispiel seine Farbenlehre besonders wichtig war? Die Elementarmathematik hat Goethe gelten lassen und wohl sogar geschätzt, aber über die „Höhere Mathematik“ und die Mathematiker (und Physiker) hat er gespottet: „Dass aber ein Mathematiker, aus dem Hexengewirr seiner Formeln heraus, zur Anschauung der Natur käme und Sinn und Verstand, unabhängig, wie ein gesunder Mensch brauchte, werd‘ ich wohl nicht erleben.“

Wir wollen der Frage, was Goethe zu dieser Geringschätzung der Mathematik veranlasst hat, hier nicht weiter nachgehen. Uns interessiert vielmehr die Frage, was heute los ist. Heute ist geradezu alles, was in der Welt an prinzipieller und an konkreter Erkenntnis gewonnen und an Innovation erreicht wird, wesentlich durch Mathematik geprägt: jede technische und naturwissenschaftliche Entwicklung, jedes Gerät, jeder Algorithmus hat zumindest auch eine mathematische Dimension. Das hat aber nicht etwa zur Folge, dass die heutigen Menschen in ihrer Mehrheit von der Mathematik fasziniert wären – bei den meisten, jedenfalls bei sehr vielen Menschen lösen mathematische Themen auch heute noch eher Unbehagen und unangenehme Erinnerungen an die Schule aus als Interesse und Begeisterung. Und auch heute erlebt man in der Öffentlichkeit, in TV-Shows, in den Medien, ja sogar in der Politik noch immer die augenzwinkernde Koketterie mit dem zur Schau gestellten und durch schlechte Schulleistungen nachgewiesenen Desinteresse an Mathematik.

Mathematik hat beides, die abstrakte und die angewandte Seite. Für viele Fachleute und Interessenten ist die abstrakte Seite der Mathematik von faszinierender Schönheit. Einer großen Öffentlichkeit hat sich die Schönheit der Mathematik aber gerade in Deutschland nicht vermittelt. Und das mag in der Tat damit zusammenhängen, dass die meisten Menschen im „Land der Dichter und Denker“ Schönheit eher in der Natur, in der Kunst und in der traditionellen Kultur suchen und finden – als in etwas scheinbar Unsinnlichem wie der Mathematik. Und dafür steht eben Goethe und nicht etwa Gauss – auch wenn Daniel Kehlmann mit „Die Vermessung der Welt“ Gauss ein Stück weit ins reale Leben geholt hat. Die Mathematik als Hochkultur, gar Liebe zur Mathematik – das scheint dann doch eher eine Emotion für einen kleinen Kreis von weltabgewandten Spezialisten zu sein.

Mit der angewandten Seite der Mathematik werden wir dagegen täglich durch eine Fülle naturwissenschaftlicher Erkenntnisse und Gesetzmäßigkeiten konfrontiert. Noch eindrücklicher erleben wir die angewandte Mathematik in diesen Jahren und Jahrzehnten aber in den rasanten Entwicklungen der Technik, insbesondere in der sich immer weiter beschleunigenden Digitalisierung. Die digitalen Entwicklungen bieten faszinierende Möglichkeiten der Zukunftsgestaltung, in allen technischen und ingenieurwissenschaftlichen Disziplinen und damit in einer auf vielfältige Weise innovativ geprägten Welt. Aber auch für die persönliche Lebensgestaltung und –vorsorge, etwa durch die individualisierte, datenintensive Medizin der Zukunft, deuten sich großartige Chancen an. Dass trotz dieser vielversprechenden Perspektiven die digitalen Entwicklungen ethisch und politisch gesteuert und rechtlich kontrolliert werden müssen, sollte gesellschaftlicher Konsens sein. Gerade in Deutschland haben aber die ängstlichen, überkritischen, bisweilen dystopischen Einschätzungen der Technologieentwicklung ein besonderes Gewicht– bis hin zum endzeitlichen Bild der Übernahme der Welt durch sich selbst weiterentwickelnde robotische Maschinen. Auch wenn die prinzipiell wertfreien Modelle der Mathematik dabei für beides stehen, für Utopie und Dystopie, sie werden vielen Menschen eher mit der düsteren als mit der beglückenden Zukunft assoziiert.

Dies sind Beschreibungen, keine Erklärungen für die sich von Mathematik distanzierende Koketterie, das Desinteresse, die Abneigung, den Hass auf die Mathematik. Was sind die Gründe? Ist es vielleicht der (schlechte) Mathematik-Unterricht, der eine positive Beziehung zur Mathematik in so vielen Fällen so nachhaltig stört? Tatsächlich gibt es viele hochkompetente und hochengagierte Mathematiklehrerinnen und –lehrer in deutschen Schulen. Andererseits hat der Autor es in seinen Seminaren und bei vielen anderen Gelegenheiten leider immer wieder erleben müssen, dass die Lehrerinnen und Lehrer versuchen, den Schülerinnen und Schülern mathematische Zusammenhänge zu „erklären“, die sie selbst nicht verstanden haben. Und das ist dann wirklich verheerend und meist das Ende jeder mathematischen Bildungsbemühung. Solche gravierenden Fehler werden oft nur hochbegabten Schülerinnen und Schülern durchschaut.

Auch in diesen Jahren und Tagen spielt das Thema „mathematische Bildung“ wieder eine aktuelle Rolle. Es kommt über die digitale Bildung ins Spiel. Digitale Bildung, darüber sind sich alle Akteure einig, ist eins der wichtigsten politischen Ziele überhaupt, Deutschland hat hier einen extremen Nachholbedarf. Aber sofort stellt sich die Frage: Was sind denn die Ziele der digitalen Bildung? Wofür sollen die Milliarden €, die seit einigen Jahren den Ministerien, Schulen, Lehrerinnen und Lehrern zur Verfügung stehen, denn ausgegeben werden? Eine einfache (und richtige) Antwort ist: für Vernetzung, für die Ausstattung mit Hardware – darüber wird man sich schnell einig (auch wenn sich die Beschaffung als solche dann vielleicht über Jahre hinzieht und die Geräte schnell wieder veralten). Aber dann? Was sind dann – wenn die Ausstattung vorhanden ist und die Arbeit anfangen kann – die Inhalte des digitalen Unterrichts? Öffentlich diskutierte Ziele sind insbesondere: Medienkompetenz, Programmierkenntnisse, Grundlagen der Informatik usw. – und immer wieder Medienkompetenz. Von mathematischen Inhalten ist in der öffentlichen und politischen Diskussion kaum die Rede.

Die Substanz alles Digitalen sind die Algorithmen. Aber dass Algorithmen immer auch einen mathematischen Kern haben, wird so deutlich nicht gesagt. Kurios ist, dass gerade in Deutschland Informatik ein sehr positives Image hat, Mathematik aber ein überwiegend negatives. Sachlich ist das nicht begründet: Informatik und Mathematik haben einen großen Überlappungsbereich. Einige meiner führenden Kollegen machen gar keinen Unterschied zwischen den beiden Disziplinen. Und tatsächlich sind es gerade die Algorithmen, von denen man oft gar nicht sagen kann, ob sie eher der Mathematik oder der Informatik zuzuordnen sind. Gerade in den neuesten Entwicklungen wachsen zum Beispiel Algorithmen, die eher mit Daten umgehen und daher traditionell eher der Informatik zugeordnet werden, und Algorithmen, in denen überwiegend gerechnet wird und die daher eher der Mathematik zugeordnet werden, methodisch immer stärker zusammen. Die Algorithmen der Künstlichen Intelligenz und des Maschinellen Lernens sind dafür besonders markante Beispiele.

Insofern eröffnet die systematische Beschäftigung mit den grundlegenden Prinzipien traditioneller und aktueller Algorithmen eine große Chance, die Mathematik von ihrem negativen Image zu befreien und Mathematik und Informatik als zwei Seiten einer Medaille zu begreifen. Und wenn dieses Zusammenspiel schon in der Schule praktiziert und verstanden wird, hat Deutschland auch eine Chance, methodisch Anschluss an die internationale digitale Entwicklung zu finden.

China: Unlautere Konkurrenz beim Export gegen deutsche Automobilhersteller

(Business-Insider) – Während Tesla zum Vorzeigerivalen deutscher Autobauer wie VW, BMW und Mercedes angewachsen ist, plant die chinesische Regierung neuesten Berichten zufolge einen Großangriff auf die hiesige Autobranche.
So schreibt das Fachmagazin „Automobil Industrie“ von einem 15-Jahres-Plan, mit dem die chinesische Regierung dessen Autobauer zu mehr Export – vor allem nach Europa – bewegen soll.
Für die Expansion in den Westen erhalten die chinesischen Fahrzeughersteller Unterstützung vom chinesischen Staat in Form von „Anleitungen“.

In dem europäischen Elektroauto-Land Nummer eins, Norwegen, ist Tesla in diesem Jahr auf Platz sechs abgerutscht, nachdem das Unternehmen noch im vergangenen Jahr den ersten Platz belegte. Verdrängt wurden die kalifornischen E-Autos vor allem von Audi und VW. Der Audi e-Tron konnte auf den ersten Platz vorrücken, VW bekleidet mit dem e-Golf und dem ID.3 die Plätze zwei und drei – Hyundai und Nissan belegten die Plätze vier und fünf.