Archiv der Kategorie: Physik, Chemie, Technik

Mikroprozessor-Chips werden immer leistungsfähiger – Mit einer Einführung von Jean Pütz

Meine erste von mir 1972 moderierte Sendereihe lautete ‚Einführung in die Elektronik‘ (13 Folgen). Zwei Jahre später folgte die Sendereihe ‚Einführung in die Digitaltechnik (ebenfalls 13 Folgen) mit Seminaren, begleitet vom VDI. Etwa 800.000 verkaufte Bücher bewiesen die Akzeptanz. Aber die Halbleiter-Technik ging mit rasanten Schritten weiter. Es erschienen die ersten Mikroprozessoren mit mittlerweile schon mehr als 1000 Transistorfunktionen auf einen Chip. Die Folge war, dass ich bereits 1978 im ersten Programm der ARD als Autor eine Sendung produzieren und moderieren durfte mit dem Titel: ‚Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik‘. Daraufhin bekam ich den ersten Preis für Wissenschaftsjournalisten, den sogenannten Batelle-Preis verliehen, dotiert mit 10.000 DM. Vor allen Dingen ging es darum, Hartware zu ersetzen durch Software. Ich war also eng mit dem Thema verbunden, hätte aber nie geglaubt, dass es irgendwann einmal möglich werden würde, auf einem kleinen Siliziumplättchen – nicht größer als ein Daumennagel – mehr als eine Milliarde Transistorfunktionen unterzubringen und so zu vernetzen, dass ein ganzer Computer untergebracht werden konnte. Früher hätte man dazu mehrere Räume – vollbepackt mit Elektronik – benötigt.

Alles dies sind Voraussetzungen mittlerweile für eine sogenannte ‚Künstliche Intelligenz‘ – aber besser ausgedrückt mit maschinelles Lernen – möglich wurde. Das heißt, ein solch kleines Computersystem kann nicht nur das vollführen, was die Software ihm vorschreibt, sondern ist in der Lage zu lernen – aus Fehlern, aber auch aus Erfolgen. Doch wer von uns Bürgern weiß noch, worauf z. B. ein System wie das Smartphone aufbaut. Fünf amerikanische Konzerne haben daher eine Art Weltmonopol geschaffen, dass die Utopie von George Orwell, der das in seinem Buch 1984 als Warnung beschrieben hat, irgendwann einmal möglich wird.

Umso schlimmer ist es, dass wenige Menschen nur noch an diesem Prozess beteiligt sind. Einer, der für diese rasante Entwicklung mitverantwortlich ist, ist Steve Jobs, der Gründer von Apple, einer der kreativsten Menschen, die je geboren wurden.

Nur so nebenbei bemerkt: Er musste sich selbst der Natur beugen und starb an Krebs.

Wir haben eine Art technischen Turmbau zu Babel gebaut, der es ermöglicht, mit Unvernunft bequem zu leben, aber ohne Vernunft wird dieser Turmbau zu Babel wie in der Bibel zusammenbrechen. Das sind Gedanken, die mich in der letzten Zeit sehr stark beschäftigen, nehmen Sie es mir bitte nicht übel

Jean Pütz

(XING) – Die Apple-Revolution: Kampfansage aus Cupertino – wie der M1-Chip den PC-Markt umkrempeln wird

Apple macht sich mit einem eigenen Computer-Chip unabhängig. Die Präsentation der ersten drei Mac-Modelle mit „Apple Silicon“ läutet das Ende der Intel-Ära bei Apple ein. Das könnte sich auf den gesamten PC-Markt auswirken.

Bei Apple beginnt ein neues Zeitalter: 15 Jahre lang hat der Konzern seine Macintosh-Computer mit den Chips von Intel gebaut. Künftig gehen Apple und Intel aber getrennte Wege. Der iPhone-Konzern hat nun die ersten drei Mac-Modelle mit Chips aus eigener Entwicklung vorgestellt.

Apple verspricht, dass die Computer dadurch deutlich schneller und auch stromsparender arbeiten. Mit dem Umstieg kann der Konzern zudem erstmals seine Macs auf derselben Software-Plattform wie seine iPhones und iPads betreiben. „Dies ist ein historischer Tag für den Mac“, sagte Apple-Chef Tim Cook.

M1 – kein einfacher Mikroprozessor
Der hauseigene Chip mit der Bezeichnung M1 ist nicht nur ein einfacher Mikroprozessor, sondern ein komplexes „System on a Chip“. In ihm stecken 16 Milliarden Transistoren. Der Hauptprozessor besteht aus acht Kernen, vier davon erledigen Hochleistungsanforderungen, die anderen vier kommen stromsparend ins Spiel, wenn leichtere Aufgaben erledigt werden müssen.

Dazu kommen ein leistungsfähiger Grafikchip sowie der geheimnisumwitterte Sicherheitschip „Secure Enclave“. Und das gesamte M1-System kann auf einen gemeinsamen Arbeitsspeicher zugreifen.

Dies ist ein historischer Tag für den Mac
Cook ist aber auch klar, dass die Kunden einen Computer nicht vorrangig wegen einer neuen Chip-Architektur auswählen. Daher standen bei der Videopräsentation aus dem Apple-Hauptquartier ganz praktische Dinge im Vordergrund.

Akkulaufzeit fast verdoppelt
So betonte Apple, dass sich die Akkulaufzeit fast verdoppeln werde. Apps würden viel schneller als bisher starten, und auch anspruchsvolle Programme liefen flüssiger, versprach Software-Chef Craig Federighi. Wie beim iPhone soll ein spezieller Bereich zum Beispiel die Bildbearbeitung mit maschinellem Lernen verbessern.

Apple hat seine ersten Mac-Computer mit Chips aus eigener Entwicklung statt Intel-Prozessoren vorgestellt.

Apple stattete mit dem M1-Chip unter anderen das populärste Mac-Modell aus, das Macbook Air. Es kommt nun ohne einen Lüfter aus. Dank des sparsameren Chips halte die Batterie 15 Stunden Surfen im Web und 18 Stunden Videowiedergabe stand. Das Macbook Air ist der populärste Apple-Computer.

Außerdem bekommen auch das leistungsstärkere Macbook Pro mit 13-Zoll-Display und der Tischrechner Mac Mini den neuen Apple-Prozessor. Beim Macbook Pro spricht Apple von 17 Stunden Surfzeit und 20 Stunden Videowiedergabe. Beim Mac Mini und dem Macbook Pro behält Apple zunächst auch Modelle mit Intel-Chips im Angebot – das Macbook Air gibt es beim Konzern dagegen nur noch mit dem M1. Äußerlich sehen die Geräte aus wie bisher.

Das Ende der Intel-Vorherrschaft?
Apple bricht mit dem Umstieg aus der eingefahrenen Spur der PC-Branche aus, die bisher von Intel-Prozessoren dominiert wurde. Die M1-Chips basieren auf der Architektur des Chipdesigners ARM, mit der auch die iPhones und iPads laufen. Damit können die Entwickler auch iPhone-Apps auf die Macs bringen.

Ursprünglich auf Intel-Prozessoren zugeschnittene Mac-Programme, die noch nicht für die Apple-Chips angepasst wurden, sollen unterdessen in Echtzeit „übersetzt“ werden. Dabei gebe es keine Leistungseinschränkungen, betont Apple. Weiterhin mit Intel-Chips ausgestattet bleiben vorläufig die iMac-Modelle und der Profi-Rechner Mac Pro.

Neben dem neuen Betriebssystem macOS Big Sur und Apple-eigenen Apps wie der Videobearbeitungssoftware Final Cut Pro werden kurzfristig auch Programme von Drittherstellern die neuen Möglichkeiten des M1-Systems direkt ausnutzen, darunter Fotobearbeitungssoftware von Adobe und Computer-Spiele.

Umstieg kommt wenig überraschend
Der Umstieg kündigte sich bereits seit einiger Zeit an. Auf iPhone und iPad war es Apple gelungen, durch hauseigene Chipentwicklung viel Leistung in kleines Format zu packen. Beim Mac musste der Konzern dagegen wiederholt auf neue Prozessoren von Intel warten. Bei der Ankündigung des Umstiegs im Juni hieß es, er solle binnen zwei Jahren alle Modelle erfassen.

Für die Macs ist es der dritte Wechsel der Chip-Plattform nach dem Übergang von Motorola zu IBMs PowerPC Anfang der 1990er Jahre und zu Intel im Jahr 2005.

Die Frage ist nun, ob Apples Beispiel in der Branche Schule machen könnte, wenn die M1-Macs ihren Nutzern einen spürbaren Vorteil gegenüber Computern anderer Hersteller mit Intel-Chips bieten können. Unter anderem Microsoft und Samsung haben bereits Laptops mit Chips auf Basis der ARM-Architektur im Angebot, sie blieben bisher aber eher Nischenmodelle. Neuer Schub könnte von dem chinesischen Technologiekonzern Huawei ausgehen. Wegen der von US-Präsident Donald Trump verhängten Sanktionen versuchen die Chinesen ohnehin, eine eigene Chipproduktion aufzubauen.

Goethe, Trump und die Mathematik

Zur Bedeutung der Mathematik in der digitalen Bildung

(Ulrich Trottenberg) –  Goethe und Trump in einem Atemzug? Eines der größten literarischen Genies der Geschichte und die Inkarnation der aggressiven Ignoranz – die haben doch gar nichts gemeinsam, sollte man meinen. In einem Bereich leider doch: Beide hatten und haben ein sehr distanziertes Verhältnis zur Mathematik und zur mathematischen Wahrheit. Bei Trump, der in einer selbst geschaffenen narzisstischen Realität lebt, bedarf das vielleicht keiner genaueren Erläuterung, weil man weiß, wie er ganz allgemein mit der Wahrheit und mit Erkenntnissen der Naturwissenschaften umgeht. Aber Goethe – der mit seinen naturwissenschaftlichen Studien mehr Zeit verbracht hat als mit seiner Dichtung und dem zum Beispiel seine Farbenlehre besonders wichtig war? Die Elementarmathematik hat Goethe gelten lassen und wohl sogar geschätzt, aber über die „Höhere Mathematik“ und die Mathematiker (und Physiker) hat er gespottet: „Dass aber ein Mathematiker, aus dem Hexengewirr seiner Formeln heraus, zur Anschauung der Natur käme und Sinn und Verstand, unabhängig, wie ein gesunder Mensch brauchte, werd‘ ich wohl nicht erleben.“

Wir wollen der Frage, was Goethe zu dieser Geringschätzung der Mathematik veranlasst hat, hier nicht weiter nachgehen. Uns interessiert vielmehr die Frage, was heute los ist. Heute ist geradezu alles, was in der Welt an prinzipieller und an konkreter Erkenntnis gewonnen und an Innovation erreicht wird, wesentlich durch Mathematik geprägt: jede technische und naturwissenschaftliche Entwicklung, jedes Gerät, jeder Algorithmus hat zumindest auch eine mathematische Dimension. Das hat aber nicht etwa zur Folge, dass die heutigen Menschen in ihrer Mehrheit von der Mathematik fasziniert wären – bei den meisten, jedenfalls bei sehr vielen Menschen lösen mathematische Themen auch heute noch eher Unbehagen und unangenehme Erinnerungen an die Schule aus als Interesse und Begeisterung. Und auch heute erlebt man in der Öffentlichkeit, in TV-Shows, in den Medien, ja sogar in der Politik noch immer die augenzwinkernde Koketterie mit dem zur Schau gestellten und durch schlechte Schulleistungen nachgewiesenen Desinteresse an Mathematik.

Mathematik hat beides, die abstrakte und die angewandte Seite. Für viele Fachleute und Interessenten ist die abstrakte Seite der Mathematik von faszinierender Schönheit. Einer großen Öffentlichkeit hat sich die Schönheit der Mathematik aber gerade in Deutschland nicht vermittelt. Und das mag in der Tat damit zusammenhängen, dass die meisten Menschen im „Land der Dichter und Denker“ Schönheit eher in der Natur, in der Kunst und in der traditionellen Kultur suchen und finden – als in etwas scheinbar Unsinnlichem wie der Mathematik. Und dafür steht eben Goethe und nicht etwa Gauss – auch wenn Daniel Kehlmann mit „Die Vermessung der Welt“ Gauss ein Stück weit ins reale Leben geholt hat. Die Mathematik als Hochkultur, gar Liebe zur Mathematik – das scheint dann doch eher eine Emotion für einen kleinen Kreis von weltabgewandten Spezialisten zu sein.

Mit der angewandten Seite der Mathematik werden wir dagegen täglich durch eine Fülle naturwissenschaftlicher Erkenntnisse und Gesetzmäßigkeiten konfrontiert. Noch eindrücklicher erleben wir die angewandte Mathematik in diesen Jahren und Jahrzehnten aber in den rasanten Entwicklungen der Technik, insbesondere in der sich immer weiter beschleunigenden Digitalisierung. Die digitalen Entwicklungen bieten faszinierende Möglichkeiten der Zukunftsgestaltung, in allen technischen und ingenieurwissenschaftlichen Disziplinen und damit in einer auf vielfältige Weise innovativ geprägten Welt. Aber auch für die persönliche Lebensgestaltung und –vorsorge, etwa durch die individualisierte, datenintensive Medizin der Zukunft, deuten sich großartige Chancen an. Dass trotz dieser vielversprechenden Perspektiven die digitalen Entwicklungen ethisch und politisch gesteuert und rechtlich kontrolliert werden müssen, sollte gesellschaftlicher Konsens sein. Gerade in Deutschland haben aber die ängstlichen, überkritischen, bisweilen dystopischen Einschätzungen der Technologieentwicklung ein besonderes Gewicht– bis hin zum endzeitlichen Bild der Übernahme der Welt durch sich selbst weiterentwickelnde robotische Maschinen. Auch wenn die prinzipiell wertfreien Modelle der Mathematik dabei für beides stehen, für Utopie und Dystopie, sie werden vielen Menschen eher mit der düsteren als mit der beglückenden Zukunft assoziiert.

Dies sind Beschreibungen, keine Erklärungen für die sich von Mathematik distanzierende Koketterie, das Desinteresse, die Abneigung, den Hass auf die Mathematik. Was sind die Gründe? Ist es vielleicht der (schlechte) Mathematik-Unterricht, der eine positive Beziehung zur Mathematik in so vielen Fällen so nachhaltig stört? Tatsächlich gibt es viele hochkompetente und hochengagierte Mathematiklehrerinnen und –lehrer in deutschen Schulen. Andererseits hat der Autor es in seinen Seminaren und bei vielen anderen Gelegenheiten leider immer wieder erleben müssen, dass die Lehrerinnen und Lehrer versuchen, den Schülerinnen und Schülern mathematische Zusammenhänge zu „erklären“, die sie selbst nicht verstanden haben. Und das ist dann wirklich verheerend und meist das Ende jeder mathematischen Bildungsbemühung. Solche gravierenden Fehler werden oft nur hochbegabten Schülerinnen und Schülern durchschaut.

Auch in diesen Jahren und Tagen spielt das Thema „mathematische Bildung“ wieder eine aktuelle Rolle. Es kommt über die digitale Bildung ins Spiel. Digitale Bildung, darüber sind sich alle Akteure einig, ist eins der wichtigsten politischen Ziele überhaupt, Deutschland hat hier einen extremen Nachholbedarf. Aber sofort stellt sich die Frage: Was sind denn die Ziele der digitalen Bildung? Wofür sollen die Milliarden €, die seit einigen Jahren den Ministerien, Schulen, Lehrerinnen und Lehrern zur Verfügung stehen, denn ausgegeben werden? Eine einfache (und richtige) Antwort ist: für Vernetzung, für die Ausstattung mit Hardware – darüber wird man sich schnell einig (auch wenn sich die Beschaffung als solche dann vielleicht über Jahre hinzieht und die Geräte schnell wieder veralten). Aber dann? Was sind dann – wenn die Ausstattung vorhanden ist und die Arbeit anfangen kann – die Inhalte des digitalen Unterrichts? Öffentlich diskutierte Ziele sind insbesondere: Medienkompetenz, Programmierkenntnisse, Grundlagen der Informatik usw. – und immer wieder Medienkompetenz. Von mathematischen Inhalten ist in der öffentlichen und politischen Diskussion kaum die Rede.

Die Substanz alles Digitalen sind die Algorithmen. Aber dass Algorithmen immer auch einen mathematischen Kern haben, wird so deutlich nicht gesagt. Kurios ist, dass gerade in Deutschland Informatik ein sehr positives Image hat, Mathematik aber ein überwiegend negatives. Sachlich ist das nicht begründet: Informatik und Mathematik haben einen großen Überlappungsbereich. Einige meiner führenden Kollegen machen gar keinen Unterschied zwischen den beiden Disziplinen. Und tatsächlich sind es gerade die Algorithmen, von denen man oft gar nicht sagen kann, ob sie eher der Mathematik oder der Informatik zuzuordnen sind. Gerade in den neuesten Entwicklungen wachsen zum Beispiel Algorithmen, die eher mit Daten umgehen und daher traditionell eher der Informatik zugeordnet werden, und Algorithmen, in denen überwiegend gerechnet wird und die daher eher der Mathematik zugeordnet werden, methodisch immer stärker zusammen. Die Algorithmen der Künstlichen Intelligenz und des Maschinellen Lernens sind dafür besonders markante Beispiele.

Insofern eröffnet die systematische Beschäftigung mit den grundlegenden Prinzipien traditioneller und aktueller Algorithmen eine große Chance, die Mathematik von ihrem negativen Image zu befreien und Mathematik und Informatik als zwei Seiten einer Medaille zu begreifen. Und wenn dieses Zusammenspiel schon in der Schule praktiziert und verstanden wird, hat Deutschland auch eine Chance, methodisch Anschluss an die internationale digitale Entwicklung zu finden.

China: Unlautere Konkurrenz beim Export gegen deutsche Automobilhersteller

(Business-Insider) – Während Tesla zum Vorzeigerivalen deutscher Autobauer wie VW, BMW und Mercedes angewachsen ist, plant die chinesische Regierung neuesten Berichten zufolge einen Großangriff auf die hiesige Autobranche.
So schreibt das Fachmagazin „Automobil Industrie“ von einem 15-Jahres-Plan, mit dem die chinesische Regierung dessen Autobauer zu mehr Export – vor allem nach Europa – bewegen soll.
Für die Expansion in den Westen erhalten die chinesischen Fahrzeughersteller Unterstützung vom chinesischen Staat in Form von „Anleitungen“.

In dem europäischen Elektroauto-Land Nummer eins, Norwegen, ist Tesla in diesem Jahr auf Platz sechs abgerutscht, nachdem das Unternehmen noch im vergangenen Jahr den ersten Platz belegte. Verdrängt wurden die kalifornischen E-Autos vor allem von Audi und VW. Der Audi e-Tron konnte auf den ersten Platz vorrücken, VW bekleidet mit dem e-Golf und dem ID.3 die Plätze zwei und drei – Hyundai und Nissan belegten die Plätze vier und fünf.

Energieperspektiven

(DPG) – Ein so komplexes System wie den Strom- oder sogar den Energiemarkt auf eine neue Basis zu stellen, ist eine gewaltige Herausforderung, die umsichtiges Planen und Handeln erfordert. „Neue technologische und systemische Ansätze können die Umsetzung der Energiewende zielführend unterstützen“, ist sich der Präsident der Deutschen Physikalischen Gesellschaft (DPG), Lutz Schröter, aber sicher. Mit fünf Faktenblättern beleuchtet die DPG nun einige Aspekte, die für das Gelingen der Energiewende wichtig sind.

Ein wesentliches Element einer langfristig erfolgreichen Energiepolitik ist die Einbeziehung des internationalen Energiemarktes. Lebt Deutschland doch seit vielen Jahrzehnten von Energieimporten: sei es die Steinkohle aus Australien, das Öl aus dem Nahen Osten oder das Gas aus Russland. Auch erneuerbare Energien werden wegen unterschiedlicher Standortbedingungen zum Teil aus dem Ausland bezogen werden müssen. Daher sind neben der Entwicklung verbesserter und neuer Technologien entsprechende Handels- und Wirtschaftsbeziehungen auch in Zukunft von größter Bedeutung. Die nun vorgelegten Physikkonkret-Ausgaben geben dazu Denkanstöße. Sie entstanden im Rahmen des Jubiläums 175 Jahre Deutsche Physikalische Gesellschaft, dessen 4. Quartal unter dem Motto „Klima und Energie“ steht, und beleuchten die Themen Wärmepumpen, LEDs, Stromspeicher, Fusion sowie grundlegende Aspekte der Energiewende.

Aluminium-beschichtete Zeolith-Perlen lösen Problem der Wärmespeicherung – Mit einer Einleitung von Jean Pütz

55% des Energieverbrauchs in Deutschland geht auf das Konto der Wärmeerzeugung und damit weitgehend des CO2-Ausstoßes. Dieser Bereich ist bisher von der Grünen-Ideologie völlig vernachlässigt worden. Bisher wurde aber hauptsächlich am Verkehrssektor herum, bei dem unsere privaten Autos nur 6-8% am deutschen CO2-Ausstoß ausmachen. Wenn Klimarettung, dann müssten logischerweise der Schwerpunkt auf den Wärmesektor gelegt werden durch entsprechende Wärmeschutzverordnungen im Gebäudesektor. Das ist bisher aber sträflich vernachlässigt worden. Ein Problem bildete vor allen Dingen die Direktspeicherung von Wärmeenergie, um diese später abzurufen. Dieses scheint mit beschichtetem Zeolith jetzt möglich zu werden im Sommer, über Thermo-Solar-Kollektoren wird die Wärmeenergie für den Winter abrufbar. Dies eröffnet ungeahnte Aussichten.
Dazu der folgende Artikel des Fraunhofer-Instituts. Die Fraunhofer-Gesellschaft ist insofern unentbehrlich, weil sie sich den Forschungsschwerpunkt der unmittelbaren Umsetzung des Ergebnisses auf die Praxis als Aufgabe gesetzt haben.

Ihr Jean Pütz

(Fraunhofer) – Die Heizperiode in Deutschland hat wieder begonnen und gerade im Sinne der Energiewende rücken Konzepte für effektive Wärmenutzung und Wärmespeicher mit flexiblen sowie hohen Speicherkapazitäten in den Fokus. Zeolith-Wärmespeicher bieten hier hohes Potenzial, krankten bisher aber noch an einem schlechten Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP hat innerhalb des vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projektes ZeoMet (FKZ 100346109) einen neuen Weg gefunden, Zeolith-Granulat so zu beschichten, dass ein effizienter Wärmeübergang ermöglicht wird.

Die Heizperiode in Deutschland hat wieder begonnen und gerade im Sinne der Energiewende rücken Konzepte für effektive Wärmenutzung und Wärmespeicher mit flexiblen sowie hohen Speicherkapazitäten in den Fokus. Zeolith-Wärmespeicher bieten hier hohes Potenzial, krankten bisher aber noch an einem schlechten Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP hat innerhalb des vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projektes ZeoMet (FKZ 100346109) einen neuen Weg gefunden, Zeolith-Granulat so zu beschichten, dass ein effizienter Wärmeübergang ermöglicht wird.

Wärme repräsentiert 55 % des Endenergieverbrauchs in Deutschland und spielt deshalb für die Energiewende eine ganz entscheidende Rolle. Neben dem Primat der Vermeidung oder zumindest Minimierung von Wärmeverlusten erfordert die effektive Wärmenutzung auch geeignete Speicher, um den zeitlichen oder räumlichen Versatz von Erzeugung und Bedarf zu überbrücken. Hohe Flexibilität und Speicherkapazität versprechen hier Zeolith-Wärmespeicher, bei denen die Energie in Form von adsorbiertem Wasserdampf im Inneren des hochporösen Materials gebunden ist. Ein temporär anfallender Wärmeüberschuss, etwa aus einer Solarthermie-Anlage im Sommer oder aus Abwärme produzierenden industriellen Prozessen, der zeitversetzt für Heizzwecke z. B. im Winter benötigt wird, kann zur Trocknung des Zeolith-Granulats genutzt werden, was einer Beladung des Speichers entspricht. Wird dem Material Wasserdampf zugeführt, kann die Adsorptionsenergie wieder als Wärme freigesetzt und so für Heizzwecke genutzt werden. Während der Speicherung liegt die Energie nicht in Form von Wärme vor, unterliegt damit auch nicht den unvermeidbaren schleichenden Verlusten durch Wärmeableitung, wodurch längere Speicherintervalle möglich werden als bei der direkten (sensiblen) Wärmespeicherung, beispielsweise in Wasserspeichern.

Ein bislang nicht gelöstes Problem des Sorptionsspeicherkonzepts ist der Wärmeübergang zwischen Speichermaterial und Wärmetauscher. Hohe Wärmeübergangswiderstände zwischen Wärme zu- und abführenden metallischen Strukturen und dem als Granulat vorliegenden Zeolith sowie in der Zeolith-Schüttung selbst behindern eine effektive Be- bzw. Entladung. Versuche, Zeolith-Material direkt als dicke Schicht auf metallische Träger aufzubringen, scheitern an der mangelnden Zyklen-Stabilität dieses Metall-Mineral-Verbundes. Bei Zeolith-gefüllten Metallrohren ist das Volumenverhältnis von Träger- zu Speicher-Material dagegen unbefriedigend.

Einen neuen Weg beschreitet das Fraunhofer FEP in dem vom Sächsischen Staatsministerium für Wirtschaft, Arbeit und Verkehr geförderten Projekt ZeoMet: Zeolith-Granulat wird in einem Drehtrommelverfahren im Vakuum metallisiert und erhält so eine dünne Aluminium-Schicht (< 0,1 mm).

Projektleiterin Dr. Heidrun Klostermann erklärt: „Der Wärmeübergang ist somit für jedes einzelne Pellet und auch zwischen den Pellets durch die hohe thermische Leitfähigkeit von Aluminium gesichert. Wir konnten in Messungen bereits nachweisen, dass das poröse Grundmaterial durch offene Kanäle in der Schicht für Wassermoleküle dennoch zugänglich und die Sorptionskapazität des Granulats erhalten bleibt.“ Damit ist der Wärmeübergang an der Be- und Entladestelle ebenso gesichert wie der Wärmetransport in der Schüttung zwischen den metallisierten Pellets. Auch ein Versintern des metallisierten Granulats zu größeren Baueinheiten wird möglich.

Aktuell befassen sich die Wissenschaftler des Fraunhofer FEP mit Skalierungsuntersuchungen bei Verwendung unterschiedlicher Granulat-Körnungen und -Beschaffenheiten, um auf spezifische Anforderungen unterschiedlicher Speicheranwendungen reagieren zu können. Interessierte Industrieunternehmen sind eingeladen, mit den verantwortlichen Wissenschaftlern Kontakt aufzunehmen. Gern erläutern diese die Möglichkeiten und Potenziale der Technologie und suchen die Diskussion, um weitere Arbeiten praxisorientiert und industrierelevant zu gestalten.

Flüssiges Methanol als Alternative zu gasförmigem Wasserstoff – Mit einem Vorwort von Jean Pütz

Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Aber es gibt eine interessante Alternative. Da spielt wieder die Sonnenenergie und noch zu entwickelnde spezielle Katalysatoren eine Rolle. Man kann auf diese Weise daraus Methanol gewinnen. Allerdings benötigt man dazu wiederum CO2, denn der darin enthaltene Kohlenstoff bindet die Wasserstoff-Atome an sich, so dass der Wasserstoff quasi auf elegante Weise verflüchtigt wird. Wenn dann auch noch das CO2 aus der Atmosphäre entnommen wird – was allerdings sehr aufwändig ist, oder aus recyceltem CO2 aus dem Abgas von nicht zu vermeidenden Verbrennungsmotoren oder mit Erdgas betriebenen Heizungsanlagen, dann ist es möglich, dieses Methanol völlig regenerativ und CO2-frai zu gewinnen.

Im folgenden Artikel wird eine Methode beschrieben, die – um Wasserstoff effizient in Brennstoffzellen einsetzen zu können – es wieder in Wasserstoff zurückgewandelt wird. Dann fragt man sich, warum es nicht auch direkt in vorhandenen Verbrennungsmaschinen eingesetzt werden kann. Die dabei entstehenden geringen Restmengen an CO2 können sogar recycelt werden, so dass das zu einem völlig CO2-freien Nullspiel wird. Dazu ist allerdings Technologie-Offenheit erforderlich und nicht die Verbots-Ideologie.

Brennstoffzellen, die einigermaßen einen hohen Wirkungsgrad entwickeln, bedürfen Betriebstemperaturen von über 800°C, so dass der praktische Vorteil gegenüber Verbrennungsmotoren verschwindet. Trotzdem möchte ich Ihnen den folgenden Artikel nicht vorenthalten.

Jean Pütz

(Ing) – Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Falls im nächsten Jahr die ersten Serienautos mit Brennstoffzelle auf den Straßen rollen, könnte es bis dahin an der Zapfsäule schon eine Alternative zu Wasserstoff in Gasform geben: flüssiges Methanol. Wiener Forscher entschlüsseln derzeit die Rätsel der Katalysatoren, die Methanol während der Fahrt in ein Gemisch aus CO2 und molekularem Wasserstoff umwandeln.

Automobilbauer weltweit forschen an Alternativen zum klassischen Otto-Motor. Als umweltfreundliche Antriebstechnik gilt die Brennstoffzelle. Sie gewinnt Reaktionsenergie, indem sie Wasserstoff und Sauerstoff in Wasser umwandelt. Aus dem Auspuff strömt lediglich harmloser Wasserdampf. Der japanische Autobauer Toyota will bereits nächstes Jahr den FCV auf die Straße schicken. Der Wasserstofftank soll hinter der Rückbank des Brennstoffzellenautos installiert sein und sich in drei bis fünf Minuten betanken lassen – ein wesentlicher Vorteil zur längeren Ladezeit der Elektromotoren.

Doch das Tanken mit Wasserstoff sorgt bei vielen potentiellen Nutzern für Unbehagen. Denn das Gas zischt solange durch den Schlauch der Zapfsäule, bis im Druckgastank ein gewaltiger Druck aufgebaut ist. Bis zu 700 bar herrschen im Inneren – das über Deihundertfache des üblichen Reifendrucks. Eine Größenordnung, bei der viele Interessenten an eine rollende Bombe denken.

Brennstoffzellen-Autos könnten auch flüssiges Methanol tanken
Wasserstoff für Brennstoffzellenautos muss man allerdings nicht zwangsweise in Gasform tanken. Eine Alternative ist flüssiges Methanol. Es lässt sich während der Fahrt wieder in Wasserstoff und Kohlendioxid zerlegen. Bei dieser sogenannten Dampfreformierung spielen Metallkatalysatoren eine Schlüsselrolle, die Forscher an der Technischen Universität in Wien derzeit untersuchen. Denn nur mit dem richtigen Katalysator entsteht aus Methanol und Wasserdampf ein reines Gemisch aus CO2 und molekularem Wasserstoff, das kein für die Brennstoffzelle gefährliches Kohlenmonoxid enthält.

Besonders kompliziert sind die Prozesse an der Katalysatoroberfläche. „Unterschiedliche Atom- und Molekülsorten sind beteiligt“, erklärt Forscherin Karin Föttinger, die im Spezialforschungsbereich Foxsi der TU Wien arbeitet. „Oft ist schwer zu sagen, welche für die Reaktion wichtig sind, und welche untergeordnete Rollen spielen.“

Forscher kommen Geheimnissen der Katalysatoren auf die Spur
Während sich viele Experten in der Industrie noch nach dem Schema Versuch und Irrtum an die richtige Zusammensetzung der Katalysatoren herantasten, geht die TU Wien einen Schritt weiter. Mit modernen spektroskopischen Methoden untersucht Föttinger, wie Reaktionen am Katalysator im Detail ablaufen. Ihr Kollege Christoph Rameshan trennt die einzelnen Komponenten und analysiert sie in Modellsystemen einzeln. So können die Forscher nachvollziehen, was genau bei den komplizierten chemischen Prozessen an der Katalysator-Oberfläche passiert.

Als Katalysatoren kommen übrigens meist winzige Nanopartikel aus Metall zum Einsatz – oft aus Palladium. Sie sitzen auf Metalloxid-Oberflächen wie Zinkoxid. Heiß diskutiert war in den letzten Jahren die Frage, ob das Oxid oder das Reinmaterial für die Katalyse zuständig ist. Föttinger gibt jetzt eine Antwort: „Unsere Messungen zeigen: Man braucht beides.“ Kollege Rameshan konkretisiert: „Das Oxid ist wichtig für die Wasseraktivierung, für die Aufspaltung der Wassermoleküle. Das Metall hingegen ist wichtig für die Aufspaltung des Methanols.“

 

Atomkraft wieder im Vormarsch? Sie soll Sonne-  und Wind-Kraft ergänzen können! – Mit einer Einführung von Jean Pütz

Diesen Beitrag gebe ich unter Vorbehalt weiter, aber allenthalben in der Welt wird an neuen Kernreaktorkonzepten geforscht, vor allen Dingen deshalb, weil die sinnvoller Weise bevorzugte Energiequelle Wind und Sonne nur unstet anfällt und die Speichermöglichkeit von Energie sehr begrenzt ist. Interessant dabei ist, dass der in Deutschland entwickelte und demontierte Kugelhaufen-Reaktor in den USA weiter entwickelt wird. Selbst in einem anderen Konzept ist sogar von Kühlung durch Natrium die Rede, dessen Bau als ’schneller Brüter‘ in Kalkar am Niederrhein wegen berechtigter Sicherheitsbedenken eingestellt wurde. Das dafür vorgesehene Gelände ist heute von Holländern zu einem Vergnügungspark umgewandelt worden.

Wenn ich das richtig beurteile, geht es vor allen Dingen um Hochtemperatur-Reaktoren, die einen höheren Wirkungsgrad versprechen, denn die bisher errichteten Side- und Druckwasser-Reaktoren erbrachten höchstens einen Wirkungsgrad von 20%. Zu bemerken ist dabei, dass Deutschland in seiner Phobie gegen Kernkraftwerke bis auf wenige Ausnahmen allein in der Welt steht. Sogar die Finnen sind im Begriff, ein neues Kernkraftwerk, allerdings alter Prägung zu errichten.

Jean Pütz

(heise) – Mit hohen Summen fördert das US-Energieministerium zwei neue Reaktor-Typen. Sie sollen ab 2027 sicheren Strom liefern – und unstete andere Quellen ergänzen.

Der „neue König“ in der weltweiten Stromerzeugung ist Photovoltaik, wie die Internationale Energieagentur vor kurzem in ihrem Jahres-Bericht 2020 feststellte, aber zumindest manche Länder sehen weiterhin auch eine Zukunft in Atomkraft. Dazu gehören zum Beispiel die USA: Hier hat das Energie-Ministerium (DoE) soeben die ersten 160 Millionen Dollar für die Errichtung von zwei neuartigen Kraftwerken freigegeben, die ab Ende 2027 laufen sollen. Insgesamt sind dafür mehrere Milliarden Dollar Förderung möglich – und einer der beiden neuen Reaktoren könnte eine gute Ergänzung zu immer mehr Strom aus Sonne und anderen erneuerbaren, aber unsteten Quellen werden.

Die beiden Unternehmen, die jetzt die DoE-Förderung im Rahmen des im Frühjahr gestarteten Advanced Reactor Demonstration Program erhalten, sind jung, aber dennoch alte Bekannte in der Nuklear-Szene: Terrapower wurde 2006 unter anderem von Bill Gates gegründet und bekam schon 2016 zusammen mit dem Partner Southern Energy 40 Millionen Dollar für die Weiterentwicklung eines neuen Reaktor-Designs. Und auch X-energy, gegründet 2009, wurde schon 2016 vom DoE mit derselben Summe bedacht.

Auch in den USA verzögern sich die noch laufenden Projekten für neue Atomkraftwerke immer wieder oder wurden ganz eingestellt, verabschiedet aber hat sich das Land von der Weiterentwicklung der Technologie nicht. In einem Artikel zu der neuen Förderung für Terrapower und X-energy scheint das DoE sogar so etwas wie Aufbruchstimmung zu signalisieren zu wollen: Nach Jahrzehnten seien die USA jetzt endlich bereit, bei der Demonstration von fortgeschrittenen Reaktoren den nächsten Schritt zu gehen, heißt es darin. Dafür bestehe überparteiliche Unterstützung im US-Kongress, und insgesamt könnten die beiden Projekte 3,2 Milliarden Dollar bekommen.

Beide jetzt geförderten Designs unterscheiden sich von heutigen Atomkraftwerken, werden aber selbst zum Teil schon seit Jahrzehnten mit Rückschlägen erforscht und entwickelt. X-energy will einen so genannten Kugelhaufen-Reaktor bauen, bei dem der Uran-Brennstoff in Grafit-Kugeln eingekapselt ist. Ein größerer Vorrat wird so sehr langsam verbraucht.

Außerdem hat das Konzept von X-energy zwei weitere Besonderheiten. Zur Kühlung und Wärme-Übertragung dient statt Wasser Helium, was höhere Dampf-Temperaturen und somit Wirkungsgrade ermöglicht. Und der Reaktor Xe-100 ist modular aufgebaut und soll später in Fabriken vorgefertigt werden; für das DoE-Projekt sind vier Einheiten mit zusammen 320 Megawatt Leistung vorgesehen.

Zudem lässt sich das erhitzte Flüssigsalz nicht nur sofort zur Stromerzeugung im Generator verwenden, sondern auch später – alternativ kann man es zunächst in Tanks speichern. Die eigentliche Reaktor-Leistung bei dem geplanten Terrapower-Demonstrator beträgt 345 Megawatt, aber mit genügend heißem Salz im Speicher kann sie bis zu fünf Stunden lang auf 500 Megawatt erhöht werden, wie Greentech Media erklärt Auch der Reaktor von X-energy soll in der Lage sein, seine Stromproduktion an den Bedarf am Markt anzupassen. Terrapower geht mit dem Salz-Speicher aber noch einen Schritt weiter, weil sich der für noch mehr Leistung verwenden lässt.

Derlei Flexibilität wird heute vielleicht noch stärker gebraucht als die fast schon berühmte Grundlastfähigkeit von Atomreaktoren: Weltweit wächst der Anteil von erneuerbaren Quellen an der Stromerzeugung, die dadurch insgesamt unstetiger wird. Bislang wurden deshalb schnelle Gas-Kraftwerke in Reserve gehalten und zunehmend große Akku-Speicher gebaut. Doch wenn die Pläne von Bill Gates‘ Atom-Unternehmen jetzt aufgehen, wäre auf gewisse Weise auch Atomkraft im Erneuerbaren-Zeitalter angekommen.

 

Automobilindustrie am Abgrund? – Krise durch Politik verursacht

Auszug aus einem Gespräch von ‚Morning Briefing‘ , Gabor Steingart,mit dem Aufsichtsratsvorsitzenden von Continental, Wolfgang Reitzle, einem wichtigen Automobilzulieferer, der mehrere Werke in Deutschland schließt und Zehntausende von Arbeitsplätzen abbaut

Er schreibt die Krise der Automobilindustrie vor allen Dingen der zu schnellen und unnötigen Verdammung des Verbrennungsmotors zu.

(Morning Briefing) – Man zerstört politisch die Autoindustrie, die noch immer 99 Prozent ihrer Wertschöpfung durch Autos mit Verbrennungsmotor generiert. Man treibt Hersteller und Kunden zu früh in die noch nicht wirklich marktreife E-Mobilität. Ergebnis: Wir müssen Fabriken schließen und Arbeitsplätze abbauen.

Die Gründe dafür erklärt er folgendermaßen:

Grund Nummer eins:
Wir hatten zehn Jahre Boom. Mitte 2018 ging es schon leicht bergab, 2019 kam dann die starke Rezession der Weltautoindustrie. Wir kommen von 95 Millionen Einheiten und werden dieses Jahr bei 70 Millionen landen. Das sind knapp 30 Prozent weniger, das kann kein Industrieunternehmen ohne Kostenanpassung verkraften.

Grund Nummer zwei:
Ab März kam Corona dazu, und dann haben wir die Abgasgesetzgebung, die erzwingt geradezu einen Break. Und dann kommen die Politiker und diffamieren noch obendrauf den Verbrenner unnötig früh, sodass uns einfach die Anpassungszeit fehlt.

 

Warum Tesla Prügel einstecken muss

Der Kurs der Tesla-Aktien bricht ein, 80 Milliarden Dollar Börsenwert werden in wenigen Stunden vernichtet. Wie konnte es dazu kommen?

(ntv) – Das nennt man wohl einen jähen Absturz: Der Aktienkurs von Tesla stürzte gestern um mehr als 20 Prozent ab. Der Börsenwert des Elektroauto-Pioniers schrumpfte damit um satte 80 Milliarden Dollar – das ist mehr als die Marktkapitalisierung von Ford und General Motors (GM) zusammen. Was ist da los?

In der vergangenen Woche hatte die Aktie mit rund 502 Dollar noch ein Rekordhoch erreicht, doch nun ging es rapide bergab. Als Auslöser nach der rasanten Rallye gilt, dass Tesla überraschenderweise doch nicht zum 21. September in den viel beachteten S&P-500-Index aufgenommen wird. Viele Fonds bilden die Zusammensetzung dieses Leitindizes nach und hätten sich bei einer Tesla-Aufnahme kurzfristig mit den Aktien eindecken müssen, was für steigende Kurse gesorgt hätte.

Nikola-Kurs geht durch die Decke
Die Nichtaufnahme war Anlass für Investoren, die auf ein Kursplus gewettet hatten, ihre Aktien zu verkaufen. Außerdem dürften sich einige Fonds schon vorab positioniert haben. Auch die lösen ihre Tesla-Positionen nun auf. Für den Kursrutsch sorgte auch die Begründung für den verweigerten Einlass: Der Index-Anbieter gab Firmen den Vorzug, die an der Börse zwar deutlich weniger wert sind als Tesla, aber häufiger Quartalsgewinne erwirtschaften. Außerdem sprach gegen Tesla, dass die Aktie extrem schwankungsanfällig ist.

Ein weiterer Grund für den Absturz: Viele Anleger dürften die Gelegenheit genutzt haben, nach den heftigen Kursgewinnen der vergangenen Woche auszusteigen. Hinzu kommt die Nachricht, dass GM beim Tesla-Konkurrenten Nikola einsteigt. Das Modell „Badger“ des Spezialisten für Elektro-Pickups soll dem „Cybertruck“ von Tesla Konkurrenz machen. GM wird den Pick-up-Truck fertigen. Die Aktien von Nikola schossen daraufhin zeitweise mehr als 50 Prozent nach oben, GM-Titel legten gut zehn Prozent zu.

Für Tesla wird es heute wahrscheinlich weiter bergab gehen. Die Aktien liegen vor Börsenstart in den USA mit 1,8 Prozent im Minus.

Corona-Krise setzt der Autobranche als Wirtschaftsmotor Deutschlands zu

(Business Insider) – Deutschland galt bislang als das Autoland. Doch die Branche scheint immer mehr den Wandel zu verschlafen: Was neue Antriebsformen wie Wasserstoff, Elektrostrom oder selbstfahrende Autos angeht, hinkt die deutsche Industrie noch hinterher.

Wie die Zukunft der Autoindustrie in Deutschland aussehen soll, wird am Dienstag beim großen Autogipfel per Videochat besprochen. Dazu lädt Bundeskanzlerin Angela Merkel (CDU) neben ihren Ministern auch die Ministerpräsidenten der Länder Baden-Württemberg, Bayern und Niedersachsen, die Vorsitzenden von Volkswagen, BMW und Daimler, die Hauptzulieferer wie Continental und Bosch und die Arbeitnehmervertretung ein.

Die Autoindustrie ist in Deutschland mit Abstand die wichtigste Branche für das Wirtschaftswachstum. Durch Einschnitte wie den Dieselskandal oder die strikte Limitierung von CO2-Emissionen ist die Branche allerdings angeschlagen. In Zeiten der Corona-Krise gilt dies noch mehr.

Die Branche gilt nicht länger als Wachstumslokomotive für Deutschland
Trotz der Pandemie steht die Autobranche weiterhin an der Spitze der deutschen Industrie und stützt noch immer diverse weitere Gewerbe: Das zeigt nun eine Studie des Instituts der deutschen Wirtschaft (IW), die dem „Handelsblatt“ vorliegt. Nichtsdestotrotz sei die Autoindustrie laut Studienautor Thomas Puls von der Pandemie im Branchenschnitt „hart getroffen“ worden, schreibt die Zeitung. So seien die internationalen Lieferketten durch einen Angebots- und später einen Nachfrageschock erschüttert worden. Die Branche müsse sich deshalb erst einmal regenerieren.

Die Ökonomen sagen, dass die Branche zudem viele Arbeitsplätze kürzen müsse, weshalb sie „als Wachstumslokomotive für den Standort Deutschland zunächst ausfalle“. Da beim Beschluss des Konjunkturpaktes gegen eine Abwrackprämie gestimmt wurde, verlangen die Ministerpräsidenten der Autoländer nun anderweitig Unterstützung. Markus Söder (CSU) positionierte sich etwa gegen den Plan, die auf 16 Prozent gesenkte Mehrwertsteuer wieder zu erhöhen und spricht sich zudem für eine „CO2-Prämie“ aus.

Der Vorsitzende der IG Metall Nordrhein-Westphalen, Knut Giesler, will dagegen eine Vier-Tage-Woche für seine Arbeitnehmer, damit diesen mehr Zeit zur Verfügung steht, um sich weiterzubilden, berichtet das „Handelsblatt“. So solle vor allem dem Abbau von Arbeitsplätzen entgegengewirkt werden.

Dabei hängen vor allem viele Arbeitsplätze an der Branche: Die Autoindustrie beschäftigt allein 936.00 Menschen in Deutschland und 808.000 Angestellte in der EU und macht rund 38,9 Milliarden Euro Umsatz.

Besonders kleine Zulieferer sind betroffen
Laut Studienautor Thomas Puls treffe die Pandemie die Produzenten sowie kleinere und größere Zulieferer unterschiedlich stark. Denn Corona wirkt ihm zufolge „wie ein Brandbeschleuniger auf die ohnehin stattfindende Veränderung hin zu mehr Elektronik und der Elektrifizierung der Fahrzeuge“.

Kleine und mittelständische Zulieferer, die bisher auf Teile für Verbrenner spezialisiert waren, seien besonders stark von der Krise betroffen. Das lege der IW-Bericht nahe, wie das „Handelsblatt“ schreibt. Sie konnten in der Vergangenheit aufgrund des Margendrucks seitens der Produzenten nichts zurücklegen. Deshalb stehen sie nun vor dem Problem, dem neuen elektrifizierten Antriebstrend nicht folgen zu können. Durch die Umstellung auf E-Autos wird der Markt folglich immer kleiner und die Zahl der Arbeitsplätze sinkt. Die betroffenen Mittelständler machen dabei rund 50 Prozent der gesamten Branche aus.

Hinzu komme das Problem, dass die Autohersteller immer mehr selbst produzieren, wodurch die Nachfrage bei den Zulieferern sinkt.

Deshalb müssen sogar mittelgroße und erfolgreiche Betriebe wie der zweitgrößte Autozulieferer Continental auf die finanzielle Bremse treten. Denn bei geringer Nachfrage werden die hohen Produktions-Fixkosten nicht gedeckt. Deshalb will das Unternehmen ein im September 2019 gestartetes Sparprogramm nun noch einmal ausweiten. Dadurch sollen Kosten von einer Milliarde Euro pro Tag gespart werden, schreibt das „Handelsblatt“.

Das bedeute gleichzeitig auch eine Kürzung von 30.000 Arbeitsplätzen weltweit. In der Bundesrepublik steht das für die Entlassung von rund 13.000 Continental-Mitarbeitern. Auch die Ausgaben für neue Investitionen sollen gesenkt werden. Auch bei anderen Branchenführern wie Bosch und ZF Friedrichshain sehe das aktuelle Kostenmanagement nicht anders aus, geht aus dem „Handelsblatt“-Artikel hervor.

Der gesamten Branche bleibt letztendlich nichts anderes übrig, als sich umzuorientieren und mit dem Wandel zu gehen. Continental-Chef Elmar Degenhart sagt, sein Konzern setze künftig statt auf Tempo, Profit und Wachstum auf „eine neue Art des Wachstums mit Zukunftstechnologien“.