Alle Beiträge von Minge

KI steigert Bedeutung von Digitalkompetenz & kritischem Denken – Mit einer Einführung von Jean Pütz

Diese Presseinformation der Universität Hohenheim gebe ich mit Bedenken weiter. Denn in letzter Zeit wird der KI Eigenschaften zugewiesen als ob sie zu allem fähig sei. Da wird von Digitalkompetenz gesprochen, die demnächst jeder beherrschen müsste.

Aus der Sicht der Forscher ist dieser Wunsch durchaus verständlich. Allerdings möchte ich einige Bedenken anmerken:
Ich bin fest davon on überzeugt, dass die Masse der Menschen völlig überfordert ist und sich eine Art Herrenrasse herausbildet, die nach dem Motto „Big-Brother is Watching you“ eine ungeheure Macht erhält. Die Anwendungen von KI können vieles erleichtern, aber die Nebenwirkungen und Risiken müssen auch berücksichtigt werden, weil eine Gegenbewegung zu erwarten ist.

Wenn die Bürger sich überfordert fühlen, dann haben Verschwörungstheorien die Oberhand gewinnen. Schon heute entfernt sich unsere Demokratie von der Logik und ein engagierter Abgeordneter in den Parlamenten hat mit seiner Vernunft kaum mehr Chancen. Denn auf den Populismus setzende Kollegen laufen ihm den Rang ab. So sehe ich auch die heutige Überhandnahme vor Irrationalität in politischen Entscheidungen und viele Entscheidungen werden wider besseren Wissens geschaffen. Gegen die Mehrheit beruht unsere Demokratie entstehen Gesetze die mit Rationalität nichts mehr zu tun haben. Die Wissenschaft hat einen Turm zu Babel gebaut, mit Einsichten in die früher verborgenen Geheimnisse menschlichen Lebens der Gefahr läuft unbeherrschbar zu werden.

Ihr Jean Pütz

(Uni Hohenheim) – Künstliche Intelligenz (KI) verändert die Bedeutung von grundlegenden menschlichen Kompetenzen  von der Bildung über den Beruf bis hin zum privaten Leben. Zu diesem Ergebnis kommt eine Studie unter Leitung der Universität Hohenheim in Stuttgart. Danach gewinnen methodische Basiskompetenzen wie kritisches Denken und Problemlösungskompetenz stark an Bedeutung. Auch die Digitalkompetenz wird immer wichtiger, während die Relevanz von Fremdsprachenkenntnissen abnimmt. Soziale Basiskompetenzen bleiben weitgehend stabil. Ein Whitepaper fasst die Ergebnisse zusammen und gibt Empfehlungen, wie die Erkenntnisse in Bildungsprogramme und Arbeitsorganisation eingebaut werden können.

Künstliche Intelligenz beeinflusst mittlerweile sämtliche Lebensbereiche, sei es im Beruf, im privaten Umfeld oder auch in der Bildung. Sprachgesteuerte Assistenzsysteme wie Alexa, Siri und Cortana oder Computer Vision zum Entsperren von Smartphones sind nur einige Beispiele, die zu einer immer häufigeren Nutzung von KI-Systemen im Alltag führen. In jüngster Zeit finden zudem sogenannte generative KI-Systeme wie ChatGPT oder GeminiAI immer größere Verbreitung.

„Künstliche Intelligenz zieht in alle Lebensbereiche ein und verändert sie“, so Studienleiter Prof. Dr. Henner Gimpel von der Universität Hohenheim. „Dabei dient Künstliche Intelligenz derzeit vorrangig als unterstützendes Werkzeug“, erklärt der Experte. „Jedoch zeichnet sich ab, dass KI in Zukunft vermehrt Tätigkeiten zu einem großen Teil oder sogar ganz übernehmen wird. Diese neuen Möglichkeiten verändern die erforderlichen Kompetenzen von Menschen, die zunehmend mit KI zu tun haben.“

Wie verändert sich die Bedeutung von Basiskompetenzen im Zeitalter von KI? 

Doch welchen Einfluss hat dies auf die Fähigkeiten der Menschen, den zukünftigen Anforderungen gerecht zu werden? Wie sollten Bildungseinrichtungen, Arbeitgeber:innen und die Gesellschaft insgesamt auf die Veränderungen reagieren? Diesen Fragen sind Forschende vom Fachgebiet Digitales Management an der Universität Hohenheim in Zusammenarbeit mit dem Forschungsinstitut für Informationsmanagement (FIM) und dem Fraunhofer-Institut für Angewandte Informationstechnik (FIT) nachgegangen.

Ihr Augenmerk galt den sogenannten Basiskompetenzen, die oft auch als Schlüsselkompetenzen bezeichnet werden. „Gemeint ist damit eine Kombination aus Fertigkeiten, Wissen und Einstellungen, die zur Erfüllung einer bestimmten Aufgabe oder Aktivität erforderlich sind“, erläutert Dr. Julia Lanzl von der Universität Hohenheim. „Diese Kompetenzen decken alle Lebensbereiche ab und können in vielen verschiedenen Zusammenhängen eingesetzt werden. Gleichzeitig bilden sie die Grundlage für die Entwicklung weiterer spezifischer, kontextbezogener Fähigkeiten.“

„Damit sich Bildungseinrichtungen, Arbeitgeber:innen und Individuen auf die Veränderung einstellen können, müssen sie wissen, wie sich die Bedeutung einzelner Basiskompetenzen durch KI verändern wird“, sagt Frederik Schöttl, Doktorand im Fachgebiet Digitales Management. „Ein gutes Prognose-Tool ist eine sogenannten Delphi-Studie, bei der die Befragten immer wieder mit den Einschätzungen der anderen Teilnehmenden konfrontiert werden und diese bewerten.“ So entstand ein Meinungsbild von 34 Expert:innen aus Wissenschaft und Praxis, die sich entweder innerhalb der Forschung oder dem individuellen Beruf intensiv mit Kompetenzen und/oder KI beschäftigt haben.

Methodische Basiskompetenzen gewinnen an Bedeutung

Demnach werden methodische Basiskompetenzen wie kritisches Denken, Entscheidungskompetenz, analytisches Denken und Problemlösungskompetenz durch die zunehmende Nutzung von KI an Wichtigkeit gewinnen. „KI kann viele Aufgaben automatisieren, aber die Fähigkeit, komplexe Probleme zu lösen und kritisch zu hinterfragen, bleibt eine menschliche Domäne“, analysiert Frederik Schöttl die Studienergebnisse. „Die Menschen müssen in der Lage sein die Ergebnisse von KI-Systemen auf ihre Korrektheit und Glaubwürdigkeit zu prüfen. Aufgrund der ‚Black-Box‘-Natur vieler KI-Systeme und der generativen KI-Technologien wird besonders das kritische Denken immer wichtiger.“

Steigende Relevanz von Digitalkompetenzen, aber Fremdsprachen weniger wichtig

Eine zunehmende Bedeutung zeigt sich auch bei der Digitalkompetenz: „In einer von KI geprägten Welt ist es unerlässlich, digitale Technologien zu verstehen und anzuwenden“, sagt Prof. Dr. Gimpel. „Die Fähigkeit digitale Werkzeuge und Technologien effektiv zu nutzen, wird in nahezu allen Lebensbereichen unerlässlich. Dies könnte bedeuten, dass die Digitalkompetenz in Zukunft spezialisierter und die Fähigkeit zur KI-Nutzung zu einer eigenständigen Kompetenz wird.“

Die Expert:innen in der Studie kommen jedoch auch zu dem Schluss, dass Fremdsprachenkenntnisse an Bedeutung verlieren. „KI-Technologien sind zunehmend in der Lage, Übersetzungen und sprachliche Kommunikation zu übernehmen, wodurch der Bedarf an traditionellen Fremdsprachenkenntnissen sinkt“, so Mike Possin, wissenschaftliche Hilfskraft. „Nichtsdestoweniger ist es aktuell immer noch nötig, das Ergebnis einer KI-generierten Übersetzung zu überprüfen.“

Soziale Basiskompetenzen bleiben weitgehend unbeeinflusst

Soziale Basiskompetenzen wie Fähigkeit zur Empathie, Kommunikation und Zusammenarbeit bleiben weitgehend stabil in ihrer Bedeutung. „Menschliche Interaktionen sind nur in geringem Maße durch KI ersetzbar“, erklärt Dr. Lanzl. „KI kann hier zwar in einigen Aspekte unterstützen, aber echte menschliche Verbindungen und das Verständnis emotionaler und sozialer Kontexte sind zumindest bisher schwer zu automatisieren.“

Eine Ausnahme bilde die Ethik- und Kulturkompetenz: „Sie gewinnt an Relevanz, da die Notwendigkeit steigt moralische Normen und Werte im Umgang mit KI zu hinterfragen und zu überwachen.“

Handlungsempfehlungen

„Die zunehmende Verbreitung von KI erhöht die Relevanz von Basiskompetenzen – dessen sind sich die Expert:innen aus Praxis und Wissenschaft einig, die an unserer Delphi-Studie teilgenommen haben“, fasst Prof. Dr. Gimpel zusammen. „Dies unterstreicht die Notwendigkeit, nicht nur spezifische und kontextbezogene Kompetenzen zu fördern, sondern auch die grundlegenden Basiskompetenzen zu vermitteln, insbesondere im Bildungsbereich.“

Aus Sicht der Forschenden sind daher Bildungseinrichtungen, Arbeitgeber:innen und Politik gefordert, ihre Programme und Strategien anzupassen, um den Herausforderungen des KI-Zeitalters gerecht zu werden: Bildungseinrichtungen sollten in ihren Lehrplänen Basiskompetenzen stärker berücksichtigen und systematisch fördern. Soziale Basiskompetenzen sowie Ethik- und Kulturkompetenzen sind für Arbeitgeber:innen bei der Auswahl und Mitarbeiterentwicklung wichtig. Gleichzeitig sollten Schulungsprogramme einen starken Fokus auf Digitalkompetenzen und kritisches Denken legen, um auf die Zusammenarbeit mit KI-Systemen vorzubereiten.

HINTERGRUND: Delphi-Studie

Eine Delphi-Studie ist eine wissenschaftliche Methode zur Erhebung von Expertenmeinungen zu einem bestimmten Thema. Dabei werden mehrere Runden von (Online-)Befragungen durchgeführt, bei denen die Teilnehmenden zuerst auf Basis ihrer individuellen Expertise Ansichten äußern und dann mit dem anonymisierten Feedback der anderen konfrontiert werden. Ziel ist einen Konsens oder eine Konvergenz der Meinungen zu erreichen oder zumindest die Gründe für die Divergenz zu verstehen.

HINTERGRUND: DeLLFi und ABBA

Die Studie wurde durch zwei Projekte an der Universität Hohenheim ermöglicht, die digitale und analoge Lehre ideal verzahnen wollen:

Ziel von DeLLFi ist, eine kompetenzorientierte, digital unterstützte Lehre als festen Bestandteil der Lehre in Hohenheim zu etablieren. Die acht Maßnahmenpakete des Projektes „Digitalisierung entlang Lehren, Lernen und Forschen integrieren“ werden gefördert von der Stiftung Innovation in der Hochschullehre.

Ziel von ABBA ist es, Wirtschaftswissenschaftler:innen die notwendigen Kompetenzen für die Bewertung und Integration von Technologie in betriebliche Prozesse und Entscheidungen zu vermitteln. Das Projekt „AI for Business | Business for AI“ wird durch das Bundesministerium für Bildung und Forschung und mehrere beteiligte Länder gefördert.

Text: Stuhlemmer

Hilfe für Autoimmunkranke

(Uni Kiel) – Einem Forschungsteam mit Beteiligung des Exzellenzclusters PMI ist es gelungen, krankheitsverursachende T-Zellen bei Autoimmunerkrankungen aus dem Blut zu isolieren und zu analysieren.

Bei Autoimmunerkrankungen attackiert das Immunsystem fälschlicherweise körpereigene Strukturen. Einem Forschungsteam aus Kiel, Lübeck und Berlin ist es nun mit einer von ihnen entwickelten Methode gelungen, bestimmte krankmachende Immunzellen genauer zu analysieren. Dabei stellten sie fest, dass diese Zellen teilweise jahrelang in einen ruhenden Zustand wechseln können und dadurch für die bisherigen Therapieansätze unerreichbar werden. Wechseln die Zellen dann wieder in einen aktiven Zustand, bringen sie erneut weitere Immunzellen dazu die körpereigenen Strukturen anzugreifen und entfachen so die Erkrankung auf Neue. Die Ergebnisse hat das interdisziplinäre Forschungsteam unter Beteiligung zahlreicher Mitglieder des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ (PMI) vor kurzem im renommierten Fachmagazin „Immunity“ veröffentlicht.

Überraschend: Autoreaktive Immunzellen in ruhendem Zustand

Die Forschenden haben Blutproben von Patientinnen und Patienten untersucht, die eine von drei Autoimmunerkrankungen hatten, bei denen bekannt ist, gegen welche Strukturen sich das Immunsystem richtet. Mithilfe einer von ihnen entwickelten Methode (Antigen-reactive T cell enrichment, ARTE, s.u.) konnten sie aus der großen Menge verschiedener Immunzellen im Blut gezielt die seltenen autoreaktiven Immunzellen anreichern und analysieren. Das sind die Zellen, die fälschlicherweise auf körpereigene Strukturen reagieren, Entzündungen in Gang bringen und andere Immunzellen dazu veranlassen die körpereigenen Strukturen anzugreifen.

„Bisher wurde angenommen, dass diese Zellen bei Autoimmunerkrankungen chronisch aktiviert sind und so die Entzündung antreiben“, erklärt die Erstautorin Dr. Carina Saggau vom Institut für Immunologie der Christian-Albrechts-Universität zu Kiel und des Universitätsklinikums Schleswig-Holstein (UKSH), Campus Kiel. „Doch wir konnten nun zeigen, dass überraschenderweise ein Teil von ihnen in einen ruhenden Zustand ist, der in der Wissenschaft als „exhausted“, also erschöpft, bezeichnet wird, und in diesem Zustand teilweise jahrelang im Blut zirkuliert.“ Dieser ruhende Zustand ist bisher aus der Tumorforschung bekannt: In Tumoren befinden sich die Immunzellen, die eigentlich den Tumor bekämpfen müssten, in so einem Zustand und lassen den Tumor daher ungehindert wachsen.

„Bei den untersuchten Autoimmunerkrankungen vermuten wir, dass die chronische Aktivierung durch die körpereigene Struktur nach einiger Zeit zu einer Art „Notabschaltung“ führt. Der Körper braucht einen Mechanismus, um solche Zellen abzuschalten, die dauerhaft aktiviert werden“, sagt Professor Alexander Scheffold, Direktor des Instituts für Immunologie und Mitglied im Exzellenzcluster „Precision Medicine in Chronic Inflammation“ PMI. Der Immunologe hat die interdisziplinäre Forschungsarbeit gemeinsam mit dem Neuroimmunologen PD Frank Leypoldt vom Institut für klinische Chemie am UKSH, Campus Kiel, und Professor Friedemann Paul vom Experimental and Clinical Research Center der Charité, Berlin, geleitet.

Reaktivierung der ruhenden Zellen führt zu neuem Krankheitsschub

Der ruhende Zustand führt bei den Autoimmunerkrankungen jedoch auch dazu, dass diese Zellen den gängigen Therapien entgehen, die darauf abzielen das überreaktive Immunsystem zu unterdrücken. Das heißt: Häufig schlägt die Therapie an und unterdrückt die Symptome der Autoimmunreaktion, aber einige der krankmachenden T-Zellen überleben in dem ruhenden Zustand. Werden einige der ruhenden Zellen reaktiviert, vermutlich durch Infektionen oder Umweltfaktoren, können sie den gesamten Krankheitsprozess wieder anschalten. Die Betroffenen erleben einen neuen Krankheitsschub.

„Diese Beobachtung erklärt, warum derzeitige Therapien keinen dauerhaften Schutz vor Rückfällen bieten“, erklärt PD Frank Leypoldt, ebenfalls Mitglied im Exzellenzcluster PMI. „Gleichzeitig eröffnen sie neue Ansatzpunkte für gezieltere Therapien. So könnte man versuchen, mit speziell auf die ruhenden Zellen gerichteten Therapien, diese selektiv anzugreifen und so die Krankheit effektiver, nachhaltiger und präziser zu behandeln. Alternativ könnte man, basierend auf bestehenden Ansätzen aus der Tumormedizin, die Zellen reaktivieren, um sie dann besser therapeutisch zu erreichen,“ so Leypoldt weiter.

Außerdem seien die Beobachtungen wichtig für ein besseres Verständnis der zugrundliegenden Krankheitsmechanismen, betont Scheffold. „Wir haben die Zusammenhänge nun an drei Modellerkrankungen erstmals gezeigt. Als nächstes möchten wir untersuchen, bei welchen anderen Entzündungserkrankungen wir diesen Zustand noch finden, um besser verstehen zu können, was den verschiedenen Erkrankungen jeweils zu Grunde liegt. Nur so ist eine spezifische Therapie der jeweiligen Krankheitsursachen im Sinne einer echten Präzisionsmedizin möglich“, erklärt Scheffold.

Über die ARTE-Methode:

In einer Blutprobe reagieren nur etwa eine aus hunderttausend T-Zellen gegen das spezifische Autoantigen, also das körpereigene Molekül, gegen das sich das Immunsystem bei der Autoimmunerkrankung richtet. Um diese seltenen Zellen überhaupt untersuchen zu können, haben Prof. Petra Bacher und Prof. Alexander Scheffold vom Exzellenzcluster PMI das sogenannte „Antigen-reactive T cell enrichment“ (ARTE, Anreicherung antigenreaktiver T-Zellen) entwickelt. Das Verfahren basiert darauf, Blutzellen im Reagenzglas kurz mit dem Antigen zu konfrontieren. Antigen-spezifische T-Zellen werden so aktiviert und können anhand von „Aktivierungsmarkern“ mit Magnetpartikeln markiert werden. Über magnetische Trennsäulen, werden diese seltenen T-Zellen dann aus einer größeren Blutmenge herausfiltriert und analysiert.

Neue Methode: Anitbiotika gegen resistente Bakterien

(pte) – 70 Prozent aller derzeit zugelassenen Antibiotika werden aus Actinobakterien in der Erde gewonnen. Forschern der University of Helsinki ist jetzt ein wichtiger Durchbruch gelungen. Sie haben einen Wirkstoff entdeckt, der die Virulenz der EPEC-Bakterien unterdrückt, ohne ihr Wachstum zu beeinflussen. Auch konnte ein Wirkstoff identifiziert werden, der das Wachstum der Bakterien verhindert.

Fokus auf EPEC-Stamm

Die Forscher haben sich auf den EPEC-Stamm konzentriert, da er häufig bei Kindern unter fünf Jahren einen fallweise tödlichen Durchfall auslöst. Davon betroffen sind vor allem Entwicklungsländer. EPEC verursacht eine Erkrankung, indem es sich an Zellen im menschlichen Darm anbindet. In einem nächsten Schritt werden Virulenzfaktoren in der Wirtszelle platziert, die sie am Ende abtöten. Die jetzt getesteten Wirkstoffe stammen von vier Arten von Actinobakterien.

Sie wurden von Wirbellosen gewonnen, die während einer Expedition im Jahr 2020 gesammelt worden waren. Diese Bakterien sind dann im Labor kultiviert, ihre Zellen extrahiert und ihr Inhalt in Fraktionen zerlegt worden. Jede Fraktion wurde dann in vitro getestet – und zwar anhand von EPEC, die sie an gezüchteten Darmkrebszellen angehängt hatten. Die Forscher konnten in der Folge zwei bisher unbekannte Wirkstoffe mit einer starken Aktivität gegen Viren und Bakterien nachweisen.

„T091-5“ aussichtsreich

Einer der neuen Wirkstoffe kommt von einem unbekannten Stamm mit der Bezeichnung „T091-5“ im Genus von Rhodococcus. Der andere namens „T160-2“ rührt vom bisher unbekannten Stamm in einen weiteren Genus – und zwar von Koncuria. Anders als die Wirkstoffe von T160-2 verlangsamte der Wirkstoff von T091-5 das Wachstum der EPEC-Bakterien nicht. Somit ist T091-5 der Kandidat mit der größten Erfolgsaussicht. Details sind in „Frontiers in Microbiology“ nachzulesen.

Interessante Erklärung der Lithium-Ionen-Batterie

(pte) – Die Hersteller von Lithium-Ionen-Batterien laden sie im Werk auf, bevor sie an die Kunden weitergegeben werden. Dabei machen sie einen entscheidenden Fehler, sagt Will Chueh von der Stanford University in Kalifornien. Gemeinsam mit Kollegen vom Teilchenbeschleuniger SLAC und des Toyota Research Institute(TRI) hat er herausgefunden, dass sich die Batterielebensdauer entscheidend verlängert, wenn beim ersten Ladevorgang sehr hohe Ströme fließen.

„Eine echte Herausforderung“

Das SLAC liefert hochenergetische und extrem scharfe Röntgenstrahlen, die selbst kleinste Strukturen sichtbar machen. „Wir haben hier ein hervorragendes Beispiel dafür, wie das SLAC mithilfe der Produktionswissenschaft entscheidende Technologien für die Energiewende erschwinglicher macht. Wir meistern eine echte Herausforderung, der sich die Industrie gegenübersieht“, sagt Chueh.

Wird eine Batterie geladen, fließen die Lithiumionen in die negative Elektrode und werden dort gespeichert. Entlädt sie sich, fließen sie wieder heraus und wandern zur positiven Elektrode; dadurch wird ein Elektronenfluss ausgelöst, der E-Autos und Smartphones mit Strom versorgt. Die positive Elektrode einer neuen Batterie besteht zu 100 Prozent aus Lithium, so Xiao Cui, der leitende Forscher des Batterieinformatik-Teams in Chuehs Labor. Jedes Mal, wenn die Batterie einen Lade-/Entladezyklus durchläuft, wird ein Teil des Lithiums deaktiviert. Die Minimierung dieser Verluste verlängert die Lebensdauer der Batterie.

Verluste zahlen sich später aus

Seltsamerweise besteht eine Möglichkeit, diesen Verlust zu minimieren, darin, während der ersten Ladung der Batterie absichtlich einen Teil der ursprünglichen Lithiummenge zu verlieren, so Cui. Dieses wird zu einer Passivierungsschicht, der so genannten Festelektrolyt-Interphase (SEI), die sich während der ersten Ladung auf der Oberfläche der negativen Elektrode bildet.

Die SEI schützt die negative Grafitelektrode vor Nebenreaktionen, die den Lithiumverlust beschleunigen und die Batterie schneller altern lässt. „Die Formation ist der letzte Schritt im Herstellungsprozess. Wenn sie nicht gelingt, sind die Mühen, die bis dahin in die Batterie investiert wurden, vergeblich gewesen“, weiß Cui. Schnelles Laden am Anfang kann die Lebensdauer einer Batterie um 50 Prozent erhöhen, so die Forscher.

Erstmals möglich: Der exakte Blick ins Molekül

(KIT) – Forschende des Karlsruher Instituts für Technologie (KIT) und der Voxalytic GmbH haben eine neue Methode entwickelt, mit der sich erstmals die chirale Struktur eines Moleküls – die exakte räumliche Anordnung der Atome – direkt durch Kernspinspektroskopie aufklären lässt. Dieser wichtige Schritt für die Entwicklung neuer Medikamente war bisher ein zeitaufwändiges Verfahren. Nun könnte die neue Methode ein Standardwerkzeug für die chemische und pharmazeutische Industrie werden. Die Ergebnisse wurden in der Fachzeitschrift Advanced Materials veröffentlicht. (DOI: 10.1002/adma.202408547).
Die Chiralität eines Moleküls bezieht sich auf seine Grundstruktur: Manche Moleküle, sogenannte Enantiomere, treten paarweise und spiegelbildlich zueinander auf. Sie unterscheiden sich voneinander wie ein linker und rechter Handschuh. Je nachdem, ob die „verdrehte“ Struktur eines Moleküls links- oder rechtshändig ist, hat dies Einfluss auf seine biochemischen und chemischen Reaktionen. Trotz spiegelbildlicher Anordnung unterscheiden sich die Eigenschaften oder funktionieren sogar entgegengesetzt.
Bei Medikamenten kann das fatale Folgen haben: Als 1960 in Deutschland und England Kinder mit körperlichen Missbildungen zur Welt kamen, war die Ursache der Wirkstoff „Contergan“ oder „Thalidomid“. Das Medikament war werdenden Müttern gegen Schwangerschaftsbeschwerden verabreicht worden und wurde daraufhin verboten. Pharmaunternehmen müssen seitdem verpflichtend prüfen, ob sich die oft chiral aufgebauten Wirkstoffe im menschlichen Körper nicht in ihr entgegengesetztes Enantiomer umwandeln.
Methode erleichtert Suche nach Wirkstoffen
Nun ist es einem Team unter Leitung von Professor Jan Korvink, Direktor des Instituts für Mikrostrukturtechnik des KIT, gemeinsam mit der Voxalytic GmbH, einer Ausgründung des KIT und der Universität Freiburg, gelungen, die chirale Molekülstruktur direkt durch Kernspinresonanzspektroskopie, auch NMR-Spektroskopie genannt (NMR steht für engl. nuclear magnetic resonance), zu messen.
Obwohl NMR-Spektroskopie als einzige Methode chemische Strukturen bei Raumtemperatur bis zur atomaren Auflösung aufklären kann, war sie bisher „blind“ für die Chiralität von Molekülen. Um die „Verdrehungen“ eines Moleküls zu messen, wird bisher meist ein optisches Verfahren verwendet, das zwar grundsätzlich den Drehsinn erkennen kann, jedoch nicht bei atomarer Auflösung.
„Wir freuen uns sehr über die Möglichkeit, diese Methode zu einem praktischen Werkzeug für die Industrie zu machen und haben das Konzept patentiert“, sagt Jan Korvink. Damit könne die Chiralitätsaufklärung künftig zum Standardrepertoire der NMR-Analyse gehören, erklärt Dr. Sagar Wadhwa von Voxalytic, der zu diesem Thema promoviert hat. „Dies wird besonders Chemikerinnen und Chemikern die Arbeit erleichtern, die an der Herstellung spezifischer Enantiomere forschen.“ Dr. Dominique Buyens, Biochemikerin und Postdoktorandin am KIT, fügt hinzu: „Wir werden die neue Methode für den Einsatz in der Arzneimittelentwicklung untersuchen, dies könnte die Suche nach Wirkstoffen erheblich beschleunigen.“

„SPOTLIGHT“: Sonne statt fossile Brennstoffe

(pte)- Die Grundlage für eine klimaneutrale Versorgung der chemischen Industrie mit Rohstoffen unter Verzicht auf fossile Quellen hat die Forschungsorganisation TNO mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) gelegt. Im Rahmen des Projekts „SPOTLIGHT“, zu dem das DLR den Photoreaktor beisteuerte, wird Solarenergie und Wasserstoff hergestellt. Synthesegas ist ein Mix aus Kohlenstoffmonoxid und Wasserstoff.

Das Besondere an der TNO/DLR-Entwicklung: Das Verfahren soll Synthesegas wirtschaftlich produzieren, wenn der CO2-Preis 200 Euro pro Tonne beträgt. Davon ist Europa allerdings noch weit entfernt. Derzeit liegt der Preis beispielsweise in Deutschland und Österreich bei 45 Euro. Schweden und die Schweiz kommen allerdings schon auf mehr als 100 Euro.

Katalysatoren nutzen Sonnenlicht

„Wir nutzen sogenannte plasmonische Katalysatoren. Diese Materialien absorbieren viel Sonnenlicht und werden in chemischen Prozessen eingesetzt, die durch Sonnenlicht angetrieben werden. Wenn man die Katalysatoren modifiziert, kann die Reaktion für bestimmte Prozesse optimiert werden, zum Beispiel für die Erzeugung von Synthesegas“, so Nicole Meulendijks von der Technischen Universität Eindhoven, die die Entwicklung des Katalysators leitet.

Plasmonische Katalysatoren haben die Fähigkeit, alle Frequenzen des Sonnenlichts zu nutzen. Nichts geht verloren. Der Reaktor wird derzeit vom Licht des Kölner Sonnenofens bestrahlt. Dass ist eine künstliche, elektrisch betriebene „Sonne“, die für Experimente eine sichere Versorgung ermöglicht. In der Praxis wird er bevorzugt in Regionen aufgestellt, in denen die Sonneneinstrahlung besonders intensiv ist, etwa in Nordafrika. Kombiniert mit Stromspeichern geht der Betrieb auch weiter, wenn die Sonne nicht scheint. Dann übernehmen Hochleistungs-Leuchtdioden, die mit grünem Strom betrieben werden, den Part der Sonne.

Anlage für eine Mio. Tonnen CO2

Geplant ist im weiteren Verlauf des Projekts eine Großanlage, die bis zu eine Mio. Tonnen CO2 pro Jahr verarbeiten kann. Die in SPOTLIGHT entwickelte Technologie bietet laut den Entwicklern das Potenzial, bis zu 800 Mio. Tonnen CO2 pro Jahr wiederzuverwerten, heißt es beim DLR. Das entspricht etwa 18 Prozent der gesamten CO2-Emissionen der EU.

Populismus und Wunschdenken der derzeitigen Klimapolitik – ein teurer Spaß

Im Jahre 1990 habe ich in der ARD Sendung „Bilder auf der Wissenschaft“ auf die Energievergeudung in Gebäuden hingewiesen. In zwei Sendungen mit dem Titel „Der Sonne eine Chance“ habe ich alles vorweg genommen, was Jahre später von den Grünen-Ideologen aufgegriffen wurde. Allerdings in einer sehr stümperhaften Weise. Damals machte die Co2-Abgabe in die Atmosphäre in den Gebäuden etwa 40% aus. Aber die Heureka-Politik (wie ich sie nenne), widmet sich eher den Co2 Abgaben im Verkehr und populistisch wurde das Augenmerk auf den Auspuff gelegt. Man glaubte durch radikale Elektrifizierung des Verkehrs die Lösung zu finden. Dieser bewirkte aber insgesamt nur 20% Co2-Ausstoß. Hinzukam, dass ein idealer Scharlatan mit Namen Elon Musk die Idee der Elektromobilität so werbewirksam verkaufte, dass sogar die erfolgreichste deutsche Industriesparte der Automobilindustrie darauf reinfiel und aktuell im Begriff ist Selbstmord zu betreiben.
Das alles habe ich bei Facebook ausführlich meinen über 100.000 Follower vorgetragen. Erst viel später fiel dann auf, dass es ja noch den Bereich der Gebäude gab. Das einzige was einfiel war eine elektrische Wärmepumpe zu setzen, zumindest wenn es im Winter sehr kalt wird, physikalisch sehr ineffizient wird. Sie kann also auf keinen Fall das Problem lösen.
Erst Jahre später wird sich das beweisen. Lesen Sie dazu den folgenden Artikel von der Plattform „Das Hauptstadtbriefing“.
Ihr Jean Pütz

(Pioneer) – Der Gebäudesektor soll bis 2045 klimaneutral werden. So sieht es das ambitionierte Klimaschutzgesetz der ehemaligen CDU-geführten Regierung vor. Dafür setzt Klimaminister Robert Habeck vor allem auf eines: Sanieren. Deshalb hat er auch das größte Förderprogramm der Regierung, die Bundesförderung für effiziente Gebäude (BEG), aufgestellt. Volumen für 2024: 16,7 Milliarden Euro.

Den Weg zur Klimaneutralität bekräftigte zuletzt der gestern erschienene Transformationsbericht des Bundes.

Doch Habecks realpolitisches Handeln hat sich längst von seinen Zielen entkoppelt. Der Klimaminister wurde desillusioniert, wie unsere Kollegin Laura Block analysiert.

1) Ziele werden verfehlt

Um die Klimaziele in 2045 zu erreichen, müssen hier jährlich zwei Prozent des Bestands saniert werden. Bisher liegt die Quote bei 0,7 Prozent.

Ein Sanierungsbeispiel: Beim Wärmepumpengipfel 2022 beschloss die Regierung gemeinsam mit den Verbänden, die Voraussetzungen zu schaffen, damit in diesem Jahr 500.000 Wärmepumpen verbaut werden können. Bis Mitte August wurden rund 200.000 Anträge für eine Förderung gestellt.

Von den 16,7 Milliarden Euro Fördervolumen ist bisher knapp die Hälfte abgeflossen.

2) Boom fällt aus

Die Bundesregierung rechnet für das Jahr 2025 mit einer kleinen Sanierungsflaute. Das Wirtschaftsministerium hat daher die Mittel für die BEG um 2,4 Milliarden Euro gekürzt.

Es sei „deutlich geworden, dass ein höherer Anteil von Vorhaben deutlich langsamer realisiert wird als ursprünglich angenommen und dass der Anteil an Stornierungen ebenfalls angestiegen ist“, sagt das Wirtschaftsministerium auf Anfrage.

Mit seinem Versprechen, trotzdem weiterhin alle Anträge genehmigen zu wollen, unterstreicht Habeck seine Erwartung: Es werden sowieso nicht viele Anträge gestellt.

3) Sparbetrag könnte größer sein

Der Einbruch bei den Anträgen könnte im kommenden Jahr sogar noch größer ausfallen. Denn: Der Klima- und Transformationsfonds (KTF), der das Förderprogramm des Bundes finanziert, sieht eine Globale Minderausgabe in Höhe von neun Milliarden Euro vor. Das heißt: Irgendwo muss noch gespart werden.

Sehr wahrscheinlich betrifft das auch die BEG-Gelder. Denn diese machen rund 62 Prozent der Gesamtausgaben aus.

Es sei grotesk, dass die Ampel ausgerechnet bei der BEG so viel Geld spart, sagt Axel Gedaschko, Präsident des Spitzenverbands der deutschen Wohnungswirtschaft. Er sagt uns: „Wenn die Mittel abgesenkt werden, hat das natürlich zur Folge, dass dann nicht mehr in dem Stile saniert werden kann, wie es eigentlich vom Bund erhofft wird.“

Spätestens mit der CO2-Preis-Steigerung würden sich Eigentümer Gedanken über eine energetische Sanierung machen, so Gedaschko. „Das bedeutet dann entweder, Programm stoppen, oder so verändern, dass für den einzelnen Förderfall weniger Geld aufgewendet wird.“

Fazit: Das Klimaministerium glaubt an die Sache, aber nicht an ihr Ziel. Dem Klima hilft das nicht.

Mikroprozessoren revolutionieren die Technik – Mit einer Anmerkung von Jean Pütz

Schon 1978 habe ich in der ARD unter dem Titel „Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik“ diese rasante Entwicklung vorweg genommen. Aber ich hätte mir nicht träumen lassen, dass die Halbleitertechnik auf Basis von Silicium und anderen Materialien so eine Revolution auslösen könnte.

Seinerzeit habe ich mich gewundert, dass ich den Deutschen Journalistenpreis dotiert mit 10.000 DM dafür bekommen habe. Aber offenbar schien das doch gerechtfertigt, wenn ich die heutige Entwicklung sehe. Damals war Deutschland in dieser Technologie führend, aber wie fast immer haben wir uns die Butter vom Brot nehmen lassen.

Lesen Sie dazu die folgende Pressemitteilung des KIT“.

Ihr Jean Pütz

(KIT) – Von Smartphones über Computer bis hin zu Autos: Fast alle modernen Technologien basieren auf leistungsstarken Mikrochips. Die Nachfrage übersteigt die Produktion in Deutschland dabei deutlich. Führende Halbleiterhersteller stammen vor allem aus Asien sowie Nordamerika und versorgen weltweit Produzenten mit den Mikrochips. Um die Produktion in Europa voranzutreiben und Deutschland als Innovationsstandort für Chipdesign weiter zu stärken, hat das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg (MWK) nun die Gründung des virtuellen Karlsruher Chipdesign House (KCH) am Karlsruher Institut für Technologie (KIT) bewilligt. Dieses soll bis 2027 auf dem Campus Süd des KIT aufgebaut werden. Geplant ist außerdem ein neuer Master-Studiengang.
„Die Nachfrage nach leistungsstarken und effizienten Chips für die digitale Transformation nimmt weiterhin zu“, erklärt Professor Mehdi B. Tahoori vom Institut für Technische Informatik des KIT. „Der meiste Umsatz wird dabei von Chip-Giganten außerhalb von Europa gemacht. Insbesondere in der Energiekrise, als wir wegen der Stromkosten unsere Produktion herunterfahren mussten, hat sich die große Abhängigkeit von Importen gezeigt, beispielsweise bei in Asien produzierten Siliziumchips.“
„Es ist dringend notwendig, die Produktion sowie deren Entwicklungsmöglichkeiten in Europa zu fördern, um kritische globale Abhängigkeiten zu reduzieren und die digitale Souveränität Deutschlands und Europas zu sichern“, sagt Professor Oliver Kraft, in Vertretung des Präsidenten. „Das KCH bündelt die Spitzenforschung im Bereich des Chipdesigns. Das KIT ist mit seiner Expertise der richtige Standort dafür.“
 
Neuer Studiengang für zukünftige Fachkräfte
Mit dem geplanten KIT Chipdesign House (KCH) möchte das KIT eine führende Rolle in der Koordination im Chipdesign in Baden-Württemberg und darüber hinaus einnehmen. Im Fokus steht eine umfassende Ausbildung für Fachkräfte im Chipdesign. „Im KCH wollen wir gemeinsam mit Partnern einen interdisziplinären Master-Studiengang im Chipdesign entwickeln“, sagt Professor Jürgen Becker vom Institut für Technik der Informationsverarbeitung des KIT. „Dieser soll neben praxisorientierten Vorlesungen auch Workshops und Veranstaltungen mit Expertinnen und Experten aus der Industrie anbieten, die zukünftige Fach- und Führungskräfte umfassend ausbilden.“
 
Stärkung von Chipdesign-Ökosystem in Deutschland

Zur Stärkung des Halbleiterökosystems in der EU wurde die Verordnung über den Europäischen Chip Act 2023 als Maßnahmenpaket beschlossen. „Der European Chips Act zielt darauf ab, die Halbleiterproduktion und die Entwicklungsmöglichkeiten in Europa zu fördern“, erläutert Becker. „Innerhalb dieses ChipActs wollen wir Kompetenzen und Netzwerke gezielt bündeln und erweitern. Die enge Verzahnung mit der Industrie bildet dabei einen wichtigen Baustein, unter anderem durch den gezielten Ausbau der interdisziplinären Aus- und Weiterbildung in Chipdesign am KIT.“

Wo soll Wasserstoff in Zukunft produziert werden? Mit einer Einführung von Jean Pütz

Ich wundere mich über diese Studie, die offenbar mein Buch ‚Wohlstand und ….‘ nicht gelesen haben. Aber eines muss man ihnen zugute halten: Sie haben immerhin Methanol als wichtigen Wasserstoff-Träger erkannt. Jedoch die daraus erwachsenen Chancen für eine nachhaltige Energieversorgung unseres Globus aus mir unerklärlichen Gründen vernachlässigt.

Jean Pütz

(PSI) – Forschende des Paul Scherrer Instituts PSI haben analysiert, in welchen Regionen der Welt Wasserstoff am kostengünstigsten herzustellen wäre, um eine Ökonomie aufzubauen, die auf diesem alternativen Energieträger statt auf fossilen Quellen basiert. Ein Ergebnis: Der Ersatz fossiler Energien durch Strom und Wasserstoff bedeutet keineswegs, dass keine Treibhausgasemissionen mehr auftreten. Die Studie erscheint heute in der Fachzeitschrift Nature Communications.

Die Schweiz soll bis 2050 klimaneutral werden. Das heisst, dass der Atmosphäre, um den Klimawandel zu bremsen, ab dann netto keine zusätzlichen Treibhausgase mehr hinzugefügt werden. Als ein wesentlicher Baustein, um dieses Ziel zu erreichen, gilt die Elektrifizierung von Verkehr, Industrie und Haushalten bei gleichzeitiger Umstellung auf erneuerbare Stromquellen wie Wasser, Wind und Sonne. Allerdings kann Strom nicht überall als Energielieferant dienen – für bestimmte Anwendungen ist seine Energiedichte nicht ausreichend. Wo höhere Anforderungen gestellt werden, soll Wasserstoff einspringen. Die Luftfahrt, die Landwirtschaft und die Stahlindustrie sind Beispiele für Anwendungen, bei denen durch den Einsatz von Wasserstoff – der teilweise für die Herstellung von Düngemitteln oder synthetischen Kohlenwasserstoffen verwendet wird – die Klimabelastung deutlich reduziert werden kann.

Die Forschenden um Erstautor Tom Terlouw und Projektleiter Christian Bauer vom Labor für Energiesystemanalysen des PSI haben geografische und ökonomische Daten und Prognosen zusammengestellt, um den Aufbau einer Wasserstoffökonomie in vier Szenarien zu beschreiben: Demnach wird der Wasserstoffbedarf 2050 zwischen 111 und 614 Megatonnen pro Jahr betragen – je nach Szenario: Im ersten Szenario macht die Welt weiter wie bisher und verlässt sich auf fossile Energieträger. Im vierten und optimistischsten Szenario betreibt sie konsequenten Klimaschutz und erreicht das 1,5-Grad-Ziel. Aktuell werden weltweit rund 90 Megatonnen Wasserstoff pro Jahr produziert.

Wo ist genug Platz für Elektrolyse?

Zur Herstellung von Wasserstoff existieren verschiedene Verfahren. Aktuell dominiert noch die sogenannte Methan-Dampfreformierung, bei der das Element unter Druck und Hitze aus Erdgas, Erdöl oder Kohle – also fossilen Energieträgern – gewonnen wird. Die optimistischeren Szenarien gehen davon aus, dass stattdessen zunehmend PEM-Elektrolyseure zum Einsatz kommen, also Apparate, die mit Strom und einer Polymer-Elektrolyt-Membran Wasser in Wasserstoff und Sauerstoff aufspalten. Wenn dafür nur grüner Strom aus erneuerbaren Quellen verwendet wird, läuft das Verfahren ohne fossile Energieträger. Es verursacht bis zu 90 Prozent weniger Treibhausgase als die Methan-Dampfreformierung.

Die zentrale Frage aber war, wo auf der Erde der Wasserstoff auf diese Weise hergestellt werden sollte. «Wir haben dazu vor allem ökonomische Kriterien angelegt», sagt Tom Terlouw. «Sprich, wo ist die Produktion am günstigsten?» Und dabei stellten sich zwei Faktoren als entscheidend heraus: Wo lässt sich der enorme Bedarf an Ökostrom für die Elektrolyse am effizientesten decken, weil alternative Energieträger wie Wind und Sonne reichlich vorhanden sind? Und wo gibt es genügend geeignetes Land, um die zur Produktion notwendigen Anlagen aufzustellen?

Kanada ist ideal, die Schweiz eher nicht

Als eine der besten Regionen für die künftige Wasserstoffproduktion stellten sich zum Beispiel grosse Teile Kanadas heraus: «Dort existieren viele freie Flächen, die sehr windig und daher ideal zum Aufstellen von Windturbinen sind», sagt Terlouw. «Noch dazu gibt es viel Wasser und stabile politische Verhältnisse – zwei Kriterien, die wir jedoch in dieser Studie noch nicht näher betrachtet haben. Aber natürlich spielt auch die Verfügbarkeit von Wasser für die Elektrolyse eine Rolle und ob es sich um ein Land handelt, aus dem man zuverlässig Wasserstoff importieren kann.»

Wenn man diese Kriterien aussen vor lässt, bieten auch die zentralen USA gute Bedingungen sowie Teile Australiens, der Sahara, Nordchinas und Nordwesteuropas. Entweder weil es dort viel Sonne zur Produktion von Solarstrom gibt oder viel Wind und freie Fläche zum Aufstellen von Windenergieanlagen – und der Wasserstofffabriken. Weniger gut zur Produktion eignen sich mitteleuropäische Industrieländer wie die Schweiz oder Deutschland, weil dort kaum verfügbare Flächen für Windräder vorhanden sind und die Sonneneinstrahlung relativ gering ist. Auch andere dicht besiedelte Regionen und Länder wie Japan oder weite Küstenabschnitte der USA und Chinas könnten nur zu vergleichsweise hohen Kosten produzieren. «Wir haben da also eine gewisse Diskrepanz festgestellt zwischen Regionen mit hohem Bedarf an Wasserstoff und Regionen mit grossen, effizienten Produktionskapazitäten», resümiert Terlouw. Diese müssten eine Wasserstoffökonomie durch weltweiten Handel bewältigen, was allerdings weiteren Energieaufwand bedeutet – und politische Kooperation erfordert. Nicht zuletzt besteht der Aufwand darin, dass Wasserstoff in der Regel in gebundener Form – etwa als Ammoniak oder Methanol – transportiert wird. Denn als reines Gas nimmt er zu viel Volumen ein, und für seine deutlich kompaktere, flüssige Form muss er stark gekühlt werden.

Die ökologischen Kehrseiten grünen Wasserstoffs

Die Studie betrachtet auch weitere ökologische Nebeneffekte einer möglichen Wasserstoffökonomie, die in der Öffentlichkeit oft ausser Acht gelassen werden: «Zum einen ist es wichtig zu betonen, dass auch eine funktionierende Wasserstoffökonomie noch Restemissionen an Treibhausgasen produzieren wird», sagt Terlouw. Die Studie beziffert diese Restemissionen auf fast eine Gigatonne CO2-Äquivalenten pro Jahr. Aktuell bewegen sich die Gesamtemissionen um die 40 Gigatonnen. «Die Klimawirkung ganz auf null zu reduzieren, wird nicht möglich sein», bestätigt Christian Bauer.

Das liege vor allem daran, dass auch die Produktion und Verteilung von Wasserstoff mit Emissionen einhergeht. Zum einen geraten geschätzte 2,5 Prozent des Wasserstoffs durch Lecks und Undichtigkeiten in die Atmosphäre, wo der Wasserstoff indirekt selbst als Treibhausgas wirkt. Denn er fördert die Bildung effektiver Treibhausgase wie Methan und Ozon. Zum anderen weisen Elektrolysesysteme sogenannte graue Emissionen auf, welche bei der Herstellung und dem Transport der benötigten Materialien anfallen, selbst wenn die fertigen Anlagen letztlich mit Ökostrom betrieben werden.: «Viele Anlagen und Maschinen, die in der Wasserstoffökonomie zum Einsatz kommen, werden in Ländern hergestellt, deren Produktion auch in absehbarer Zeit noch grossenteils auf fossilen Energieträgern basiert», berichtet Terlouw. «Die meisten Solarmodule etwa stammen heutzutage aus China, wo der Strom noch überwiegend aus Kohlekraftwerken kommt.»
Wer das Ziel der Klimaneutralität ernst meint, muss solche Restemissionen ausgleichen, indem entsprechende Mengen Kohlendioxid aus der Atmosphäre gefiltert werden. Dafür böten sich Technologien wie Direct Air Capture an, bei der spezielle Apparate CO2 aus der Luft einfangen. Oder Aufforstung: Die zusätzlich wachsenden Bäume binden gewisse Mengen an Kohlenstoff aus der Luft.

Kritische Materialien

Auch weitere Umwelteffekte einer Wasserstoffökonomie jenseits des Klimas sollten laut Terlouw und Bauer Beachtung finden: In den Maschinen und Anlagen finden diverse Materialien Verwendung, die entweder selbst umweltschädlich sind oder deren Produktion die Umwelt belastet. In Windturbinen sind das etwa Dauermagnete, die auf Seltenen Erden basieren, also Metallen, deren Gewinnung in China nicht den europäischen Umweltstandards genügt. Bei der PEM-Elektrolyse kommt als Katalysator das Metall Iridium zum Einsatz, das allein schon wegen seiner Seltenheit als kritisch gilt. Und die grossen Mengen an Land und Wasser, die für die Herstellung von Wasserstoff benötigt werden, können ebenfalls einen negativen Umweltfaktor darstellen.

«Nicht zuletzt stellt sich da die grosse Frage der sozialen Akzeptanz», gibt Tom Terlouw zu bedenken. «Werden die Menschen akzeptieren, dass Küstenlandschaften zum Beispiel von grossen Wasserstoffproduktionsanlagen eingenommen werden?» In wasserarmen Gebieten müsste das Meerwasser vor der Elektrolyse zunächst entsalzt werden, was zusätzliche Energie und Land erfordert. «Solche Faktoren haben wir in dieser Arbeit noch nicht berücksichtigt», räumt Christian Bauer ein. «Dazu sollen weitere Studien folgen. Wir wollen mögliche Wege der Energiewende aufzeigen. Ob und wie konsequent wir sie dann beschreiten, ist am Ende eine gesellschaftlich-politische Frage.»

Text: Jan Berndorff

Weltweite Gefahren durch Elon Musk – vom Heilsbringer zum Verschwörer

(The Pioneer) – Wie Elon Musk durch sein mächtiges Netzwerk – im Silicon Valley und auf X – zum politischen Sprachrohr und Drahtzieher der republikanischen Rechten wurde.

Auf X postete Elon Musk vergangene Woche ein Video über einen vermeintlichen Kampagnenspot von Kamala Harris. Die demokratische Präsidentschaftskandidatin erklärt dort, Joe Biden sei senil, sie selbst eine Quotenfrau und Marionette eines geheimen Machtnetzwerks. Eine Woche später wurde das Video über 130 Millionen Mal angeschaut, knapp 300.000 Mal geteilt.

Dass der Spot ein Deep-Fake ist und Kamala Harris das nicht wirklich gesagt hat, ist dank Künstlicher Intelligenz (KI) zwar nicht zu erkennen, aber doch einfach zu kombinieren. Ein paar Millionen Nutzer haben ihm womöglich trotzdem geglaubt, weil sie sonst niemandem glauben erst recht nicht den von Musk verteufelten Mainstream-Medien.

7 weitere Male hat Musk seit Anfang vergangener Woche über Harris gepostet. 19 Mal über Donald Trump. 31 Tweets feuerte er über die Wahlen in Venezuela ab. Zig über die angebliche Gehirnwäsche durch die sogenannten Mainstream-Medien und ebenso viele über illegale Einwanderung. Insgesamt teilte er in fast 200 Posts, oft im Minutentakt, seine Gedanken mit der Welt.

Bekanntermaßen ist der 53-Jährige reichste Mensch der Welt (Vermögen: mehr als 230 Milliarden US-Dollar) nicht nur Nutzer, sondern auch Eigentümer der Plattform X, die vorher Twitter hieß. Daneben ist er CEO von Tesla, dem Raumfahrtunternehmen SpaceX, mit dem er die Menschheit „multiplanetar“ machen möchte, dem Neurotechnologie-Unternehmen Neuralink und dem KI-Unternehmen xAI.

Seit seiner Kindheit in Südafrika, geprägt von seinem fanatisch-gewalttägigen Vater, hat ihn eine Art Krisenmodus angetrieben, in dem er sich stets zu befinden scheint. Seine milde Form von Autismus macht ihn genial in seinen Geschäftsvorhaben, aber oft gemein im Umgang mit seinen Mitmenschen. In der US-Show Saturday Night Live sagte er 2021:

Allen, die beleidigt sind, möchte ich sagen: Ich habe Elektroautos neu erfunden und schieße Menschen in Raketen zum Mars. Dachtet ihr wirklich, ich wäre ein gechillter, normaler Kerl?

Wer sein Lebenswerk anschaut, versteht: Für Musk geht es bei all seinen Vorhaben – technologisch und politisch – um den Erhalt der menschlichen Zivilisation. Und diese menschliche Zivilisation ist in seinen Augen stets bedroht. „Ich höre Podcasts über den Untergang von Zivilisationen, um einzuschlafen“, erklärte er im Frühjahr bei einer Konferenz.

Abgesehen von dieser apokalyptischen Konstante hat Musks Weltbild in den vergangenen Jahren allerdings einen radikalen Wandel durchlaufen. Er wurde vom exzentrischen Tech-Milliardär zum größten Polit-Influencer der Welt. Seine Vision als Unternehmer ist heute längst nicht mehr von seiner politischen Mission zu trennen. Und in diesen Tagen erst recht nicht mehr vorrangig.

Denn heute wird die Zivilisation in seinen Augen nicht mehr in erster Linie durch Klimawandel oder Krieg bedroht, sondern von einem gesellschaftspolitischen Phänomen namens Wokeness, einer Art der politischen Korrektheit, unter dessen Deckmantel sich eine menschenfeindliche Ideologie verberge.

Hört sich lächerlich an? Vielleicht. Doch Musk gibt Einblick in (s)eine Denkschule, die in den USA gerade Hochkonjunktur hat. Sie wird von Eliten im Silicon Valley und US-Bürgern in Wohnwagen-Siedlungen geteilt, von weltweit Millionen Menschen – und bestimmt den US-Wahlkampf maßgeblich mit.

Die rote Pille

Noch 2016, als erfolgreicher Geschäftsmann, spendete Elon Musk an den Demokraten Barack Obama. Bei der Wahl 2020 hoffte er auf einen Sieg Joe Bidens. Heute könne ein weiterer Sieg der „Linken“ das Ende der Zivilisation einläuten, glaubt der Milliardär.

Bereits während der Corona-Pandemie verschlechtert sich Musks Verhältnis zu den Demokraten. Sie wollen sein Tesla-Werk in Fremont, Kalifornien, schließen. Musk findet das „faschistisch“. Das Werk bleibt offen.

Zur gleichen Zeit schreibt Musk auf Twitter über die „rote Pille“, sie offenbart im Film Matrix die Wahrheit über die Welt. Wer sie nimmt, wird aus der Simulation befreit. Musk hatte schon immer den Hang zur Verschwörung. Die Differenzen zwischen dem zunehmend libertär denkenden Tech-Milliardär Musk und den für amerikanische Verhältnisse linken Demokraten werden immer unüberbrückbarer.

„Ich bin (nach Kalifornien) gekommen, weil es das Land der Möglichkeiten war“, sagt er im Interview mit dem Autor und Journalisten Walter Isaacson, der über Musk eine Biografie geschrieben hat. „Jetzt ist es das Land der Rechtsstreitigkeiten, Regulierung und Steuern.“ Von Joe Biden entfernt er sich auch durch seine Abneigung für Gewerkschaften und Arbeiterrechte.

Im Mai 2022, auf dem Weg zu einem Treffen mit Brasiliens nationalistischem Präsidenten Jair Bolsonaro, erklärt er seine neue Wahlpräferenz – die Republikanische Partei. Er unterstützt jetzt den ultrakonservativen Republikaner Kevin McCarthy. Gleichzeitig betont er aber immer wieder, dass er gemäßigt denkt, die „linke“ Seite der Republikaner möge.

„Die Transformation von Twitter hat Musk radikalisiert“, sagt uns Ethan Zuckerman, Professor der Medienwissenschaften an der University of Massachusetts Amherst und ehemaliger Direktor des MIT Center for Civic Media. Seine Spielwiese – so empfand Musk – entwickelte sich immer stärker zu einem woken Forum, das andere Meinungen unterdrückte. Zuckerman:

Musk entwickelt eine Obsession mit dem „Woke-Virus“, das sich in seinen Augen besonders über Twitter ausbreite. Es sei „anti-menschlich“. Es arbeite gegen die Wissenschaft und gegen das Leistungsprinzip. Und es bringe Menschen dazu, sich selbst zu hassen.

Seine eigene Tochter, so empfindet er, wurde von dem Woke-Virus „getötet“, als sie eine Geschlechtsumwandlung vornahm. Musk habe sie – damals als Junge – aufgrund ihrer weiblichen Züge gehänselt, erklärte sie daraufhin – wenn er überhaupt mal zu Hause war. Vor vielen Jahren brach ihr Kontakt ab.

So wird der Kauf des sozialen Netzwerks Ende Oktober 2022 Teil seiner anti-apokalyptischen Mission. In einem TED-Talk sagt Musk:

Eine öffentliche Plattform, die ein Höchstmaß an Vertrauen genießt und alle Menschen einbezieht, ist für die Zukunft der Zivilisation äußerst wichtig.

Der Twitter-Kauf

Als Besitzer und CEO von Twitter wird Musk vom Tech- zum Medien-Mogul und damit politisch unumgehbar. „Twitter nimmt in der Politik einen besonderen Platz ein, weil alles öffentlich ist“, sagt Zuckerman. Es sei die „Hintertür“ in die Medienbranche.

Unmittelbar nachdem er Twitter für 44 Milliarden Dollar übernommen hatte, lässt er tausende Accounts, die wegen Hassrede und sonstigen Verstößen zuvor gesperrt wurden, wieder freischalten – im Namen der Meinungsfreiheit. Darunter war auch der Account von Donald Trump, der wegen seines Aufrufs zu Gewalt am 6. Januar 2021 permanent gesperrt war und zwischenzeitlich sein eigenes Medium gründete – das er bis heute anstatt X nutzt.

Es ist der ultimative Griff nach Macht über den öffentlichen Diskurs. Wer Twitter besitzt, entscheidet, was trendet. Denn es kann auf dem sozialen Netzwerk zwar jeder posten, aber bei wem welcher Post in der Timeline landet, das entscheiden Menschen.

Seine Vorahnung bestätigte sich: Die Untersuchung zeigt tatsächlich, dass Twitter-Mitarbeiter politisch voreingenommen bei der Drosselung der Reichweite oder Sperrung von Accounts vorgegangen waren. Corona-kritische und konservative Konten wurden auffällig häufig verborgen oder sogar gesperrt, während ihre linken Pendants keine solchen Konsequenzen zu befürchten hatten.

Nur Tage später sperrt Musk allerdings mehr als zehn Journalisten auf seiner nun eigenen Plattform, unter anderem von der New York Times und der Washington Post, die negativ über ihn berichtet hatten. Das neue Twitter habe das gleiche Problem wie das alte, schreibt Bari Weiss nur sieben Tage später. Musk zieht sie sofort von der Untersuchung ab.

Laut einer Investigativ-Recherche des Technikportals The Verge hat Musk im Februar 2023 rund 80 X-Ingenieure dazu verpflichtet, die Reichweite seiner eigenen Tweets künstlich um den Faktor 1.000 zu erhöhen. Der Auslöser war ein X-Post von Präsident Joe Biden zum Super Bowl, der 29 Millionen Aufrufe erhielt, während Musks Post zum gleichen Thema nur 9 Millionen Menschen sahen. Nun werden auch seine politischen Posts an noch mehr Millionen von Timelines gespült.

Die Trump-Allianz

Bestärkt in seinen eigenen Denkmustern, rückt Musk ideologisch immer näher an Trump und die republikanische Rechte. Weniger Steuern, Regulierung, Migration und Wokeness – hier herrscht Einigkeit.

Im März sollen Trump und Musk bei einem Treffen des Milliardärs Nelson Peltz (der als aktivistischer Investor Disney von seinem Woke-Kurs abbringen wollte) über ihre gemeinsame politische Zukunft verhandelt haben. Trump soll Musk laut US-Medien einen Beraterposten in Aussicht gestellt haben. So könnte er auch offiziell Einfluss nehmen, etwa wenn es um Steuererleichterungen für Elektroautos oder Verträge für sein Raumfahrtunternehmen SpaceX geht.

Dafür aktivieren Musk und sein mächtiges Netzwerk ihre Einlagen. Bei einem geheimen Abendessen im April soll Musk mit seinen langjährigen Vertrauten aus PayPal-Zeiten David Sacks und Peter Thiel sowie dem ehemaligen Finanzminister Steven Mnuchin und dem Medienmogul Rupert Murdoch überlegt haben, wie sie für Trump unter dem Radar spenden können.

Elon Musk, David Sacks und der langjährige Trump-Unterstützer Peter Thiel arbeiteten in den frühen 2000er Jahren bei dem Zahlungsdienstleister PayPal zusammen und teilen libertäre Ansichten. Das Trio ist im Silicon Valley wegen ihres einflussreichen Netzwerkes und gemeinsamen Vermögens von 250 Milliarden Dollar als PayPal-Mafia“ bekannt.

Einen Tag nach dem versuchten Attentat auf Donald Trump, am 14. Juli, gibt Musk auf X seine offizielle Unterstützung für den republikanischen Kandidaten bekannt. Nur wenige Tage später, auf dem Parteitag der Republikaner in Milwaukee, wird J. D. Vance der Vizepräsidentschaftskandidat von Trump. „Einer von Trumps Großspendern, Peter Thiel, hat ein gutes Wort für Vance bei Trump eingelegt“, berichtet der USA-Experte Josef Braml.

Vance – der Trump 2016 noch als amerikanischen Hitler bezeichnete – arbeitete nach seinem Studium für die Investment-Firma von Peter Thiel und ist mit ihm sowie auch mit Sacks und Musk eng befreundet. Sollte Trump gewinnen, wäre er ihr Stellvertreter im Weißen Haus.

Im Juni errichteten unter anderem Joe Lonsdale, der mit Thiel das Unternehmen Palantir gegründet hatte, und die beiden Investoren-Brüder Cameron und Tyler Winklevoss ein politisches Komitee für die Organisation von Spenden für Trump – das America PAC (PAC = Political Action Committee).

Musk soll laut dem Wall Street Journal über das America PAC monatlich 45 Millionen Dollar an die Trump-Kampagne spenden. Auch wenn er selbst den Bericht seit seiner Veröffentlichung mehrfach dementierte, hat Trump die frohe Botschaft schon längst für sich instrumentalisiert.

Auf einer Wahlkampfveranstaltung in Michigan erzählt der Präsidentschaftskandidat bereits von den besagten 45 Millionen, die der Tech-Mogul ihm treu und regelmäßig spende. Am Sonntag rief die Trump-Kampagne ihre Anhänger zum Spenden per E-Mail auf. Der Betreff: „I Love Elon Musk!“.

Der virtuelle Wahlkampf

Während Musk im realen Leben weiter von öffentlichen Auftritten für die Republikaner absieht, wird er auf X immer stärker zu ihrem Sprachrohr: Heftige Kritik an Kamala Harris‘ politischer Agenda kombiniert er dort mit Verschwörungen über die Propaganda der Mainstream-Medien, mit vermeintlichen Enthüllungen über voreingenommene Algorithmen von Big-Tech-Unternehmen wie Google, die gezielt republikanische Inhalte unterdrücken sollen.

Dass er selbst das gleiche Spiel nur andersherum treibt, scheint ihn nicht zu stören. „Seine Vorstellung von Meinungsfreiheit lautet: Ich entscheide, wer gehört werden sollte“, sagt Zuckerman. „Natürlich ist das heuchlerisch“.

Mit dem Start in die heiße Phase des US-Wahlkampfes häufen sich auch die Klagen über Probleme auf der Plattform. Zahlreiche Nutzer etwa beschwerten sich, sie seien nicht in der Lage, dem X-Konto von Harris zu folgen, nachdem sich Präsident Joe Biden aus dem Rennen zurückgezogen hatte.

Zuletzt fordert der demokratische Abgeordnete aus New York, Jerry Nadler, den Justizausschuss des Repräsentantenhauses auf, X zu untersuchen, und bezeichnete den Vorfall als ein „ernstes und zeitkritisches Zensurproblem“.

Anfang dieser Woche sperrte X auch den Account „White Dudes for Harris“, kurz nachdem dieser mit einem massiven Spendenaufruf über vier Millionen Dollar für die voraussichtliche Kandidatin der Demokraten aufgebracht hatte. Gerade weil Musk in der Vergangenheit gezeigt hat, wie bereit er ist, in den Algorithmen seiner Plattform herumzupfuschen, sei es nicht sonderlich glaubwürdig, dass es sich hier um Zufälle handle, denkt Ethan Zuckerman.

Unterdessen erscheinen mit schwindelerregender Geschwindigkeit neue Posts von Musk auf den Timelines der X-Nutzer weltweit. 13 Mal werden in dieser vergangenen Woche die Erfolge von SpaceX gefeiert, dazwischen geht es 14 Mal um die „wahnsinnige“ Transgender-Politik der Demokraten. Er teilt Vorschläge zur Förderung von Elektroautos, empört sich über illegale Migration und propagiert gleichzeitig die Idee einer Arche Noah auf dem Mond.

mmer wieder propagiert Musk das Buch des kanadischen Marketingprofessors Gad Saad – so auch am Donnerstag. Gaad beschreibt eine Welt, in der das Woke-Virus überhand genommen hat, in der Gedanken- und Meinungsfreiheit der Tyrannei der politischen Korrektheit gewichen ist. „Furchterregend präzise“, meint Musk. Ein Gedankenanstoß liefert Saads Werk auch:

Um ein wirklich weiser Mensch zu sein, müssen wir erkennen, welche Bereiche am besten von unserem Intellekt und welche am besten von unseren Gefühlen geleitet werden.