Archiv der Kategorie: Physik, Chemie, Technik

Armes digitales Deutschland – eine Intervention eines klugen Professors für Mathematik

Prof. Ulrich Trottenberg schrieb an eine NRW-Behörde:

Dass Deutschland digital so weit zurückliegt, ist nicht nur, und auch nicht in erster Linie, ein Netz- und Infrastrukturproblem. Derartige Probleme kann man im Prinzip mit Geld und einer entsprechenden politischen Initiative lösen, zumindest systematisch in Angriff nehmen.

Das digitale Problem liegt tiefer. Es liegt in der digitalen Lethargie und der algorithmischen Hilflosigkeit der deutschen Öffentlichkeit. Alles Digitale ist algorithmisch geprägt und wird durch Algorithmen gesteuert: Rechner, Netze, Datenstrukturen und -flüsse usw. Tatsächlich begleiten Algorithmen unser gesamtes Leben, in geradezu jeder Minute, und prägen immer stärker auch unsere Arbeitswelt. Trotzdem sind Algorithmen in den Köpfen der meisten Menschen, auch vieler Gebildeter und Intellektueller, etwas merkwürdig Fremdes und Abstraktes. Man hört und liest das Wort „Algorithmen“ täglich, aber man weiß nicht, jedenfalls nicht genau, was das ist. Schon das Wort ist unverständlich.

In scheinbar merkwürdigem Gegensatz dazu, de facto aber dazu passend, gelten Algorithmen als bedrohlich, gefährlich, unheilbringend.

Ein aktuelles Beispiel für eine massive Verunsicherung ist die ChatGPT Entwicklung. Die Medien überschlagen sich in Kommentaren, von begeisterter Faszination bis zu rigoroser Ablehnung. Und das alles wird bizarr, wenn den generativen Algorithmen menschliche Eigenschaften zugeordnet werden: Die Chatroboter „denken“, die Maschinen haben eine „Seele“, sie reagieren „sensibel“ und haben „Emotionen“. Perspektivisch werden auf der einen Seite großartige Utopien beschworen und und auf der anderen Seite Dystopien der Bedrohung der Menschheit durch intellektuell überlegene Maschinen.

Kaum jemand bemüht sich, sachlich zu erklären, was da in den Algorithmen abläuft, wie und warum so verblüffende Ergebnisse erzielt werden.

Die digitale Lethargie der deutschen Gesellschaft beruht vor allem auf einer Fehlentwicklung der digitalen Bildung! Insbesondere Algorithmen haben bis heute keine Relevanz als zentrales Bildungsgut.

Solange das so bleibt, nutzt auch die bessere Vernetzung nicht viel. Das mangelnde digitale Verständnis der Öffentlichkeit ist das Problem der deutschen Gesellschaft, jedenfalls nicht nur die mangelhafte Infrastruktur.

Mit den besten Grüßen

Ulrich Trottenberg

Ich reagiere mit dieser Mail auf die Ankündigung der Vorstellung Ihres Buches bei der FES, nicht auf Ihr Buch. Ich habe Ihr Buch noch nicht gelesen, werde das aber sicher tun und bin sehr gespannt.

In Zukunft Perowskit-Zellen

Photovoltaiktechnologien sind Eckpfeiler aller Zukunftsszenarien einer nachhaltigen Energieversorgung. Innovative, kostengünstige und hocheffiziente Materialien für die Solarmodule der nächsten Generation zu entwickeln, ist daher von höchster Dringlichkeit. Derzeit gilt insbesondere die Materialklasse der Perowskit-Halbleiter als äußerst aussichtsreich für die Solarzellen der Zukunft. Den wirtschaftlichen Durchbruch dieser Technologie verhindern derzeit jedoch die noch nicht ausreichende Stabilität und die Herausforderung, auf großer Fläche hochwertige Perowskit-Dünnschichten herzustellen. Mit dem Projekt „LAMI-PERO“ will Tenure-Track-Professor Ulrich W. Paetzold einen radikal neuen Herstellungsprozess entwickeln, der das Potenzial hat, diese Schwierigkeiten zu überwinden. Ziel des Projekts ist es, ein grundlegendes Verständnis darüber zu etablieren, wie Perowskit-Dünnschichten unter hohem Druck entstehen, außerdem stabilere und neuartige Zusammensetzungen der Perowskit-Halbleiter zu entdecken und damit hocheffiziente Perowskit-Solarzellen und Tandem-Solarzellen herzustellen.

Aus dem EU-Parlament: Green-Deal, Industriepolitik, Wasserstoff

(EU) – Am 1. Februar hat die Europäische Kommission ihren „Green Deal Industrieplan“ vorgestellt. Die EVP-Fraktion begrüßt diesen Plan, bedauert aber, dass er nicht früher vorgelegt wurde und nur begrenzte Wirkung entfalten wird. Christian Ehler, MdEP für Brandenburg, äußert sich kritisch zum EU-Plan und zeigt die Auswirkungen für Brandenburg auf.

„Endlich entdeckt die Kommission ihr vernachlässigtes „Deal-Versprechen“ im Green Deal. Das hätte schon vor vier Jahren geschehen müssen, als der Green Deal vorgestellt wurde. Jetzt ist jedoch klar, dass die Kommission bei dem Versuch, die europäische Industrie wieder wettbewerbsfähig zu machen, an ihre intellektuellen und politischen Grenzen gestoßen ist.

Dies zeigt sich in dem übermäßig regulativen, nicht technologieneutralen Ansatz für Wasserstoff, der jegliche Wettbewerbsfähigkeit der EU im Vergleich zu den USA und China zerstören wird. Mit der Richtlinie zu Industriemissionen stranguliert die Kommission erneut unsere Industrie, indem sie Investitionsanreize in Europa für Großunternehmen, aber auch für kleine und mittelständische Betriebe eliminiert. Zudem ist die alleinige Konzentration auf Clean-Tech-Technologien vereinfachend, greift zu kurz und vernachlässigt, dass Europa fit für das digitale Zeitalter sein muss. Auch die Unterfinanzierung von Forschung und Innovation in Europa und in der europäischen Industrie selbst bleibt unerwähnt.

Gerade in Brandenburg sind die Weichen für Wasserstoff-Technologien auch deshalb gestellt, weil es hier auch darum geht, die traditionell stärkere Abhängigkeit der ostdeutschen Bundesländer von russischen Rohstofflieferungen loszuwerden.

Zudem spielt Wasserstoff eine wesentliche Rolle im Strukturwandelprozess im Süden des Landes. Dort soll die H2-Technologie herkömmliche Prozesse, die bislang auf Braunkohle basierten, ablösen. Vielversprechende H2-Projekte wie das erst vor kurzem an den Start gegangene Referenzkraftwerk Lausitz (Reflau) in Schwarze Pumpe oder das Green Areal Lausitz (GRAL) in Jänschwalde, welches als grünes Industriegebiet entwickelt wird, gilt es zu verstetigen.

Mit Blick auf die aktuelle Situation und die ambitionierten Ziele des Green Deal ist eine weitere Überbürokratisierung zu verhindern. So muss sich z.B. die Revision der Industrieemissionsrichtlinie (IED) als Teil des Gesamtpakets gesetzlicher Regelungen auf die wesentlichen Umweltaspekte der Industrieproduktion beschränken und zu schnellem Handeln beitragen. Wenn die IED-Revision kommt, dann wäre in Deutschland ein neues System der Grenzwertsetzung während der Genehmigungsphase einzuführen, welches mit erheblichen Unsicherheiten auf Seiten der Betreiber und Behörden behaftet ist. Das System würde eine Verzögerung von Genehmigungen von bis zu sechs Monaten bedeuten. Solche Regelungen zwingen unsere Brandenburger Unternehmen in die Knie.“

Weltweite Dominanz Chinas von Produktion und Anwendung der Photovoltaik – Mit einer Einführung von Jean Pütz

Das hat Deutschland verpasst, anfangs führend in der Produktion von Solar-Paneele, z. B. durch Solarworld, hat die Politik völlig versagt. Die Technologie landete fast kostenlos nach China, weil keiner gemerkt hat, dass die extremen staatlichen Subventionen in diese  Zukunftstechnologie der deutschen Industrie sämtlich Wettbewerbsfähigkeit genommen hat. Die Chinesen haben den deutschen und europäischen Markt mit ihren preiswerten Paneelen überschwemmt. Jetzt muss Deutschland 90% der Photovoltaik – basierend auf Silizium – importieren.

Ich hoffe, dass die in Deutschland entwickelte, sehr aussichtsreiche Technologie des sogenannten Perowskit mit wesentlich höheren Wirkungsgraden dieses Mal nicht verpasst wird und die Großindustrielle Produktion in der Priorität gefördert wird. Perowskit-Paneele kommen ohne mono- und polykristallines Silizium und sind daher erheblich preiswerter herzustellen. Auch hier ist Deutschland wieder führend in der Technologie.

Lesen Sie dazu einen Auszug aus ‚The Pioneer Briefing‘ von Gabor Steingart

Jean Pütz

China führt in der Solarindustrie

Diese Weltmarktposition ist hart erarbeitet. Das Land gab allein in den ersten sechs Monaten des Jahres 2022 rund 41 Milliarden Dollar für große Solarprojekte aus. 173 Prozent mehr als im Vorjahr.

Deutschland selbst war einst auf dem Weg zu einer führenden Photovoltaik-Industrie, heute bezieht es 95 Prozent der Solaranlagen aus China. Der weltweite Anteil Chinas an der Produktion von Solarmodulen beträgt inzwischen über 70 Prozent, heißt es in einem Bericht der Internationalen Energieagentur (IEA).

Dabei exportiert China nicht nur, sondern ist selbst zum Boom-Markt für Photovoltaik geworden. Von null auf 300 Gigawatt installierter Leistung in 15 Jahren. Europa kommt nur auf gut 140 Gigawatt, wovon 40 Prozent in Deutschland stehen.

Wo Wasserstoffproduktion für Deutschland?

(FOCUS) – Eine Million Tonnen Wasserstoff ließen sich künftig vor Deutschland an Windrädern in der Nordsee Haustür herstellen. Mehr als 100 deutsche Unternehmen haben sich zu diesem ehrgeizigen Plan zusammengetan und wollen mehr als 10 Milliarden Euro investieren.

Wasserstoff wird, da sind sich Wissenschaftler wie Politiker einig, eine der Säulen einer künftig klimafreundlicheren Wirtschaft werden. Die Bundesregierung hat dazu 2020 eine nationale Wasserstoffstrategie beschlossen. Diese unterliegt einer Farbenlehre. Wenngleich Wasserstoff selbst immer ein farbloses Gas ist, will die Regierung vor allem grünen Wasserstoff fördern. So wird derjenige genannt, welcher mit Strom aus erneuerbaren Energien hergestellt wird.

Um an genug grünen Wasserstoff zu gelangen, hat Deutschland Partnerschaften geschlossen. Der Rohstoff soll etwa aus Australien, Neuseeland, Kanada und vielen afrikanischen Ländern wie Namibia, dem Kongo, Südafrika und Angola. Der Vorteil dieser Länder ist, dass sie große Flächen für erneuerbare Energien wie Photovoltaikanlagen und Windräder bieten, sowie Zugang zu (Meer-)Wasser. Das sind exakt die einzigen beiden Rohstoffe, die für die Herstellung von grünem Wasserstoff benötigt werden.

Doch für ideale Voraussetzungen muss man gar nicht weit in die Ferne schweifen. „Was Saudi-Arabien mit Öl hat, das haben wir in der Nordsee“, sagt Urs Wahl und meint damit: Ideale Bedingungen und nahezu unerschöpfliche Reserven. Er ist Sprecher des Netzwerkes AquaVentus. In ihm haben sich mehr als 100 deutsche Unternehmen zusammengeschlossen, um grünen Wasserstoff in der Nordsee zu produzieren und per Pipeline an die Küste zu liefern.

Eine Million Tonnen Wasserstoff aus der Nordsee

Technisch funktioniert das mit einer Methode, die sich „Wind-to-Hydrogen“ nennt. Dazu werden Offshore-Windräder im Meer aufgestellt, an deren Fuß eine Entsalzungsanlage für Meerwasser sowie ein Elektrolyseur angebracht ist. Der kann mit dem Strom aus dem Windrad das Wasser in seine Bestandteile Wasserstoff und Sauerstoff spalten. Als Abgas entsteht dabei nur der Sauerstoff, der vor Ort einfach in die Luft entlassen werden kann. Die Windräder sind zudem an eine Sammelpipeline angeschlossen, die den Wasserstoff sofort an die Küste transportiert. Dort kann die in ihm gespeicherte Energie dann genutzt werden. „Grüner kann der Wasserstoff gar nicht mehr sein“, sagt Wahl schwärmend.

Erster Abnehmer für Wasserstoff aus der Nordsee wären die Stahl- und die Chemieindustrie. Hochöfen mit Strom zu betreiben, wäre viel zu aufwändig und teuer. Mit Wasserstoff lassen sich die hohen Temperaturen, die heute noch meist mit Erdgas erzeugt werden, auch klimafreundlich halten. Die Salzgitter AG hat für ihre Werke in der gleichnamigen niedersächsischen Stadt deswegen zum Beispiel schon 2020 einen eigenen Windpark mit sieben Anlagen gebaut, um eigenen grünen Wasserstoff zu erzeugen.

Das Potenzial in der Nordsee wäre ungleich höher. AquaVentus rechnet damit, ab 2035 rund zehn Gigawatt Leistung installiert zu haben. Das ist mehr als alle Offshore-Windräder Deutschlands heute besitzen. Mehr als 700 Anlagen wären dafür notwendig, sie sollen dann rund eine Million Tonnen grünen Wasserstoff im Jahr liefern. Überschüssigen Strom aus den Windrädern gäbe es dabei nicht, alles würde sofort in die Wasserstoff-Produktion fließen. Zwar braucht Deutschland nach Berechnungen von Experten wesentlich mehr als eine Million Tonnen Wasserstoff in der Zukunft, aber die Windräder aus der Nordsee könnten einen wichtigen Beitrag liefern. Zum Vergleich: Deutschlands Stahlbranche soll nach Berechnungen der Bundesregierung 2050 einen Bedarf von 2,2 Millionen Tonnen Wasserstoff haben. Mit 5,5 Millionen Tonnen ließe sich schon die gesamte europäische Stahlindustrie auf den klimafreundlichen Rohstoff umstellen.

Prototyp entsteht bis 2025 vor Helgoland

Wind-to-Hydrogen in der Nordsee hätte dabei noch zwei weitere Vorteile: Erstens würden die Windparks dafür wohl im so genannten „Entenschnabel“ aufgestellt. Das ist ein Bereich der ausschließlichen Wirtschaftszone Deutschlands, der schnabelartig herausragt. Er liegt rund 300 Kilometer von der Küste entfernt. Windräder zur Stromproduktion würden sich hier nicht rentieren, weil die Verkabelung über eine solche Distanz zu teuer ist. Eine Pipeline für Wasserstoff lässt sich jedoch einfacher verlegen. Das führt zum zweiten Vorteil: Die Produktion im Entenschnabel würde sich selbst mit Strom versorgen, es wären keine Kapazitäten notwendig, die eigentlich für die allgemeine Stromversorgung Deutschlands gedacht sind.

Noch ist all das aber Zukunftsmusik. Das AquaVentus-Netzwerk, dem unter anderem auch Energieriesen wie RWE und Maschinenbauer wie Siemens Energy angehören, hat sich 2020 auch deswegen gebildet, um verschiedene Konzepte zu entwickeln und sich darüber auszutauschen. Zwar ist die Technik an sich bekannt und banal, muss aber auch optimiert werden. „Wir müssen auf jeden Fall wettbewerbsfähig zu anderen Technologien sein“, sagt Wahl und meint damit vor allem den Preis. Grüner Wasserstoff aus der Nordsee wird sich am Ende nicht über Heimatverbundenheit, sondern einzig über den Preis verkaufen.

Neue Bilder aus dem Weltall

Das James-Webb-Weltraumteleskop (engl.: James Webb Space Telescope, abgekürzt JWST oder Webb) ist ein Weltraumteleskop für die Infrarotastronomie.

Es wurde ab 1996 als gemeinsames Projekt der Weltraumagenturen NASA(USA), ESA (Europa) und CSA (Kanada) entwickelt und kann als wissenschaftlicher Nachfolger des Hubble-Weltraumteleskops und des Spitzer-Weltraumteleskops betrachtet werden. Das JWST startete am 25. Dezember 2021 und erreichte zum 24. Januar 2022 eine Umlaufbahn um den etwa 1,5 Millionen Kilometer von der Erde entfernten Lagrange-Punkt L2 (von Erde und Sonne). Die ersten Bilder des JWST wurden der Öffentlichkeit am 11. und 12. Juli 2022 präsentiert. (Wikipedia)

25.11.2022 Illustration (Artist’s Impression) of WASP-39 b and Its Star
20.10.2022 Webb’s View Around the Extremely Red Quasar SDSS J165202.64+172852.3

 

 

Platin gegen den Stromhunger von Chips

(pte) – Die Schalteffizienz von Oxid-Halbleiter-Bauelementen lässt sich durch Platin-Nanopartikel maximieren und damit der Stromverbrauch entscheidend senken, wie Forscher um Junwoo Son und Minguk Cho vom Institut für Materialwissenschaften der Pohang University of Science & Technology (POSTECH) http://international.postech.ac.kr sagen. Son vergleicht die Technik mit Trittsteinen, die in Bächen liegen, um Fußgängern das Überqueren mit trockenen Füßen zu ermöglichen. Die Nanopartikel seien die Trittsteine, die den Elektronen, also dem elektrischen Strom, den Weg erleichtern und damit den Energieverbrauch senken.

Oxidmaterial als Schlüssel

Das Oxidmaterial, bei dem die Phase eines Materials bei Erreichen einer bestimmten Schwellenspannung schnell von einem Isolator zu einem Metall wechselt, ist das Schlüsselmaterial zur Herstellung von Halbleiterbauelementen mit geringem Strombedarf. Die Platin-Partikel senken ihn noch einmal. Wenn eine Spannung angelegt wird, überspringt der Strom sie gewissermaßen und der Wechsel vom Isolator zum Metall gelingt schneller. Zudem können derartige Halbleiter-Bauelemente mit niedrigerer Spannung betrieben werden, heißt es.

Die Forscher erwarten, dass ihre Technologie für die Entwicklung elektronischer Geräte der nächsten Generation unerlässlich wird, etwa für intelligente Halbleiter und sogenannte neuromorphe Halbleiter-Bauelemente, die riesige Datenmengen mit weniger Strom verarbeiten könnten. Der Stromverbrauch von Halbleitern begrenzt zunehmend deren Leistungssteigerung, weil sie nicht zu heiß werden dürfen und die Kühlleistung beschränkt ist. Verbrauchsarme Systeme könnten den Bedarf nach immer mehr Rechenleistung auf immer kleinerem Raum decken.

Wissenschaft muss allgemeinverständlich sein

(pte) – Der 53-jährige Max-Planck-Chemiker und -Molekularbiologe (MPG) Patrick Cramer hat gezeigt, wie das Coronavirus sein Erbgut kopiert und wie die COVID-19-Medikamente Remdesivir und Molnupiravir in diesen Kopierprozess eingreifen. Durch eigene Arbeiten und langjährige Nachwuchsförderung hat Cramer zur Entwicklung der Biowissenschaften beigetragen. Der für die Amtsperiode 2023 bis 2029 gewählte MPG-Präsident http://mpg.de engagiert sich auch für die Wissenschaftsreihe im Rahmen des Göttinger Literaturherbsts 2022 http://literaturherbst.com . Im Interview mit pressetext erläutert Cramer seine Vorstellungen, wie trotz mächtiger Algorithmen, Bots, Fake News unter anderem Erkenntnisse aus Wissenschaft und Forschung sachlich, fundiert und verständlich kommuniziert werden.

pressetext: Herr Cramer, Sie moderieren am 2. November in Göttingen die Veranstaltung mit den BioNTech-Gründern Özlem Türeci und Ugur Sahin sowie dem Journalisten Joe Miller. Was kann das Event zur Standortbestimmung und weiteren sachlichen Informationen rund um das Thema COVID-19 beitragen?

Zunächst geht es darum, was es konkret bedeutet, in so extrem kurzer Zeit einen Corona-Impfstoff herzustellen, noch dazu basierend auf der neuen mRNA-Technologie. Der Erfolg baut auf Jahrzehnten von Grundlagenforschung auf. Auch kamen in den letzten Jahren viele technologische Entwicklungen hinzu. Schließlich geht es um die Frage, wie es jetzt weitergeht im Kampf gegen das Virus: Lassen sich Impfstoffe so kombinieren, dass verschiedene Subtypen abgedeckt werden? Wie geht man damit um, dass noch immer viele skeptisch sind gegenüber der Impfung? Wie kann die Technologie noch verwendet werden, gegen welche andere Krankheiten werden wir bald neue Mittel in der Hand halten?

pressetext: Mit ihrem Team haben Sie gezeigt, wie das Coronavirus sein Erbgut kopiert und wie Remdesivir sowie Molnupiravir in diesen hochkomplexen Kopierprozess eingreifen. Wie lassen sich derartige Erkenntnisse und komplizierte Wirkmechanismen „Normalbürgern“ verständlich erklären?

Wir haben uns bemüht, eine anschauliche Sprache und ganz einfache Abbildungen zu wählen. Zudem haben wir Erklärvideos ins Netz gestellt und auch Aufzeichnungen von Vorträgen. Ich kam immer wieder mit der Öffentlichkeit ins Gespräch und habe auch allgemeine Artikel zum Thema Impfen geschrieben, um den vielen Fake News etwas entgegenzustellen. Die Schwierigkeit ist dabei nicht, dass man oft viele beleidigende oder bedrohende Kommentare erhält. Vielmehr sollten wir einen Weg finden, wie wir an das eine Drittel der Bevölkerung kommen, das sich mit solchen Videos, Vorträgen und Veröffentlichungen nicht erreichen lässt. Ein Schlüssel liegt in den sozialen Medien, auch wenn man dann in eine Blase geraten kann. Die öffentlich-rechtlichen Sender sind auch wichtig, denn sie produzieren sehr gute Erklärvideos, die weit verbreitet werden sollten.

pressetext: Komplexität und Informationsfülle überfordern immer mehr Menschen. Die Sehnsucht nach einfachen Antworten auf komplizierte Fragen steigt. Fake News sind allgegenwärtig. Wie können Wissenschaft, Politik und Medien aus Ihrer Sicht gegensteuern?

Die zunehmende Kompliziertheit unserer Umwelt und die Komplexität einiger Bereiche unserer globalisierten Welt führen oft zu Überforderung und stellen eine Bedrohung für freie Gesellschaften und demokratische Staaten dar. Denn nur Menschen, die urteilsfähig sind, treffen an der Wahlurne informierte Entscheidungen. Die Demokratien sollten organisierter Fehlinformation durch Kampagnen und Bots in den sozialen Medien vehement entgegentreten, wenn nötig auch durch entsprechende Gesetzgebung. Wichtig sind auch die Schulen. Hier sollte eingeübt werden, wie man mit den digitalen Medien umgeht und wie man sich sachkundig und neutral informieren kann. Die Wissenschaft hat nicht nur die Pflicht, ihre Ergebnisse allgemeinverständlich darzustellen. Wissenschaftler müssen auch Ergebnisse, die die Menschen direkt betreffen – Stichwort Klimaforschung oder Gesundheitsforschung – umgehend kommunizieren. Allerdings gibt es nicht nur eine Bringschuld der Wissenschaft, es gibt auch eine „Holschuld“ der Politik und Gesellschaft, wie es Reimar Lüst einmal formuliert hat. Damit gemeint ist eine Offenheit gegenüber der Wissenschaft und das Hochhalten der Prinzipen der Aufklärung.

pressetext: Der menschengemachte Klimawandel hat massive Auswirkungen. Am 4. November diskutieren Sie in Göttingen mit der Meeresbiologin Antje Boetius, was das für Ozeane, Tiefsee, Polarregionen und mikrobielle Biodiversität bedeutet. Wie lassen sich Klimaleugner überzeugen, die Fakten in Abrede stellen?

Dass es menschliche Aktivitäten sind, die zur derzeitigen Erderwärmung geführt haben, wurde bereits vor rund 100 Jahren vermutet und ist seit den 1980er-Jahren eindeutig belegt. Gerade habe ich das Max-Planck-Institut in Hamburg besucht, wo dieser Nachweis erbracht wurde durch den Nobelpreisträger Klaus Hasselmann und seine Mitarbeitenden. 2022 zu leugnen, dass der Klimawandel menschengemacht ist, ist nicht akzeptabel. Selbst wenn man die wissenschaftlichen Hintergründe nicht versteht, muss auffallen, wie sehr sich Dürren, Hochwasser und andere extreme Wettersituationen in den letzten beiden Jahrzehnten gehäuft haben und dass dies kein Zufall ist. Auch der Verlust an Biodiversität ist nicht von der Hand zu weisen und hat unseren Alltag erreicht. Tierarten sterben in nie da gewesener Geschwindigkeit aus.

pressetext: Algorithmen als „Gatekeeper“ von Information und Wissen sind nicht unumstritten. Wie kann die Wissenschaft aktuelle Ergebnisse ungefiltert, unverfälscht und direkt an den Bürger vermitteln? Wie müssen Künstliche Intelligenz (KI) und Algorithmen strukturiert sein, um, unabhängig von Meinungen und Interessen, Wissen sachbezogen und aktuell zu kommunizieren?

Algorithmen definieren unsere Medien-Blasen. Zudem bleiben die öffentlich-rechtlichen Sender wichtig, um Dinge zu hinterfragen und so aufzuarbeiten, dass ein ausgewogenes Bild entsteht. Demokratien müssen sich auch durch Gesetze gegen die zunehmende Macht der Maschinen über Meinungen wehren, denn es werden durch Bots ja bereits Wahlen beeinflusst. Im Moment werden die Such- und Sortier-Algorithmen im Netz von den globalen IT-Riesen vorgegeben. Hier geht es vor allem um die Maximierung von Konsum, etwa durch gezielte Werbung. Ich bin allerdings zuversichtlich, dass wir durch frühe Aufklärung in den Schulen und gesetzliche Maßnahmen auch diese Bedrohung in den Griff bekommen. Große Sorgen machen mir sogenannte Deep Fakes, die inzwischen so realitätsnah sind, dass selbst Experten darauf hereinfallen. Auch hier scheinen mir gesetzliche Leitplanken sinnvoll.

pressetext: Google, Meta, Apple, Amazon oder Unternehmer wie Elon Musk schaffen im Zeitalter von Internet und KI häufig einfach Fakten und setzen um, was technisch machbar ist. Die Folgen ihres Handeln auf den Menschen scheinen dabei auf der Strecke zu bleiben.

Wir erleben eine nie da gewesene Beschleunigung der kulturellen Evolution. Auch kann der Gesetzgeber manches Mal erst spät korrigierend eingreifen. Globalen Firmen unterhalten große Forschungsabteilungen, die die Entwicklung neuer Produkte weiter beschleunigt. Das Grundprinzip, wie Neues in die Welt kommt, bleibt erhalten. Alles beginnt mit Grundlagenforschung, angetrieben von unserer natureigenen Neugier. Solch eine aus Neugier getriebene, freie Grundlagenforschung auf höchstem Niveau ist die große Stärke der MPG und das so generierte Wissen ihr essenzieller Beitrag zu unserer Zukunft. Die Grundlagenforschung liefert „Vorratswissen“ und schafft neue Handlungsoptionen. Welche dieser Optionen dann umgesetzt werden, entscheiden wir als demokratische Gesellschaft. Oft entstehen aus der Forschung aber auch Ideen für die Anwendung und so kommt es zu Firmengründungen, zu neuen Produkten oder Dienstleistungen. Deshalb legen wir in der MPG großen Wert auf Scouting, um solche verwertbaren Ideen auch früh zu entdecken.

pressetext: Mit Ihrer MPG-Präsidentschaft verlagert sich einer Ihrer Arbeitsschwerpunkte nach München. Wie weit werden Sie dann noch die Wissenschaftsreihe des Göttinger Literaturherbsts 2023 mit initiieren und begleiten können?

Ich werde es mir erlauben, weiterhin ab und zu Vorschläge für Einladungen von herausragenden Autoren und Vortragenden zu unterbreiten, aber darüber werden dann allein meine Kollegen in Göttingen entscheiden, denen ich das Beste für künftige Veranstaltungen wünsche. Ich werde auch versuchen, in Zukunft nach wie vor bei der ein oder anderen Veranstaltung des Literaturherbsts dabei zu sein. Ich plane auch, das erfolgreiche Format der Abendveranstaltungen aus der Wissenschaftsreihe in München oder Berlin bei einzelnen Veranstaltungen anzuwenden. Vermissen werde ich den Literaturherbst in jedem Fall sehr.

Auf dem schwierigen Weg zum Fusions-Reaktor

(Max-Planck-Institut) – Vor 40 Jahren fanden Physiker am Max-Planck-Institut für Plasmaphysik einen neuen Plasmazustand, der sich besonders gut für die Energiegewinnung eignen könnte: die H-Mode. Am 8. November 1982 erschien der zugehörige Fachartikel, der der Fusionsforschung weltweit Auftrieb gab. Bis heute gehört die Untersuchung der H-Mode zu ihren wichtigsten Arbeitsgebieten.
 
Der Durchbruch kam an einem Donnerstag, an dem – wie oft davor – Plasmen mit Neutralteilchenheizung bei hohen Temperaturen untersucht werden sollten.  Diese Plasmen waren von einer hartnäckigen Gleichförmigkeit. „Doch mitten in der Serie änderten sich schlagartig die wichtigen Plasmaparameter. Alle Wissenschaftler im Kontrollraum von ASDEX merkten, dass etwas Außergewöhnliches passiert war“, erinnert sich Prof. Dr. Friedrich Wagner, der damals für dieses Forschungsgebiet bei ASDEX zuständig war. Anfangs glaubten viele, dass man es an diesem 4. Februar 1982 mit „schmutzigen Entladungen“ und großen Sägezähnen, also inneren Energierelaxationen, zu tun hatte. Tatsächlich machten Wagner und seine Kollegen am Max-Planck-Institut für Plasmaphysik (IPP) in Garching eine der bis heute wichtigsten Entdeckungen der Kernfusionsforschung: Sie fanden die H-Mode.
 
Vor 40 Jahren, am 8. November 1982 erschien der zugehörige Fachartikel in der Zeitschrift „Physical Review Letters“. Er beendete eine jahrelange Phase der Stagnation und der Enttäuschung in der Fusions-Community über den Nutzen der Neutralteilchenheizung. Zwar hatten die Forschenden in den 1970er Jahren Plasmen auf beachtliche Ionentemperaturen von sieben Kiloelektronenvolt heizen können – was kurzzeitig eine wahre Euphorie auslöste. Bald stellte sich aber heraus, dass die hohen Plasmatemperaturen durch eine Abnahme beim Energieeinschluss erkauft war. Es war so, als würde man ein Zimmer kräftig heizen und gleichzeitig die Fenster aufreißen. Dieses Plasmaverhalten stellte eine Gefahr für die weitere Entwicklung eines Fusionskraftwerks dar.
 
Viele in der Fusions-Community hielten die H-Mode für einen Messfehler
Heute heißt dieser ungünstige Betriebszustand L-Mode (Low-Confinement Mode). Wagners Entdeckung an ASDEX, dem Vorgänger des jetzigen Garchinger Experiments ASDEX Upgrade, bezeichnen die Forscher dagegen als High-Confinement Mode, kurz H-Mode. Dass es sich dabei tatsächlich um einen neuen Plasmaszustand handelte, war anfangs umstritten. „Ich fuhr im Juni 1982 zur Varenna Summer School in Italien, auf der ich unsere Ergebnisse erstmals öffentlich vorstellte. Besonders amerikanische Kollegen verbreiteten hinterher, dass wir in ASDEX den Plasmastrom nicht korrekt messen würden“, sagt Wagner, der später Direktor am IPP wurde. Erst beim nächsten wichtigen Symposium im September in Baltimore überzeugte er seine Kollegen – nachdem sie ihn vorher in einer stundenlangen Diskussion „gegrillt“ hatten. Wenig später konnten auch sie den neuen Plasmazustand in ihren Anlagen erzeugen.
 
„Die Entdeckung der H-Mode hat ITER erst möglich gemacht“, erklärt Prof. Dr. Elisabeth Wolfrum, die heute am IPP die Forschung an der H-Mode fortsetzt. ITER – die größte Fusionsanlage der Welt, entsteht derzeit im südfranzösischen Cadarache. Sie ist dafür ausgelegt, zehnmal mehr Leistung aus einem Fusionsplasma zu erzeugen, als an Heizleistung  zugeführt wird. Dass ITER nach dem Vorbild von ASDEX und auch ASDEX Upgrade aufgebaut ist, liegt auch an der H-Mode. Diese trat bei ASDEX zuerst auf, weil dort im Donut-förmigen Vakuumgefäß vom Typ Tokamak das Plasma unten erstmals nicht rund, sondern spitz zulaufend geformt wurde. Die Physiker nennen die Spitze den X-Punkt. Dort wird überschüssige Energie in den sogenannten Divertor, quasi den Aschekasten eines Fusionsreaktors, abgeführt. Heute ist diese Bauweise Standard in allen Fusionsanlagen, die Magnetfelder zum Einschließen des Plasmas benutzen.
 
Die H-Mode führt zur Bildung einer Isolationsschicht am Plasmarand
Kurz nach der Entdeckung der H-Mode wurde am ASDEX gezeigt, warum Plasmen in diesem Zustand Energie doppelt so gut einschließen können wie in der L-Mode. „Am äußeren Rand des Plasmas bildet sich eine sehr effektive Isolationsschicht“, erklärt Wolfrum. „Die Temperaturdifferenz zwischen ihrer Außenseite und der dem Plasmainneren zugewandten Seite beträgt mehrere Millionen Grad Celsius.“ Allerdings entdeckten die Physikerinnen und Physiker auch eine unangenehme Begleiterscheinung der H-Mode: Am Plasmarand entstehen in regelmäßigen Zeitabständen heftige Energieeruptionen – so genannte Edge Localized Modes (ELMs). „In ASDEX Upgrade sind ELMs verkraftbar, aber im viel größeren ITER wären sie so stark, dass die beschichteten Wandoberflächen des Vakuumbehälters schmelzen würden“, sagt Wolfrum. ITER wird mit dem vierfachen Gefäßradius von ASDEX Upgrade gebaut, was wohl zu zehn- bis 15mal so starken ELM-Energien wie bei ASDEX Upgrade führen würde. Deshalb gehört die Unterdrückung dieser Störungen zu den wichtigsten Forschungsgebieten der Fusionsphysik.
 
Zentrale Fragen in Sachen H-Mode sind auch 40 Jahre nach ihrer Entdeckung noch ungeklärt. Etwa: Wie genau lässt sich der Übergang von der L-Mode in die H-Mode physikalisch erklären? Oder: Wie dick ist die Isolationsschicht, die so genannte Randtransportbarriere? Noch gibt es kein numerisches Modell, das die H-Mode komplett abbilden kann. Bislang müssen die Theoretiker ihre Computercodes mit bestimmten Anfangsannahmen füttern, um einzelne Phänomene der H-Mode zu berechnen. Was noch nicht gelingt: Ein Modell zu programmieren, bei dem der Übergang von L-Mode zu H-Mode sich quasi zwangsläufig aus der Physik ergibt. Mit einem solchen Modell ließen sich dann auch die Erreichbarkeit der H-Mode und die Parameter der ELMs im noch nicht fertiggestellten ITER-Experiment vorhersagen.
 
Auf der Suche nach dem perfekten numerischen Modell
Dieser perfekte Code müsste drei physikalische Ansätze für Plasmen vereinen: den Neoklassischen Transport, die Magnetohydrodynamik (siehe Erklärungen unten) und Turbulenz-fokussierte Modelle. Die derzeitigen Codes konzentrieren sich meist auf einen dieser Ansätze und beschäftigen selbst mit dieser Vereinfachung die weltweit besten Supercomputer oft monatelang für die Beantwortung begrenzter Fragestellungen. Aber die Modelle werden besser und die Rechner immer schneller.
 
Am IPP sind vor allem zwei numerische, nichtlineare Modelle im Einsatz, die beide von internationalen Teams unter Mitwirkung des IPP weiterentwickelt werden:
  • JOREK basiert auf den magnetohydrodynamischen Gleichungen.
  • GENE fokussiert sich auf Mikroturbulenzen in Plasmen.
 
„Durch das Zusammenspiel von Experimenten und Computermodellen haben wir beim Verständnis der H-Mode in den vergangenen Jahren viel gelernt“, erklärt Wolfrum. „Unsere experimentellen Ergebnisse vergleichen die Theoretiker mit ihren numerischen Modellen, bauen notwendige physikalische Verfeinerungen ein und erzielen dadurch wiederum Ergebnisse, die uns die Richtung für neue Experimente weisen.“
 
Bei diesen geht es auch immer um die Einstellung der Parameter Plasmadichte, Temperatur und Magnetfeld, die letztlich die Bewegung der Teilchen im Plasma bestimmen und bestimmte Moden, also Betriebsarten, erzeugen. Weil sich die Messtechnik in den letzten vier Jahrzehnten rasant verbessert hat, lassen sich Plasmen heute genauer vermessen als zur Zeit der Entdeckung der H-Mode, was hilft, den Plasmazustand besser zu beschreiben und zu verstehen.
 
Was die Forschenden inzwischen wissen: Es sind verscherte Strömungen mit unterschiedlichen Geschwindigkeiten am Rand des Plasmas, so genannte Flow Shears, die bei der Entstehung der Randtransportbarriere eine entscheidende Rolle spielen. Diese Flow Shears reduzieren Turbulenzen am Plasmarand und führen so zu den spezifischen Eigenschaften der H-Mode.
 
Strategien zur Unterdrückung von Eruptionen am Plasmarand
Auch bei der Unterdrückung großer Edge Localised Modes – genannt Type-1-ELMs – ist die Wissenschaft zuletzt einen großen Schritt vorangekommen. So existieren zwei vielversprechende Strategien gegen die großen Energieeruptionen:
  1. Schwache magnetische Störfelder können ELMs im günstigsten Fall vollständig beseitigen. Dabei wird das ansonsten komplett achsensymmetrische Magnetfeld zum Einschluss des Plasmas leicht verformt, was allerdings die Energieeinschlusszeit um zehn bis 20 Prozent verringert. Seit 2011 erforscht das IPP an ASDEX Upgrade, wie diese Störfelder platziert werden müssen. Diese Methode ist besonders effektiv bei niedrigen Plasmadichten am Rand. Die Störfelder betragen dabei ein Promille des starken Toroidalfeldes.
  2. Die Entstehung von großen Type-I-ELMs lässt sich auch verhindern, indem man die Entstehung kleinerer unschädlicher ELMs fördert. Dafür wird die ansonsten elliptische Form des Plasmaquerschnitts mit Hilfe von Magneten in Richtung eines abgerundeten Dreiecks verformt. Die Plasmadichte am Rand wird erhöht. Indem man gezielt weitere Teilchen von außen ins Plasma bläst, treten dann mehrere tausend Mal pro Sekunde kleine Plasmaeruptionen am Rand auf, die die Gefäßwand nicht gefährden können.
 
„Durch die Erforschung der H-Mode nähern wir uns immer mehr Plasma-Betriebszuständen an, die für große Fusionsanlagen wie ITER am besten geeignet sind“, resümiert Prof. Elisabeth Wolfrum. Der inzwischen emeritierte H-Mode-Entdecker Prof. Friedrich Wagner freut sich über die völlig neuen Möglichkeiten, die die Fusionsanlage in Südfrankreich nach Fertigstellung bieten wird: „ITER wird ein Instrument sein, wie wir es noch nie auf der Erde hatten.“ Aus seiner Arbeit an ASDEX – und vor allem aus dem H-Mode-Jahr 1982 –hat er eines gelernt: „Fortschritt entwickelt sich nicht immer linear. Zwischendurch gibt es völlig unerwartet große Sprünge nach vorn. Das ist es, was Wissenschaft so spannend macht.“

Higgs-Teilchen, 10 Jahre bekannt

Ein Physikkonkret der Deutschen Physikalischen Gesellschaft (DPG) würdigt die Entdeckung der letzten fehlenden Komponente des Standardmodells der Teilchenphysik und stellt gleichzeitig drängende Fragen

Hier geht’s zum Artikel

(DPG) – Am 4. Juli 2012 – vor zehn Jahren – wurde am europäischen Großforschungszentrum CERN in Genf die Entdeckung des Higgs-Bosons bekannt gegeben. An dieser Entdeckung war das Karlsruher Institut für Technologie (KIT) mit vielen wissenschaftlichen Gruppen und Technologien beteiligt – und die Forschenden des KIT beschäftigen sich auch weiterhin mit diesem Teilchen. Einblick in die laufende Forschung bietet die populärwissenschaftliche Veranstaltung „10 Jahre Higgs-Boson“ am 4. Juli 2022 ab 18:00 Uhr .

„Das Higgs-Teilchen verleiht allen anderen Teilchen ihre Masse und ist das letzte Puzzlestück, das im Standardmodell der Teilchenphysik zur Beschreibung der Materiebausteine und ihrer Wechselwirkungen noch gefehlt hatte“, sagt der Teilchenphysiker Professor Markus Klute, der mit seiner Gruppe in den USA wesentlich zur Entdeckung des Higgs-Bosons beigetragen hat. Seit dem vergangenen Jahr forscht er als Humboldt-Professor am KIT.

Beendet sei die Forschung zu dem Teilchen aber noch lange nicht, so Klute. „Wir wollen das Higgs-Teilchen besser und vor allem breit verstehen: Welche Eigenschaften hat es? Welche Prozesse unterstützt es? Wie koppelt es sich an andere Teilchen? Gibt es Teilchen, die ihm gleichen?“ Inzwischen können die Forschenden das Higgs-Boson bis in den Prozentbereich hinein vermessen. Doch es gehe noch um mehr: „Am Ende möchte ich herausfinden, wo die Grenzen unseres Verständnisses liegen“, sagt Klute.

Was aber kommt nach dem Standardmodell? „Es gibt Phänomene, die es nicht abbildet. Ein Beispiel ist die dunkle Materie, die für den Aufbau unseres Universums mit seinen Galaxien fundamental wichtig ist“, erläutert Klute. Dass es sie geben muss, zeigten Gravitationsmessungen – gesehen habe man sie jedoch noch nicht. Auch Wechselwirkungen zwischen dunkler und sichtbarer Materie seien bislang nicht nachweisbar. „Meine Hoffnung ist, dass wir durch das Higgs-Boson mehr darüber lernen können“, sagt Klute.

Markus Klute und sein Team sind in der Hochenergiephysik unterwegs. Sie designen Maschinen, die auf Lichtgeschwindigkeit gebrachte Teilchen bei der Kollision aufspüren, entwickeln die Analysewerkzeuge für die gemessenen Daten und haben den Einsatz moderner Techniken des Maschinellen Lernens in der Hochenergiephysik etabliert. Das derzeit wichtigste Projekt von Klute ist das internationale Großforschungs-Experiment Compact Muon Solenoid, kurz CMS, am Large Hadron Collider (LHC) des CERN in Genf. Der Physiker gehört zu dem Team das im Laufe der CMS-Messungen das Higgs-Boson entdeckt hat.