Archiv der Kategorie: Physik, Chemie, Technik

Platin gegen den Stromhunger von Chips

(pte) – Die Schalteffizienz von Oxid-Halbleiter-Bauelementen lässt sich durch Platin-Nanopartikel maximieren und damit der Stromverbrauch entscheidend senken, wie Forscher um Junwoo Son und Minguk Cho vom Institut für Materialwissenschaften der Pohang University of Science & Technology (POSTECH) http://international.postech.ac.kr sagen. Son vergleicht die Technik mit Trittsteinen, die in Bächen liegen, um Fußgängern das Überqueren mit trockenen Füßen zu ermöglichen. Die Nanopartikel seien die Trittsteine, die den Elektronen, also dem elektrischen Strom, den Weg erleichtern und damit den Energieverbrauch senken.

Oxidmaterial als Schlüssel

Das Oxidmaterial, bei dem die Phase eines Materials bei Erreichen einer bestimmten Schwellenspannung schnell von einem Isolator zu einem Metall wechselt, ist das Schlüsselmaterial zur Herstellung von Halbleiterbauelementen mit geringem Strombedarf. Die Platin-Partikel senken ihn noch einmal. Wenn eine Spannung angelegt wird, überspringt der Strom sie gewissermaßen und der Wechsel vom Isolator zum Metall gelingt schneller. Zudem können derartige Halbleiter-Bauelemente mit niedrigerer Spannung betrieben werden, heißt es.

Die Forscher erwarten, dass ihre Technologie für die Entwicklung elektronischer Geräte der nächsten Generation unerlässlich wird, etwa für intelligente Halbleiter und sogenannte neuromorphe Halbleiter-Bauelemente, die riesige Datenmengen mit weniger Strom verarbeiten könnten. Der Stromverbrauch von Halbleitern begrenzt zunehmend deren Leistungssteigerung, weil sie nicht zu heiß werden dürfen und die Kühlleistung beschränkt ist. Verbrauchsarme Systeme könnten den Bedarf nach immer mehr Rechenleistung auf immer kleinerem Raum decken.

Wissenschaft muss allgemeinverständlich sein

(pte) – Der 53-jährige Max-Planck-Chemiker und -Molekularbiologe (MPG) Patrick Cramer hat gezeigt, wie das Coronavirus sein Erbgut kopiert und wie die COVID-19-Medikamente Remdesivir und Molnupiravir in diesen Kopierprozess eingreifen. Durch eigene Arbeiten und langjährige Nachwuchsförderung hat Cramer zur Entwicklung der Biowissenschaften beigetragen. Der für die Amtsperiode 2023 bis 2029 gewählte MPG-Präsident http://mpg.de engagiert sich auch für die Wissenschaftsreihe im Rahmen des Göttinger Literaturherbsts 2022 http://literaturherbst.com . Im Interview mit pressetext erläutert Cramer seine Vorstellungen, wie trotz mächtiger Algorithmen, Bots, Fake News unter anderem Erkenntnisse aus Wissenschaft und Forschung sachlich, fundiert und verständlich kommuniziert werden.

pressetext: Herr Cramer, Sie moderieren am 2. November in Göttingen die Veranstaltung mit den BioNTech-Gründern Özlem Türeci und Ugur Sahin sowie dem Journalisten Joe Miller. Was kann das Event zur Standortbestimmung und weiteren sachlichen Informationen rund um das Thema COVID-19 beitragen?

Zunächst geht es darum, was es konkret bedeutet, in so extrem kurzer Zeit einen Corona-Impfstoff herzustellen, noch dazu basierend auf der neuen mRNA-Technologie. Der Erfolg baut auf Jahrzehnten von Grundlagenforschung auf. Auch kamen in den letzten Jahren viele technologische Entwicklungen hinzu. Schließlich geht es um die Frage, wie es jetzt weitergeht im Kampf gegen das Virus: Lassen sich Impfstoffe so kombinieren, dass verschiedene Subtypen abgedeckt werden? Wie geht man damit um, dass noch immer viele skeptisch sind gegenüber der Impfung? Wie kann die Technologie noch verwendet werden, gegen welche andere Krankheiten werden wir bald neue Mittel in der Hand halten?

pressetext: Mit ihrem Team haben Sie gezeigt, wie das Coronavirus sein Erbgut kopiert und wie Remdesivir sowie Molnupiravir in diesen hochkomplexen Kopierprozess eingreifen. Wie lassen sich derartige Erkenntnisse und komplizierte Wirkmechanismen „Normalbürgern“ verständlich erklären?

Wir haben uns bemüht, eine anschauliche Sprache und ganz einfache Abbildungen zu wählen. Zudem haben wir Erklärvideos ins Netz gestellt und auch Aufzeichnungen von Vorträgen. Ich kam immer wieder mit der Öffentlichkeit ins Gespräch und habe auch allgemeine Artikel zum Thema Impfen geschrieben, um den vielen Fake News etwas entgegenzustellen. Die Schwierigkeit ist dabei nicht, dass man oft viele beleidigende oder bedrohende Kommentare erhält. Vielmehr sollten wir einen Weg finden, wie wir an das eine Drittel der Bevölkerung kommen, das sich mit solchen Videos, Vorträgen und Veröffentlichungen nicht erreichen lässt. Ein Schlüssel liegt in den sozialen Medien, auch wenn man dann in eine Blase geraten kann. Die öffentlich-rechtlichen Sender sind auch wichtig, denn sie produzieren sehr gute Erklärvideos, die weit verbreitet werden sollten.

pressetext: Komplexität und Informationsfülle überfordern immer mehr Menschen. Die Sehnsucht nach einfachen Antworten auf komplizierte Fragen steigt. Fake News sind allgegenwärtig. Wie können Wissenschaft, Politik und Medien aus Ihrer Sicht gegensteuern?

Die zunehmende Kompliziertheit unserer Umwelt und die Komplexität einiger Bereiche unserer globalisierten Welt führen oft zu Überforderung und stellen eine Bedrohung für freie Gesellschaften und demokratische Staaten dar. Denn nur Menschen, die urteilsfähig sind, treffen an der Wahlurne informierte Entscheidungen. Die Demokratien sollten organisierter Fehlinformation durch Kampagnen und Bots in den sozialen Medien vehement entgegentreten, wenn nötig auch durch entsprechende Gesetzgebung. Wichtig sind auch die Schulen. Hier sollte eingeübt werden, wie man mit den digitalen Medien umgeht und wie man sich sachkundig und neutral informieren kann. Die Wissenschaft hat nicht nur die Pflicht, ihre Ergebnisse allgemeinverständlich darzustellen. Wissenschaftler müssen auch Ergebnisse, die die Menschen direkt betreffen – Stichwort Klimaforschung oder Gesundheitsforschung – umgehend kommunizieren. Allerdings gibt es nicht nur eine Bringschuld der Wissenschaft, es gibt auch eine „Holschuld“ der Politik und Gesellschaft, wie es Reimar Lüst einmal formuliert hat. Damit gemeint ist eine Offenheit gegenüber der Wissenschaft und das Hochhalten der Prinzipen der Aufklärung.

pressetext: Der menschengemachte Klimawandel hat massive Auswirkungen. Am 4. November diskutieren Sie in Göttingen mit der Meeresbiologin Antje Boetius, was das für Ozeane, Tiefsee, Polarregionen und mikrobielle Biodiversität bedeutet. Wie lassen sich Klimaleugner überzeugen, die Fakten in Abrede stellen?

Dass es menschliche Aktivitäten sind, die zur derzeitigen Erderwärmung geführt haben, wurde bereits vor rund 100 Jahren vermutet und ist seit den 1980er-Jahren eindeutig belegt. Gerade habe ich das Max-Planck-Institut in Hamburg besucht, wo dieser Nachweis erbracht wurde durch den Nobelpreisträger Klaus Hasselmann und seine Mitarbeitenden. 2022 zu leugnen, dass der Klimawandel menschengemacht ist, ist nicht akzeptabel. Selbst wenn man die wissenschaftlichen Hintergründe nicht versteht, muss auffallen, wie sehr sich Dürren, Hochwasser und andere extreme Wettersituationen in den letzten beiden Jahrzehnten gehäuft haben und dass dies kein Zufall ist. Auch der Verlust an Biodiversität ist nicht von der Hand zu weisen und hat unseren Alltag erreicht. Tierarten sterben in nie da gewesener Geschwindigkeit aus.

pressetext: Algorithmen als „Gatekeeper“ von Information und Wissen sind nicht unumstritten. Wie kann die Wissenschaft aktuelle Ergebnisse ungefiltert, unverfälscht und direkt an den Bürger vermitteln? Wie müssen Künstliche Intelligenz (KI) und Algorithmen strukturiert sein, um, unabhängig von Meinungen und Interessen, Wissen sachbezogen und aktuell zu kommunizieren?

Algorithmen definieren unsere Medien-Blasen. Zudem bleiben die öffentlich-rechtlichen Sender wichtig, um Dinge zu hinterfragen und so aufzuarbeiten, dass ein ausgewogenes Bild entsteht. Demokratien müssen sich auch durch Gesetze gegen die zunehmende Macht der Maschinen über Meinungen wehren, denn es werden durch Bots ja bereits Wahlen beeinflusst. Im Moment werden die Such- und Sortier-Algorithmen im Netz von den globalen IT-Riesen vorgegeben. Hier geht es vor allem um die Maximierung von Konsum, etwa durch gezielte Werbung. Ich bin allerdings zuversichtlich, dass wir durch frühe Aufklärung in den Schulen und gesetzliche Maßnahmen auch diese Bedrohung in den Griff bekommen. Große Sorgen machen mir sogenannte Deep Fakes, die inzwischen so realitätsnah sind, dass selbst Experten darauf hereinfallen. Auch hier scheinen mir gesetzliche Leitplanken sinnvoll.

pressetext: Google, Meta, Apple, Amazon oder Unternehmer wie Elon Musk schaffen im Zeitalter von Internet und KI häufig einfach Fakten und setzen um, was technisch machbar ist. Die Folgen ihres Handeln auf den Menschen scheinen dabei auf der Strecke zu bleiben.

Wir erleben eine nie da gewesene Beschleunigung der kulturellen Evolution. Auch kann der Gesetzgeber manches Mal erst spät korrigierend eingreifen. Globalen Firmen unterhalten große Forschungsabteilungen, die die Entwicklung neuer Produkte weiter beschleunigt. Das Grundprinzip, wie Neues in die Welt kommt, bleibt erhalten. Alles beginnt mit Grundlagenforschung, angetrieben von unserer natureigenen Neugier. Solch eine aus Neugier getriebene, freie Grundlagenforschung auf höchstem Niveau ist die große Stärke der MPG und das so generierte Wissen ihr essenzieller Beitrag zu unserer Zukunft. Die Grundlagenforschung liefert „Vorratswissen“ und schafft neue Handlungsoptionen. Welche dieser Optionen dann umgesetzt werden, entscheiden wir als demokratische Gesellschaft. Oft entstehen aus der Forschung aber auch Ideen für die Anwendung und so kommt es zu Firmengründungen, zu neuen Produkten oder Dienstleistungen. Deshalb legen wir in der MPG großen Wert auf Scouting, um solche verwertbaren Ideen auch früh zu entdecken.

pressetext: Mit Ihrer MPG-Präsidentschaft verlagert sich einer Ihrer Arbeitsschwerpunkte nach München. Wie weit werden Sie dann noch die Wissenschaftsreihe des Göttinger Literaturherbsts 2023 mit initiieren und begleiten können?

Ich werde es mir erlauben, weiterhin ab und zu Vorschläge für Einladungen von herausragenden Autoren und Vortragenden zu unterbreiten, aber darüber werden dann allein meine Kollegen in Göttingen entscheiden, denen ich das Beste für künftige Veranstaltungen wünsche. Ich werde auch versuchen, in Zukunft nach wie vor bei der ein oder anderen Veranstaltung des Literaturherbsts dabei zu sein. Ich plane auch, das erfolgreiche Format der Abendveranstaltungen aus der Wissenschaftsreihe in München oder Berlin bei einzelnen Veranstaltungen anzuwenden. Vermissen werde ich den Literaturherbst in jedem Fall sehr.

Auf dem schwierigen Weg zum Fusions-Reaktor

(Max-Planck-Institut) – Vor 40 Jahren fanden Physiker am Max-Planck-Institut für Plasmaphysik einen neuen Plasmazustand, der sich besonders gut für die Energiegewinnung eignen könnte: die H-Mode. Am 8. November 1982 erschien der zugehörige Fachartikel, der der Fusionsforschung weltweit Auftrieb gab. Bis heute gehört die Untersuchung der H-Mode zu ihren wichtigsten Arbeitsgebieten.
 
Der Durchbruch kam an einem Donnerstag, an dem – wie oft davor – Plasmen mit Neutralteilchenheizung bei hohen Temperaturen untersucht werden sollten.  Diese Plasmen waren von einer hartnäckigen Gleichförmigkeit. „Doch mitten in der Serie änderten sich schlagartig die wichtigen Plasmaparameter. Alle Wissenschaftler im Kontrollraum von ASDEX merkten, dass etwas Außergewöhnliches passiert war“, erinnert sich Prof. Dr. Friedrich Wagner, der damals für dieses Forschungsgebiet bei ASDEX zuständig war. Anfangs glaubten viele, dass man es an diesem 4. Februar 1982 mit „schmutzigen Entladungen“ und großen Sägezähnen, also inneren Energierelaxationen, zu tun hatte. Tatsächlich machten Wagner und seine Kollegen am Max-Planck-Institut für Plasmaphysik (IPP) in Garching eine der bis heute wichtigsten Entdeckungen der Kernfusionsforschung: Sie fanden die H-Mode.
 
Vor 40 Jahren, am 8. November 1982 erschien der zugehörige Fachartikel in der Zeitschrift „Physical Review Letters“. Er beendete eine jahrelange Phase der Stagnation und der Enttäuschung in der Fusions-Community über den Nutzen der Neutralteilchenheizung. Zwar hatten die Forschenden in den 1970er Jahren Plasmen auf beachtliche Ionentemperaturen von sieben Kiloelektronenvolt heizen können – was kurzzeitig eine wahre Euphorie auslöste. Bald stellte sich aber heraus, dass die hohen Plasmatemperaturen durch eine Abnahme beim Energieeinschluss erkauft war. Es war so, als würde man ein Zimmer kräftig heizen und gleichzeitig die Fenster aufreißen. Dieses Plasmaverhalten stellte eine Gefahr für die weitere Entwicklung eines Fusionskraftwerks dar.
 
Viele in der Fusions-Community hielten die H-Mode für einen Messfehler
Heute heißt dieser ungünstige Betriebszustand L-Mode (Low-Confinement Mode). Wagners Entdeckung an ASDEX, dem Vorgänger des jetzigen Garchinger Experiments ASDEX Upgrade, bezeichnen die Forscher dagegen als High-Confinement Mode, kurz H-Mode. Dass es sich dabei tatsächlich um einen neuen Plasmaszustand handelte, war anfangs umstritten. „Ich fuhr im Juni 1982 zur Varenna Summer School in Italien, auf der ich unsere Ergebnisse erstmals öffentlich vorstellte. Besonders amerikanische Kollegen verbreiteten hinterher, dass wir in ASDEX den Plasmastrom nicht korrekt messen würden“, sagt Wagner, der später Direktor am IPP wurde. Erst beim nächsten wichtigen Symposium im September in Baltimore überzeugte er seine Kollegen – nachdem sie ihn vorher in einer stundenlangen Diskussion „gegrillt“ hatten. Wenig später konnten auch sie den neuen Plasmazustand in ihren Anlagen erzeugen.
 
„Die Entdeckung der H-Mode hat ITER erst möglich gemacht“, erklärt Prof. Dr. Elisabeth Wolfrum, die heute am IPP die Forschung an der H-Mode fortsetzt. ITER – die größte Fusionsanlage der Welt, entsteht derzeit im südfranzösischen Cadarache. Sie ist dafür ausgelegt, zehnmal mehr Leistung aus einem Fusionsplasma zu erzeugen, als an Heizleistung  zugeführt wird. Dass ITER nach dem Vorbild von ASDEX und auch ASDEX Upgrade aufgebaut ist, liegt auch an der H-Mode. Diese trat bei ASDEX zuerst auf, weil dort im Donut-förmigen Vakuumgefäß vom Typ Tokamak das Plasma unten erstmals nicht rund, sondern spitz zulaufend geformt wurde. Die Physiker nennen die Spitze den X-Punkt. Dort wird überschüssige Energie in den sogenannten Divertor, quasi den Aschekasten eines Fusionsreaktors, abgeführt. Heute ist diese Bauweise Standard in allen Fusionsanlagen, die Magnetfelder zum Einschließen des Plasmas benutzen.
 
Die H-Mode führt zur Bildung einer Isolationsschicht am Plasmarand
Kurz nach der Entdeckung der H-Mode wurde am ASDEX gezeigt, warum Plasmen in diesem Zustand Energie doppelt so gut einschließen können wie in der L-Mode. „Am äußeren Rand des Plasmas bildet sich eine sehr effektive Isolationsschicht“, erklärt Wolfrum. „Die Temperaturdifferenz zwischen ihrer Außenseite und der dem Plasmainneren zugewandten Seite beträgt mehrere Millionen Grad Celsius.“ Allerdings entdeckten die Physikerinnen und Physiker auch eine unangenehme Begleiterscheinung der H-Mode: Am Plasmarand entstehen in regelmäßigen Zeitabständen heftige Energieeruptionen – so genannte Edge Localized Modes (ELMs). „In ASDEX Upgrade sind ELMs verkraftbar, aber im viel größeren ITER wären sie so stark, dass die beschichteten Wandoberflächen des Vakuumbehälters schmelzen würden“, sagt Wolfrum. ITER wird mit dem vierfachen Gefäßradius von ASDEX Upgrade gebaut, was wohl zu zehn- bis 15mal so starken ELM-Energien wie bei ASDEX Upgrade führen würde. Deshalb gehört die Unterdrückung dieser Störungen zu den wichtigsten Forschungsgebieten der Fusionsphysik.
 
Zentrale Fragen in Sachen H-Mode sind auch 40 Jahre nach ihrer Entdeckung noch ungeklärt. Etwa: Wie genau lässt sich der Übergang von der L-Mode in die H-Mode physikalisch erklären? Oder: Wie dick ist die Isolationsschicht, die so genannte Randtransportbarriere? Noch gibt es kein numerisches Modell, das die H-Mode komplett abbilden kann. Bislang müssen die Theoretiker ihre Computercodes mit bestimmten Anfangsannahmen füttern, um einzelne Phänomene der H-Mode zu berechnen. Was noch nicht gelingt: Ein Modell zu programmieren, bei dem der Übergang von L-Mode zu H-Mode sich quasi zwangsläufig aus der Physik ergibt. Mit einem solchen Modell ließen sich dann auch die Erreichbarkeit der H-Mode und die Parameter der ELMs im noch nicht fertiggestellten ITER-Experiment vorhersagen.
 
Auf der Suche nach dem perfekten numerischen Modell
Dieser perfekte Code müsste drei physikalische Ansätze für Plasmen vereinen: den Neoklassischen Transport, die Magnetohydrodynamik (siehe Erklärungen unten) und Turbulenz-fokussierte Modelle. Die derzeitigen Codes konzentrieren sich meist auf einen dieser Ansätze und beschäftigen selbst mit dieser Vereinfachung die weltweit besten Supercomputer oft monatelang für die Beantwortung begrenzter Fragestellungen. Aber die Modelle werden besser und die Rechner immer schneller.
 
Am IPP sind vor allem zwei numerische, nichtlineare Modelle im Einsatz, die beide von internationalen Teams unter Mitwirkung des IPP weiterentwickelt werden:
  • JOREK basiert auf den magnetohydrodynamischen Gleichungen.
  • GENE fokussiert sich auf Mikroturbulenzen in Plasmen.
 
„Durch das Zusammenspiel von Experimenten und Computermodellen haben wir beim Verständnis der H-Mode in den vergangenen Jahren viel gelernt“, erklärt Wolfrum. „Unsere experimentellen Ergebnisse vergleichen die Theoretiker mit ihren numerischen Modellen, bauen notwendige physikalische Verfeinerungen ein und erzielen dadurch wiederum Ergebnisse, die uns die Richtung für neue Experimente weisen.“
 
Bei diesen geht es auch immer um die Einstellung der Parameter Plasmadichte, Temperatur und Magnetfeld, die letztlich die Bewegung der Teilchen im Plasma bestimmen und bestimmte Moden, also Betriebsarten, erzeugen. Weil sich die Messtechnik in den letzten vier Jahrzehnten rasant verbessert hat, lassen sich Plasmen heute genauer vermessen als zur Zeit der Entdeckung der H-Mode, was hilft, den Plasmazustand besser zu beschreiben und zu verstehen.
 
Was die Forschenden inzwischen wissen: Es sind verscherte Strömungen mit unterschiedlichen Geschwindigkeiten am Rand des Plasmas, so genannte Flow Shears, die bei der Entstehung der Randtransportbarriere eine entscheidende Rolle spielen. Diese Flow Shears reduzieren Turbulenzen am Plasmarand und führen so zu den spezifischen Eigenschaften der H-Mode.
 
Strategien zur Unterdrückung von Eruptionen am Plasmarand
Auch bei der Unterdrückung großer Edge Localised Modes – genannt Type-1-ELMs – ist die Wissenschaft zuletzt einen großen Schritt vorangekommen. So existieren zwei vielversprechende Strategien gegen die großen Energieeruptionen:
  1. Schwache magnetische Störfelder können ELMs im günstigsten Fall vollständig beseitigen. Dabei wird das ansonsten komplett achsensymmetrische Magnetfeld zum Einschluss des Plasmas leicht verformt, was allerdings die Energieeinschlusszeit um zehn bis 20 Prozent verringert. Seit 2011 erforscht das IPP an ASDEX Upgrade, wie diese Störfelder platziert werden müssen. Diese Methode ist besonders effektiv bei niedrigen Plasmadichten am Rand. Die Störfelder betragen dabei ein Promille des starken Toroidalfeldes.
  2. Die Entstehung von großen Type-I-ELMs lässt sich auch verhindern, indem man die Entstehung kleinerer unschädlicher ELMs fördert. Dafür wird die ansonsten elliptische Form des Plasmaquerschnitts mit Hilfe von Magneten in Richtung eines abgerundeten Dreiecks verformt. Die Plasmadichte am Rand wird erhöht. Indem man gezielt weitere Teilchen von außen ins Plasma bläst, treten dann mehrere tausend Mal pro Sekunde kleine Plasmaeruptionen am Rand auf, die die Gefäßwand nicht gefährden können.
 
„Durch die Erforschung der H-Mode nähern wir uns immer mehr Plasma-Betriebszuständen an, die für große Fusionsanlagen wie ITER am besten geeignet sind“, resümiert Prof. Elisabeth Wolfrum. Der inzwischen emeritierte H-Mode-Entdecker Prof. Friedrich Wagner freut sich über die völlig neuen Möglichkeiten, die die Fusionsanlage in Südfrankreich nach Fertigstellung bieten wird: „ITER wird ein Instrument sein, wie wir es noch nie auf der Erde hatten.“ Aus seiner Arbeit an ASDEX – und vor allem aus dem H-Mode-Jahr 1982 –hat er eines gelernt: „Fortschritt entwickelt sich nicht immer linear. Zwischendurch gibt es völlig unerwartet große Sprünge nach vorn. Das ist es, was Wissenschaft so spannend macht.“

Higgs-Teilchen, 10 Jahre bekannt

Ein Physikkonkret der Deutschen Physikalischen Gesellschaft (DPG) würdigt die Entdeckung der letzten fehlenden Komponente des Standardmodells der Teilchenphysik und stellt gleichzeitig drängende Fragen

Hier geht’s zum Artikel

(DPG) – Am 4. Juli 2012 – vor zehn Jahren – wurde am europäischen Großforschungszentrum CERN in Genf die Entdeckung des Higgs-Bosons bekannt gegeben. An dieser Entdeckung war das Karlsruher Institut für Technologie (KIT) mit vielen wissenschaftlichen Gruppen und Technologien beteiligt – und die Forschenden des KIT beschäftigen sich auch weiterhin mit diesem Teilchen. Einblick in die laufende Forschung bietet die populärwissenschaftliche Veranstaltung „10 Jahre Higgs-Boson“ am 4. Juli 2022 ab 18:00 Uhr .

„Das Higgs-Teilchen verleiht allen anderen Teilchen ihre Masse und ist das letzte Puzzlestück, das im Standardmodell der Teilchenphysik zur Beschreibung der Materiebausteine und ihrer Wechselwirkungen noch gefehlt hatte“, sagt der Teilchenphysiker Professor Markus Klute, der mit seiner Gruppe in den USA wesentlich zur Entdeckung des Higgs-Bosons beigetragen hat. Seit dem vergangenen Jahr forscht er als Humboldt-Professor am KIT.

Beendet sei die Forschung zu dem Teilchen aber noch lange nicht, so Klute. „Wir wollen das Higgs-Teilchen besser und vor allem breit verstehen: Welche Eigenschaften hat es? Welche Prozesse unterstützt es? Wie koppelt es sich an andere Teilchen? Gibt es Teilchen, die ihm gleichen?“ Inzwischen können die Forschenden das Higgs-Boson bis in den Prozentbereich hinein vermessen. Doch es gehe noch um mehr: „Am Ende möchte ich herausfinden, wo die Grenzen unseres Verständnisses liegen“, sagt Klute.

Was aber kommt nach dem Standardmodell? „Es gibt Phänomene, die es nicht abbildet. Ein Beispiel ist die dunkle Materie, die für den Aufbau unseres Universums mit seinen Galaxien fundamental wichtig ist“, erläutert Klute. Dass es sie geben muss, zeigten Gravitationsmessungen – gesehen habe man sie jedoch noch nicht. Auch Wechselwirkungen zwischen dunkler und sichtbarer Materie seien bislang nicht nachweisbar. „Meine Hoffnung ist, dass wir durch das Higgs-Boson mehr darüber lernen können“, sagt Klute.

Markus Klute und sein Team sind in der Hochenergiephysik unterwegs. Sie designen Maschinen, die auf Lichtgeschwindigkeit gebrachte Teilchen bei der Kollision aufspüren, entwickeln die Analysewerkzeuge für die gemessenen Daten und haben den Einsatz moderner Techniken des Maschinellen Lernens in der Hochenergiephysik etabliert. Das derzeit wichtigste Projekt von Klute ist das internationale Großforschungs-Experiment Compact Muon Solenoid, kurz CMS, am Large Hadron Collider (LHC) des CERN in Genf. Der Physiker gehört zu dem Team das im Laufe der CMS-Messungen das Higgs-Boson entdeckt hat.

Wasserstoff-Gas-Turbine muss neu entwickelt werden

(pte) –  Forscher der Universität Stavanger (UiS) http://uis.no haben eigenen Angaben nach erstmals eine Gasturbine mit 100 Prozent Wasserstoff betrieben. Normale Gasturbinen, die mit Erdgas befeuert werden, sind ohne einen Umbau dazu nicht geeignet, weil die Verbrennungstemperatur deutlich zu hoch ist. Die Schaufeln würden schmelzen. Das Problem lässt sich beispielsweise durch das Eindüsen von Wasser in den Brennraum lösen.

Strom und Wärme produziert

Die Turbine treibt einen Generator mit einer Leistung von 100 Kilowatt an. Der Strom wird in Institutsgebäuden genutzt, Überschüsse ins Netz des Stromversorgers Lyse eingespeist. Die Abgase der Turbine sind so heiß, dass ihre Wärmeenergie in einem Wärmetauscher genutzt wird, um warmes Brauchwasser für den Eigenbedarf herzustellen. Ein Teil fließt in das Fernwärmenetz vor Ort. Bei der Verbrennung von Wasserstoff in Gasturbinen entsteht im Wesentlichen Wasserdampf, wegen der hohen Temperaturen bei der Verbrennung allerdings auch Stickoxide, die in einem Katalysator zerstört werden.

„Wir haben einen Weltrekord bei der Wasserstoffverbrennung in Mikrogasturbinen aufgestellt. Niemand war bisher in der Lage, auf diesem Niveau zu produzieren“, sagt UiS-Forscher Mohsen Assadi. Der Wirkungsgrad sei zwar ein wenig geringer als bei der Verbrennung von Erdgas. Der Vorteil sei jedoch die Möglichkeit, die vorhandene Erdgas-Infrastruktur weiterhin benutzten zu können. Allerdings musste sie modifiziert werden, weil die winzigen Wasserstoffmoleküle durch Dichtungen schlüpfen können, die für Erdgasmoleküle undurchdringlich sind. „Zudem gibt es bei dieser Form der Energieumwandlung keinerlei CO2-Emissionen“, so Assadi.

Großturbinen bleiben das Ziel

Ziel ist es, Großturbinen, wie sie in GuD-Kraftwerken eingesetzt werden, ebenfalls mit Wasserstoff zu betreiben. Dieser Kraftwerkstyp zeichnet sich durch einen Wirkungsgrad von rund 60 Prozent aus. Die modernsten Kohlekraftwerke kommen auf knapp 50 Prozent. Die hohe Effektivität wird erreicht, weil der Brennstoff quasi doppelt genutzt wird. Die Abgase aus der Turbine sind noch so heiß, dass sie für die Erzeugung genutzt werden. Dieser lässt einen zweiten Turbogenerator rotieren, der zusätzlichen Strom erzeugt.

Dünnschicht-Photovoltaik: Effizient und vielseitig im Doppelpack

(KIT) Perowskit-Solarzellen haben in nur zehn Jahren eine steile Entwicklung durchlaufen. Vom Wirkungsgrad her lassen sie sich bereits mit den seit langem etablierten Silizium-Solarzellen vergleichen. Bei Perowskiten handelt es sich um innovative Materialien mit einer speziellen Kristallstruktur. Forschende arbeiten weltweit derzeit daran, die Perowskit-Photovoltaik reif für die praktische Anwendung zu machen. Für die Endverbrauchenden sind Solarzellen desto attraktiver, je mehr Strom pro Flächeneinheit sie erzeugen.

Der Wirkungsgrad lässt sich durch das Stapeln von zwei oder mehr Solarzellen erhöhen. Wenn dabei jede Solarzelle besonders effizient einen anderen Teil des Sonnenlichtspektrums absorbiert, lassen sich inhärente Verluste reduzieren und der Wirkungsgrad steigt. Dieser gibt an, wie viel vom einfallenden Licht in Strom umgewandelt wird. Perowskit-Solarzellen eignen sich dank ihrer Vielseitigkeit hervorragend als Bestandteil solcher Tandems. So haben Tandem-Solarzellen aus Perowskiten und Silizium einen Rekordwirkungsgrad von über 29 Prozent erreicht – deutlich höher als der von Einzelzellen aus Perowskiten (25,7 Prozent) und Silizium (26,7 Prozent).

Kombination von Perowskiten mit CIS – Mobilität und Flexibilität

Zusätzliche Vorteile verspricht die Kombination von Perowskiten mit anderen Materialien, wie Kupfer-Indium-Diselenid (CIS) oder Kupfer-Indium-Gallium-Diselenid (CIGS). Dadurch werden flexible und leichte Tandem-Solarzellen möglich, die sich nicht nur an Gebäuden, sondern auch an Fahrzeugen und tragbaren Geräten anbringen lassen. Solche Solarzellen könnten sogar zur Aufbewahrung gefaltet oder gerollt und bei Bedarf ausgefahren werden, beispielsweise auf Jalousien oder Markisen, die vor Sonne schützen und gleichzeitig Strom erzeugen.

Einem internationalen Team aus Forschenden unter Leitung von Dr. Marco A. Ruiz-Preciado und Tenure-Track-Professor Ulrich W. Paetzold vom Lichttechnischen Institut (LTI) und Institut für Mikrostrukturtechnik (IMT) des KIT ist es nun gelungen, Perowskit/CIS-Tandem-Solarzellen mit einem Spitzenwirkungsgrad von 24,9 Prozent (23,5 Prozent zertifiziert) herzustellen. „Dies ist der höchste gemeldete Wirkungsgrad für diese Technologie und der erste hohe Wirkungsgrad überhaupt, der mit einer fast galliumfreien Kupfer-Indium-Diselenid-Solarzelle in einem Tandem erreicht wurde“, erklärt Ruiz-Preciado. Die Verringerung der Galliummenge führt zu einer schmalen Bandlücke von etwa einem Elektronenvolt eV, was dem Idealwert von 0,96 eV für die untere Solarzelle in einem Tandem sehr nahekommt.

CIS-Solarzellen mit schmaler Bandlücke – Perowskit-Solarzellen mit wenig Brom

Bei der Bandlücke handelt es sich um eine Materialeigenschaft, die denjenigen Teil des Sonnenspektrums bestimmt, den eine Solarzelle absorbieren kann, um Strom zu erzeugen. In einer monolithischen Tandem-Solarzelle müssen die Bandlücken so beschaffen sein, dass die beiden Zellen ähnliche Ströme erzeugen können, um einen maximalen Wirkungsgrad zu erzielen. Ändert sich die Bandlücke der unteren Zelle, muss die Bandlücke der oberen Zelle daran angepasst werden; umgekehrt ebenso.

Um die Bandlücke für eine effiziente Tandem-Integration einzustellen, werden üblicherweise Perowskite mit hohem Bromgehalt verwendet. Dies führt jedoch häufig zu Spannungsverlusten und Phaseninstabilität. Da die Forschenden am KIT und ihre Partner für ihre Tandems unten CIS-Solarzellen mit schmaler Bandlücke einsetzen, können sie die oberen Solarzellen aus Perowskiten mit niedrigem Bromgehalt herstellen, sodass sie effizienter und stabiler sind.

„Unsere Studie demonstriert das Leistungspotenzial von Perowskit/CIS-Tandem-Solarzellen und definiert die Basis für zukünftige Entwicklungen, die den Wirkungsgrad weiter verbessern können“, so Paetzold. „Erreicht haben wir diesen Meilenstein dank der hervorragenden Zusammenarbeit im EU-Projekt PERCISTAND und besonders dank der engen Kooperation mit der Netherlands Organisation for Applied Scientific Research.“ Wichtige Vorarbeiten gelangen zudem im nationalen Projekt CAPITANO, gefördert vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK). (or)

 

Revisierbares Konzept, alle Länder mit regenerativer Energie zu versorgen

Antwortbrief an die Fa. Bosch, die in einer Pressemitteilung ankündigte, sich besonders um die Produktion regenerativen Wasserstoffs zu kümmern (blieb bisher unbeantwortet)

Schon als junger Ingenieur habe ich im Übergang der 50er zur den 60er Jahren die Komponenten von Bosch und deren Qualität verwendet, sie haben mir das Konstruieren von elektrischen Schaltungen und ihrer Logik leichter gemacht. Später, im Wissenschaftsjournalismus, schätzte ich die Qualitäten für unseren Nachwuchsförderung. Einen Ihren Stipendiaten habe ich sogar als festangestellten Redakteur eingesetzt.

Ich gestehe Ihnen, dass ich auch heute noch sehr beeindruckt von dem Konzept von Robert Bosch und deren Stiftung bin. Sie haben mit dazu beigetragen, dass der Anteil  von  Technologie und Wissenschaft unsere Gesellschaft zum Wohlstand geführt hat. Leider wird das in den Medien völlig vernachlässigt und hat sich nicht in der Schwarmintelligenz der Deutschen niedergeschlagen. Dafür schätze ich Ihre heutigen Aktivitäten für Umwelt und Klimaschutz umso mehr. Allerdings glaube ich, das die derzeitigen Lösungsansätze der Politik sich im Wunschdenken und Wolkenkuckucksheimen verloren haben.

Gerade war ich beim KIT und habe dort einen Workshop geleitet, der dieses Thema zum Inhalt hatte. Nur als Beispiel: Obwohl der Schwerpunkt des CO2-Ausstoßes in Deutschland eindeutig aus der Energieversorgung von Gebäuden herrührt (35 – 40%), wurden unsere privaten Autos schwerpunktmäßig für die Misere verantwortlich gemacht. Da wiehert der Populismus, denn der unbedarfte Bürger glaubt ja, wenn am Auspuff hinten nichts rauskommt, muss das ja umweltfreundlich sein. Dass das derzeitige schwere Elektroauto (ich nenne das einmal Typ Tesla) von der Ökobilanz her nicht besser ist als ein Verbrenner, wird bewusst übersehen. Es geht dabei nicht nur um die Rohstoffe für die Batterie, sondern es nur mit Ökostrom laden zu können, ist natürlich eine Illusion. Der Strommix wird sich  in den nächsten 20 Jahren immer zu Ungunsten der regenerativen Energie darstellen. Hinzu kommt, dass das etwa 250 kg schwerere Elektro-Auto durch den Reifenabrieb wesentlich mehr Feinstaub und Mikroplastik erzeugt.

Im Übrigen: Nicht wenige Anhänger der ‚Grün-Ideologen‘ glauben, dass die regenerative Erzeugung von elektrischer Energie alle Probleme löst. Keiner beantwortet mir die Frage, wie tausende von Terawatt-Stunden gespeichert werden sollen, wenn Sonne und Wind nicht mitspielen. Motto: ‚Wir brauchen keine Kraftwerke, unser Strom kommt aus der Steckdose‘.

Beim KIT, in einem von mir geleiteten Workshop,  hat mein Konzept der globalen Energieversorgung mit über  Wasserstoff gewonnenes grünes Methanol auch als Entwicklungshilfe der 3. Welt beeindruckt.

Das möchte ich noch einmal präzisieren:

  1. Ich propagiere eine Elektromobilität, die auch für den ‚kleinen‘ Mann erschwinglich ist und trotzdem ein Minimum an Energie erfordert, um von A nach B zu kommen. Das funktioniert zwar auch mit fossilen Treibstoffen (der Prototyp Hyper-Hybrid benötigt nur 1,5 Liter auf 100 Kilometer) und einem Motor mit grünem Methanol noch viel weniger bei einem konkret erreichbaren Wirkungsgrad von 56%.

(s. dazu den Link, die Sendereihe ‚NANO‘ hat dazu einen Bericht ausgestrahlt, der das sehr gut beschreibt):

https://www.3sat.de/wissen/nano/220524-eauto-nano-100.html

Ich möchte noch hinzufügen, dass der Lademotor immer in gleicher Drehzahl im optimalen Wirkungsgrad-Bereich des Motors läuft. Er startet nur dann, wenn die Batterie einen gewissen Ladezustand unterschreitet oder die Elektromotoren zusätzliche Energie anfordern. Die verhältnismäßig leichtere Batterie ist mir einem Handgriff austauschbar und hat nur ein elektrisches Fassungsvermögen von 17 kWh. Das reicht aber aus, um den elektrischen Antriebsmotoren  beim Anfahren und Beschleunigen genügend Power zu verleihen, so dass das Auto in 4 Sekunden 100 Kilometer in der Stunde erreicht. Die dabei eingesetzte elektrische Energie kann durch rekuperieren  der erreichten genetischen Energie beim dynamischen Bremsen jederzeit fast vollständig zurück gewonnen werden. Trotzdem hat es vollgeladen wegen des geringen Gewichtes  eine Reichweite von über 70 Kilometer. Das heißt, in der Stadt kann es voll elektrisch fahren, der Lademotor läuft erst bei höheren Geschwindigkeiten an, die sich in der Stadt sowieso erübrigen. HInzu kommt auch die geringere Reibung ohne viel Feinstaub und Mikroplastik. Kurzum, man benötigt mit dem Hyper-Hybrid ein Minimum an Treibstoff – elektrisch oder flüssig – um von A nach B zu kommen. Damit übertrifft es alles bisherigen automobilen Fahrzeuge.

  1. Überall in der Welt – auf der Nord- und Süd-Halbkugel – wo die klimatischen Voraussetzungen von Wind und Sonne viel besser sind als bei uns hier im Norden, und durch den Klimawandel viele verödete Flächen entstanden sind, steht preiswerter Boden zur Verfügung, um riesige Fotovoltaik- oder Wind-Anlagen zur Herstellung von Wasserstoff mit anschließender direkter Umwandlung in den H2-Speicher Methanol  (flüssig) umzusetzen. Dieser Energieträger bedarf keinerlei unbezahlbare Investitionen in die Infrastruktur zur sonstigen  Wasserstoff-Gas-Verteilung und Anwendung. Alles ist bereits aus dem fossilen Zeitalter vorhanden. Es bedarf noch nicht einmal der teuren Forschung von Brennstoffzellen, der Verbrennungsmotor erbringt gleiche Effizienz-Ergebnisse.

Das Ganze hat aber noch einen Riesen-Vorteil. Da der Energiegehalt von Wasserstoff und Methanol vom Gewicht her vergleichbar ist, kann die Umwandlung von Wasserstoff in Methanol und umgekehrt von Methanol in Wasserstoff unter Mitwirkung von bereits erforschten Katalysatoren ohne höheren Energieeinsatz erfolgen. Dabei gibt es ein Problem, welches aber preiswert lösbar ist. Um Wasserstoff in Methanol zu verwandeln, benötigt man ein Kohlenstoff-Atom. Das kann, wie im Film über das Hyper-Hybrid-Auto geschildert, aus der Luft gewonnen werden. Das ist jedoch sehr aufwendig und teuer, deshalb benötigt man einen CO2-Kreislauf. Das heißt, in den größeren Verbrauchern wie den in Zukunft unentbehrlichen Kraftwerke, betrieben mit Erdgas im Übergang und später mit grünem Methanol, lässt sich CO2 aus den Abgasen leicht heraus filtern, um es in Form von Kohlensäure transportfähig zu machen. Diese Kohlensäure lässt sich als Rückfracht wieder dorthin transportieren, woher das Methanol kommt.

Alle Welt redet von Wasserstoff, ich rede von Methanol, welches dezentral auch in ärmeren Ländern produziert werden kann und deshalb jegliche Monopole wie bisher bei fossilen Energieträgern verhindert. Dann erhält globale Marktwirtschaft im wahren Sinne sozial-ökologisch wieder eine Chance – eine Entwicklungshilfe in Augenhöhe.

Gestatten Sie mir ein wenig Utopie, sie ist aber glaubwürdiger als die Wolkenkuckucksheime, die derzeit in der Diskussion sind. Zur Ergänzung und zur Vervollständigung habe ich noch weitere Gedanken im folgenden Link hinzugefügt.

Energiehunger

Jean Pütz

Die Hoffnung stirbt zuletzt

MIT zeigt mobile Wasseraufbereitungsanlage

Die Elektrodialyse ist ein elektrochemisch getriebener Membranprozess in dem Ionenaustauschermembranen in Kombination mit einer elektrischen Potentialdifferenz benutzt werden, um ionische Spezies von ungeladenen Lösungsmitteln oder Verunreinigungen abzutrennen. 

(pte) – Salzhaltiges und verkeimtes Wasser lässt sich mit einer tragbaren Aufbereitungsanlage, die kaum zehn Kilogramm wiegt, in zertifiziertes Trinkwasser verwandeln. Hochdruckpumpen, wie sie bei der Umkehrosmose eingesetzt werden müssen und die viel Energie verbrauchen, benötigen die Entwickler vom Massachusetts Institute of Technology (MIT) http://mit.edu nicht. Ebenso wenig Filter, die von Zeit zu Zeit ausgetauscht werden müssen. Jongyoon Han und sein Team setzen eine Technik ein, die extrem wenig Strom verbraucht. Ein kleines Solarpanel liefert bereits genug. Der Prototyp begnügt sich mit 20 Watt. Pro Stunde erzeugt er so 0,3 Liter bestes Trinkwasser.

Spannung mit Reinigungswirkung

Das Rohwasser, das es zu reinigen gilt, fließt zwischen zwei Membranen hindurch, zwischen denen eine elektrische Spannung herrscht. Sie ziehen elektrisch positiv und negativ geladene Partikel an sich, sodass das Wasser im Zentrum davon befreit wird. Die Chlor- und Natriumionen sowie die negativ geladenen Viren und Bakterien sammeln sich in der Nähe der Membranen an, werden von Wasserstrahlen abgespült und in die Umwelt entlassen, im Normalfall ins Meer oder ein kontaminiertes Gewässer, aus denen sich die Anlage bedient.

Mit dieser Technik verbleiben im Hauptstrahl normalerweise noch Salzreste, die in einer zweiten Komponente, der Elektrodialyse, entfernt werden. Um die beiden Verfahren optimal aufeinander abzustimmen, haben Han und seine Kollegen ein maschinelles Lernverfahren eingesetzt. Das Gerät ist so konstruiert, dass jeder Laie damit zurechtkommt. Er muss lediglich auf den Startknopf drücken und warten, bis das Ende des Prozesses signalisiert wird. Dann kann das Trinkwasser entnommen werden.

Tests am Bostoner Carson Beach

Nachdem Laborexperimente mit Wasser mit unterschiedlichem Salzgehalt und Trübungsgrad erfolgreich waren, haben die Forscher das Gerät am Bostoner Carson Beach getestet. Die Entwickler stellten es in der Nähe des Ufers auf und legten einen Ansaugschlauch ins Wasser. „Es war schon in seinem ersten Lauf erfolgreich, was ziemlich aufregend und überraschend war“, so Han. Das resultierende Wasser übertraf die Qualitätsrichtlinien der Weltgesundheitsorganisation. Das Gerät könne im Katastrophenfall und in abgelegenen Regionen die Trinkwasserversorgung sichern.

Wärmepumpen, KWK-Anlagen und Pufferspeicher ergänzen sich: eine Studie der RWTH-Aachen

(bkwk) – Rund die Hälfte aller Wohnungen in Deutschland werden aktuell mit Gas beheizt. Die Pläne der Bundesregierung, dass ab dem Jahr 2024 möglichst jede neu installierte Heizung mit mindestens 65 Prozent erneuerbarer Energie betrieben werden soll, sorgt in den nächsten Jahren aller Voraussicht nach für einem massiven Wärmepumpenausbau. Vor dem Hintergrund, dass die Elektrifizierung auch in anderen Sektoren, insbesondere bei der E-Mobilität, weiter zunehmen wird, stellen sich für die örtlichen Stromverteilnetze, aber auch für das übergeordnete Stromsystem insgesamt, enorme Herausforderungen, die solche Vorhaben schnell ausbremsen könnten.

Kraft-Wärme-Kopplung

Die im Auftrag des Deutschen Vereins des Gas- und Wasserfachs e. V. (DVGW) durchgeführte Studie “Ein nachhaltiger Wärmemarkt” von Frontier Economics und der RWTH Aachen zeigt, welche Möglichkeiten die gasbasierte Kraft-Wärme-Kopplung (KWK) als stabilisierendes Systemelement bietet.

„Heizen in Deutschland muss auch in Zukunft zuverlässig und sozialverträglich sein. Ausschließlich auf Elektrifizierung zu setzen würde die Systemstabilität gefährden. Ein 80-prozentiger Wärmepumpenausbau erfordert alleine für den Wegfall der gasbasierten Heizungen eine zusätzliche Leistung von 65 Gigawatt. Zudem sichern heute noch etwa 48 Gigawatt Kohle und Kernkraft die steuerbaren Leistungen in Deutschland ab. In Summe ergibt dies eine Lücke von 113 Gigawatt. Der Ersatz der fünf Millionen Ölheizungen ist hier noch nicht inkludiert”, so Prof. Dr. Gerald Linke, Vorstandsvorsitzender des DVGW.

„Große EE-Stromkapazitäten werden die erforderliche Leistung in Zeiten einer Dunkelflaute nicht vollständig hergeben, und auch Flexibilisierungsoptionen der Verbraucher reichen nicht aus, um das Problem zu lösen. Auch die finanziellen Belastungen für die Verbraucherinnen und Verbraucher können zunehmen, wenn ihnen heute subventionierte Wärmepumpen versprochen werden und man sie später mit extrem hohen Folgekosten strombasierter Wärmebereitstellung allein lässt“, so Linke weiter.

Resiliente Wärmeversorgung braucht einen funktionierenden, technologieoffenen Heizungsmarkt

Anhand eines für Deutschland repräsentativen Vorstadt-Netzes mit 144 Ein- und Mehrfamilienhäusern wurden in der Studie die Herausforderungen für die Verteilnetze errechnet und auf das Stromübertragungsnetz bzw. auf das gesamte Bundesgebiet abstrahiert. Um erneuerbaren Strom vom Norden in den Süden zu transportieren, wären zusätzlich 27 Gigawatt Übertragungsleistung erforderlich. Derartige Investitionen in das Stromsystem können die Strompreise um bis zu 53 Prozent ansteigen lassen.

Um eine resiliente Wärmeversorgung zu gewährleisten, ist daher ein funktionierender, technologieoffener Heizungsmarkt unerlässlich, der dem heterogenen Gebäudebestand gerecht wird, dauerhaft sozialverträgliches Heizen sicherstellt und die perspektivische Einbindung klimaneutraler Gase wie Wasserstoff ermöglicht.

Die KWK-Technologie erzeugt dezentral neben Wärme auch Strom für den Betrieb der neuen elektrischen Verbraucher und kann somit die wegfallenden zentralen und gesicherten Stromerzeugungsleistungen durch Kohle und Kernkraft zumindest teilweise ersetzen. Je nach Ausbaustufe der Wärmepumpen können KWK-Anlagen die Stromnachfrage aus dem Verteilnetz um fast zwei Drittel reduzieren. “Bei geschickter Auslegung der Wärmepumpen, KWK-Anlagen und Pufferspeicher kann die Gleichzeitigkeit der Wärmeanforderung in einem Quartier optimal zu Reduktion der Spitzenlasten in einem Verteilnetz genutzt werden. Es bietet sich an, Gebäude mit höherem Wärmebedarf, wie beispielsweise Mehrfamilienhäuser, mit KWK-Anlagen auszustatten, die dann Strom für die Wärmepumpen in Einfamilienhäusern liefern“, resümiert Prof. Dr.-Ing. Dirk Müller, Lehrstuhl für Gebäude- und Raumklimatechnik, RWTH Aachen, Direktor des Instituts für die Modellierung von Energiesystemen, Forschungszentrum Jülich sowie Prodekan der Fakultät für Maschinenwesen an der RWTH Aachen.

Die DVGW-Studie kommt in der Gesamtbetrachtung der untersuchten Aspekte zu dem Ergebnis, dass die KWK-Technologie die Erreichung der aktuellen energiepolitischen Ziele der Bundesregierung dabei unterstützt, die Anwendungssektoren zu großen Teilen zu elektrifizieren. Gasbasierte Kraft-Wärme-Kopplung sollte somit Bestandteil jeder zukünftigen kommunalen Wärmeplanung sein.

Ausreichende H2-Mengen ab 2030

Ein weiterer Untersuchungsgegenstand der DVGW-Studie „Ein nachhaltiger Wärmemarkt“ war, die Verfügbarkeit klimaneutraler Gase zu ermitteln. Hier konnte der Nachweis erbracht werden, dass es ausreichend Wasserstoffmengen für den Bedarf in Deutschland ab dem Jahr 2030 geben wird. Über diesen Aspekt hatte der DVGW in einer Presseinformation am 2. März 2022 informiert. Dr. Christoph Gatzen von Frontier Economics stellt die Ergebnisse am 5. April 2022 in einem öffentlichen Online-Vortrag vor.

Methanol, flüssige Wasserstoffspeicherung

Die Wasserstoffspeicherung ist die umkehrbare Aufbewahrung von Wasserstoff, mit dem Ziel, dessen chemische und physikalische Eigenschaften für eine weitere Verwendung zu erhalten. Die Speicherung umfasst die Vorgänge der Einspeicherung oder Speicherbeladung, der zeitlich befristeten Lagerung und der Ausspeicherung oder Speicherentladung. Konventionelle Methoden der Speicherung von Wasserstoff sind:

Die Wasserstoffspeicherung ist die umkehrbare Aufbewahrung von Wasserstoff, mit dem Ziel, dessen chemische und physikalische Eigenschaften für eine weitere Verwendung zu erhalten. Die Speicherung umfasst die Vorgänge der Einspeicherung oder Speicherbeladung, der zeitlich befristeten Lagerung und der Ausspeicherung oder Speicherentladung. Konventionelle Methoden der Speicherung von Wasserstoff sind:

Wie kann Wasserstoff gespeichert werden und Aufwand und Energiebedarf
Kompressoren)

Flüssiggasspeicherung (Speicherung in verflüssigter Form durch Kühlung und Verdichten)

Alternative Formen der Speicherung von Wasserstoff nutzen die physikalische oder chemische Bindung an einen anderen Stoff:

Absorption im Metallhydridspeicher (Speicherung als chemische Verbindung zwischen Wasserstoff und einem Metall bzw. einer Legierung)

Adsorptionsspeicherung (adsorptive Speicherung von Wasserstoff in hochporösen Materialien)

chemische Bindung, bei der der Wasserstoff durch eine chemische Reaktion in einen anderen Stoff überführt wird, der z. B. drucklos und bei Raumtemperatur gelagert und transportiert werden kann („Chemisch gebundener Wasserstoff“). Bei der Ausspeicherung erfolgt dann die Umkehrreaktion. Beispiele sind Hydrierung organischer Substanzen oder Bildung von Alkoholen mit CO.

Problemstellung

Wegen seiner chemischen und physikalischen Eigenschaften unterscheidet sich der Umgang mit Wasserstoff von den bisher genutzten Energieträgern.

Wasserstoff bildet beim Austreten ein entzündliches Gemisch mit der Umgebungsluft, bei einem Anteil von 4 % bis 75 %. Ein explosives Gemisch (Knallgas) bildet Wasserstoff erst bei einem Anteil von 18 %. Weil Wasserstoff eine hohe Diffusionsneigung hat und Gemischwolken aus Wasserstoff und Luft eine geringere Dichte als gewöhnliche Luft haben, verflüchtigt es sich in offener Umgebung in der Regel, bevor es ein explosives Gemisch bilden kann, oder es brennt in heißen Umgebungen bereits bei der Konzentration von 4 % ab.

Wasserstoff hat im Vergleich zu vielen Kohlenwasserstoffen eine niedrige Verbrennungsenthalpie und damit eine niedrige volumenbezogene Energiedichte (ca. 1/3 von Erdgas). Das erfordert zum Speichern äquivalenter Energiemengen einen dreimal so großen Tank oder einen dreimal so hohen Druck wie für Erdgas. Auf Grund der geringen molaren Masse ergibt sich jedoch eine vergleichsweise hohe massenbezogene Energiedichte (z. B. mehr als die doppelte massenbezogene Energiedichte von Erdgas).

Durch seine geringe Molekülgröße diffundiert Wasserstoff relativ gut durch eine Vielzahl von Materialien, sodass viele Materialien für die Tankhülle ungeeignet sind. Durch hohe Temperaturen und hohen Innendruck wird der Diffusionsprozess verstärkt. Durch Wasserstoffversprödung werden metallische Tankhüllen zusätzlich belastet. Bei Hüllen aus Kunststoff tritt dieser Effekt nicht auf.

Bei der kryogenen Wasserstoffverflüssigung kommt es durch unvermeidbare thermische Isolationsverluste zum Verdampfen/Ausgasen. Damit der Druck in den Behältern nicht zu hoch steigt, wird das Wasserstoffgas mittels eines Überdruckventils abgelassen. Kann dieses entstehende Wasserstoffgas nicht genutzt werden, entstehen erhebliche Verluste. Beispielsweise leert sich der halbvolle Flüssigwasserstofftank des BMW Hydrogen7 bei Nichtbenutzung in 9 Tagen.[1]

Nicht nur zur Herstellung von Wasserstoff, sondern auch zur Speicherung werden große Energiemengen benötigt (Kompression ca. 12 %, Verflüssigung ca. 20 %). Daher ist die Wasserstoffspeicherung trotz vieler Vorteile derzeit (2021) oftmals unwirtschaftlich.

Arten der Wasserstoffspeicherung

Die unterschiedlichen Einsatzbereiche von sauberem Wasserstoff nach ihrer Wirtschaftlichkeit zugeordnet.

Bei den Verfahren zur technischen Speicherung von Wasserstoff in elementarer Form sind Druckbehälter erforderlich, wofür oft eine metallische Außenhülle verwendet wird. Das gilt auch für Flüssiggasspeicher und Metallhydridspeicher, die einen temperaturabhängigen Innendruck aufweisen. Für die Hochdruckspeicherung bei 700 bar finden auch kohlenstofffaserverstärkte Kunststoffe Verwendung, um das Gewicht des Tanks niedrig zu halten.

Für große Mengen in stationären Systemen sind derzeit Flüssiggasspeicher in Verwendung. Für kleine Mengen werden Druckspeicher bis 700 bar eingesetzt. Metallhydridspeicher werden dort verwendet wo das Speichergewicht keine große Rolle spielt, etwa auf Schiffen. Für Fahrzeuge und Flugzeuge werden wegen des geringen Gewichtes heute ausschließlich Drucktanks verwendet:

Toyota setzt ihn in seinem Brennstoffzellen-Fahrzeug FCHV-adv ein und erreicht damit eine Reichweite von 830 km.[26][27] Das Fahrzeug befindet sich bereits im kommerziellen Einsatz und kann geleast werden.[28]

Volkswagen baut einen 700-bar-Wasserstofftank im Tiguan HyMotion ein,[29] Mercedes im A-Klasse F-Cell „plus“ und Opel im HydroGen4.[30]

Bei Bussen werden inzwischen auch Drucktanks verwendet, wie z. B. im Citaro Fuel Cell Hybrid von Mercedes.[31]

Firmen, die in die Forschung und Produktion von Wasserstoffspeichern involviert sind, sind z. B. in Deutschland die Linde AG, in Norwegen und Island StatoilHydro[32] und in den USA Quantum Fuel Technologies Worldwide.[33]
Brennstoffzellen-SchienenfahrzeugeBearbeiten

 

Unfallgefahr

Die heute industriell eingesetzte Technik berücksichtigt die Hochentzündlichkeit des Wasserstoffes sowie seine Eigenschaft, explosives Knallgas zu bilden. Leitungen und Tanks sind entsprechend ausgelegt,[4][5] so dass im täglichen Gebrauch keine größeren Risiken entstehen als z. B. durch die Verwendung von Benzin.[34][35][36]

Wasserstofffahrzeuge mit Drucktanks können problemlos in Parkhäusern und Tiefgaragen geparkt werden. Es existiert keine gesetzliche Bestimmung, die das einschränkt. Fahrzeuge mit Flüssigwasserstoffspeichern dürfen wegen der unvermeidlichen Ausgasung nicht in geschlossenen Räumen abgestellt werden.