Archiv der Kategorie: Physik, Chemie, Technik

Was bedeutet Freiheit ? Das Magazin der Leibniz-Forschungsgemeinschaft

(Leibniz-Institut) – Frei von staatlichen Eingriffen zu denken und zu leben, mag für uns in Deutschland alltäglich sein – aber es ist nicht selbstverständlich. Unsere grundlegenden Rechte schützt seit mittlerweile 70 Jahren das Grundgesetz, auch mit dem Grundrecht auf Wissenschaftsfreiheit, das freie Forschung und Erkenntnisse für alle ermöglicht. Andernorts kämpfen Menschen bis heute für ein selbstbestimmtes Leben. Wie kann Freiheit ein globales Gut werden?

Freie Forschung braucht unter anderem Autonomie, die Möglichkeit, Ergebnisse frei zu publizieren und finanzielle Förderung. In vielen Ländern finden Forschende diese Bedingungen heute vor; in anderen haben sie mit Repression und staatlichen Eingriffen zu kämpfen. Mit der Publizistin Carolin Emcke und der ungarischen Historikerin Andrea Petö haben wir über Wissenschaftsfreiheit gesprochen – und über ihre Gegner.

Am Leibniz-Zentrum für Zeithistorische Forschung befasst sich die Historikerin Juliane Fürst mit Freigeistern in Zeiten des Kalten Krieges: Inspiriert von den Hippies in den USA träumten in den 1960er Jahren auch in der Sowjetunion junge Menschen von Liebe, Frieden und Rock ’n’ Roll. Doch ihre Suche nach Freiheit brachte die Blumenkinder des Ostens in Konflikt mit dem Regime.

Weltweit erleiden Schätzungen zufolge jährlich 130.000 Menschen eine Querschnittslähmung als Folge eines Unfalls, andere schränkt sie von Geburt an massiv in ihrer Bewegungsfreiheit ein. Am DWI – Leibniz-Institut für Interaktive Materialien in Aachen forscht Laura De Laporte an einer Therapie für Rückenmarksverletzungen. Angetrieben wird sie dabei auch von ihrer persönlichen Geschichte.

Außerdem lesen Sie in leibniz:

Freie Köpfe: Im Mathematischen Forschungsinstitut Oberwolfach treffen sich die Koryphäen des Fachs zum Gedankenaustausch – in Workshops oder bei einer Wanderung durch den Schwarzwald.

Wiederansiedlung: Überfischung, Umweltverschmutzung und Dämme haben den Stör aus Deutschlands Gewässern verdrängt. Leibniz-Forscher arbeiten an seiner Rückkehr.

Homosexuelle Emanzipation: Im Interview spricht der Historiker Michael Schwartz über eine Erfolgsgeschichte mit dunklen Kapiteln und Rückschlägen.

Willensfrage: Wie frei sind unsere Entscheidungen wirklich?

Staubfrei: Selbst winzigste Partikel müssen draußen bleiben. Zu Besuch im Reinraum des IHP – Leibniz-Institut für innovative Mikroelektronik.

Autokratie: Um an der Macht zu bleiben, beschneiden autokratische Regime die Freiheiten ihrer Bürger – und greifen dazu auch auf demokratische Mittel zurück.

Forschungspolitik: Mit Bundesarbeitsminister Hubertus Heil und Wilhelm Bauer vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation hat Leibniz-Präsident Matthias Kleiner über die digitalen Arbeitswelten der Zukunft gesprochen.

Resilienz: Am Römisch-Germanischen Zentralmuseum – Leibniz-Forschungsinstitut für Archäologie untersucht Alexandra W. Busch, was Gesellschaften widerstandsfähig macht.

Nur so ein Vorschlag: In seiner Kolumne lädt Leibniz-Präsident Matthias Kleiner dieses Mal zum Seilspringen ein.

Die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 95 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen knapp 20.000 Personen, darunter etwa die Hälfte Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.

Wissenschaftlich gemessen: Wirbel von schwarzen Löchern im Universum

(pte) – Forschern an der NASA  ist es dank Röntgentechnologie gelungen, die Geschwindigkeit der Wirbel von fünf supermassiven schwarzen Löchern zu messen. „Die Masse in einem dieser kosmischen Wirbel bewegt sich mehr als 70 Prozent der Lichtgeschwindigkeit um sein schwarzes Loch herum“, schreiben die Forscher. Den Astronomen zufolge beschleunigt sich die Drehung von schwarzen Löchern durch die zunehmende Masse, die sie konsumieren.

Vergrößerung durch Krümmung von Raum und Zeit
Um die schwarzen Löcher untersuchen zu können, benutzten sie das Röntgenteleskop des Satelliten Chandra. Sie machten sich auch ein physikalisches Phänomen zunutze, das bereits Albert Einstein festgestellt hatte: den Gravitationslinseneffekt. Dieser bedeutet, dass es durch die Krümmung von Raum und Zeit durch eine große Masse möglich ist, weit entfernte Objekte vergrößert zu sehen.

Im Falle des NASA-Experimentes handelte es sich bei der großen Masse um eine große Galaxie. So konnten die Astronomen sechs Quasare studieren, die sich in einer Entfernung von der Erde von bis zu 10,9 Mrd. Lichtjahre befinden. Die Quasare bestehen alle aus einem schwarzen Loch, welches unaufhörlich Masse konsumiert.

Ereignishorizont dreht sich mit Lichtgeschwindigkeit
Für die Messung des Wirbels selbst verwendeten die Forscher den sogenannten Mikrolinseneffekt. Bei diesem konnten individuelle Sterne in der Galaxie zwischen Erde und Quasaren verwendet werden, um eine noch stärkere Vergrößerung zu erreichen. Die Astronomen gingen davon aus, dass schwarze Löcher, die in einem relativ kleinen Raum Röntgenstrahlen aussenden, sich schneller drehen müssen.

So konnten sie feststellen, dass sich der „Einsteinkreuz“ genannte Quasar mit der höchsten möglichen Geschwindigkeit dreht. Sie schätzen, dass sich der Ereignishorizont von dessen schwarzen Loch mit Lichtgeschwindigkeit dreht. Die anderen vier würden sich mit etwa der Hälfte dieser Geschwindigkeit drehen, eines konnte nicht gemessen werden. Der Grund für diese Geschwindigkeit ist möglicherweise die Masse, welche die schwarzen Löcher über Milliarden von Jahren angesammelt haben. Sie würden sich in einer immer gleichen Drehbewegung befinden, die durch die angehäufte Masse immer weiter beschleunigt wird.

Ist die batteriebetriebene Elektromobilität auf dem Holzweg ? Mit einem Vorwort von Jean Pütz

Liebe Besucher meiner Homepage,
der unten stehende interessante Artikel bestätigt meine These, dass mit Batterie betriebene Elektroautos die CO2-Bilanz weltweit leider nicht verbessern werden.

Schon seit vielen Jahren bemühe ich mich, eine Alternative zu finden, die unmittelbar einsetzbar ist und der Elektromobilität auf andere Weise Vorschub leisten könnte. Sie kostet trotzdem ebenso wie das reine Elektroauto 100%ig die geniale Erfindung des neuen elektromotorischen Antriebs aus. Ein weiterer Vorteil: Ein Getriebe wird überflüssig und die Batteriekapazität kann auf ein Drittel reduziert werden. Selbstverständlich kann die Bewegungsenergie beim Bremsen spritsparend regeneriert werden. Dazu ist nichts anderes notwendig, als ein Abgas-optimierter Lademotor – ob Diesel, Benziner oder Turbine. Eine Technologie, die in Perfektion vorhanden ist. Die Umdrehungszahl des Lademotors kann auf den besten Wirkungsgrad eingestellt werden und seine Abwärme löst auch das Problem der Heizung und des Klimaaggregats, das sonst die Reichweite reiner Elektroautos erheblich verringert.

Im Übrigen könnte der Motor demnächst mit regenerativem Treibstoff angetrieben werden. Diese sogenannte modifizierte Hybrid-Lösung ermöglicht es, extrem leichte Autos zu konstruieren, die bestenfalls ein bis drei Liter – je nach Größe – Treibstoff auf 100 Kilometern benötigen.

Eine langfristige Perspektive bildet der mit Wasserstoff betriebene Brennstoffzellen-Antrieb.
Ihr Jean Pütz

(STIMME DES WESTENS) – In Deutsch­land ver­engt sich die Dis­kus­si­on über die An­trie­be der Zu­kunft auf die höchst pro­ble­ma­ti­schen Bat­te­rie­au­tos. In Chi­na, dem glo­ba­len Leit­markt für Elek­tro­mo­bi­li­tät, steu­ert man be­reits um. Das soll­ten wir auch.

Viel­leicht lie­fe in Deutsch­land ei­ni­ges an­ders, wenn im Land der In­ge­nieu­re auch mal ein In­ge­nieur Mi­nis­ter wür­de. So ei­ner wie Wan Gang. In der 80ern stu­dier­te er in Deutsch­land An­triebs­tech­nik, be­vor er zehn Jah­re lang in der Ent­wick­lungs­ab­tei­lung bei Au­di ar­bei­te­te. Dann kehr­te er nach Chi­na zu­rück und wur­de 2007 zum Mi­nis­ter für Wis­sen­schaft und Tech­no­lo­gie be­ru­fen. In der Au­to­bran­che hat Wan ei­nen Ruf wie Don­ner­hall: Er ist der Ar­chi­tekt der chi­ne­si­schen Elek­tro­au­to-Re­vo­lu­ti­on.

In nur ei­ner De­ka­de ent­wi­ckel­te sich un­ter Wans Ägi­de in Chi­na dank mas­si­ver staat­li­cher Sub­ven­tio­nen und ge­ziel­ter Ge­setz­ge­bung der welt­größ­te Markt für bat­te­rie­be­trie­be­ne Fahr­zeu­ge. Deut­sche Po­li­ti­ker wer­den nicht mü­de, auf das Bei­spiel Chi­na zu ver­wei­sen, wenn es dar­um geht, die Elek­tro­mo­bi­li­tät zu prei­sen. Und auch Her­bert Diess, Chef des welt­größ­ten Au­to­kon­zerns Volks­wa­gen, hat sich nicht zu­letzt mit Blick auf Chi­na, wo VW 40 Pro­zent sei­ner Pro­duk­ti­on ab­setzt, voll dem Bat­te­rie­an­trieb ver­schrie­ben und will Mil­li­ar­den in die­se Tech­no­lo­gie in­ves­tie­ren.

Der­weil wird in Chi­na das Ru­der schon wie­der her­um­ge­wor­fen, und aus­ge­rech­net Wan Gang gab im April am Ran­de ei­ner Au­to­mes­se in Shang­hai das Si­gnal da­für. Nicht der der Li­thi­um-Io­nen-Bat­te­rie, son­dern der mit Was­ser­stoff be­trie­be­nen Brenn­stoff­zel­le ge­hö­re die Zu­kunft, sag­te der 66-Jäh­ri­ge, der im ver­gan­ge­nen Jahr aus der Re­gie­rung aus­schied und jetzt Prä­si­dent ei­ner Wis­sen­schafts­ver­ei­ni­gung ist. Kurz dar­auf be­stä­tig­te ein Spre­cher des In­dus­trie­mi­nis­te­ri­ums die neu­en Prio­ri­tä­ten in Pe­king: Man wer­de die Markt­ein­füh­rung der Brenn­stoff­zel­le for­cie­ren, denn der Bat­te­rie­an­trieb sei auf lan­ge Sicht für län­ge­re Dis­tan­zen so­wie den Schwer­last­ver­kehr un­ge­eig­net.

Be­reits En­de März hat­te die Re­gie­rung die bis­her üp­pi­gen Sub­ven­tio­nen für Bat­te­rie­au­tos um zwei Drit­tel ge­kürzt. Im kom­men­den Jahr soll die För­de­rung dann ganz ge­stri­chen wer­den, wäh­rend sie für Brenn­stoff­zel­len­au­tos vor­erst wei­ter­läuft. Für ei­ni­ge Her­stel­ler dürf­te das ex­trem schmerz­haft wer­den. Al­lein BYD, Chi­nas Markt­füh­rer bei Bat­te­rie­fahr­zeu­gen, hat nach Schät­zun­gen in den ver­gan­ge­nen fünf Jah­ren vom Staat fast ei­ne Mil­li­ar­de Eu­ro für sein Elek­tro­pro­gramm er­hal­ten.

Nach Ein­schät­zung von Be­ob­ach­tern sind es aber nicht al­lein tech­ni­sche Grün­de, die zu ei­nem Um­den­ken der Re­gie­rung ge­führt ha­ben. Im­mer stär­ker sei den chi­ne­si­schen Be­hör­den auch be­wusst ge­wor­den, wie schlecht die Öko­bi­lanz der Bat­te­rie­au­tos in Wirk­lich­keit sei. Vor al­lem die ex­trem um­welt­schäd­li­che und res­sour­cen­ver­schlin­gen­de Ge­win­nung der nö­ti­gen Schwer­me­tal­le für die Bat­te­rie­fer­ti­gung wie auch die spä­te­re Ent­sor­gung gif­ti­ger Ab­fäl­le be­rei­te zu­neh­mend Sor­gen. Und dann gibt es da noch das Pro­blem mit den Bat­te­rie­brän­den bei E-Au­tos: Mehr als 40 sol­cher Vor­fäl­le wur­den im ver­gan­ge­nen Jahr in Chi­na re­gis­triert.

Nun ist ja auch der Um­gang mit Was­ser­stoff kei­ne ba­na­le An­ge­le­gen­heit, was die Ex­plo­si­on ei­ner Was­ser­stoff­tank­stel­le in Nor­we­gen erst un­längst wie­der in Er­in­ne­rung ge­ru­fen hat. Trotz­dem, so be­rich­te­te die „Chi­na Dai­ly News“, ha­be die Re­gie­rung in Pe­king ehr­gei­zi­ge In­fra­struk­tur­plä­ne. So wer­den zur Ver­sor­gung von ei­ner Mil­li­on Was­ser­stoff­au­tos, die bis 2030 auf Chi­nas Stra­ßen fah­ren sol­len, Dut­zen­de „Was­ser­stoff­kor­ri­do­re“ ent­ste­hen.

Ei­ne flä­chen­de­cken­de Ver­sor­gung mit dem ex­trem flüch­ti­gen Gas bleibt die größ­te Her­aus­for­de­rung, um der Was­ser­stoff-Mo­bi­li­tät zum Durch­bruch zu ver­hel­fen. Und da steht Deutsch­land mit sei­ner star­ken che­mi­schen In­dus­trie gar nicht so schlecht da. Hier­zu­lan­de exis­tiert mit der­zeit 70 öf­fent­lich zu­gäng­li­chen Stand­or­ten das welt­weit zweit­größ­te Netz an Was­ser­stoff­tank­stel­len. Nur in Ja­pan gibt es mit 96 noch mehr; in Chi­na sind es bis­her nur ein gu­tes Dut­zend. Be­zo­gen auf die Be­völ­ke­rungs­zahl hat aber Dä­ne­mark mit acht Zapf­säu­len das dich­tes­te Netz. Ge­plant ist in Deutsch­land der Aus­bau auf 400 Stand­or­te, aber bei sys­te­ma­ti­scher Auf­rüs­tung klas­si­scher Tank­stel­len lie­ße sich die­se Zahl schnell er­hö­hen. Es ist ei­ne Fra­ge des Gel­des: Die Kos­ten für den Bau ei­ner Was­ser­stoff­tank­stel­le be­gin­nen bei ei­ner Mil­li­on Eu­ro.

Die Fra­ge, wie der Was­ser­stoff am ef­fi­zi­en­tes­ten zum Kun­den trans­por­tiert wer­den kann, ist noch nicht ab­schlie­ßend ge­klärt. Am gän­gigs­ten ist bis­her die Me­tho­de, das Gas mit 700 Bar Druck zu ver­dich­ten und in Tanks zu fül­len oder es un­ter mi­nus 253 Grad Cel­si­us ab­zu­küh­len, um es zu ver­flüs­si­gen. Deut­sche For­scher ha­ben zu­dem ei­ne Me­tho­de ent­wi­ckelt, den Was­ser­stoff an ei­ne Trä­ger­sub­stanz zu bin­den, so dass ei­ne si­cher trans­por­tier­ba­re die­sel­ähn­li­che Flüs­sig­keit ent­steht. In Skan­di­na­vi­en setzt man da­ge­gen zu­neh­mend auf Was­ser­stoff­tank­stel­len, die das Gas di­rekt vor Ort per Elek­tro­ly­se her­stel­len. Be­nö­tigt wer­den da­für le­dig­lich Was­ser und Strom – idea­ler­wei­se ge­lie­fert di­rekt von ei­nem na­he ge­le­ge­nen Wind­park.

Kei­nes die­ser Ver­fah­ren kommt bis­her oh­ne grö­ße­re Ef­fi­zi­enz­ver­lus­te aus, aber so­lan­ge in Deutsch­land gro­ße Men­gen Wind- und So­lar­strom we­gen dro­hen­der Netz­über­las­tung nicht ver­wer­tet wer­den kön­nen (und die Ver­brau­cher da­für auch noch Hun­der­te Mil­lio­nen Eu­ro be­zah­len müs­sen), wä­re die Her­stel­lung von Was­ser­stoff per Elek­tro­ly­se im­mer­hin ei­ne ele­gan­te Form der Spei­che­rung der über­schüs­si­gen En­er­gie.

Wie Wan Gang glau­ben da­her auch deut­sche In­ge­nieu­re an ei­ne gro­ße Zu­kunft des Was­ser­stoffs. In ei­ner im Mai pu­bli­zier­ten Stu­die des Ver­eins Deut­scher In­ge­nieu­re und des Ver­bands der Elek­tro­tech­nik war­nen die Au­to­ren ein­dring­lich da­vor, ein­sei­tig auf die bat­te­rie­be­trie­be­ne E-Mo­bi­li­tät zu set­zen. Die gleich­be­rech­tig­te För­de­rung der Was­ser­stoff-Tech­no­lo­gie sei un­ver­zicht­bar, um Deutsch­lands en­er­gie- und um­welt­po­li­ti­sche Zie­le zu er­rei­chen. Man könn­te auch sa­gen: VW-Chef Diess ist schwer auf dem Holz­weg.
MAT­THI­AS BEER­MANN

IN­FO
Sau­ber, sehr ef­fi­zi­ent, aber auch noch sehr teu­er. Ei­ne Brenn­stoff­zel­le ist kein En­er­gie­spei­cher wie ei­ne Bat­te­rie, son­dern ein En­er­gie­wand­ler. In der Zel­le re­agiert Was­ser­stoff mit dem Sau­er­stoff aus der Luft. Da­bei ent­ste­hen Was­ser, Strom und Wär­me. Die­se Re­ak­ti­on wird auch als „kal­te Ver­bren­nung“ be­zeich­net.

An­wen­dung Brenn­stoff­zel­len eig­nen sich auch für sta­tio­nä­ren Ein­satz (z.B. zum Hei­zen von Ge­bäu­den). Au­tos mit sol­chen Zel­len sind er­heb­lich leich­ter als Bat­te­rie­fahr­zeu­ge. Sie las­sen sich eben­so schnell be­tan­ken wie kon­ven­tio­nel­le Au­tos, auch ih­re Reich­wei­te ist ver­gleich­bar. Der Ver­brauch be­trägt et­wa ein Ki­lo­gramm Was­ser­stoff auf 100 Ki­lo­me­ter.

Kos­ten Ein Ki­lo­gramm Was­ser­stoff kos­tet an der Tank­stel­le 9,50 Eu­ro. Vier bis fünf Ki­lo­gramm fasst der Tank der meis­ten Fahr­zeu­ge. Noch gibt es nur sehr we­ni­ge Was­ser­stoff-Pkw, die ent­spre­chend teu­er sind. Der To­yo­ta Mi­rai kos­tet rund 78.000 Eu­ro.

Her­stel­lung Der größ­te Teil der heu­ti­gen Was­ser­stoff­pro­duk­ti­on ent­steht als Ne­ben­pro­dukt in der che­mi­schen In­dus­trie, vor al­lem aus Erd­gas. Da­ne­ben ist die Elek­tro­ly­se von Was­ser am ge­bräuchlisten.

Nicht nur Geburtstag, sondern hervorragende Fusionsforschung in Greifswald

Das IPP Greifswald feiert 25-jähriges Jubiläum

(IPP) – Am 19. Juli 2019 feiert das IPP Greifswald sein 25jähriges Bestehen. Vor einem Vierteljahrhundert wurde es als zweiter Standort des im bayerischen Garching beheimateten Max-Planck-Instituts für Plasmaphysik (IPP) gegründet. Im IPP Greifswald wird Wendelstein 7-X betrieben, die weltweit größte Fusionsanlage vom Typ Stellarator.

Vor 25 Jahren, am 19. Juli 1994, schlossen das Land Mecklenburg-Vorpommern und die Max-Planck-Gesellschaft den Rahmenvertrag zur Errichtung des IPP-Teilinstitutes in Greifswald. Hier, mehr als 800 Kilometer vom Stamminstitut im bayerischen Garching entfernt, gründete das Max-Planck-Institut für Plasmaphysik im Zuge des „Forschungsaufbaus Ost“ einen zweiten Standort. Dort sollte die bereits ab den 1980er-Jahren geplante Forschungsanlage Wendelstein 7-X entstehen, die weltweit größte Fusionsanlage vom Typ Stellarator.

Mit unterschiedlichen Anlagen verfolgt man an beiden IPP-Standorten das gleiche Ziel: ein Kraftwerk, das – ähnlich wie die Sonne – Energie aus der Verschmelzung von Atomkernen Energie gewinnt. Brennstoff ist ein ionisiertes Wasserstoffgas, ein „Plasma“. Zum Zünden des Fusionsfeuers muss es in Magnetfeldern nahezu berührungsfrei eingeschlossen und auf hohe Temperaturen über 100 Millionen Grad aufgeheizt werden. Dabei erarbeitet die Forschungsanlage ASDEX Upgrade in Garching die Grundlagen für ein Fusionskraftwerk vom Typ Tokamak; Wendelstein 7-X in Greifswald soll die Kraftwerkstauglichkeit der Stellaratoren zeigen.

Rück- und Ausblick
Die damalige Kultusministerin Mecklenburg-Vorpommerns Steffie Schnoor betonte 1994 anlässlich der Vertragsunterzeichnung: „Dieses junge Bundesland wird mit dem Rahmenvertrag, den wir heute hier unterzeichnen, in den europäischen Forschungsverbund eingebunden und der Forschungsstandort Mecklenburg-Vorpommern wird nachhaltig gestärkt. Nicht zuletzt wird hier und heute auch ein Stück Deutsche Einheit vollzogen.“ Ähnlich sah es der damalige Bundesforschungsminister Dr. Paul Krüger: „Die Angleichung der Lebensverhältnisse zwischen Ost und West, also auch im Bereich von Forschung und Technologie, ist und bleibt eine vorrangige Aufgabe.“ Mit dem Stellarator-Projekt entstünde in Greifswald eine Stätte europäischer Forschung.

Zwei Jahre später bestätigte die Europäischen Union, 45 Prozent der Investitionskosten zu übernehmen, und die ersten Aufträge konnten europaweit ausgeschrieben werden. Im Jahr 2000 zog man aus gemieteten Büroräumen in den Institutsneubau in der Wendelsteinstraße um. Parallel zur industriellen Fertigung der Bauteile startete 2005 der Zusammenbau des Großexperiments. Nach zehn Jahren und weit über einer Million Montagestunden war der Aufbau von Wendelstein 7-X abgeschlossen. Daran hatten sich zahlreiche Forschungseinrichtungen im In- und Ausland beteiligt. Die von Bund, Land und EU bis heute getragenen Investitionskosten zur Errichtung von Wendelstein 7-X belaufen sich auf netto rund 400 Millionen Euro. Aufträge im Wert etwa 100 Millionen gingen dabei an Unternehmen im Land Mecklenburg-Vorpommern.

2015 erzeugte Wendelstein 7-X das erste Helium-Plasma, 2016 startete mit dem ersten Wasserstoff-Plasma der wissenschaftliche Experimentierbetrieb. Schon ein Jahr später erzielte Wendelstein 7-X den Stellarator-Weltrekord für das Fusionsprodukt. Die gegenwärtig für etwa zwei Jahre laufende Aufrüstung der Anlage soll statt der bislang erreichten rund zehn bis hundert Sekunden bis zu dreißig Minuten andauernde Plasmen möglich machen. Damit wird überprüfbar, ob Wendelstein 7-X ein heißes Wasserstoff-Plasma auch dauerhaft aufrechterhalten kann. Ziel ist es, das große Plus der Stellaratoren zu demonstrieren, die Möglichkeit des Dauerbetriebs.

„Die Hoffnungen des damaligen IPP-Direktor Professor Klaus Pinkau, der die Gründung des neuen Standorts in Greifswald maßgeblich befördert hatte, haben sich erfüllt. Der wissenschaftliche Erfolg hat sich voll und ganz eingestellt“, meint Projektleiter Professor Thomas Klinger: „Wendelstein 7-X ging als nationales und europäisches Projekt an den Start. Inzwischen hat die Anlage internationale Aufmerksamkeit und Kooperationspartner in aller Welt gefunden“. Zum Wendelstein-Team gehören über 400 Wissenschaftlerinnen und Wissenschaftler, davon etwa die Hälfte aus den Laboratorien des Europäischen Fusionsforschungsprogramms, aus den USA, Japan und Australien.
Isabella Milch

Mehr Trinkwasser durch neue Nano-Hotspots

(pte) – Forscher der Rice University haben eine neue, besonders leistungsfähige Entsalzungsanlage entwickelt, die ihre Energie aus der Sonne bezieht. Es handelt sich um eine Fortentwicklung der sogenannten Membrandestillation. Bei diesem Verfahren trennt eine nur für Dampf, nicht jedoch für Wasser durchlässige Membran von der Sonne erwärmtes Salzwasser von kühlem Frischwasser. Der Dampf passiert die Sperre aufgrund des Druckunterschieds und kondensiert zu sauberem Trinkwasser.

Nanopartikel statt Konzentratorlinsen
Die von den Fachleuten eingesetzten Membranen sind aus einem wasserabweisenden Kunststoff gefertigt und haben einen Porendurchmesser von 0,1 bis 0,5 Mikrometern. Um die Ausbeute zu verbessern, lässt sich die Sonneneinstrahlung durch Konzentratorlinsen erhöhen. Das Salzwasser wärmt sich schneller auf, sodass mehr Dampf die Membran passiert. Das Team um Alessandro Alabastri, Assistenzprofessor am Institut für Elektrotechnik und Computerwissenschaften, Pratiksha Dongare, die ihr Studium abgeschlossen hat, und Oara Neumann, entschied sich für einen anderen Weg, um mehr solare Wärme einzufangen.

Die Experten haben Nanopartikel entwickelt, die so designt sind, dass sie Wärme einfangen, wenn sie von den infraroten Strahlen der Sonne getroffen werden. Diese klebten sie auf die Seite der Membran, die der Salzwasserseite zugewandt ist. Diese Hotspots, die einen Wirkungsgrad von 80 Prozent haben, geben ihre Energie an das umliegende Wasser ab, das sich dadurch schneller erhitzt. Die Partikel lassen sich kostengünstig herstellen und auf die Membran kleben.

Schnelle Hilfe für Dritte-Welt-Länder
Physikalisch gesehen, haben die Forscher aus einem linearen einen nicht linearen Prozess gemacht. Die schnellere Erwärmung sorgt für eine überproportional stärker ansteigende Druckdifferenz, die den Transport von Dampfmolekülen durch die Membran beschleunigt. Es habe sich herausgestellt, dass Hotspots wirkungsvoller sind als flächige Wärmeabsorber.

Das Verfahren lässt sich möglicherweise auch auf andere Solartechniken übertragen, etwa die fotokatalytische Wasserspaltung, bei der Wasserstoff entsteht. Millionen Menschen, vor allem in der Dritten Welt, haben nur eingeschränkten Zugang zu sauberem Trinkwasser, außerdem keinen oder kaum Strom. Die Rice-Forscher wollen ihre Verfahren jetzt massentauglich machen, sodass es in diesen Regionen als Trinkwasserspender eingesetzt werden kann.

Flexible Nanoröhren als Antennen für 5G-Handys

(pte) – Antennen aus Kohlenstoff-Nanoröhrchen sind genauso effektiv wie solche aus Kupfer. Dazu sind sie flexibel, robust und lassen sich auf Unterlagen drucken, etwa auf Bauteile von Smartphones der nächsten Generation (5G). Entwickelt worden sind sie von Forschern der Ingenieurschule an der Rice University .

Acht Meter lange Nanotubes
Chemie- und Biomolekular-Ingenieur Matteo Pasquali arbeitet mit speziell ausgerichteten Filmen aus Nanoröhren. Diese sind wie aufgerolltes Graphen. Die daraus hergestellten Antennen sind den herkömmlichen nicht nur ebenbürtig, sie sind auch dünner und können hohe Frequenzen besser empfangen, wie sie im 5G-Netz verwendet werden. Ein solches ist derzeit weltweit im Aufbau, allerdings mit unterschiedlichen Geschwindigkeiten.

Pasquali hat eng mit dem National Institute of Standards and Technology (NIST) zusammengearbeitet, das die neuartigen Antennen auch testet. Federführend war hier Amram Bengio, der bei Pasquali seine Doktorarbeit schrieb. Er gründete unterdessen ein Unternehmen, um die Antenne weiterzuentwickeln und zur Serienreife zu bringen.

Um die Filme herzustellen, haben die Forscher bis zu acht Meter lange Nanotubes in eine saure Flüssigkeit gegeben. Diese sprühten sie auf eine Unterlage. Scherkräfte sorgten dort dafür, dass sich die Röhrchen eigenständig zu einem Film formierten. Dieses Phänomen hatte Pasquali bereits früher beschrieben.

Auch für Drohnen gut nutzbar
Oft wird zur Herstellung dünner Filme die Gasphasenabscheidung genutzt. Sie ist in diesem Fall aber weniger gut geeignet, so Pasquali. Die Abscheidung aus der Flüssigphase sei besser skalierbar und ermögliche eine kontinuierliche Herstellung. Die Filme sind zwischen einem und sieben Mikrometer dick. Die Röhrchen werden von Van-der-Waals-Kräften zusammengehalten, die dem Material bessere Eigenschaften verleihen, als Kupfer sie ausweist.

Den Forschern zufolge sind die Antennen nicht nur für 5G-Handys geeignet, sondern auch für die Kommunikation mit unbemannten Luftfahrzeugen, bei denen Gewicht eine wichtige Rolle spielt. Auch sei die Neuentwicklung für die Exploration von Öl und Gas nutzbar. „Ohne die wissenschaftliche Kompetenz und die experimentellen Möglichkeiten des NIST hätten wir unser Ziel nie erreicht“, sagt Pasquali. Unterstützung gab es auch von gleich drei Forschungseinrichtungen des US-Militärs.

Immer mehr kristallisiert sich CO2 als regenerativer Wertstoff heraus

(pte) – Eine Matte aus zahlreichen nebeneinander angeordneten, ringförmigen Resonatoren verwandeln einen mittelstarken Magnetresonanztomografen (MRT) in eine Supermaschine. Das Kunststück ist Xin Zhang, Stephan Anderson und ihrem Team vom Photonic-Center der Boston University  gelungen. Die Röhrchen bestehen aus Kunststoff und Kupfer. Diese Materialien sind so miteinander verbunden, dass es dafür kein Vorbild in der Natur gibt. Es handelt sich folglich um ein Metamaterial mit magnetischen Eigenschaften.

Radiosignale stören Ordnung
MRT werden vor allem im medizinischen Bereich genutzt, um Bilder vom Inneren des Körpers zu erzeugen. Das Verfahren ist auch für die Industrie interessant, etwa, um das Innere von Werkstoffen sichtbar zu machen. Der Tomograf erzeugt ein starkes Magnetfeld, beispielsweise 1,5 Tesla. Das ist das 30.000-Fache des Erdmagnetfelds. Das Magnetfeld richtet Wasserstoffatome so aus, dass sie alle in eine Richtung zeigen. Diese schöne Ordnung stört ein kurzes Radiosignal. Danach kehren die Wasserstoffatome zur alten Ordnung zurück. Dabei senden sie ihrerseits Signale aus, die von Sensoren registriert werden. Aus einer Vielzahl solcher Signale errechnet ein Computer dann ein Bild.

Damit eine hohe Auflösung erreicht wird und aussagekräftig ist, dauert die Aufnahme bis zu eine Stunde lang. Der neuartige Resonator halbiert die Zeit, die zur Erstellung von Bildern mit der gleichen Auflösung benötigt wird. Er wirkt gewissermaßen wie ein Signalverstärker. Das erleichtert es nicht nur den Patienten, es senkt auch die Kosten für den Betrieb der teuren Geräte. Den gleichen Effekt kann man auch mit MRT erreichen, die stärkere Magnetfelder erzeugen. Doch diese sind weitaus teurer. Umgekehrt können MRT mit weit kleineren Magnetfeldern gebaut werden, um in der Industrie eingesetzt zu werden. Das kann den Anwendungsbereich dieser Technologie stark erweitern.

Kunststoffstruktur aus 3D-Drucker
Die Resonatoren in der Matte sind drei Zentimeter hoch. Die Kunststoffstruktur wird per 3D-Druck hergestellt. Dazu kommt feiner Kupferdraht. Die Matten sind flexibel, sodass sie sich an die Körperteile anschmiegen, die per MRT untersucht werden, etwa an Knie oder Bauch. Die Resonatoren treten in eine Wechselwirkung mit dem Magnetfeld. Das verbessert die Signalstärke und damit die Auflösung des Bildes. „Viele Menschen sind erstaunt über die Einfachheit der Innovation. Dabei ist es kein Wundermaterial. Die Magie liegt im Design und in der Idee“, so Zhang.

Deutschlands Bedarf an Reserve-Kraftwerken verdoppelt sich

(WELT) – Die Zahl der Kraftwerke, die als Folge von Energiewende und Atomausstieg ausschließlich für den Notfall bereitgehalten werden müssen, steigt in den nächsten Jahren erneut auf Rekordwerte. „Es gibt nach wie vor einen Bedarf an Netzreserve, um das deutsche Stromnetz in kritischen Situationen stabil zu halten“, kommentierte Jochen Homann, Präsident der Bundesnetzagentur, die neueste Prognose. „Das macht die Bedeutung eines zügigen Netzausbaus deutlich.“

Laut der Bonner Behörde steigt der Bedarf an Reservekraftwerken bis zum Winter 2022/2023 auf den Rekordwert von 10.647 Megawatt. Damit muss eine Erzeugungskapazität, die umgerechnet der von zehn Atomkraftwerken entspricht, nur zum Zwecke der Stromnetzstabilisierung in Betrieb gehalten werden.

Zwar hatte es im Winter 2017/2018 einen noch höheren Reservebedarf von 11.400 Megawatt gegeben: Damals war allerdings auch noch Österreich Teil einer gemeinsamen Netzzone mit Deutschland. Durch den vom europäischen Netzbetreiberverband verfügten Hinauswurf Österreichs aus dem gemeinsamen Marktgebiet sank der Reservebedarf in Deutschland seither – ein Rückgang, der aber offenbar nur kurzfristig Bestand hat, wie sich jetzt zeigt.

Bei hoher Stromnachfrage und gleichzeitig hoher Erzeugung aus Windkraftanlagen muss das überlastete Netz in der Regel stabilisiert werden. Dann wird die Erzeugungsleistung vor dem Engpass vermindert und gleichzeitig die Erzeugungsleistung hinter dem Engpass erhöht. Das geschieht meist, indem die Stromnetzbetreiber Kraftwerke nördlich der Mainlinie drosseln und Anlagen südlich des Mains hochfahren.

In 27 Fällen hat Netzagentur Abschaltung untersagt
In der Regel greifen Netzbetreiber wie Amprion oder Tennet dabei auf Kraftwerke zu, die am normalen Strommarkt teilnehmen. In manchen Situationen reichen diese jedoch als Re-Dispatch-Kapazitäten nicht aus. Dann müssen Kraftwerke aus der eigens vorgehaltenen Netzreserve einspringen.

Diese Netzreserve besteht aus Kraftwerken, die von ihren Betreibern aus Wirtschaftlichkeitsgründen eigentlich stillgelegt werden sollten. Die Bundesnetzagentur kann die Stilllegung jedoch untersagen, wenn die Anlagen für den Betrieb des Stromnetzes unverzichtbar sind. Die Turbinen müssen dann gegen eine reine Kostenentschädigung ständig in Betriebsbereitschaft gehalten werden.

Bislang haben Energiekonzerne 110 Kraftwerksblöcke mit einer Kapazität von 22.000 Megawatt zur Stilllegung angemeldet. In 27 Fällen hat die Bundesnetzagentur die Abschaltung bereits untersagt. Aus diesem Pool wird auch die Netzreserve für den kommenden Winter gebildet, die von der Regulierungsbehörde mit 5126 Megawatt angegeben wird.

Für den Winter 2022/2023 rechnet die Bundesnetzagentur nun allerdings mit einer Verdopplung des Netzreservebedarfs auf den besagten Rekordwert von 10.647 Megawatt. Denn wenn Ende 2022 das letzte deutsche Atomkraftwerk abgeschaltet wird, vergrößert sich das Gefälle der installierten Stromerzeugungskapazitäten zwischen Nord- und Süddeutschland. Entsprechend häufiger muss mit Re-Dispatch in den Markt eingegriffen werden, um die Überlastung der Leitungen zu vermeiden.

Zudem verlangt eine neue Stromhandelsverordnung der EU, dass die Netzbetreiber mehr grenzüberschreitende Leitungen dem internationalen Stromhandel zur Verfügung stellen müssen. Auch dadurch steigt der Re-Dispatch-Bedarf.

Kurzfristig ausländische Kraftwerke anmieten
Woher die nötigen Reservekraftwerke im Winter 2022 kommen sollen, ist einstweilen noch unklar. Der Bedarf von mehr als zehn Gigawatt übersteigt bei Weitem das, was an inländischen Kraftwerken zu diesem Zeitpunkt der Netzreserve zur Verfügung stehen wird. Womöglich müssen dann erneut ausländische Kraftwerke zur Sicherung des deutschen Stromnetzes angemietet werden.

Die deutschen Stromnetzbetreiber sollen allerdings noch warten, heißt es bei der Bundesnetzagentur. Schließlich sei der tatsächliche Bedarf im Winter 2022/2023 noch mit Unsicherheiten behaftet. Auch wisse man noch nicht, ob der „Aktionsplan Stromnetze“, der aktuell von der Bundesregierung erarbeitet wird, bis dahin das Problem abmildert. „Die Bundesnetzagentur hält daher an der Praxis fest, Netzreserve im Ausland erst zu kontrahieren, wenn die Bedarfsanalyse für den unmittelbar folgenden Winter einen entsprechenden Bedarf ergibt.“

Unglaublich: Hybride Mikroorganismen verwandeln Kohlendioxid CO2 und Stickstoff in regenerative Wertstoffe

(pte) – US-Forscher der University of Colorado  haben lebende Fabriken entwickelt, die CO2 aufnehmen und es in nützliche Produkte wie natürlich abbaubaren Kunststoff, Benzin oder Diesel umwandeln. Nanobiohybrid-Organismen, wie Forscher Prashant Nagpal von der University of Colorado  die winzigen Fabriken nennt, verarbeiten auch Stickstoff aus der Luft und wandeln ihn in den Chemierohstoff Ammonium um.

Indirektes Sonnenlicht reicht
Nagpals Team hat winzige Halbleiter, sogenannten Quantenpunkte, in den Kern von Mikroorganismen geschossen. Am Ziel angekommen, formieren sie sich gemeinsam mit den dort vorhandenen biologisch aktiven Substanzen zu Enzymen. Werden diese mit Licht einer bestimmen Wellenlänge aktiviert, verschlingen die Mikroorganismen CO2 beziehungsweise Stickstoff und wandeln diese Elemente in Wertstoffe um.

Mittlerweile hat das Team seine Biofabriken so weit verbessert, dass sie sich mit indirektem Sonnenlicht als Aktivator begnügen. Zur Produktion von Sprit ist keine externe Energiequelle nötig. Die Mikroorganismen befinden sich im Wasser. Die Wertstoffe, die sie produzieren, steigen an die Oberfläche, von der sie abgeschöpft werden können. Unterschiedliche Kombinationen von Quantenpunkten und Licht ergeben unterschiedliche Produkte. Dazu ist allerdings Kunstlicht nötig. Ist es grünlich, so verspeisen die Mikroorganismen Stickstoff und wandeln ihn in Ammonium um. Werden sie mit rotem Licht aktiviert, entsteht Kunststoff.

Mikroorganismen regenerierbar
Der Prozess hat gute Voraussetzungen, auch in größerem Maßstab zu funktionieren. Bei den Experimenten zeigte sich, dass sich die Mikroorganismen sogar regenerieren, also relativ selten ersetzt werden müssen, weil ihre Effektivität nachlässt. „Wir waren erstaunt, dass der Prozess so elegant funktioniert“, sagt Nagpal. Er kann sich vorstellen, dass häusliche und industrielle Heizungssysteme per Pipeline mit einer Biofabrik verbunden werden, die CO2 transportiert. Das könnte dann dezentral in Wertstoffe umgewandelt werden.

Österreich meldet sich: Algorithmen pro und kontra?

(pte) – Welche Chancen und Risiken mit der Digitalisierung und den Anwendungen Künstlicher Intelligenz (KI) auf Europa zukommen, diskutierte eine gut besetzte Expertenrunde im Rahmen des letzten Panel des Wirtschaftsforums bei den Europäischen Toleranzgesprächen am vergangenen Freitagnachmittag im Kärntner Bergdorf Fresach. Zur Vorsicht vor möglicher Überwachung durch ausgeklügelte Algorithmen mahnte dabei die Technologieforscherin Petra Schaper-Rinkel vom Austrian Institute of Technology (AIT), dem könne man nur mit vermehrter Transparenz begegnen.

Die von Thomas Cik moderierte Diskussionsrunde war sich einig, dass KI großartige Entwicklungsmöglichkeiten bietet, und das nicht nur für den urbanen Raum. Vor allem in der Land- und Forstwirtschaft und im Bereich Nachhaltigkeit tun sich ganz neue Möglichkeiten auf. Potenzielle Gefahren durch die neuen Technologien sehen die Experten im leichtsinnigen Umgang vieler Menschen mit ihren Daten, Algorithmen seien gerade in autokratischen Systemen eine Bedrohung für Menschen- und Bürgerrechte.

Petra Schaper-Rinkel, Senior Scientist für Zukunftstechnologien, zeigte sich zufrieden mit den technologischen Errungenschaften Europas, kritisierte aber die Dominanz der US-Monopole bei der digitalen Infrastruktur. „Unternehmen wie Amazon und Facebook profitieren am meisten von der Vernetzung Europas. Sie benutzen KI, um alle möglichen Informationen über uns zu sammeln.“ Europa brauche eigene Algorithmen und Transparenz, damit man weiß, wohin die Daten wandern.

Mensch verlernt Freundschaft
Iris Straßer, Initiatorin und Leiterin des Unternehmensnetzwerks „Verantwortung zeigen“, stellte die Frage in den Raum, ob der einzelne Mensch bei der aktuell rasanten Digitalisierung nicht auf der Strecke bleiben könnte. „Wir müssen uns selbstverständlich fragen, wie wir mit neuen Technologien umgehen und was sie mit unserer Gesellschaft machen. Es ist essenziell, den Menschen mehr Wissen nicht nur über die Technologie selbst zu vermitteln, sondern auch über ihre möglichen Auswirkungen“, sagte Straßer.

Großen Einfluss haben KI-Anwendungen nicht zuletzt auf zwischenmenschliche Beziehungen, warnte Petra Schaper-Rinkel. „Viele fühlen sich durch Computer heute oft besser verstanden als durch Freunde. Sie verlernen dadurch, wie echte Freundschaften funktionieren, ertragen es nicht mehr, wenn das Gegenüber widerspricht“, sagte die Zukunftsforscherin. „KIs sind keine Freunde, sondern sie dienen uns. Das dürfen wir nicht miteinander verwechseln. Sie können uns aber viele Arbeitsvorgänge abnehmen und uns so mehr Zeit gerade für zwischenmenschliche Beziehungen verschaffen.“

Wachsam bleiben bei Überwachung
Der Theater und Drehbuchautor Dimitré Dinev, in seiner Jugend in Bulgarien selbst staatlicher Überwachung und Unterdrückung ausgesetzt, warnte vor dem leichtsinnigen Preisgeben von persönlichen Informationen im Netz. „Es ist erschreckend, was man anhand von Daten mit Menschen machen kann. Man kann sie auf Schritt und Tritt verfolgen und sogar erpressen. Doch wenn man eine echte Diktatur wie den Kommunismus in Bulgarien erlebt hat, ist Amazon dagegen ziemlich zahm. Solange die neuen Technologien nicht die Beziehungen zwischen Menschen zerstören, so wie das Diktaturen machen, müssen wir keine Angst vor ihnen haben. Trotzdem müssen wir wachsam bleiben.“

Auch Petra Schaper-Rinkel mahnte eindringlich zur Vorsicht vor Algorithmen. „Alexa etwa kann alle möglichen Eindrücke wie zum Beispiel Geräusche aufzeichnen und verschicken, wobei wir oft nicht einmal wissen, wohin. Besonders gefährlich ist das in undemokratischen Systemen wie in China, wo nicht nur die Privatsphäre des Einzelnen bedroht, sondern ganze Familien der Überwachung ausgesetzt sind, wenn sie in Sippenhaft kommen.“

KI hilft Region
Christian Philipp, Kommunikationschef beim Silicon Alps Cluster, zeigte sich optimistischer, was die Sammlung von Daten angeht. „Früher haben die lokalen Geschäftsleute gewusst, was unsere Präferenzen sind. Das ist keine Überwachung, sondern soziale Intelligenz. Zum Problem wird KI erst, wenn sie sich selbst entwickeln kann, aber davon sind wir noch weit entfernt. Wir müssen uns der Technologie stellen und dürfen sie nicht verteufeln.“ Philipp sieht bei KI vor allem für die Region großes Potenzial. „Kärnten könnte in Europa in diesem Bereich eine Vorreiterrolle einnehmen. Dafür brauchen wir Mut zu großen Zielen“, forderte Philipp.

Philipp Hungerländer, CEO des Kärntner Start-ups HEX, meinte, dass KI das Leben in der Region nachhaltiger gestalten könne: „Durch mathematische Algorithmen kann man zum Beispiel die Mobilität im ländlichen Raum punktgenau koordinieren. Dadurch können wir den Verkehr entlasten und – durch Sharing Economy – die Ressource Auto effizienter und nachhaltiger nutzen.“