Archiv der Kategorie: Physik, Chemie, Technik

So verbreitet sich Atemluft beim Husten – Mit Videos

Video 1
Video 2-7

Amayu Wakoya Gena, DAAD-Stipendiat Professur Bauphysik an der Bauhaus-Universität Weimar, demonstriert in diesem Video mithilfe eines Schlierenspiegels wie unterschiedlich sich die Atemluft beim Husten ausbreitet. Dies visualisiert die hohe Bedeutung der Verhaltensempfehlungen der Weltgesundheitsorganisation WHO zum Schutz vor dem Coronavirus, die wir unbedingt einhalten sollten.

(futurezone) – Mehrere Meter Abstand halten, in die Armbeuge husten oder eine Gesichtsmaske verwenden, sind derzeit die obersten Gebote, um andere vor dem Coronavirus zu schützen. Wie wichtig das ganze ist und warum man sich mit Husten und Niesen auch innerhalb der eigenen Familie sofort in Selbstisolation begeben sollte, zeigt ein beeindruckendes Video der Bauhaus-Universität Weimar.

Luftströmungen beim Atmen
In einem Experiment wurde die Atemluft einer Person beim Husten gefilmt – und zwar in verschiedenen Ausgangsszenarien. In dem Schwarz-Weiß-Video wird sichtbar, wie sich die Luftströmungen des Atems im Raum verteilen. Gezeigt wird die Situation zunächst ohne Schutzvorkehrungen, dann mit vorgehaltener Hand, in die Armbeuge und schließlich mit verschiedenen Atemschutzmasken.

Während die Atemluft beim Husten ohne Schutz ungebremst in den Raum geschleudert wird, bietet auch die eigene Hand wenig Schutz. Denn die Atemluft und mittels Tröpfcheninfektion auch das Coronavirus wird über die Hand einfach hinweg geschleudert, wie das Video zeigt. Etwas besseren Schutz bietet das Husten in die Armbeuge. Selbst eine Arbeitsmaske gegen Staub und eine Operationsmaske lässt Atemluft sichtbar durch. Hinsichtlich der Tröpfcheninfektion sollten diese zumindest einen gewissen Schutz bieten.

Schlierenspiegel verdeutlicht Luftströme
Um den Weg der Atemluft sichtbar zu machen, griff der Doktorand Amayu Wakoya Gena zu einem kreativen Mittel. Er setzte einen sogenannten Schlierenspiegel ein, der normalerweise am Institut für Bauphysik zur Visualisierung und Messung von Raumluftströmungen in Innenräumen eingesetzt wird – etwa um zu erforschen, welchen Einfluss das Raumklima auf den menschlichen Körper hat.

„Das Prinzip ist ähnlich wie bei einer überhitzten Straße im Sommer, wenn die Luft über dem Asphalt flimmert“, erklärt Conrad Völker, Professor der Bauphysik an der Bauhaus-Universität Weimar. „Wie über der Straße hat die warme, feuchte Atemluft eine andere Dichte als die kühlere Raumluft. Diese Dichteunterschiede führen zu einer Ablenkung des Lichtes, was dann als dunkle Flecken in einem Foto oder Videobild sichtbar wird.“

Da die Dichteunterschiede bei diesen Luftströmungen extrem gering sind, sind diese nur mithilfe des Schlierenspiegels zu erkennen. Herzstück des Messgerätes ist ein konkaver und extrem fein geschliffener Spiegel mit rund einem Meter Durchmesser. Der Universität zufolge handelt es sich dabei um einen von nur vier Großschlieren-Systemen weltweit, die in unterschiedlichen Forschungsbereichen eingesetzt werden.

Mit Gold gespickt – Forscherteam präsentiert neuartigen Sender

(HZDR) – Terahertz-Wellen werden für Wissenschaft und Technologie immer wichtiger. Mit ihnen lassen sich Eigenschaften von Zukunftsmaterialien enträtseln, Autolacke auf ihre Qualität prüfen und Briefumschläge durchleuchten. Allerdings ist die Erzeugung dieser Wellen nach wie vor eine Herausforderung. Einem Team des Helmholtz-Zentrums Dresden-Rossendorf (HZDR), der TU Dresden und der Universität Konstanz ist nun ein deutlicher Fortschritt gelungen. Es hat ein mit Gold gespicktes Germaniumbauteil entwickelt, das kurze Terahertz-Pulse mit einer vorteilhaften Eigenschaft erzeugt: Die Pulse sind überaus „breitbandig“, liefern also viele verschiedene Terahertz-Frequenzen zugleich. Da sich das Bauteil mit den Methoden der Halbleiterindustrie fertigen ließe, verspricht die Entwicklung einen breitgefächerten Einsatz in Forschung und Technik, wie das Team im Fachjournal Light: Science & Applications (DOI: 10.1038/s41377-020-0265-4) berichtet.

Ebenso wie Licht zählen Terahertz-Wellen zur elektromagnetischen Strahlung. Im Spektrum liegen sie genau zwischen Mikrowellen und Infrarotstrahlung. Doch während Mikrowelle und Infrarot schon lange den Alltag erobert haben, finden Terahertz-Wellen erst allmählich Verwendung. Der Grund: Erst seit Beginn der 2000er Jahre gelingt es Experten, halbwegs passable Quellen für Terahertz-Wellen zu bauen. Perfekt sind diese Sender aber noch nicht – sie sind relativ groß und teuer, und die von ihnen abgegebene Strahlung hat nicht immer die gewünschten Eigenschaften.

Eine der heute etablierten Erzeugungsmethoden basiert auf einem Kristall aus dem Halbleiter Galliumarsenid. Wird dieser Kristall mit kurzen Laserpulsen bestrahlt, bilden sich im Galliumarsenid Ladungsträger. Diese Ladungen werden durch eine angelegte Spannung beschleunigt. Das erzwingt die Abstrahlung einer Terahertz-Welle – im Grunde der gleiche Mechanismus wie bei einem UKW-Sendemast, in dem hin und her bewegte Ladungen Radiowellen erzeugen.

Doch diese Methode besitzt mehrere Nachteile: „Sie lässt sich nur mit relativ teuren Speziallasern betreiben“, erläutert HZDR-Physiker Dr. Harald Schneider. „Mit Standardlasern, wie man sie für die Glasfaser-Kommunikation verwendet, funktioniert das nicht.“ Ein weiteres Manko: Galliumarsenid-Kristalle liefern nur relativ schmalbandige Terahertz-Pulse und damit einen eingeschränkten Frequenzbereich – was ihr Einsatzgebiet merklich begrenzt.

Implantiertes Edelmetall
Deswegen setzten Schneider und sein Team auf ein anderes Material – den Halbleiter Germanium. „Bei Germanium lassen sich günstigere Laser nutzen, sogenannte Faserlaser“, sagt Schneider. „Außerdem sind Germaniumkristalle sehr transparent und erlauben damit die Emission von sehr breitbandigen Pulsen.“ Bislang aber gab es ein Problem: Wird reines Germanium mit einem kurzen Laserpuls bestrahlt, dauert es mehrere Mikrosekunden, bis sich die elektrische Ladung im Halbleiter wieder abgebaut hat. Erst danach kann der Kristall den nächsten Laserpuls aufnehmen. Heutige Laser können ihre Impulse im Takt von wenigen Dutzend Nanosekunden abfeuern – eine Schussfolge, viel zu schnell für das Germanium.

Um diese Schwierigkeit zu meistern, suchten die Fachleute nach einem Trick, mit dem sich die elektrischen Ladungen im Germanium schneller abbauen lassen. Die Lösung fand sich bei einem prominenten Edelmetall – Gold. „Wir nutzten einen Ionenbeschleuniger, um Goldatome in einen Germaniumkristall zu schießen“, erläutert Schneiders Kollege Dr. Abhishek Singh. „Dabei drang das Gold bis zu 100 Nanometer tief in den Kristall ein.“ Anschließend erhitzten die Fachleute den Kristall einige Stunden lang auf 900 Grad Celsius. Die Hitzekur sorgte dafür, dass sich die Goldatome gleichmäßig im Germaniumkristall verteilten.

Der Erfolg zeigte sich, als das Team das goldgespickte Germanium mit ultrakurzen Laserpulsen beleuchtete: Statt für mehrere Mikrosekunden im Kristall herumzugeistern, verschwanden die elektrischen Ladungsträger bereits nach knapp zwei Nanosekunden wieder – etwa tausendmal schneller als vorher. Bildlich gesprochen fungierte das Gold dabei als Falle, die Ladungen einfängt und neutralisieren hilft. „Dadurch lässt sich der Germaniumkristall nun mit hoher Wiederholungsrate mit Laserpulsen beschießen, und er funktioniert trotzdem“, freut sich Singh.

Günstige Fertigung möglich
Die neue Methode ermöglicht Terahertz-Pulse mit extrem großer Bandbreite: Statt 7 Terahertz wie bei der etablierten Galliumarsenid-Technik ist es nun das Zehnfache – 70 Terahertz. „Auf einen Schlag bekommt man ein breites und lückenloses Spektrum“, schwärmt Harald Schneider. „Damit haben wir eine äußerst vielseitige Quelle zur Hand, geeignet für verschiedenste Anwendungen.“ Ein weiteres Plus: Im Prinzip lassen sich die Germanium Bauteile mit derselben Technologie verarbeiten, mit der auch Mikrochips hergestellt werden. „Anders als Galliumarsenid ist Germanium kompatibel mit Silizium“, beschreibt Schneider. „Und da sich die neuen Bauteile zusammen mit herkömmlichen Glasfaser-Lasern betreiben lassen, könnte man die Technik vergleichsweise platzsparend und preiswert gestalten.“

Das dürfte das golddotierte Germanium nicht nur für wissenschaftliche Anwendungen interessant machen, etwa die detaillierte Analyse innovativer zweidimensionaler Materialien wie Graphen. Möglich scheinen auch Anwendungen in Medizin und Umwelttechnik. Denkbar sind zum Beispiel Sensoren, die bestimmte Gase in der Atmosphäre anhand ihres Terahertz-Spektrums aufspüren. Die heutigen Terahertz-Quellen sind dafür noch zu teuer. Das neue Verfahren aus Dresden-Rossendorf könnte dazu beitragen, solche Umweltsensoren künftig billiger zu machen.

 

Schnellladetechnologie killt Akkus von E-Autos

(pte) – Heutige kommerzielle Schnellladetechnologie ist bei E-Autos ein regelrechter Akku-Killer, so eine aktuelle Studie von Forschern der University of California, Riverside (UCR) . Hohe Temperaturen und Widerstände beim Ladevorgang führen demnach zum rasanten Kapazitätsverlust und Schäden an den Akkus. Ein adaptives System mit einem neuen Algorithmus der Forscher verspricht in Zukunft ein schonenderes Schnellladen.

Heißlaufen beim Laden
Niemand will unterwegs stundenlang warten, während das E-Auto auflädt. Deshalb gibt es in den USA entlang Autobahnen kommerzielle Schnellladestationen. Doch die genutzte Technologie ist der im Journal „Energy Storage“ veröffentlichten Studie zufolge eigentlich Gift für Auto-Akkus. „Dieses Schnellladen wirkt sich negativ auf die Lebensdauer von Lithium-Ionen-Akkus aus, aufgrund einer Steigerung des internen Widerstands der Akkus, die zu Hitze-Entwicklung führen“, erklärt der UCR-Doktorand Tanner Zerrin. Er war Teil des Teams, das genau das mithilfe von Panasonic-Akkumudulen (NCR 18650B), wie sie in Tesla-Fahrzeugen stecken, getestet hat.

Nach nur 40 Schnellladezyklen mit der derzeitig kommerziell genutzten Technologie ist die Akkukapazität laut Studie auf 60 Prozent gefallen. Das sind weit weniger als die üblicherweise als Untergrenze für den sinnvollen Einsatz gehandelten 80 Prozent. Nach 60 Zyklen sind Gehäuse gesprungen, sodass das Akku-Innenleben mit Luft in Berührung kommt. Beim Laden haben sich Akkus auf 60 Grad Celsius erwärmt, was die Schäden mitbedingt und selbst problematisch ist. „Kapazitätsverlust, interne chemische sowie mechanische Schäden und die große Hitze sind große Sicherheitsprobleme“, sagt Mihri Ozkan, Professorin für Elektrotechnik und Informatik.

Abhilfe per Algorithmus
Das UCR-Team hat einen Algorithmus entwickelt, mit dem Schnellladevorgänge akkuschonender werden. Ihr System setzt darauf, beim Laden den internen Widerstand im Akku zu beobachten und darauf so zu reagieren, dass ein starkes Heißlaufen vermieden wird. Damit lag die Restkapazität von Testmodulen nach 40 Schnellladezyklen auch tatsächlich noch im Bereich von 80 Prozent. Zudem konnten Schäden am Gehäuse vermieden werden. Das Team ist also überzeugt, dass sein zum Patent angemeldeter Algorithmus ein schonenderes, sichereres Schnellladen für Autoakkus ermöglicht.

Quacksalberei aus dem Mittelalter in die Neuzeit gerettet ? Mit einer Stellungnahme von Jean Pütz

Dass auch in einer Epoche, in der Wissenschaft und Technik unser Leben bestimmt und die Prosperität der Wirtschaft ausschließlich darauf aufbaut, heißt nicht, dass mit Quacksalberei noch viel Geld verdient werden kann. Dazu beispielhaft die folgende Meldung, die eine Agentur mir hat zukommen lassen, welche sich eigentlich der seriösen Wissenschaft verpflichtet hat. Es geht um einen Streit zwischen einer dubiosen Firma mit Namen ‚Neutrino Energy‘ und dem ZDF. Die Firma will unwissenden Bürgern weiß machen, man könnte mit den Milliarden von Neutrinos, die die Sonne sekündlich auf die Erde schickt, die Energieprobleme der Welt in Zukunft lösen.

Sie beschwert sich beim ZDF, dass Professor Harald Lesch in einer Sendung vor dem Kauf solcher Anteilscheine gewarnt hat. Immerhin wollte ‚Neutrino Energy‘ mit dieser Behauptung Millionen von Euro durch Verkauf dieser Anteilscheine einsammeln.

Ich stehe 100%ig zur These von Professor Lesch, inkl. der Warnung zur Kaufempfehlung der Anteile an einer dubiosen Stiftung. Hier wörtlich: „das Vorhaben, die Neutrino-Weltraumstrahlung zur Stromerzeugung zu nutzen, sei „abenteuerlich“ und „blödsinnig“, wer daran glaube, sei „nicht mehr zu retten“.

Ich persönlich habe mit Kollegen der Wissenschaftspressekonferenz (WPK.org) vor ca. 10 Jahren die bedeutendste Forschungsstätte  für Neutrinos in Europa – wenn nicht gar der ganzen Welt – in Italien besucht, im Gran Sasso-Gebirge des Apennin. Von Pescara nach Rom verläuft eine Autobahn, die den Gran Sasso mit einem langen Tunnel unterquert. Dieses Gebirge besteht vorwiegend aus Granit, mitten im Tunnel gibt es eine Abzweigung in ein Forschungsinstitut. Die Wissenschaftler nutzen dort die darüberliegenden 2.000 Meter Granitschichten  aus, um nur die Neutrinos einzufangen, die aus dem Weltraum, von der Sonne ausgehend, die Erde durchqueren. Sie schließen damit die auf irdische Radioaktivität zurückzuführenden Neutrinos aus.

Zur Erkenntnis: Ein Neutrino hat nur eine ganz minimale Masse, ähnlich wie die eines Elektrons. Weil es keine elektrische Ladung besitzt, ist die Wahrscheinlichkeit sehr gering, dass es beim Durchqueren unserer Erde mit irgendeinem Atomkern kollidiert. Die Konsequenz: Die Bewegungs-Energie, die es beim Eintritt in die Erdoberfläche besitzt, bleibt nach dem Durchlauf der Erdkruste, dem flüssigen Magma und wieder Austritt, völlig erhalten. Das sind immerhin fast 13.000 km der Materie unseres Globus. Nichts von seiner kinetischen Energie hat es verloren.  Das liegt daran, dass der Zwischenraum zwischen Atomkern und Elektronenhülle enorm groß ist. Wenn man die gesamte Masse der Erde so zusammenpressen könnte, dass die Zwischenräume verschwinden, würde die Erde räumlich in einer Kaffeetasse verschwinden – oder anders gesagt – wenn man sich den Atomkern in der Größe eines kleinen Kirschkerns vorstellen würde, liegt die äußere Elektronenhülle, dass ist das, was wir rundherum mit unseren Sinnen ertasten oder sehen können, etwa 2 km vom Kirschkern entfernt. Dazwischen ist das Nichts.

Nun besteht bei der Forschung das Problem, überhaupt eines der Abermilliarden von Neutrinos, die vom Weltall auf uns eindringen, zu identifizieren. Dazu gibt es großflächige Wannen, gefüllt mit flüssigem Stickstoff. Teilweise müssen die Forscher wochenlang warten, um die Spur eines zufällig mit dem Stickstoff-Atomkern kollidierenden Neutrinos zu finden bzw. fotografieren zu können. Daraus lassen sich dann Rückschlüsse auf die Eigenschaft des Neutrinos schließen.

Nun glaubt Dr. Günther Krause, ehemaliger Staatssekretär beim letzten Ministerpräsidenten der DDR, Lothar de Maizière, und nach deren Auflösung Minister für besondere Aufgaben und später Verkehrsminister der neuen Bundesrepublik in Bonn, mit den Neutrinos eine großartige Entdeckung gemacht zu haben. Kurzsichtig wie er ist, und wissend, dass die Neutrinos enorme kinetische Energie besitzen, will er diese für irdische Zwecke nutzen. Dabei vergisst er völlig, wie schwierig es ist, diese einzufangen.

  1. Wie will er das bewerkstelligen, denn die sind ja fast 100%ig durchdringend, wie das Experiment der italienischen Teilchen-Forscher im Gran Sasso beweist.
  2. Aber ihm geht es sicher nicht darum, dieses zu belegen, sondern er möchte damit viel Geld verdienen. Insofern stimme ich nicht nur Professor Harald Lesch, sondern allen Physikern bei, die das als Betrug identifizieren.

Dass solche Fakenews sogar in der Wissenschaft und Technik Raum greifen können, obwohl die gesamte Science-Community der Physiker dagegenspricht, ist bezeichnet für unser ‚postfaktisches‘ Zeitalter. Mag sein, dass Sie sich über die Unverfrorenheit, wie sich diese Investorengruppe mit dem ZDF umgeht, gewundert haben. Das erinnert mich sehr stark auch an die Vorschläge für ein Perpetuum mobile, das Mittelalter lässt grüßen. Dass das ZDF auf einen solchen Blödsinn sogar noch – entgegen den Behauptungen – geantwortet hat, ist verwunderlich. Es ist Aufgabe des ZDF, ihre Zuschauer zu warnen, solche später total wertlose Anteilscheine zu zeichnen. Dass überhaupt Geld eingesammelt werden konnte, zeugt davon, dass die Schwarmintelligenz der Deutschen, was naturwissenschaftliche Grundkenntnisse anbelangt, nicht besonders groß ist. Die Idee grenzt jedenfalls an die Quacksalberei des Mittelalters.

Ihr Jean Pütz

Hier die Meldung, und das Video:

(pts) – Ein Filmbeitrag über Neutrinos im ZDF-Wissenschaftsmagazin Terra X von Harald Lesch sorgt anhaltend für Ärger. Lesch hatte sich manipulativ und interessensgeleitet über Geschäftsmodelle mit kosmischer Strahlung geäußert.

Das siebenminütige Video stammt vom 16. Oktober 2019. Darin hatte Lesch behauptet, das Vorhaben, die Neutrino-Weltraumstrahlung zur Stromerzeugung zu nutzen, sei „abenteuerlich“ und „blödsinnig“. Wer daran glaube, sei „nicht mehr zu retten“. Damit gab Lesch allerdings eine Kaufempfehlung ab, indem er vom Kauf abriet, was ihm juristisch nicht zusteht.

Leschs Ansicht wird von Prof. Dr. Günther Krause, dem stellvertretenden Vorsitzenden im Wissenschaftlichen Beirat der Neutrino-Gruppe, zerpflückt. „Herr Professor Lesch gehört zu einer Mehrheit der Physiker, die noch bis vor fünf Jahren die Neutrinos als masselose Geisterteilchen umschrieben haben“, erklärte Krause. Nur wenige Physiker seien anderer Meinung gewesen, nämlich dass Neutrinos die Masseeigenschaft besäßen.

„Wie so oft in der Wissenschaft hat sich durch genauere Messverfahren seit Oktober 2015 auch in Leschs Kosmos eine Meinungsänderung durchgesetzt. Doch von ‚keiner Masse‘ zu einer ‚viel zu kleinen Masse‘ war es ein weiter Weg!“ Ein weiter Weg der Erkenntnis, der ohne die beiden Physiknobelpreisträger von 2015, die die Masseeigenschaft der Neutrinos nachweisen konnten, wohl nicht gegangen worden wäre.

Kritische Nachfragen von Journalisten an die Redaktion des ZDF wurden nicht beantwortet, Kommentare im Netz gelöscht, die Mailadresse des Fachjournalisten Nico Wolf, der in seinen Recherchen um eine Stellungnahme angefragt hatte, auf den Sperrindex gesetzt.

Auf Kritik und Beschwerden seitens der Neutrino Energy Group über den Beitrag antwortete für das ZDF Christiane Götz-Sobel, Leiterin der Redaktion Naturwissenschaft und Technik. Erwartungsgemäß schrieb sie, das Video habe die Frage „Neutrinos als unendliche Energiequelle“ korrekt behandelt.

Dazu warf Holger Thorsten Schubart, CEO der Neutrino Energy Group, der ZDF-Redaktion vor, Äpfel mit Birnen zu vergleichen. In einer Erklärung nahm Schubart Stellung: „Es ist unglaublich, wie sich das ZDF um Tatsachen windet und völlig verkennt, dass Herr Lesch eben nicht nur wissenschaftlich von Neutrinos gesprochen, sondern sich zu Geschäftsmodellen geäußert hat. Er hat sich zu Neutrino Energie, zu Patenten und Beteiligungen manipulativ und offenbar interessensgeleitet geäußert und die ergebnisoffene Zukunft gleich mal mitbewertet.“

Lesch hätte, so Schubart, zu keinem Zeitpunkt irgendeine Kaufempfehlung abgeben dürfen. „Unsere Juristen sehen den Beitrag diesbezüglich als bewusste Manipulation der Öffentlichkeit“, betonte Schubart. „Ich persönlich denke, dass das ZDF instrumentalisiert wurde.“ Eine derartige Verunglimpfung und Wertung ergebnisoffener Forschungen eines so wichtigen Themas bei einem öffentlich-rechtlichen Sender sei nicht hinzunehmen. Schubart bot an, Journalisten einen Einblick in den vertraulichen Bereich von Forschung und Nachweisen zu gewähren. Von diesem Rechercheangebot machte die ZDF-Redaktion jedoch keinen Gebrauch. „Wenn das ZDF an einer ernsthaften und wahrheitsgemäßen Darstellung eines sehr wichtigen Wissenschaftsfeldes interessiert ist, stehen wir gerne für umfassende Gespräche zur Verfügung“, bekräftigte Schubart.

„In der Polemik des Vortrages von Herrn Lesch geht es genau betrachtet nicht um ’neutrale‘ wissenschaftliche Aufklärung oder den momentanen Wissensstand von Herrn Lesch. Vielmehr wird aus einem wissenschaftlichen Beitrag plötzlich eine Diffamierung und Verleumdung, eben diese ’negative Kaufempfehlung für die Börse‘, was ganz klar eine juristisch relevante schwere Marktmanipulation darstellt“, so Schubert weiter.

In dem Zusammenhang wies Professor Günther Krause darauf hin, dass demnächst das erste Kleinstkraftwerk fertiggestellt sein werde. Unter seiner Leitung sei mit dem Bau eines Automaten zur Beschichtung von metallischen Trägern begonnen worden, „sodass in relativ kurzer Zeit davon ausgegangen werden kann, dass erste Kleinstkraftwerke bis zirka fünf Kilowattstunden als Wechselstromanlagen beziehungsweise als 24/48-Volt-Gleichstromanlagen zur Verfügung stehen“.

Im eigenen Land habe der Prophet noch nie viel getaugt, so Krause. „Aber die Anerkennung beispielsweise der Akademie der Wissenschaften Russlands für die von uns im Labor abgeschlossenen Entwicklungen oder auch der Volksrepublik China sollten eigentlich auch in Leschs Kosmos vorgedrungen sein. Verschiedene Wissenschaftler zum Beispiel im US-amerikanischen Massachusetts Institute of Technology (MIT) haben das Patent inzwischen nachgebaut und bestätigen die Energieproduktion als ‚Umwandlung gemäß Energieerhaltungssatz‘.“

Die Neutrinovoltaic als Ergänzung von Wind und Sonne werde auch durch Leschs Kosmos nicht mehr aufzuhalten sein, resümierte Krause. Zukunftsfragen und deren Lösungsansätze sollten wissenschaftlich nie von vornherein ausgeschlossen werden. Insofern habe Harald Lesch noch einen weiten Weg fortzusetzen.

Verkauft Deutschland sein Tafelsilber an China ? Mit einem Vorwort von Jean Pütz

Noch als China ein wirtschaftlicher Zwerg mit über 1,5 Mrd. Bürger und arg gebeutelt war von der Kulturrevolution, wunderte ich mich, dass bei wissenschaftlichen Kolloquien immer wieder nicht nur Wissenschaftler, sondern auch meine Wissenschaftsjournalisten-Kollegen anwesend waren.  Als damaliger 1. Vorsitzender der Wissenschaftskonferenz (WPK.org) habe ich das begrüßt, wunderte mich aber, dass sie so freizügig reisen konnten in einem China, dass ziemlich zugeknöpft war. Heute weiß ich warum. Obwohl extrem autoritär, so schlau waren die damaligen kommunistischen Machthaber. Sie erkannten den technologischen Rückstand und taten alles, den nachzuholen. Das ist ihnen so gut gelungen, dass sie mittlerweile im Begriffe sind, sogar die USA zu überholen. Deutschland spielt dabei den Steigbügelhalter, weil teilweise die intelligente Technologie für n‘ Appel und n‘ Ei‘ verkauft worden sind. Das gilt nicht nur für die Computer-Technologie (z. B. Kuka), Chemie, Pharmazie (mittlerweile sind wir, was die Rohstoffe für Medikamente angeht, völlig von China abhängig) usw. Abgewandert sind komplett die deutsche Eisenindustrie, ganze Eisenhüttenwerke wurden hier geschlossen und mit Sack und Pack in China wieder aufgebaut. Noch viel schlimmer: Das gesamte Wissen rund um die Magnetschwebebahn Transrapid wurde nach China verschenkt und feiert dort als Transportmittel der Zukunft große Auferstehung. Das dieser Austausch asymmetrisch erfolgt beweist allein die Tatsache, dass deutsche Firmen, die sich in China etablieren, stets einen chinesischen Partner benötigen.

Aus persönlicher Erfahrung: Ein Freund, der geniale auf dem Gebiet der Roboter-Schleiftechnik mit vielen Patenten entwickelt hatte, musste, weil er in Deutschland nicht genügend Kapital einsammeln konnte, den Chinesen Tribut zollen und seine Firma an sie verkaufen. Noch heute wartet er auf den Rest der vereinbarten Zahlungen. Deshalb kann ich die positiven Darstellung im folgenden Artikel nicht nachvollziehen

(ntv) – Die Übernahme des Augsburger Roboter-Herstellers Kuka wurde oft kritisiert, weil Robotik als Schlüsseltechnologie gilt.

Deutsche Technologie-Unternehmen sind für China von großem Interesse. Bieter aus dem Reich der Mitte haben es besonders auf Mittelständler abgesehen. Neben der Angst vor der Abwanderung von Know-how schwingt dabei auch immer die Sorge vor der Schwächung deutscher Unternehmen mit. Zu Recht?

Von chinesischen Investoren übernommene deutsche Unternehmen leiden einer Studie zufolge nicht unter dem Eigentümerwechsel. „Die bisher vorliegende Evidenz unterstützt nicht die Vermutung, dass chinesische Direktinvestitionen in Deutschland zu einer Schwächung der wirtschaftlichen Leistungskraft der betroffenen Unternehmen geführt haben“, heißt es in der veröffentlichten Untersuchung im Auftrag der Expertenkommission Forschung und Innovation (EFI).

„Dabei zeigten sich keine signifikanten Unterschiede im Hinblick auf die Entwicklung der Anzahl der Beschäftigten, des Umsatzes und der Anzahl der Patentanmeldungen“, sagte der EFI-Vorsitzende Uwe Cantner. Auch sei bei Ausgaben für Forschung und Entwicklung nicht gespart worden.

Allerdings seien Unternehmensbeteiligungen durch chinesische Investoren „grundsätzlich mit der Möglichkeit einer politstrategischen Einflussnahme verbunden“, betonte der Wissenschaftler. „Der chinesische Staat kann somit Unternehmen in Deutschland und anderen Ländern aufkaufen und auf deren Know-how zugreifen.“

Umgekehrt sei die Volksrepublik für deutsche Direktinvestitionen im Vergleich zu anderen Ländern schwer zugänglich. „Der Technologieaustausch gestaltet sich noch schwierig und der Schutz von Rechten an intellektuellem Eigentum ist nicht immer gegeben.“ Die Bundesregierung sollte sich daher für gleiche Wettbewerbsbedingungen und Chancengleichheit einsetzen.

Übernahmen umfassender prüfen
Bundeskanzlerin Angela Merkel sicherte dies bei der Übergabe des Jahresgutachtens zu. „Wir möchten Offenheit mit Fairness verbinden“, sagte sie. Auch sei man bei Firmenübernahmen „schon sehr viel aufmerksamer“ geworden. China sei der größte Handelspartner für Deutschland, entwickele sich aber auch sehr dynamisch als Innovationsstandort. Entscheidend sei die Reziprozität in den Beziehungen, also vergleichbare Bedingungen für beide Seiten. Die Industrie klagt seit Langem darüber, dass sich chinesische Firmen auf dem deutschen Markt freier bewegen können als deutsche in China.

Die Expertenkommission befürwortet die Pläne des Wirtschaftsministeriums, Übernahmen durch ausländische Investoren im Bereich sensibler Technologien umfassender zu prüfen. „Die hierbei einbezogenen Technologiebereiche sollten zunächst benannt werden“, heißt es dazu. „Außerdem sind klare und transparente Prüfkriterien zu entwickeln.“ Dies sollte im europäischen Rahmen abgesprochen werden.

Mit Fledermaus-Technik gegen Pipeline-Lecks

(pte) – Ein Team unter Leitung der Lancaster University hat einen neuartigen Scanner entwickelt, um korrodierendes Metall in Öl- und Gas-Pipelines zu orten. Die Lösung funktioniert im Prinzip wie die Ultraschall-Echoortung von Fledermäusen. Sie nutzt jedoch hochenergetische Neutronen- und Gammastrahlen, die auch Erdreich oder Betonummantelungen durchdringen können, um so verborgene Korrosion an Leitungen zu finden – was helfen kann, Lecks zu verhindern.

Rückstreuung à la Fledermaus
Korrosion – vulgo Rost – an Pipelines kann zu Lecks und damit hohen Umwelt – und Reparaturkosten führen. Gängige Methoden, um nach solchen Schäden zu suchen, wie Ultraschall, funktionieren aber nicht oder unbefriedigend, wenn eine Pipeline unterirdisch läuft oder zur Isolation mit Beton oder Kunststoff ummantelt ist. Eben in solchen Fällen soll das neue System, an dem auch das National Physical Laboratory http://npl.co.uk und die Firma Hybrid Instruments http://hybridinstruments.com mitgearbeitet haben, Korrosion doch rechtzeitig erkennen können.

„Das System funktioniert etwa wie das Zirpen von Fledermäusen. Das ist einen Überlagerung unterschiedlicher Ultraschall-Wellenlängen, die zu den Ohren der Fledermäuse zurückgeworfen werden“, sagt Mauro Licata, Doktorand in Lancaster. Allerdings kommen bei dem neuen System hochenergetische, schnelle Neutronen und Gammastrahlen zum Einsatz, da sich diese gut ergänzen. Denn die Neutronen reagieren vor allem mit Materialien geringer Dichte und können dichte Substanzen gut durchdringen. Gammastrahlung dagegen reagiert besonders mit Metallen, kommen aber nicht so gut durch dichte Materialien.

Viel schneller Schäden finden
Das System nutzt also einen kombinierten Neutronen- und Gammastrahl. Die Signale der Rückstreuung erfasst ein neuartiger Kombi-Detektor, ein sogenannter „Mixed Field Analyzer“. In Laborversuchen ist es damit gelungen, Schwankungen in der Dicke von Karbonstahl nachzuweisen – auch, wenn eine isolierende Beton- oder Kunststoffschicht vorhanden war. In der Praxis deuten solche Änderungen in der Materialdicke bei einer Pipeline auf Korrosionsschäden hin.

„Neutronen- und Gammastrahlen-Rückstreuung von einer Stahloberfläche in Echtzeit zu isolieren, analog dazu, wie Fledermausgehirne gestreuten Ultraschall isolieren und Verwirrung durch ihr eigenes Zirpen verhindern, könnte uns helfen, Fehler in Pipelines schneller und effektiver zu finden“, betont Malcolm Joyce, Professor für Nukleartechnik in Lancaster und Technischer Leiter bei Hybrid Instruments. Den Forschern zufolge bedarf es allerdings noch besserer Neutronen-Detektoren, um das System schneller zu machen. Langfristig könnte es auch zur Prüfung anderer Strukturen, wie beispielsweise Brücken, geeignet sein.

Hydrogel schützt Flugzeuge vor Vereisung

(pte) – Ein neues Hydrogel, das die Bildung von Eis an Tragflächen oder anderen sicherheitsrelevanten Teilen verhindert, haben Forscher der University of California gemeinsam mit Kollegen der Chinesischen Akademie der Wissenschaften  entwickelt. Das Hydrogel ist ein Kunststoff, der Wasser enthält, aber in Wasser nicht löslich ist. Es ist das erste Material, das die Bildung von Eis bei tiefen Temperaturen verhindert.

Kettenreaktion durch Eiskristall
„Die Vereisung beginnt, wenn sich ein kleiner Eiskristall bildet. Der Kristall wächst und bedeckt schließlich die gesamte Fläche“, so Forschungsleiter Ximin He. Manche Anti-Vereisungs-Lösungen verhindern die Bildung des Startkristalls, andere das Wachsen des Kristalls. Wieder andere funktionieren nur auf bestimmten Werkstoffen. Die neue Hydrogel-Lösung verhindert die Eisbildung in jeglichem Stadium, bestätigt He.

Das Hydrogel enthält Polydimethylsiloxan, ein Polymer auf Siliziumbasis, das unter anderem von der medizintechnischen und Pharmaindustrie verwendet wird. Wird das Präparat auf eine Fläche gesprüht, bildet es eine dünne transparente Hülle. Das funktioniert bei Kunststoffen, Metallen, Glas und Keramik. Diese verhindert bis zu einer Temperatur von minus 31 Grad Celsius die Entstehung von Eis. Der Schutz dauert nach Laborversuchen 65 Minuten. Das reicht beispielsweise für den Schutz von Flugzeugen. Der bisherige Rekord lag bei minus 28 Grad und 20 Minuten.

Wie Protein in arktischen Fischen
In den 1960er-Jahren fanden Forscher heraus, dass in der Antarktis lebende Fische ein Protein produzieren, das als Antifrostmittel im Blutkreislauf wirkt. Später wurden in Pflanzen, Mikroorganismen und Insekten ähnliche Proteine entdeckt. Das neue Hydrogel orientiert sich an den inneren Strukturen dieser Proteine. Die meisten Tests fanden im Labor statt, ein Feldversuch bei eisigen Temperaturen in Peking. Selbst wenn sich Eis auf der Schutzhülle bildete, saß es so locker, dass es sich leicht abwischen ließ. Bei Flugzeugen würde dafür der Fahrtwind beim Start und im Steigflug sorgen.

Professor zerstört die Mär vom ökologischem Elektroauto – Mit einer Stellungnahme von Jean Pütz

In allen meinen bisherigen Publikationen seit mehr als 8 Jahren vertrete ich die Ansicht, die Professor Jörg Wellnitz von der TH Ingolstadt. Diese Erkenntnis stammt ausgerechnet aus Ingolstadt, die mit AUDI einen der renommiertesten Autoproduzenten beheimatet. Das müsste ja seine Glaubwürdigkeit enorm stärken. Seit Jahren versuche ich heraus zu bekommen, warum die grün-linke Ideologie so am reinen Elektroauto hängt. Mit Vernunft hat das nichts zu tun.

Dem gegenüber frage ich mich, warum nicht das sogenannte HyperHybrid – von mir schon vor 10 Jahren erdacht und mittlerweile von der Firma Obrist in Österreich als faszinierende Prototypen verwirklicht, von der Automobil-Industrie links liegen gelassen wird. Es benutzt eine intelligente Methode der Elektromobilität, wird nicht viel teurer als ein Verbrenner und besitzt trotzdem alle Vorzüge, die dem reinen Elektro-Auto zugesprochen werden: Regeneration der genetischen Energie beim Bremsen und Bergabfahren, benötigt kein automatisches Getriebe und kann dadurch um so leichter werden. Das Batterie benötigt maximal nur 1/6 der Ladekapazität eines Elektromotors, ist entsprechend viel leichter und kann als Plug-in geladen werden. In der Stadt können bis zu 80 km rein elektrisch gefahren, der Lademotor mit regenerativem Treibstoff befüllt und mit der Abwärme kann das Autoinnere gekühlt oder geheizt werden, ohne Batteriestrom verwenden zu müssen. Selbstverständlich können die Abgase von giftigen Bestandteilen komplett befreit werden. Die Firma Obrist hat mit ihrem Prototyp bewiesen, dass selbst ein Mittelklasseauto nicht mehr als 3 Liter auf 100 km benötigt.

Dass die Automobil-Industrie diese geniale Möglichkeit nicht aufgreift, die sogar den Abbau von Arbeitsplätzen in Deutschland verhindern würde, habe ich bisher nie verstanden, aber Prof. Wellnitz liefert dafür die Erklärung. Man will den Flottenverbrauch der klassischen Verbrenner-Autos durch diesen Trick an die demnächst sehr strengen europäischen Verbrauchsrichtlinien anpassen, um Milliarden Strafzahlungen zu umgehen. Diese Manipulation mit dem reinen Elektroauto soll angeblich preiswerter sein als die hohen Strafsummen. So gerät auch die weltweit führende deutsche Automobilindustrie in den Sog  der chinesischen Hegemonie. Das Het Prof. Wellnitz hervorragend analysiert.

Ihr  Jean Pütz

Das Elektro-Auto – eine Fatamongana
Ich habe mich akribisch mit allen Aspekten der E-Mobilität auseinandergesetzt:
Das Ergebnis:
„Sie kann und wird nie so kommen, wie von Industrie und Politik prognostiziert.In der Volksmeinung ist E-Mobilität eine tolle Sache“, sagt der Professor, „aber sie macht überhaupt keinen Sinn, wenn man sich alle Aspekte des Themas einmal vor Augen führt.“

Für gerade einmal 16 % des klimaschädlichen Kohlendioxidausstoßes ist der Autoverkehr verantwortlich. „Belastender ist da ja schon die Massentierhaltung und die landwirtschaftliche Monostruktur“, so Wellnitz.
Von den großen Containerschiffen auf den Weltmeeren ganz zu schweigen.
330 dieser Schiffe gebe es aktuell.
15 von ihnen produzierten so viel CO2 wie alle 750 Millionen Autos zusammen.
Vom Flugverkehr und den großen Kreuzfahrtschiffen ebenso ganz zu schweigen….

„Bis eine Batterie für einen Tesla gebaut ist, kann man 8 Jahre lang mit einem Verbrennungsmotor fahren (bzw. 200.000 km), um die gleiche Umweltbelastung zu erzielen“, so Wellnitz.

Denn seiner Meinung nach ist es nur noch eine Frage der Zeit, bis der Strom zum Aufladen der Batterien – der zudem in der Hauptsache alles andere als sauber produziert wird – ebenso besteuert wird wie Benzin oder Diesel.
Und dann lägen die Kosten für ein Elektroauto bei rund 800 Euro pro Monat.
Und der hat aufgrund der möglichen Ladezyklen eines Akkus in 8 Jahren fast nur noch Schrottwert.

Und das weiß die Autoindustrie nicht?

„Alle wissen es“, sagt Jörg Wellnitz, „aber es geht weder um die Umwelt, noch um die Kunden.“

Warum Hersteller wie Audi, BMW und andere derzeit Milliarden in die neue Technologie investieren, liege ganz wo anders.

„Zum einen lassen sich Milliarden an EU-Fördergeldern kassieren. Daneben bewahren E-Autos die großen Hersteller vor Strafzahlungen wegen Nichterreichens der europäischen Klimavorgaben, da sie mit angeblichen Zero-Emissionsmodellen den Flottenmix nach unten drücken.
„Es geht selbstredend auch um das Markenimage, um ein grünes Mäntelchen und um Technologiekontrolle.“ Man baue die E-Autos im Wissen, dass sie alles andere als die automobile Zukunft seien.

„Es zu machen ist billiger, als es nicht zu machen“, hat mir mal ein Automanager gesagt !
„Es ist sinnlos, aber es kostet weniger.“

Und – so ganz nebenbei – geht es natürlich auch darum, noch mehr Autos zu verkaufen.
1,6 Milliarden Fahrzeuge gibt es heute bereits weltweit.
80 Millionen werden pro Jahr produziert.
Die E-Autos sind für die Hersteller kein Ersatz für Verbrenner, sondern ein Zusatzgeschäft, um als Zweit-oder Drittfahrzeug noch mehr Autos an den Mann zu bringen.

Doch dieses Zusatzgeschäft stößt an seine Grenzen, wenn es um die benötigen Rohstoffe für den Bau von Akkus geht, deren Abbau in Chile (Lithium) und Zentralafrika (Kobalt) nicht nur extrem umweltunverträglich ist und in weiten Teilen mit unvertretbarer Kinderarbeit einher geht.

„Würde Audi den A4 in großer Serie rein elektrisch bauen, müssten sie den halben Weltmarkt an Kobalt leerkaufen.“

Bei VW – so Wellnitz– habe man so eine Rechnung schon mal aufgemacht und sei zu dem Ergebnis gekommen, dass der Konzern für seine Produktion von E-Autos rund 130.000 Tonnen Kobalt benötigen würde.
Die Weltproduktion jedoch liegt derzeit bei 123.000 Tonnen !

Und die meisten Schürfrechte liegen in China, was, wie Professor Fritz Indra sagt, der auch mal bei Audi beschäftigt war, „einen veritablen Wirtschaftskrieg auslösen kann“.
„Die Chinesen haben sich in Afrika weitgehende Schürfrechte gesichert. Kobalt wird zum Beispiel im Kongo teils unter brutalsten Bedingungen von Kindern aus dem Boden gekratzt“, so Indra.

„Man braucht zudem Graphit, Mangan und Lithium.
Bei all diesen Themen begeben wir uns voll in eine chinesische Abhängigkeit, wir müssen das alles von den Chinesen kaufen.“

Wie für Professor Jörg Wellnitz liefert auch für „Verbrennerpapst“ Indra das Elektroauto „in einer gesamtheitlichen Betrachtung“ keinen Beitrag zum Klimaschutz.

Wellnitz, für den der Dieselmotor nach wie vor der sauberste und umweltfreundlichste Antrieb ist, macht noch eine andere bemerkenswerte Rechnung auf:
Ein Auto-Akku liefert 100 Wattstunden Leistung pro kg Gewicht,
ein Benziner 12.000 Wattstunden und Wasserstoff (für Wellnitz der Treibstoff der Zukunft) 33.000 Wattstunden Leistung pro kg Gewicht.

Würde man eine aufrichtige Ökobilanz aufmachen, basierend auf Preis, Bauraum und Leistung, dann „kommt hinten der Ottomotor raus oder ein kleiner Diesel“, sagt Jörg Wellnitz.
Und: „Das Wasserstoffauto wird ganz sicher kommen.“

Professor Jörg Wellnitz von der TH Ingolstadt
Bitte weiter verbreiten, denn diese Informationen lesen SIE ( und wir alle !) nicht in der westeuropäischen E-Motor-Jubel-Presse

Bakterien als Baumaterial der Zukunft? Nicht nur umweltfreundlich

(pte) – Mit lebenden Ziegelsteinen wollen Forscher der University of Colorado http://colorado.edu den Gebäudebau revolutionieren. Hersteller sind nicht Ziegelwerke oder Zementfabriken, sondern Cyanobakterien, früher Blaualgen genannt. Projektleiter Wil Srubar und sein Team platzieren die Mikroorganismen in einer Mischung aus Sand und Gelatine. Bei richtiger Pflege scheiden die Bakterien Kalziumcarbonat aus, das sich mit dem Sand zu einer Art Beton verbindet.

Ersatz für schädlichen Zement
Die Bakterien beziehen ihren Rohstoff, CO, aus der Luft. Damit sind diese Steine doppelt nützlich. Sie reduzieren das Klimagas und bremsen so den Klimawandel. Außerdem können sie Zement ersetzen, dessen Herstellung aufgrund des hohen Energieverbrauchs für sechs Prozent der weltweiten Emissionen an CO2 verantwortlich sind. Die so hergestellten Baumaterialien sind ähnlich fest wie Ziegel oder Zementsteine, so die Forscher.

„Man kann darüberlaufen, ohne dass sie zerbrechen“, sagt Srubar. Werden sie geteilt, wachsen sie selbstständig weiter, sodass sie ihre alte Größe wieder erreichen. Schäden, etwa durch Absplitterungen, heilen von selbst. Das Team hat zudem festgestellt, dass bis zu 14 Prozent der Bakterienkolonien nach 30 Tagen noch leben. Es hat Versuche gegeben, Bakterien in konventionellen Beton einzubinden, sodass er selbstheilend wird, doch nur ein Prozent dieser Mikroorganismen überlebte diese Tortur.

Produktionsgeschwindigkeit hoch
„Wir wissen, dass Bakterien sich exponentiell vermehren. Also steigt auch unsere Produktionsgeschwindigkeit exponentiell an, ganz anders als etwa beim 3D-Druck“, erklärt Srubar. Ehe das lebende Baumaterial eingesetzt werden kann, ist noch eine Menge zu tun. Bakterien überleben nur, wenn sie feucht gehalten werden. In trockenen Regionen würden sie schnell absterben. Deshalb versuchen die Forscher, die Mikroorganismen so zu verändern, dass sie Trockenphasen überleben.

Srubar hat eine Vision. Er sieht Säcke, in denen sich die Zutaten für das Wachsen von lebenden Steinen befinden. Die Nutzer rühren es in Wasser an, so wie heute Beton hergestellt wird, und lassen ihr Baumaterial daraus entstehen. „Die Natur hat vorgemacht, wie man vieles clever und effizient erledigen kann. Wir müssen nur genau hinschauen“, verdeutlicht Srubar.

Scheitert die Energiewende am elektrischen Strom? Mit einer Erklärung von Jean Pütz

Hier nun die wichtigsten Punkte die für jedermann verständlich sind:

1. Elektrischer Strom ist keine Ware die einfach wie Pakete hin und her geschoben werden kann.

2. Das Stromnetz, dazu gehören auch die großen Verteilernetze über Hochspannung, muss stets genauso viel Energie anbieten wie nachgefragt wird. Und zwar in jeder 1000stel Sekunde.
Übersteigt die Nachfrage auch nur um wenige Kilowatt, dann schaltet es sich automatisch ab. Dazu gibt es zwar Sicherungssysteme aber das kann schon dazu führen das ganze Städte ausfallen.

3. Wird allerdings zuviel, z.B. durch regenerative Quellen und dezentrale Einspeisungen produziert, dann muss dieser Strom entweder in Wärme umgewandelt oder exportiert werden.
Das ist aber meistens mit hohen Kosten verbunden, denn der Abnehmer muss damit etwas anfangen können. Er kann es allerdings auch speichern aber dafür benötigt er Pumpspeicherwerke. Das fällt in Alpenstaaten also auch in Bayern relativ leicht.
Deswegen geht der Export des Stroms und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz.

Dafür muss der Energieversorger aber richtig Geld zahlen um damit was anfangen zu können. Er kann es allerdings auch speichern aber dafür benötigt er Pump-Speicher Werke. Das fällt in Alpenstaaten und so auch in Bayern relativ leicht. Deswegen geht der Export-Strom und zwar nur dann wenn er in Deutschland nicht abgefragt wird meistens auch nach Österreich oder in die Schweiz. Dafür muss der Energieversorger aber richtig Geld zahlen. Umgekehrt wenn der diesen Strom wieder haben will, muss ja wieder bezahlen.
Das ist also ein toller Tausch, der im Prinzip aus physikalischen Gründen einfach unfair sein muss. Allerdings wenn mehr Strom nachgefordert wird als die Kraftwerke, als die regenerativen in Deutschland liefern, dann kann es auch sein, dass er den Strom z.B. aus Frankreich oder Polen bezieht. Dahinter allerdings stehen dann Kernkraftwerke aus Frankreich oder Braunkohlekraftwerke aus Polen. Ob das der Ökologie dient ist natürlich fraglich.

4. Es gibt noch ein weiteres Problem und das ist die Stabilität des Netzes und zwar die Frequenz. Dabei hat sich der Wechselstrom bzw. Drehstrom durchgesetzt. Eine Erfindung von Nikola Tesla, der arme Kerl musste in der Namensgebung für das erste Elektroauto herhalten. Wechselstrom bedeutet, dass er permanent die Richtung, das heißt vom Plus auf minus und umgekehrt, wechselt.
Dabei haben sich auch in Deutschland 50 Schwingungen pro Sekunde durchgesetzt, man spricht dann von 50 Hertz. Das hat natürlich auch seine Konsequenz, denn wenn auch nur eine leichte Abweichung von den 50 Hertz erfolgt, dann kann es zum Kurzschluss und zum Gau folgen. Deswegen ist die Stabilität außerordentlich wichtig, sie wurde bisher durch Großkraftwerke gewährleistet.

Es gibt Ingenieure die behaupten es müssten wenigstens 30% der benötigten Energie aus solchen Großkraftwerken stammen, sonst wird das Netz instabil. Nur so ganz stimmt es nicht mehr. Dezentrale regenerative Einspeisungen, mit der künstlichen Intelligenz versehen, können trotzdem eine gewisse Netzstabilität garantieren. Aber die Probe aufs Exempel ist noch nicht geführt worden, und die Behauptung dass in den nächsten 20 Jahren der Strom ausschließlich von regenerativen Quellen gespeist werden kann ist nach Prof. Kobe auch theoretisch und wirtschaftlich nicht möglich.

5. Große Mengen im Bereich von 1000 Terrawattstunden sind nur durch Pumpspeicherwerke möglich. Elektrische chemische Speicherung wie in Batterien sind in dieser Größenordnung völlig unwirtschaftlich.

6. Regenerative Stromeinspeisung ist nicht vergleichbar mit den bisherigen, mit fossilen Brennstoffen versehenen Großkraftwerken. Sie sind sehr von der Wetter- und Klimasituation abhängig.

Ihr Jean Pütz

Hier geht’s zum Original-Artikel

(EifelOn) – China plant, seinen enorm steigenden Bedarf an Elektroenergie auch durch einen weiteren massiven Zubau von Kohlekraftwerken zu decken. 2020 soll deren Leistung 1.100 GW betragen, 2035 sogar 1.400 GW. Zum Vergleich: Die Kohlekraftwerke der EU verfügen über eine Leistung von 150 GW (1 GW = 1 Gigawatt sind 1 Million Kilowatt). Der deutsche Anteil beträgt derzeit noch 44 GW. Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis keinen Strom
Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger
Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und um so niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen
Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher
Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei
Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“