Alle Beiträge von Minge

Forscher berechnen mit Covid-19-Simulator Infektionsentwicklung für Lockdown-Szenarien

Die Hoffnung stirbt zuletzt, hoffentlich hat die Wissenschaft ausnahmsweise einmal unrecht!

Jean Pütz

(Uni Saarland) – Die Infektionszahlen im gesamten Bundesgebiet steigen rasant. Auch wenn der Teil-Lockdown nun schnell umgesetzt wird, lässt sich die starke Ausbreitung des Coronavirus nur mit Verzögerung ausbremsen. Wie die Infektionsentwicklung aussehen könnte, haben Forscher der Universität des Saarlandes jetzt in verschiedenen Szenarien durchgerechnet. Sie können damit zeigen, dass nur mit einer drastisch gesenkten Reproduktionszahl eine Überlastung der Krankenhäuser und Intensivstationen noch zu verhindern ist. Der dafür genutzte Covid-Simulator kann jetzt auch für einzelne Stadt- und Landkreise im ganzen Bundesgebiet die Infektionszahlen vorhersagen.

„Wir wissen aus der Entwicklung im Frühjahr, dass sich erhöhte Infektionszahlen erst mit mehrwöchiger Verzögerung auf die Belegung der Intensivstationen auswirken. Daher sind auch derzeit trotz anvisiertem Teil-Lockdown die Spitzenbelegungen erst zwischen Mitte November und Anfang Dezember zu erwarten. Mit unseren Simulationen mussten wir leider feststellen, dass unabhängig davon, wie stark man ab jetzt die weitere Ausbreitung des Coronavirus stoppen kann, im Dezember mindestens doppelt so viele Intensivbetten belegt sein werden wie zu Spitzenzeiten der ersten Welle“, sagt Thorsten Lehr, Professor für Klinische Pharmazie der Universität des Saarlandes. Gemeinsam mit seinem Team und Forscherkollegen hat er das mathematische Modell für den Online-Simulator entwickelt, das auf der Basis umfangreicher Daten präzise Ergebnisse für das gesamte Bundesgebiet liefert.

Nach Berechnungen der Wissenschaftler liegt derzeit die bundesweite mittlere Reproduktionszahl bei 1,43. Diese sagt aus, wie viele Menschen ein Infizierter im Durchschnitt ansteckt, derzeit übertragen also zehn Infizierte das Coronavirus auf etwas mehr als vierzehn Personen.  „Wenn es uns gelingen würde, den R-Wert wieder auf das gleiche Niveau wie bei dem ersten Lockdown im Frühjahr, also auf etwa 0,6 zu drücken, würde ein Monat nicht ausreichen, um das Infektionsgeschehen in den Griff zu bekommen. Es gäbe auch dann noch bei über der Hälfte der Stadt- und Landkreise mehr als 50 Neuinfektionen pro 100.000 Einwohner im Schnitt der letzten sieben Tage gerechnet“, warnt Thorsten Lehr. Selbst bei dem sehr niedrigen und derzeit äußerst unrealistischen R-Wert von 0,3 lägen nach einem Monat noch knapp 20 Prozent der Stadt- und Landkreise über dem 7-Tages-Inzidenzwert von 50.

Im Rückblick konnten die Forscher genau sehen, wie sich die einschneidenden politischen Interventionen im Frühjahr, also Schulschließungen und Ausgehbeschränkungen, auf die Infektionszahlen auswirkten. Im Unterschied zu damals hat sich das Coronavirus jetzt jedoch flächendeckend in der Bevölkerung ausgebreitet. Zudem fallen die aktuell beschlossenen Maßnahmen weniger drastisch aus als im März, so dass die Wissenschaftler nicht vorhersagen können, wie gut diese das Infektionsgeschehen eindämmen können. „Wir haben daher verschiedene Reproduktionsraten durchgerechnet, um zu zeigen, wie sich die Spannweite von nur geringem Rückgang, also einem Wert von 1,1, auf eine extreme Drosselung auf 0,3, auf die Krankenhausbelegung auswirken würde“, erläutert Thorsten Lehr. Daraus ergeben sich die farbigen Kurven in den Schaubildern, die die durchschnittlich zu erwartenden Infektionsfälle und die Zahl der intensivmedizinisch zu behandelnden Covid-19 Patienten widerspiegeln.

„Diese Simulationen machen sichtbar, dass die Wirkung der aktuellen Maßnahmen wahrscheinlich stärker sein müssten als bei dem ersten Lockdown im März. Nur so kann es gelingen, dass das Infektionsgeschehen wieder kontrollierbar wird“, unterstreicht Professor Lehr. Nach den niedrigen Covid-19-Zahlen im Sommer hatte sich die Infektionsdynamik Mitte September deutlich geändert, so dass es Anfang Oktober zu dem stark exponentiellen Anstieg der täglichen Fälle kam. “Bei diesem Wendepunkt, den wir auch in den Abbildungen markiert haben, spielte vermutlich eine entscheidende Rolle, dass die Gesundheitsämter nicht mehr bei allen Infizierten nachverfolgen konnten, wo diese sich angesteckt hatten und mit wem sie seitdem Kontakt hatten“, sagt Thorsten Lehr. Um diese so wesentliche Nachverfolgung wieder zu gewährleisten, sei es sinnvoll, die Zahlen auf täglich unter 2000 Neuinfizierte zu drücken. „Wenn es uns nicht gelingt, die Reproduktionszahl in den kommenden Wochen deutlich zu senken, wird dies unweigerlich zu einer extremen Belastung des Gesundheitswesens im Dezember führen. Möglicherweise wird es daher Ende November noch zu früh sein, um wieder zu einem ‚normalen‘ Alltag zurückzukehren“, warnt Thorsten Lehr.

Um die weitere Entwicklung mit präzisen Prognosen zu begleiten, haben die Saarbrücker Wissenschaftler die frei zugängliche Online-Plattform des Covid-Simulators jetzt noch weiter verfeinert, so dass man auch für alle Stadt- und Landkreise im Bundesgebiet die Infektionszahlen berechnen kann. „Wir erfassen dafür nicht nur die Zahl der Coronavirus-Patienten, ihre stationäre Behandlung und die Todesfälle, sondern analysieren auch die vorhandenen Kapazitäten in den Kliniken. So können wir sehr früh auch für einzelne Regionen vorhersagen, wie viele Krankenhausbetten, intensivmedizinische Plätze oder Beatmungsplätze für die jeweiligen Infektionszahlen benötigt werden“, erläutert Thorsten Lehr.

Die Saarbrücker Forscher veröffentlichen regelmäßig detaillierte Prognosen für alle Bundesländer, die der Politik und dem Gesundheitswesen als Entscheidungshilfe dienen sollen. Das Besondere des Covid-19-Simulators ist die breite Datenbasis, die für die aufwändigen Berechnungen verwendet wird: Neben den Erhebungen des Robert-Koch-Instituts sowie der Kreis- und Landesgesundheitsämter werden beispielsweise die recherchierten Corona-Fallzahlen der „Berliner Morgenpost“ ergänzt. Zudem werden klinische Daten von über 8000 stationär behandelten Covid-19-Patienten aus über 100 deutschen Kliniken und verschiedene Angaben der Gesundheitsministerien ausgewertet.

An dem Covid-19-Simulationsprojekt sind neben dem Team von Professor Thorsten Lehr auch Forscherinnen und Forscher am Universitätsklinikums des Saarlandes beteiligt. Dazu zählen die Teams um Professorin Sigrun Smola und Dr. Jürgen Rissland am Institut für Virologie, und um Professor Thomas Volk und Professor Sascha Kreuer am Institut für Anästhesiologie, Intensivmedizin und Schmerztherapie.

 

Stoffmasken schützen effektiv gegen COVID-19

(pte) – Laut Forschern der University of Cambridge und der Northwestern University filtern die meisten für Mund-Nasen-Masken verwendeten Stoffe im nicht-chirurgischen Bereich effektiv ultrafeine Partikel heraus. Details der neuen wissenschaftlichen Studie wurden in „BMJ Open“ publiziert.

Nicht unbegrenzt nutzen
N95-Masken erwiesen sich als sehr effektiv. In manchen Bereichen wurden sie jedoch von wiederverwendbaren HEPA-Staubsaugerbeuteln übertroffen. Bei selbstgemachten Masken waren jene wirksamer, die aus mehreren Schichten Stoff bestanden. Das galt auch für jene mit Einlagen, die normalerweise für das Versteifen von Kragen eingesetzt werden. Das Atmen ist damit aber auch schwieriger als bei einer N95-Maske.

Die Experten haben auch die Leistung verschiedener Stoffe untersucht, wenn sie feucht waren und nachdem sie einen normalen Zyklus mit Waschmaschine und Trockner durchlaufen hatten. Die Stoffe funktionierten auch feucht und nach dem Waschen sowie Trocknen gut. Frühere Studien haben jedoch gezeigt, dass wiederholtes Waschen die Stoffe abbaut. Daher warnen die Wissenschaftler, das Masken nicht unbegrenzt benutzt werden sollten.

Das Team um Erstautorin Eugenia O’Kelly hat einen Apparat gebaut, der aus Schlauchstücken mit einer Stoffprobe in der Mitte bestand. Aerosolisierte Partikel wurden an einem Ende des Apparats hergestellt. Ihre Werte wurden bei einer Geschwindigkeit, die der des Hustens ähnlich war, vor und nach dem Passieren der Probe gemessen. Die Forscher testeten auch, wie gut jeder Stoff im Bereich des Atemwiderstands abschnitt. Dafür wurde qualitatives Feedback von Trägern herangezogen.

Leichtes Atmen ist wichtig
Laut O’Kelly ist eine Schutzmaske, die die Partikel zwar sehr gut blockiert, aber das Atmen einschränkt, keine gute Maske. „Jeans-Stoff hat die Partikel zum Beispiel sehr effektiv blockiert. Es ist aber schwer, damit zu atmen.“ Daher sei es wahrscheinlich keine gute Idee, sich eine Maske aus alten Jeans zu nähen. N95-Masken erlauben eine viel bessere Atmung als jede Stoffkombination mit ähnlichen Filterwerten, heißt es.

Die Wissenschaftler warnen jedoch davor, dass ihre Studie über mehrere Einschränkungen verfügt. So wurde nicht untersucht, welche Rolle die Passform beim Filtern der Partikel spielt. O’Kelly hat in einem verbundenen Projekt untersucht, wie sich die Passform von Masken in medizinischen Einrichtungen verbessern lässt. Zahlreiche Viren werden zudem von Tröpfchen transportiert, die viel größer sind als jene, die in dieser Studie untersucht worden sind. Eigenen Angaben nach gelang es jedoch nachzuweisen, dass in einer Notsituation, in der keine N95-Masken verfügbar sind, Stoffmasken beim Filtern von Partikeln, die Viren enthalten können, auch bei hoher Geschwindigkeit erstaunlich wirksam sind.

Alterndes Gehirn: Teil der angeborenen Immunabwehr reguliert Blut-Hirn-Schranke

Deutsch-Amerikanisches Forschungsteam hat Rolle des Komplementsystems bei Alterungsprozess des Gehirns nachgewiesen

(Uni Kiel) – Wenn der Mensch älter wird, verändern sich Strukturen und Funktionen im Gehirn. Eine wichtige altersabhängige Veränderung ist die erhöhte Durchlässigkeit der Blut-Hirn-Schranke, die normalerweise nur bestimmte Stoffe aus der Blutbahn in das Gehirn hinein und wieder hinauslässt. Dies kann unter anderem die Entstehung von neurodegenerativen Erkrankungen wie Alzheimerdemenz begünstigen. Eine Reihe von vorangegangenen Studien legt nahe, dass die verminderte Funktion der Blut-Hirn-Schranke mit immunologisch-bedingten Entzündungsprozessen zusammenhängt – die genauen Mechanismen dahinter sind jedoch bisher wenig verstanden. In Laborversuchen hat jetzt Professor Jörg Köhl, Vorstandsmitglied im Exzellenzcluster „Precision Medicine in Chronic Inflammation“ (PMI) und Direktor des Instituts für Systemische Entzündungsforschung (ISEF), Universität zu Lübeck (UzL) und Universitätsklinikum Schleswig-Holstein (UKSH), Campus Lübeck, zusammen mit der Arbeitsgruppe von Professor Hui Zheng (Huffington Center on Aging, Houston, USA) einen Mechanismus identifiziert, durch den das sogenannte Komplementsystem, ein bestimmter Teil des Immunsystems, die Gefäßentzündung und die damit assoziierte gestörte Funktion der Blut-Hirn-Schranke während des Alterungsprozesses reguliert. Ihre Ergebnisse haben die Forschenden vor kurzem in der Fachzeitschrift „Journal of Clinical Investigation“ veröffentlicht.

Das Komplementsystem ist Teil der angeborenen Immunabwehr. Es besteht aus mehr als 40 Proteinen, die im Blut und als Rezeptoren auf der Oberfläche von Zellen vorkommen. Zu diesen Proteinen gehören die sogenannten Komplementfaktoren und deren Spaltprodukte, sowie Rezeptoren, die diese Spaltprodukte erkennen. Das System spielt eine wichtige Rolle bei der Abwehr von Mikroorganismen. Es signalisiert die Anwesenheit von Krankheitserregern sowie die Bindung von Antikörpern an Krankheitserreger, aber auch an körpereigene Strukturen. Durch Fehlregulation des Komplementsystems kann es jedoch auch im Verlauf von bestimmen Erkrankungen zu einer überschießenden Entzündungsreaktion kommen, die Gewebeschäden verursacht. Während die meisten Komplementproteine in der Leber produziert werden, ist seit längerem bekannt, dass sowohl Komplementfaktoren als auch Komplementrezeptoren davon unabhängig auch direkt im Gehirn produziert werden. Von besonderer Bedeutung ist der Komplementfaktor C3, der in zwei Teile gespalten werden kann, C3b und C3a. C3a löst seine biologische Wirkung dadurch aus, dass es an den C3a-Rezeptor bindet, der u.a. auf Gefäßendothelzellen, also den Zellen, die das Innere von Blutgefäßen auskleiden, und verschiedenen Gehirnzellen vorhanden ist.

In der jetzt publizierten Studie konnten die Forschenden zeigen, dass im alternden Gehirn die C3/C3a-Produktion zunimmt und es zu einer Aktivierung des C3a-Rezeptors auf Gefäßendothelzellen des Gehirns kommt. Als Reaktion darauf produzieren diese Zellen vermehrt ein bestimmtes Adhäsionsmolekül, was zu einer verstärkten Einwanderung von Lymphozyten, also speziellen Immunzellen, in das Gehirn führt. Zusätzlich induziert die Aktivierung des C3a-Rezeptors auf den Gefäßendothelzellen die Freisetzung von intrazellulären Calcium-Ionen. Das führt zu einer Störung eines speziellen Proteins auf den Gefäßendothelzellen, welches von zentraler Bedeutung für die Verbindung dieser Zellen ist. Ein Aufbrechen dieser Verbindungen hat eine erhöhte Durchlässigkeit der Blut-Hirn-Schranke zur Folge. Dadurch ist das Gehirn nicht mehr so gut vom Rest des Körpers abgegrenzt, so dass Entzündungen aus der Umgebung leichter auch auf das Gehirn übergreifen können.

Um diesen Krankheitsmechanismus aufzuklären, hatten die Forschenden einen transgenen Mausstamm entwickelt, bei dem die Mäuse genetisch so verändert sind, dass sie keinen C3a-Rezeptor auf den Gefäßendothelzellen mehr ausbilden. Die spezifische Ausschaltung des C3a-Rezeptors in den Gefäßendothelzellen schützte die Mäuse nicht nur vor einer erhöhten Durchlässigkeit der Blut-Hirn-Schranke im Alter. Sie reduzierte zudem die entzündliche Aktivität von speziellen Immunzellen im Gehirn, den Mikrogliazellen, und vergrößerte das Volumen des Hippocampus und der Großhirnrinde von alternden Mäusen im Vergleich zu Tieren mit C3a-Rezeptor. Der Hippocampus ist von besonderer Bedeutung für Lern- und Gedächtnisprozesse.

„Unsere Befunde zeigen eine neue, durch das Komplementsystem gesteuerte Regulation der Blut-Hirn-Schranke auf und damit verbunden der Immunzellaktivierung, Entzündung und Degeneration im alternden Gehirn“, sagt Köhl. „Die Daten deuten darauf hin, dass die gezielte Blockierung einzelner Elemente des Komplementsystems zu einer wesentlichen Verbesserung der Gefäßfunktion und Verringerung der Durchlässigkeit der Blut-Hirn-Schranke führen könnte und damit zu einer Reduktion der Neuroinflammation sowie Neurodegeneration im Alter“, so Köhl weiter.

Die Beobachtungen könnten auch interessant sein im Hinblick auf akute Entzündungszustände wie Schlaganfälle und Schädel-Hirn-Traumata oder neurodegenerative Erkrankungen, insbesondere Alzheimer, bei denen das Alter der größte Risikofaktor ist. „Aus vorangegangenen Studien ist bekannt, dass das Komplementsystem auch bei diesen Erkrankungen stark aktiviert wird“, erklärt Köhl.  „Unsere Erkenntnisse könnten also zukünftig auch neue Therapieansätze für diese altersbedingten Erkrankungen des Gehirns ermöglichen.“

28.10.20 Corona weltweit, kann Deutschland dem entgehen ?

Corona weltweit: Haben wir eine größere Chance, glimpflicher davon zu kommen?

Ist Covid-19 nur eine Gefäßkrankheit?

Das Covid-19-Virus hat sich als viel heimtückischer herausgestellt, als anfangs vermutet. Die ganze Welt ist lahmgelegt, die wirtschaftlichen und gesundheitlichen Wirkungen sind noch unabsehbar. In den Nachrichten wird immer die Zahl der sogenannten Genesenden aufgezählt, das heißt aber nicht, dass alle danach wirklich gesund sind. Viele beklagen monatelang den Verlust des Geruchs- und Geschmackssinns, leiden vor allen Dingen an Erschöpfung und sind kaum belastbar. Umso wichtiger ist die Vorbeugung.

Gott sei Dank gibt uns die moderne Wissenschaft Einblicke in die Eigenschaften des Virus, so dass Überlebenschancen möglich werden für diejenigen, die die Krankheit erwischt hat – im Gegensatz zu den Seuchen des Mittelalters wie Pest, Cholera, Pocken, Kinderlähmung, die mehr als die Hälfte der Bevölkerung dahinrafften. Kein Wunder, dass oft völlig irrsinnige Ursachen vermutet wurden, sogar sogenannte Hexen, Juden, psychisch Geschädigte wurden dafür verantwortlich gemacht. Zwar gibt es auch heute noch verrückteste Erklärungen, die von Verschwörungstheoretikern bewusst gestreut werden, um die Menschen zu verunsichern, aber wenn man das mit Hexenverfolgung und Missdeutungen der Vergangenheit vergleicht, ist das harmlos.

Übrigens, hier möchte ich auch noch ein weitverbreitetes Missverständnis ausräumen: Das Corona-Virus ist keine reine Lungenkrankheit, wie anfangs vermutet, sondern eigentlich hat es die Blutgefäße als Ziel, z. B. die großen und kleinen Adern und Venen, aber auch die feinsten – auch Kapillare genannt – die die Zellen mit dem so wichtigen Sauerstoff versorgen. Ganz extrem viele Kapillare besitzt die Lunge, deshalb ist sie dem Covid-19-Virus besonders ausgesetzt. Aber auch anderen Organe sind stark von Kapillaren durchsetzt, wie das Herz, die Leber, die Bauchspeicheldrüse, die Nieren usw. So kann sich Covid-19 sogar im Gehirn einnisten.

Siehe dazu auch das folgende Video

Leider hat das Corona-Virus auch die Eigenschaft, nicht alle Menschen gleichermaßen zu gefährden. Die Gemeinheit besteht darin, dass es selektiv für alle Alten und Menschen mit bewussten und unbewussten Vorerkrankungen erwischt. Das ist gleichzeitig auch ein Problem, denn viele Jugendlichen glauben, es gehe sie nichts an, und sind deshalb umso schwieriger von der Notwendigkeit der Vorbeugungsmaßnahmen zu überzeugen, obwohl sie gefährliche Überträger des Virus sein können.

Hinzu kommt, dass, als die Eigenschaften des Virus noch nicht richtig erkannt waren, viele Einschränkungen der Politik über das Ziel hinausschossen. Am schlimmsten war der Lockdown, der das ganze Leben wie in einer Zeitlupe blockierte. Die wirtschaftlichen Auswirkungen sind unübersehbar, nur extreme Subventionshilfen konnten sie kurzfristig abschwächen. Vielleicht auf Kosten unserer Nachfahren?

In Deutschland hatten wir das Glück, dass die Politik die Ratschläge der Wissenschaft ernst genommen hat. Deshalb sind wir bisher relativ glimpflich davon gekommen. Allerdings sind die Warnungen der Wissenschaft vor einer möglichen zweiten Welle von der Bevölkerung nach dem Motto: was nicht sein darf, was nicht sein kann, weitgehend abgelehnt worden. Jetzt haben wir weltweit das Problem, dass Verbreitungsherde kaum mehr ausgemacht werden können und sich das Virus anschickt, exponentiell zu verbreiten. In einigen Ländern verdoppelt es sich Woche für Woche. Wollen wir hoffen, dass uns das erspart bleibt.

Trotzdem halte ich einen zweiten Lockout für unangebracht, weil die Wirtschaft sämtliche Möglichkeiten der Verhütung weitgehend genutzt hat. Dazu gehören Restaurants, Museen, Theater, Kinos usw. Es ist nicht bewiesen, dass diese jemals zum Hotspot wurden. Im Gegensatz dazu nächtliche Bars, bestimmte Innenkneipen, Diskotheken usw. auch Weihnachtsmärkte und – für mich als Kölner sehr bedauerlich – der Karneval. Die Vorsichtsmaßnahmen sind auch unbedingt erforderlich für öffentliche Verkehrsmittel, die dafür sorgen müssen, dass keinesfalls eine Überfüllung entsteht und Abstand gehalten werden kann. Das gilt auch für Sport- und dessen Veranstaltungen. Auch wenn viele Fans darunter leiden. Kurzum, überall dort, wo enge Kontakte nicht vermieden werden können.

Das Problem ist der private Sektor, dem man mit Gesetzen kaum beikommen kann. So stirbt die Hoffnung zuletzt. Eigentlich bleibt nur noch der Ratschlag, möglichst wenig Kontakte zu suchen, Distanz zu wahren und die Nase-Mund-Maske-Regeln strikt einzuhalten. Auch das Händewaschen und/oder Desinfektionsmittel-Benutzung nicht vergessen. Die Verbreitung des Virus geschieht nicht nur durch Übertragung in der Luft (eingebettet in Aerosole), sondern auch in geringerem Maße über Flächenkontakte (Tischoberflächen, Halte- und Türgriffe).

Dass auf keinen Fall die Kitas und Schulen geschlossen werden dürfen, belegt die Tatsache, dass Kinder nur selten als Überträger infrage kommen. Anders die Jugendlichen. Leider sind vor allen Dingen die Schultoiletten oft in einem desolaten Zustand, von Hygiene keine Spur. Warum gibt es eigentlich in den Schulen keine ständige Reinigung durch festangestellte Toilettenkräfte, das sollte uns die Gesundheit unserer Kinder Wert sein.

Übrigens, eine Hoffnung für alle, die positiv getestet wurden: Nicht immer heißt das, dass das Virus sie erreicht hat. Wie immer beim Messen, können Fehler auftreten. Leider liegt es oft daran, dass die Ergebnisse der verschiedenen Labore nicht immer vergleichbar sind, weil sträflicher Weise der wichtigste Test, der sogenannte PCR-Test nicht standarisiert ist.

Wenn Sie mehr darüber wissen wollen, rufen Sie den folgenden Link auf

Folge 145

PCR-Test ist nicht standardisiert

(pts) – Für die Anzahl der Vermehrungszyklen der PCR-Tests – ein entscheidender Faktor für das Ergebnis – gibt es keinen offiziellen Standard. Dies geht aus einem ausführlichen Briefwechsel zwischen der ETH-Forscherin und Kantonsrätin Dr. sc. nat. ETH Barbara Müller (SP/TG) und Pascal Strupler hervor, bis vor Kurzem Direktor des Bundesamtes für Gesundheit (BAG).

17 kritische Fragen zur Wissenschaftlichkeit der Massnahmen hat die corona-kritische Forscherin und Politikerin im August an den damaligen Direktor des BAG gestellt. Der Briefwechsel ist heute von Corona-Transition veröffentlich worden. Die Antworten werfen ein scharfes Licht auf die Informationspolitik der zurzeit wichtigsten Regierungsbehörde.

30 Zyklen sind genug
Eine entscheidende Frage ist die nach den Vermehrungszyklen beim PCR-Test. Je höher ihre Zahl, desto mehr RNA-Material steht zur Verfügung, das dann in einem Test positiv anschlagen kann. Gemäss den „Entlassungskriterien aus der Isolierung“ des Robert Koch-Instituts führen Vermehrungszyklen über 30 zu einer „entsprechend geringen Viruslast, die nach bisherigen Erfahrungen mit einem Verlust der Anzüchtbarkeit einhergeht“.

In der Schweiz sind 40 Zyklen gängige Praxis
Für Auskünfte zur Frage nach der Anzahl der Zyklen verweist Pascal Strupler an die Labors. Corona-Transition hat fünf Labors telefonisch befragt. Ergebnis: durchschnittlich 40 Zyklen. Wird 40 statt 30 Mal vermehrt, steht dem Testgerät über 1000 Mal mehr Material zur Verfügung. Das bedeutet zwar keine Vertausendfachung der positiven Testresultate; aber die Unterschiede sind erheblich.

Fast zwei Drittel sind falsch positiv – mindestens
Das Wadsworth Center, das Labor des US-Bundesstaates New York, hat die Testzahlen vom vergangenen Juli analysiert. 40 Vermehrungszyklen ergaben 872 positive Testresultate. 35 Zyklen hätten zu einer Reduktion der positiven Resultate um 43 Prozent geführt, 30 Zyklen zu einer Verminderung um 63 Prozent. In dieser Zahl ist allerdings die falsch-positiv-Quote noch nicht eingerechnet, die dadurch entsteht, dass der Test gar kein infektiöses Virus feststellen kann.

Gemessen wird ein langlebiges Bruchstück ohne Infektiosität
In einem Fall gibt Pascal Strupler auch eine eindeutig unwahre Anwort. So behauptet er, dass die „RNA-Stücke rasch verschwinden“, die der PCR-Test vermehrt und misst. Richtig ist, dass diese Bruchstücke noch drei Monate nach einer mutmasslichen Infektion messbar sind. Die amerikanischen „Centers for Disease Control“ (CDC) schreiben: „Auch wenn das vermehrungsfähige Virus drei Wochen nach Beginn der Symptome nicht isoliert werden konnte, kann bei genesenen Patienten noch bis zu 12 Wochen lang SARS-CoV-2-RNA in den Proben der oberen Atemwege nachgewiesen werden.“

Flüssiges Methanol als Alternative zu gasförmigem Wasserstoff – Mit einem Vorwort von Jean Pütz

Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Aber es gibt eine interessante Alternative. Da spielt wieder die Sonnenenergie und noch zu entwickelnde spezielle Katalysatoren eine Rolle. Man kann auf diese Weise daraus Methanol gewinnen. Allerdings benötigt man dazu wiederum CO2, denn der darin enthaltene Kohlenstoff bindet die Wasserstoff-Atome an sich, so dass der Wasserstoff quasi auf elegante Weise verflüchtigt wird. Wenn dann auch noch das CO2 aus der Atmosphäre entnommen wird – was allerdings sehr aufwändig ist, oder aus recyceltem CO2 aus dem Abgas von nicht zu vermeidenden Verbrennungsmotoren oder mit Erdgas betriebenen Heizungsanlagen, dann ist es möglich, dieses Methanol völlig regenerativ und CO2-frai zu gewinnen.

Im folgenden Artikel wird eine Methode beschrieben, die – um Wasserstoff effizient in Brennstoffzellen einsetzen zu können – es wieder in Wasserstoff zurückgewandelt wird. Dann fragt man sich, warum es nicht auch direkt in vorhandenen Verbrennungsmaschinen eingesetzt werden kann. Die dabei entstehenden geringen Restmengen an CO2 können sogar recycelt werden, so dass das zu einem völlig CO2-freien Nullspiel wird. Dazu ist allerdings Technologie-Offenheit erforderlich und nicht die Verbots-Ideologie.

Brennstoffzellen, die einigermaßen einen hohen Wirkungsgrad entwickeln, bedürfen Betriebstemperaturen von über 800°C, so dass der praktische Vorteil gegenüber Verbrennungsmotoren verschwindet. Trotzdem möchte ich Ihnen den folgenden Artikel nicht vorenthalten.

Jean Pütz

(Ing) – Methanol – vielleicht einmal der Treibstoff der Zukunft. Methanol lässt sich nicht nur aus dem Anbau von Energiepflanzen gewinnen – z. B. Mais, Zucker oder Getreide (das hätte den Nachteil, dass es in Konkurrenz zur Nahrungsmittelproduktion steht und den Anbau von Monokulturen begünstigt). Demgegenüber lässt sich Methanol aber auch CO2-neutral mit Hilfe der Energie der Sonne gewinnen. Zunächst wird es z. B. durch Elektrolyse  mit Hilfe von Solarstrom der Wasserstoff als Gas gewonnen. Reiner Wasserstoff hat allerdings den Nachteil, dass er nur sehr umständlich gespeichert werden kann. Entweder unter hohem Druck oder indem er verflüssigt wird. Dazu bedarf es allerdings einer Temperatur weit unter 0°C, und zwar -252°C oder etwa 20°K. Schon die Elektrolyse hat keinen besonders hohen Wirkungsgrad, wenn man dann auch noch den Solarstrom zur Erzeugung der niedrigen Temperatur verwendet, ist die gesamte Energieausbeute sehr schlecht. Der flüssige Wasserstoff muss in aufwändigen Thermos-Behältern abgefüllt und transportiert werden. Auch das Verbreiten von Wasserstoff über die vorhandenen Erdgaspipeline hätte seine Tücken. Wasserstoff ist sehr flüchtig und dadurch müssen die Dichtungen des Erdgasnetzes extrem verbessert bzw. umgebaut werden, was sehr kostentreibend ist.

Falls im nächsten Jahr die ersten Serienautos mit Brennstoffzelle auf den Straßen rollen, könnte es bis dahin an der Zapfsäule schon eine Alternative zu Wasserstoff in Gasform geben: flüssiges Methanol. Wiener Forscher entschlüsseln derzeit die Rätsel der Katalysatoren, die Methanol während der Fahrt in ein Gemisch aus CO2 und molekularem Wasserstoff umwandeln.

Automobilbauer weltweit forschen an Alternativen zum klassischen Otto-Motor. Als umweltfreundliche Antriebstechnik gilt die Brennstoffzelle. Sie gewinnt Reaktionsenergie, indem sie Wasserstoff und Sauerstoff in Wasser umwandelt. Aus dem Auspuff strömt lediglich harmloser Wasserdampf. Der japanische Autobauer Toyota will bereits nächstes Jahr den FCV auf die Straße schicken. Der Wasserstofftank soll hinter der Rückbank des Brennstoffzellenautos installiert sein und sich in drei bis fünf Minuten betanken lassen – ein wesentlicher Vorteil zur längeren Ladezeit der Elektromotoren.

Doch das Tanken mit Wasserstoff sorgt bei vielen potentiellen Nutzern für Unbehagen. Denn das Gas zischt solange durch den Schlauch der Zapfsäule, bis im Druckgastank ein gewaltiger Druck aufgebaut ist. Bis zu 700 bar herrschen im Inneren – das über Deihundertfache des üblichen Reifendrucks. Eine Größenordnung, bei der viele Interessenten an eine rollende Bombe denken.

Brennstoffzellen-Autos könnten auch flüssiges Methanol tanken
Wasserstoff für Brennstoffzellenautos muss man allerdings nicht zwangsweise in Gasform tanken. Eine Alternative ist flüssiges Methanol. Es lässt sich während der Fahrt wieder in Wasserstoff und Kohlendioxid zerlegen. Bei dieser sogenannten Dampfreformierung spielen Metallkatalysatoren eine Schlüsselrolle, die Forscher an der Technischen Universität in Wien derzeit untersuchen. Denn nur mit dem richtigen Katalysator entsteht aus Methanol und Wasserdampf ein reines Gemisch aus CO2 und molekularem Wasserstoff, das kein für die Brennstoffzelle gefährliches Kohlenmonoxid enthält.

Besonders kompliziert sind die Prozesse an der Katalysatoroberfläche. „Unterschiedliche Atom- und Molekülsorten sind beteiligt“, erklärt Forscherin Karin Föttinger, die im Spezialforschungsbereich Foxsi der TU Wien arbeitet. „Oft ist schwer zu sagen, welche für die Reaktion wichtig sind, und welche untergeordnete Rollen spielen.“

Forscher kommen Geheimnissen der Katalysatoren auf die Spur
Während sich viele Experten in der Industrie noch nach dem Schema Versuch und Irrtum an die richtige Zusammensetzung der Katalysatoren herantasten, geht die TU Wien einen Schritt weiter. Mit modernen spektroskopischen Methoden untersucht Föttinger, wie Reaktionen am Katalysator im Detail ablaufen. Ihr Kollege Christoph Rameshan trennt die einzelnen Komponenten und analysiert sie in Modellsystemen einzeln. So können die Forscher nachvollziehen, was genau bei den komplizierten chemischen Prozessen an der Katalysator-Oberfläche passiert.

Als Katalysatoren kommen übrigens meist winzige Nanopartikel aus Metall zum Einsatz – oft aus Palladium. Sie sitzen auf Metalloxid-Oberflächen wie Zinkoxid. Heiß diskutiert war in den letzten Jahren die Frage, ob das Oxid oder das Reinmaterial für die Katalyse zuständig ist. Föttinger gibt jetzt eine Antwort: „Unsere Messungen zeigen: Man braucht beides.“ Kollege Rameshan konkretisiert: „Das Oxid ist wichtig für die Wasseraktivierung, für die Aufspaltung der Wassermoleküle. Das Metall hingegen ist wichtig für die Aufspaltung des Methanols.“

 

26.10.20 Brandbrief an die Johannes-Rau-Forschungsgemeinschaft e. V. und das Wuppertal-Insitut

Sehr geehrte Damen und Herren,

diese Absage bedaure ich sehr, denn als Wissenschaftsjournalist, Gründer und langjähriger Leiter der Redaktion Naturwissenschaft und Technik im WDR-TV habe ich mich stets mit der Nachhaltigkeit der Energieversorgung beschäftigt. Schon meine erste Sendereihe (13 Folgen) ‚Energie, die treibende Kraft‘, die ich 1969 geschrieben habe, weswegen ich überhaupt zum festangestellten Redakteur berufen wurde, beweist, dass ich seinerzeit sämtliche neuralgischen Punkte der CO“-Problematik, die heute aktuell sind, vorausgedacht habe. Später, 1990, hatte ich als Moderator und Autor die Verantwortung für die Sendereihe ‚Bilder aus der Wissenschaft‘, der einzigen Wissenschaftssendung in der ARD. Deshalb gelang es mir, ein damals nicht besonders beliebtes Thema zu realisieren unter dem Titel ‚Der Sonne eine Chance‘. Ich bewies, dass schon seinerzeit der Energie-Verbrauch und somit der CO2-Ausstoß mit intelligenten technischen Methoden um 95% reduziert werden konnte, das heißt, mit nur 5% wäre der damalige Gebäudebedarf zurecht gekommen. Das waren keine Wolkenkuckucksheime, sondern ich habe es mit konkreten Fakten untermalt. Als Ingenieur der Elektrotechnik, Physiker uns Soziologe gelang mit der Beweis, weil ich viele Fachgebiete zusammenbringen konnte, die heutzutage besonders im Einzelspezialistentum untergehen. Da diese Gebäudebereich auch heutzutage noch 45 – 50% für den CO2-Ausstoß verantwortlich ist, hätte man seinerzeit schon mit einer vernünftigen Wärmeschutzverordnung das heutige Problem lösen können und die CO2-Grenzwerte der EU ohne gesetzliche Restriktion einhalten. Dazu habe ich das Gesamtkonzept weiterentwickelt und im privaten Bereich realisiert, so dass ich heute CO2-neutral lebe.

Dazu gehört auch, dass ich den von der grünen  Ideologie arg gebeutelten Verkehrssektor, der für unsere privaten PKW bestenfalls 6-8% CO2-Ausstoß bringt, mit Hilfe der Elektromobilität – wohlgemerkt nicht auf die rein Batterie-getriebene Version bezogen – für die Zukunft gelöst habe. Dazu existieren sogar schon Prototypen.

Darüber möchte ich vor allen Dingen mit dem Wuppertal-Institut ins Gespräch kommen, oder ggf. auch der Johannes-Rau-Forschungsgesellschaft.

Könnten Sie mich bitte mit dem im Wuppertal-Institut verantwortlichen Wissenschaftler in Kontakt bringen, ich vermute, dass die Johannes-Rau-Forschungsgemeinschaft eng mit ihm zusammen arbeitet. Meine Vorschläge bauen nicht auf irgendwelchen Wunschdenken auf, auch, wenn die Wasserstoff-Technologie der Zukunft eine zentrale Rolle spielt.

Mit freundlichen Grüßen
Jean Pütz

PS Ich habe nichts dagegen, wenn Sie diese Mail in Ihrem Wirkungskreis verteilen

Sehr geehrte/r Herr Jean Pütz,
vielen Dank für Ihre Anmeldung zur gemeinsamen Veranstaltung der Johannes-Rau-Forschungsgemeinschaft (JRF), der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste (AWK) und dem Wuppertal Institut für Klima, Umwelt, Energie am 27.10.2020 ab 16:00 Uhr.

Angesichts steigender Corona-Fallzahlen verzichten wir auf die Teilnahme externer Gäste im Wuppertal Institut und werden die Veranstaltung vor Ort in Wuppertal live ins Internet streamen.

Sie können Sie auf den YouTube-Kanälen der Johannes-Rau-Forschungsgemeinschaft und des Wuppertal Instituts sowie auf dem Twitter-Kanal des Wuppertal Instituts mitverfolgen und dort über die Kommentar-Funktionen Ihre Fragen stellen, die Eingang in die Podiumsdiskussion finden werden.

Themen:

Rolle der EU im Rahmen des internationalen Klimaschutzes
• Prof. Dr. Manfred Fischedick
Wissenschaftlicher Geschäftsführer,Wuppertal Institut für Klima, Umwelt, Energie

Integrierte Klima-Industriepolitik als Kernstück des europäischen Green Deal
• Prof. Dr. Stefan Lechtenböhmer
Abteilungsleiter Zukünftige Energie- und Industriesysteme, Wuppertal Institut für Klima, Umwelt, Energie

Kreislaufwirtschaft – Lösungen und Herausforderungen auf europäischer Ebene
• Dr. Henning Wilts
Abteilungsleiter Kreislaufwirtschaft, Wuppertal Institut für Klima, Umwelt, Energie

Textil – Aus der Umwelt, mit der Umwelt, für die Umwelt
• Prof. Dr. Thomas Gries
Mitglied der Klasse für Ingenieur- und Wirtschaftswissenschaften der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste

Italien schützt erosionsgefährdete Küsten – Mit einem Vorwort von Jean Pütz

Das ist nicht nur für Italien interessant, sondern auch für die Nord- und Ostsee-Ufer und Inseln. Der Spruch: ‚Wie Sand am Meer‘ verliert immer mehr  Relevanz, denn er wird immer mehr zum knappen Gut – auch weil in den durch Öl reich gewordenen Golfstaaten daraus künstliche Inseln mit schlimmen Eingriffen auf das Gleichgewicht der Natur geschaffen werden.

Jean Pütz

(pte) – Mitarbeiter der italienischen Forschungsinstitute Ispra , Consiglio Nazionale delle Ricerche, Enea  und der Scuola Universitaria Superiore di Pavia haben ein Gemeinschaftsprogramm zur Entwicklung neuer Technologien zur Überwachung von Meeresküsten gestartet. Vorrangiges Ziel der Initiative ist die Bewahrung der italienischen Küsten vor neuen Brandungs- und Erosionsschäden.

Parco Nazionale del Circeo
Im Mittelpunkt der Untersuchung steht das Naturschutzgebiet im Parco Nazionale del Circeo, das eine dichte und vor Wind schützende Vegetation aufweist. Die Dünen bieten zusammen mit dem Grünbewuchs eine natürliche Barriere gegen die Meeresbrandung, indem sie den sandigen Untergrund stabilisieren. Diese Tatsache ist von zunehmender Bedeutung, da der Küstensand zu einer immer selteneren und zugleich für die Freizeit der Anwohner immer kostbareren Ressouce wird.

Als technische Grundlage diente eine Kombination aus hochauflösenden Luftaufnahmen (Lidar), durch satellitengestützte Fernerkundung gewonnenes Datenmaterial und herkömmlichen Landvermessungen vor Ort. In Forscherkreisen ist diese Methode auch als „Field spectral libraries, airborne Hyperspectral images and Lidar altimetry“ (FHyL) bekannt. „Die Zusammensetzung der Vegetation und die aus den Verwehungen entstehenden Sanddünen zu überwachen, ist unabdingbare Voraussetzung, um das dazugehörige Ökosystem vor weiteren Schäden zu bewahren“, erklärt Projektleiterin Emiliana Valentini.

„Für Überwachung geeignet“
Italien gilt als eine der fortschrittlichsten Nationen in Sachen Fernerkundungs- und Überwachungstechniken, zu denen auch das kürzlich implementierte Satellitenprogramm Prisma http://www.telespazio.com zählt. „Unser Land ist für derartige Überwachungsmodelle besonders geeignet, da es angesichts seines fast 7.500 Kilometer langen Küstenstreifens über eine enorme Vielfalt an Naturräumen verfügt“, meint Valentini. Speziell im Naturschutzgebiet Circeo erfolgten in den vergangenen 30 Jahren umfangreiche Maßnahmen zum Schutz des Dünensandes vor Wind- und Wettereinwirkung.

In Hinblick auf den laufenden Klimawandel und die damit verbundene Anhebung des Meeresspiegels sind die dabei gewonnenen Erkenntnisse laut den Experten von universaler Bedeutung. „Die multidisziplinäre Studie soll nicht nur dem Schutz des Naturareals des Circeo, sondern auch dem Wirtschaftsleben von ganz Italien und auch anderer Länder zugute kommen.“ Einzelheiten sind in der Fachzeitschrift „Remote Sensing“ nachzulesen.

Atomkraft wieder im Vormarsch? Sie soll Sonne-  und Wind-Kraft ergänzen können! – Mit einer Einführung von Jean Pütz

Diesen Beitrag gebe ich unter Vorbehalt weiter, aber allenthalben in der Welt wird an neuen Kernreaktorkonzepten geforscht, vor allen Dingen deshalb, weil die sinnvoller Weise bevorzugte Energiequelle Wind und Sonne nur unstet anfällt und die Speichermöglichkeit von Energie sehr begrenzt ist. Interessant dabei ist, dass der in Deutschland entwickelte und demontierte Kugelhaufen-Reaktor in den USA weiter entwickelt wird. Selbst in einem anderen Konzept ist sogar von Kühlung durch Natrium die Rede, dessen Bau als ’schneller Brüter‘ in Kalkar am Niederrhein wegen berechtigter Sicherheitsbedenken eingestellt wurde. Das dafür vorgesehene Gelände ist heute von Holländern zu einem Vergnügungspark umgewandelt worden.

Wenn ich das richtig beurteile, geht es vor allen Dingen um Hochtemperatur-Reaktoren, die einen höheren Wirkungsgrad versprechen, denn die bisher errichteten Side- und Druckwasser-Reaktoren erbrachten höchstens einen Wirkungsgrad von 20%. Zu bemerken ist dabei, dass Deutschland in seiner Phobie gegen Kernkraftwerke bis auf wenige Ausnahmen allein in der Welt steht. Sogar die Finnen sind im Begriff, ein neues Kernkraftwerk, allerdings alter Prägung zu errichten.

Jean Pütz

(heise) – Mit hohen Summen fördert das US-Energieministerium zwei neue Reaktor-Typen. Sie sollen ab 2027 sicheren Strom liefern – und unstete andere Quellen ergänzen.

Der „neue König“ in der weltweiten Stromerzeugung ist Photovoltaik, wie die Internationale Energieagentur vor kurzem in ihrem Jahres-Bericht 2020 feststellte, aber zumindest manche Länder sehen weiterhin auch eine Zukunft in Atomkraft. Dazu gehören zum Beispiel die USA: Hier hat das Energie-Ministerium (DoE) soeben die ersten 160 Millionen Dollar für die Errichtung von zwei neuartigen Kraftwerken freigegeben, die ab Ende 2027 laufen sollen. Insgesamt sind dafür mehrere Milliarden Dollar Förderung möglich – und einer der beiden neuen Reaktoren könnte eine gute Ergänzung zu immer mehr Strom aus Sonne und anderen erneuerbaren, aber unsteten Quellen werden.

Die beiden Unternehmen, die jetzt die DoE-Förderung im Rahmen des im Frühjahr gestarteten Advanced Reactor Demonstration Program erhalten, sind jung, aber dennoch alte Bekannte in der Nuklear-Szene: Terrapower wurde 2006 unter anderem von Bill Gates gegründet und bekam schon 2016 zusammen mit dem Partner Southern Energy 40 Millionen Dollar für die Weiterentwicklung eines neuen Reaktor-Designs. Und auch X-energy, gegründet 2009, wurde schon 2016 vom DoE mit derselben Summe bedacht.

Auch in den USA verzögern sich die noch laufenden Projekten für neue Atomkraftwerke immer wieder oder wurden ganz eingestellt, verabschiedet aber hat sich das Land von der Weiterentwicklung der Technologie nicht. In einem Artikel zu der neuen Förderung für Terrapower und X-energy scheint das DoE sogar so etwas wie Aufbruchstimmung zu signalisieren zu wollen: Nach Jahrzehnten seien die USA jetzt endlich bereit, bei der Demonstration von fortgeschrittenen Reaktoren den nächsten Schritt zu gehen, heißt es darin. Dafür bestehe überparteiliche Unterstützung im US-Kongress, und insgesamt könnten die beiden Projekte 3,2 Milliarden Dollar bekommen.

Beide jetzt geförderten Designs unterscheiden sich von heutigen Atomkraftwerken, werden aber selbst zum Teil schon seit Jahrzehnten mit Rückschlägen erforscht und entwickelt. X-energy will einen so genannten Kugelhaufen-Reaktor bauen, bei dem der Uran-Brennstoff in Grafit-Kugeln eingekapselt ist. Ein größerer Vorrat wird so sehr langsam verbraucht.

Außerdem hat das Konzept von X-energy zwei weitere Besonderheiten. Zur Kühlung und Wärme-Übertragung dient statt Wasser Helium, was höhere Dampf-Temperaturen und somit Wirkungsgrade ermöglicht. Und der Reaktor Xe-100 ist modular aufgebaut und soll später in Fabriken vorgefertigt werden; für das DoE-Projekt sind vier Einheiten mit zusammen 320 Megawatt Leistung vorgesehen.

Zudem lässt sich das erhitzte Flüssigsalz nicht nur sofort zur Stromerzeugung im Generator verwenden, sondern auch später – alternativ kann man es zunächst in Tanks speichern. Die eigentliche Reaktor-Leistung bei dem geplanten Terrapower-Demonstrator beträgt 345 Megawatt, aber mit genügend heißem Salz im Speicher kann sie bis zu fünf Stunden lang auf 500 Megawatt erhöht werden, wie Greentech Media erklärt Auch der Reaktor von X-energy soll in der Lage sein, seine Stromproduktion an den Bedarf am Markt anzupassen. Terrapower geht mit dem Salz-Speicher aber noch einen Schritt weiter, weil sich der für noch mehr Leistung verwenden lässt.

Derlei Flexibilität wird heute vielleicht noch stärker gebraucht als die fast schon berühmte Grundlastfähigkeit von Atomreaktoren: Weltweit wächst der Anteil von erneuerbaren Quellen an der Stromerzeugung, die dadurch insgesamt unstetiger wird. Bislang wurden deshalb schnelle Gas-Kraftwerke in Reserve gehalten und zunehmend große Akku-Speicher gebaut. Doch wenn die Pläne von Bill Gates‘ Atom-Unternehmen jetzt aufgehen, wäre auf gewisse Weise auch Atomkraft im Erneuerbaren-Zeitalter angekommen.

 

23.10.20 Plädoyer für eine nachhaltige, ökologische und bezahlbare Elektromobilität

Wer Äußerungen in der Presse und Industrie ernst nimmt, muss glauben, dass das rein Batterie-betriebene Elektroauto die Lösung darstellt, wie das Verkehrswesen in der Zukunft gestaltet werden soll.

Bleiben wir zunächst nur im Bereich des PKW:
Allein das Gewicht einer einigermaßen effizienten Batterie, die eine gewisse Reichweiter verspricht, müsste zu denken geben. Jeder, der sich in ein solches Auto setzt, hat mindestens 6 bis 10 Mitfahrer, denn diese Batterie wiegt mindestens 500 bis 800 kg. Während bei herkömmlichen Autos mit Verbrennungsmotor darauf geachtet wird, möglichst das Gewicht zu reduzieren, weil das im direkten Zusammenhang mit dem Energieverbrauch steht, hat das beim Elektroauto offenbar keine Geltung. Nun kann man dagegen halten, dass das in Bewegung gesetzte elektrisch angetriebene Auto, die dazu notwendige kinetische Energie beim Bremsen wieder zurückgewonnen werden kann, denn der Elektromotor ist in der Lage, sich beim Bremsen in einen Generator umzuwandeln, der damit die Batterie rückläd. Aber das ist eine Milchmädchenrechnung, denn das Gewicht vergrößert auch den Rollwiderstand der Reifen, der einen erheblichen Anteil am Energieverbrauch ausmacht.

Zu bedenken ist auch, dass die Herstellung der schwergewichtigen Batterie, bzw. genauer gesagt des Akkumulator, nicht nur bei der Gewinnung der Rohstoffe – vorwiegend Lithium und Cobalt – enorme Schäden in der Natur und dem Sozialsystem entstehen, wo diese gewonnen werden. Die ökologische Bilanz jedenfalls ist ein großes Problem und vielfach kommen die Vorteile des abgasfreien Fahrens erst nach hunderttausenden zurückgelegten Kilometern zur Geltung. Wieso dann überhaupt ein Gewinn für das Klima herausgerechnet werden kann, ist unverständlich.

Hinzu kommt, dass die Batterie-Technologie in Südostasien, insbesondere in China und Korea, enorme Fortschritte gemacht hat, die Europa durch Forschungs- und Kapitaleinsatz kaum nachholen kann. Wenn man bedenkt, dass die Kosten des Akkus mindestens ein Drittel des Gesamt-Aufwandes ausmachen, fragt man sich, woran in Zukunft die europäische Automobilindustrie noch Geld verdienen will. Für mich ist das ein Rätsel, dass diese Technologie unter diesen Umständen zur alleinigen Seligkeit führen soll.

Eine Lösung dieses Geheimnisses liefert der umschichtige Elon Musk, dem es offenbar mit genialen PR-Methoden gelungen ist, die Umweltschützer für sich einzunehmen. Das ist insofern verständlich, weil er sein Augenmerk auf einen kritischen Punkt gerichtet hat, nämlich auf die Abgase. Zunächst einmal ist in den Städten von Kalifornien der Smog, der dadurch produziert wurde, ein alltäglicher Begleiter. Noch mehr benötigt das die aufstrebende chinesische Wirtschaftsmacht. In den Hundertmillionen Städten hat mit zunehmender Verkehrsdichte die Luftverschmutzung so Überhand genommen, dass die Methode des Batterie-betriebenen Elektro-Autos als einzige Alternative erschien. Dabei wurden viele Unannehmlichkeiten im alltäglichen Einsatz, das heißt vor allen Dingen die geringe Reichweite und die enormen Kosten für die notwendige Infrastruktur der Ladesäulen, in Kauf genommen. Dass selbst der betuchte europäische Kunde, gespickt mit der Umweltideologie, das durchaus als Nachteil empfand, erkennt man daran, dass nur wenige zur Elektromobilität umstiegen, obwohl teilweise bis zu 8.000,00 € Kaufprämien ausgelobt wurden, plus Verzicht auf KFZ-Besteuerung.

Hinzu kommt, das die deutschen Automobilhersteller auch durch die EU getrieben wurden, denn der sogenannte Flottenverbrauch ihres Autosortiments erhielt einen Grenzwert, der mit herkömmlichen Verbrennungsmotoren nicht erfüllt werden konnte. Da aber das Elektroauto mit Null-Verbrauch gerechnet wird, konnten sie es sich nicht leisten, durch die Produktion von Elektroautos diesen Durchschnittsverbrauch reduziert zu bekommen.

Ja, und dann kommt die Politik ins Spiel. Grün-Ideologen verdammen generell den Verbrennungsmotor als Teufelszeug und fordern, den so schnell wie möglich zu verbieten – in der irrigen Meinung, dass nur das Elektroauto das Klima retten kann.

Schon 2008 bin ich deshalb zur Firma Ford in Köln, meiner Heimatstadt, gegangen und habe ihnen den Vorschlag gemacht, einen vom Wirkungsgrad optimierten Verbrennungsmotor zu entwickeln. Ich dachte da an einen Dieselmotor oder gar eine Turbine, die wegen der höheren Verbrennungstemperatur – nach dem 2. Hauptsatz der Thermodynamik – mindestens 50% des eingesetzten Treibstoffs in Bewegungsenergie umsetzen könnte. Dieser Motor hätte dann nur die Aufgabe, die Batterie zu laden, die allerdings eine wesentlich geringere Lade-Kapazität benötigte, als die heute in reine Elektroautos eingesetzte. Der Riesenvorteil eines solchen Systems wäre – so erklärte ich das den Fachleuten – dass völlig auf ein automatisches Getriebe verzichtet werden kann und nur der Elektromotor den mechanischen Antrieb bewerkstelligen würde. Leider hat Ford das abgelehnt, weil sie es als für zu teuer erachteten. Möglicherweise haben seinerzeit – das heißt vor mehr als 12 Jahren – die Autobauer im Hintergedanken mitgespielt, was später zu dem Dieselskandal führte, die Abgassoftware zu manipulieren – insbesondere die großen Deutschen, die ja mit dem Betrug in Amerika ihr Waterloo erlebten. In Europa sind sie ja relativ glimpflich davon gekommen.

Leider hat sich das nicht herumgesprochen und Toyota hat als erster damit angefangen, einen seriellen Hybrid-Antrieb zu entwickeln. Der wird heute als sogenannter Plugin bezeichnet. Allerdings besitzt er einen kompletten mechanischen Antrieb, wie ein herkömmliches Auto und gibt kaum weniger CO2 im Abgas frei als reine Verbrenner.

Trotzdem wird diese Schimäre mit nur unwesentlich geringeren Milliarden-Subventionen gefördert wie das reine Elektroauto.

Die Alternative, die nicht nur mir eingefallen ist – heute nennt man ihn den Parallel-Hybrid oder auch HyperHybrid – wurde aus unerfindlichen Gründen nicht weiterverfolgt, vermutlich auch, weil plötzlich der Verbrennungsmotor im Mainstream völlig in Verruf geraten war. Mit Vernunft hatte das allerdings nichts zu tun.

Nun freue ich mich, dass parallel zu mir ein mittelständischer Automobilzulieferer aus Österreich, der sich zudem erfolgreich mit Energieeinsparung im Innenraum des Autos befasste, das heißt mit effizienten Automobil-Heiz- und Kühlsystemen, den Gedanken aufgegriffen und Nägel mit Köpfen gemacht hat. Nach dem Motto: Reden ist Silber, machen ist Gold, präsentiert er seit dem vorigen Jahr zwei faszinierende Prototypen, einen Kleinwagen und einen der Mittelklasse, die genau auf dem HyperHybrid-System aufbauen. Damit wir uns wegen der Objektivität richtig verstehen, ich persönlich verstehe mich nicht als Lobbyist der Firma und erhalte auch garantiert kein Honorar, finde es aber faszinierend, dass mein Ideen-Ansatz von damals Realität werden konnte.

Nun kommt noch ein sozialer und politischer Vorteil hinzu:
Diese Autos werden nicht teurer als herkömmliche Verbrenner, sind also für jedermann erschwinglich, nicht nur für eine betuchte Elite. In der Stadt können sie mit ihrem wesentlich kleinen Akkumulator völlig abgasfrei fahren, benötigen nachweislich nicht mehr als 1-2 Liter Treibstoff auf 100 Kilometer, weil der Lademotor immer im optimalen Drehbereich arbeiten kann und nicht beim Anfahren enormen Sprit vergeudet.

Später, kann der Motor auch auf regenerativen Treibstoff, wenn dieser konkurrenzfähig, umgestellt werden und ist somit völlig CO2-neutral.Was den regenerativen Treibstoff anbelangt, bringt die sich am Horizont abzeichnende solare Wasserstoff-Technologie die Möglichkeit, mit Hilfe von Wasserstoff und recyceltem CO2 umweltfreundliches Methanol zu erzeugen. Natürlich lässt sich die Bremsenergie genauso in die Batterie zurückführen wie beim reinen Elektroauto.

Was die politische Relevanz anbelangt, so hat die Firma mit Namen OBRIST aus Österreich einen Aufruf an die Entscheider aus Politik und Industrie gestartet, den ich Ihnen nicht vorenthalten möchte. Sie plädiert vor allen Dingen für Technologie-Offenheit auf dem Weg zur Klima-Neutralität.

Brief an die Politik

Jean Pütz