Alle Beiträge von Minge

Resignation oder Aufbruch nach der Flutkatastrophe: 1. Gebot, die Klimarettung auf neue realistische Beine stellen

Die Flutkatastrophe hat bewiesen, die Klimarettung geht nicht gegen die Natur, sondern nur mit ihr. Deutschland kann die Klimarettung nicht allein bewerkstelligen. Ob wir wollen oder nicht, wir müssen uns auf extreme Wetterphänomene einstellen, sonst holt sich die Natur alles zurück, was ihr durch unsere kurzsichtigen Maßnahmen der letzten 100 Jahre genommen wurde.
Mein herzlichstes Beileid an alle die Familien, die Angehörige beklagen müssen – mein Trost geht aber auch an diejenigen, die Ihre häusliche Umgebung verloren haben, bzw. ihre ganze Existenz. Ich spreche aus eigener Erfahrung, denn in den 50er Jahren erfasste dieses Schicksal auch meine Familie. Wir besaßen im Luxemburger Mosel-Städtchen Remich, unweit des bekannten Schengen, einen kleinen Krämer-Laden, der uns ein bescheidenes Einkommen bescherte. Es war ein winziges Farben- und Tapeten-Geschäft, von meinem viel zu früh verstorbenen Großvater gegründet. Regelmäßig mussten wir uns dem Hochwasser stellen. Doch 1947 erfasste uns eine Katastrophe, die ebenfalls nicht voraus zu sehen war. Wie immer begnügten wie uns nach der Hochwasser-Warnung über Radio Luxemburg und Aushängen an den Informationstafeln damit, die Waren hoch zu stellen – die Regale waren entsprechend vorgeplant und die Möbel auf Stelzen. Aber das Wasser stieg und stieg und stieg, es erfasste sogar den 1. Stock einen Meter hoch. Alles war kaputt, und das zwei Jahre nach dem 2. Weltkrieg, in dem wir schon einmal alles verloren hatten. Leider gab es damals noch keine Versicherungen oder staatliche Unterstützungen. Eigentlich wäre unsere Existenz futsch gewesen, doch wir rappelten uns gemeinsam wieder hoch – Kinderarbeit war damals selbstverständlich.
Das ist einer der Gründe, weshalb ich das Thema Umwelt- und Klimaschutz in meiner journalistischen Karriere an erste Stelle setzte. Schon vor dem ‚Club of Rome‘ forderte ich 1970 den später zu recht in Mode gekommenen Begriff ‚Nachhaltigkeit‘, und zwar in meiner mit vielen Lorbeeren versehenen 1. Sendereihe mit 13 Feature-Folgen ‚Energie die treibende Kraft‘.
Deshalb auch im hohen Alter immer noch mein vernunftbetontes, kritisches Engagement bei Maßnahmen für Umwelt und letztlich auch für Klimaschutz. Der ‚einfältigen‘ politisch bedingten Grünen-Ideologie möchte ich mit ‚Vielfalt‘ begegnen. Einfalt beherrscht leider in Form von Populismus den Mainstream, führt meines Erachtens aber in eine Sackgasse. Z. B., wenn am Auspuff nichts raus kommt, heißt das nicht, dass dadurch zwar die Umwelt aber nicht das Klima geschützt wird. Die Verlagerung der Frevel ins unterentwickelte Ausland wird nicht erwähnt.
Ein weiteres Beispiel der Einfalt: Die CO2-bedingte Technik einfach verschwinden zu lassen, ist auch nicht die Lösung, wenn das Prinzip der Optimierung und des kleineren Übels besser ist und realistischere Ergebnisse zeitigt. Am deutschen Wesen kann die Welt nicht genesen. Notwendig ist, weit über die Grenzen hinaus zu denken, und das Problem im internationalen Maßstab zu lösen. Das weiß zwar jeder, aber es wird mit Milliarden von staatlichen Subventionen dagegen gehandelt.
Auch die EU ist dieser Ideologie auf den Leim gegangen, z. B. indem sie die CO2-Grenzwerte nicht für das einzelne Auto festgelegt hat, sondern für den Flottenverbrauch aller von einer Firma produzierten Fahrzeug-Typen. Wem ist das eingefallen, dass das Elektro-Auto mit 0-Abgabe berechnet wird und es den vorwiegend deutschen Automobilfirmen ermöglicht, ihre kraftstrotzenden SUVs weiterhin zu produzieren und viel Geld damit zu verdienen? Dass die zukunftsträchtige Elektromobilität auch anders gefördert werden kann, wurde ‚einfältig‘ noch nicht einmal geprüft.
Schauen und hören Sie sich dazu meinen 10-minütigen frei moderierten Beitrag an.
Ganz besonders empfehle ich Ihnen aber auch noch, einmal meinen Vortext zum Beitrag von vor drei Wochen zu lesen. Der ist deshalb so umfangreich geworden, weil ich diesen revolutionären Vorschlag bis ins letzte belegen musste. Bitte zögern Sie nicht, ihn bis zum Ende durch zu arbeiten. Ich bin sicher, dass er – ohne überheblich zu sein – Geschichte machen wird.
Folge 206 Der Vernunft eine Chance

 

Miserable Öko-Bilanz der Elektroautos

(Focus) – Elektro-Gate, Runde zwei: Nach ihrer Kritik an der Berechnungsmethode von Elektroauto-Emissionen erhalten Wissenschaftler viel Zuspruch, jedoch auch viel Gegenwind. FOCUS Online fasst den Stand der Diskussion zusammen.

Der wissenschaftliche Exkurs um die Elektromobilität ist selten wissenschaftlich. Gerade in Deutschland handelt es sich um ein hochpolitisches Thema. Das bekam Thomas Koch vom Karlsruher Institut für Technologie zu spüren. Der hatte sich bemüht, einen mathematischen Beweis zu führen, dass sich die EU bei der Kalkulation der zukünftigen CO2 Emissionen schlicht um ungefähr 100% verrechnet hatte, seine Hypothese bei einer wissenschaftlichen Zeitschrift eingereicht, um sie im Rahmen der “Peer Review” überprüfen zu lassen und anschließend 170 Wissenschaftler weltweit gefunden, die seine Meinung teilten. Stellvertretend für die in Gründung befindliche „IASTEC“-Gruppe, die mehr Technologieoffenheit bei der Verkehrswende fordert, schrieben dann die führenden Köpfe einen offenen Brief an die EU-Kommission .

Die Kritik kam prompt – und zielte meistens darauf ab, dass Koch als einer der bekanntesten Experten für Verbrennungsmotoren ja nur seine Pfründe sichern wolle. Abgesehen davon, dass dieser Vorwurf, wenn man denn in derlei Argumentationsmustern denkt, auf die Elektro-Branche genauso zutreffen würde, driftete die Diskussion über das Thema schnell ins übliche Lagerdenken „Pro E-Mobilität“ und „Contra E-Mobilität“ ab. Dabei zeigt sich bei einer genauen Betrachtung, wie tief das Problem eigentlich geht, auf das die Wissenschaftler die EU-Kommission hingewiesen haben.

Elektroauto: In Frankreich sauber, in Deutschland weniger

Koch und seine Kollegen wählten ausgerechnet die heilige Kuh der deutschen Verkehrswende aus, um ihre Punkte zu veranschaulichen – das Elektroauto ID3 des semi-staatlichen Volkswagenkonzerns. Der erforderliche Strom emittiere mehr als doppelt soviel CO2 wie von der EU-Kommission angenommen. Der EU-Irrtum basiere auf einem Rechenfehler, so die Wissenschaftler

Es zeigt sich schon an der Tatsache, dass Autohersteller bei der CO2-Flottenanrechnung ihre Stromer mit 0 Gramm bilanzieren dürfen. Dass das vorne und hinten nicht stimmt, zeigte jüngst die Fachzeitschrift „Auto Motor & Sport“ durch einen anschaulichen Vergleich: Während in Frankreich E-Autos dank Atomstrom tatsächlich sehr CO2-arm unterwegs sind, sieht die Bilanz in Deutschland deutlich schlechter aus, wenn man den je nach Wetterlage nur geringen Beitrag regenerativer Energien zum Strommix berücksichtigt.

„Autopapst“ Dudenhöffer will keine Technologieoffenheit

Die Wissenschaftler um Thomas Koch zogen sich unter anderem den Ärger von Deutschlands bekanntestem Autoexperten zu, dem emeritierten Professor Ferdinand Dudenhöffer. Der betreibt mittlerweile eine Kombination aus Auftragsforschungs-, Kongressveranstaltungs- und Eventagentur und veranstaltet Kongresse rund um die Elektromobilität von Braunschweig bis China. Eine von der “European Climate Foundation” mitfinanzierte Studie Dudenhöffers kam zu dem Schluss, durch E-Mobilität würden kaum Arbeitsplätze verloren gehen. Auch zu diesem Feld gibt es diverse Prognosen, die stark voneinander abweichen. So gehen andere Publikationen davon aus, dass zwischen 200.000 und 400.000 Arbeitsplätze der Transformation zur Elektromobilität zum Opfer fallen

An der IASTEC-Meinung ließ Dudenhöffer kein gutes Haar. Wenn er schon das Wort “Technologieoffenheit” höre, dann mutmaße er, dass man noch länger dem Verbrennungsmotor die Stange halte. Andere Kritiken gerieten noch schriller und unsachlicher. Unter dem Titel “Vorsicht Fake News” behauptet die „Wirtschaftswoche“, Kochs Berechnungsmethoden seien falsch und realitätsfern, die “International Association of Sustainable Drivetrain and Vehicle Technology Research” existiere nicht, ihre Gründung sei lediglich von Koch geplant und das Schreiben sei auch nur von 6 Wissenschaftlern unterschrieben.

„Elektro-Gate“? Zahlreiche Unterstützer für Kritik an der Emissionsberechnung

Nun ist die Richtigkeit einer wissenschaftlichen Hypothese weder von einem Eintrag ins Vereinsregister noch von der Anzahl der Unterzeichner eines offenen Briefes abhängig. Koch hätte durchaus deutlicher machen können, dass die aktuelle Diskussion ihn zur Eile zwingt. Die EU will diverse Richtlinien beschließen und auch der Beschluss der EURO 7 Norm für Verbrennungsmotoren steht unmittelbar bevor.

Die Darstellung allerdings, dass die Kritiker der CO2-Berechnung nur aus sechs Personen bestünden, die quasi andere vor den Karren spannen, lässt sich nicht halten. FOCUS Online liegt nicht nur der offene Brief der Wissenschaftler an die EU-Kommission vor, sondern auch nach einer ersten Nachfrage über 60 Mails von zukünftigen IASTEC-Mitgliedern und Unterstützern von Koch, die die Richtigkeit der Hypothesen bestätigen. Darunter sind unter anderem Wissenschaftler, Forscher und Antriebsexperten aus Deutschland, Brasilien, Kanada, Südkorea, China, England, Frankreich, Polen, Spanien, Tschechien und Griechenland. Sie bestätigen auch, dass sie sich an der IASTEC-Gründung beteiligen wollen. “Wir fühlen uns geehrt, gemeinsam mit den 170+ Repräsentanten aus dem automobilen Antriebsfeld hinter dem Papier zu stehen”, schreibt zum Beispiel Seongsoo Kim von der koreanischen Silla Universität. Der Strommix in Südkorea sei vergleichbar mit dem in Deutschland, Österreich und der Schweiz und erlaube ebenfalls keine vollständige klimaneutrale Elektromomobilität. Ohne ReFuels (das ist der Fachbegriff für biologische und synthetische Kraftstoffe) sei Klimaneutralität nicht zu erreichen.

„Ohne synthetische Kraftstoffe ist Klimaneutralität nicht zu erreichen“

Neben zahlreichen Unterstützern gibt es aber auch viel Kritik, die fachlich durchaus fundierter ist als etwa die Ferdinand Dudenhöffers. Das Science Media Center Germany (SMCG), eine gemeinnützige GmbH mit einem Jahresbudget von 1,7 Mio Euro , die sich der „Vernetzung von Wissenschaft und Presse“ verschrieben hat, hat sich die Mühe gemacht, die Koch-kritischen Statements zusammenzustellen.

Zu den Förderern des SCMG gehört neben der Klaus-Tschira-Stiftung eines verstorbenen SAP-Gründers das Bundesministerium für Bildung und Forschung, das deutsche Zentrum für Luft- und Raumfahrt oder die Deutsche Akademie der Naturforscher Leopoldina sowie diverse Universitäten. Geschäftsführer Volker Stollorz sagt zur Auswahl der entsprechenden Wissenschaftler: “Wir sprechen zu Studien, Veröffentlichungen und auch Gesetzvorschlägen grundsätzlich Forscherinnen und Forscher an, in deren domainspezifischen Fachbereich das jeweilige Thema fällt. Diese sind fachlich besonders in der Lage, auf dem aktuellen Stand der Forschung Arbeiten und Thesen einzuschätzen, die in ihre Disziplin fallen. Die jeweiligen Positionen der Wissenschaftler und Wissenschaftlerinnen zu bestimmten Forschungsfragen sind weder bei der Akquise noch bei einzelnen Anfragen das entscheidende Auswahlkriterium. Es steht den angefragten Forscherinnen und Forschern frei, auf unsere Fragen zu antworten. Im Falle der Veröffentlichung von Prof. Thomas Koch im Zusammenhang mit der Frage, welche CO2-Emissionen welchen Verbrauchern zuzuordnen sind, waren das Wissenschaftler und Wissenschaftlerinnen, die seit vielen Jahren Energiesystemanalysen erstellen und auf dem derzeitigen Stand der wissenschaftlichen Forschung argumentieren.”

 

Wasserstoff ist die Lösung – Der Energieträger hat ein gutes Image

Norbert Lossau ist Doktor der Physiker und Wissenschaftsjournalist. Er leitet bei der ‚Welt‘ die Redaktion ‚Technik und Wissenschaft‘ und hat seinerzeit in meiner Redaktion im WDR-Fernsehen seine Laufbahn begonnen und gehört zu den Wissenschaftlern, die wie ich die notwendige Klimarettung kritisch verfolgen. Er ist wie ich Realist und nicht gesponsert durch staatliche Subventionen und sonstige Zwänge. Auch er sieht Wasserstoff und seine Weiterverarbeitung zu Methanol und zu synthetischen Kraftstoffen als eigentliche Lösung einer realistischen CO2-Neutralität. Allerdings reicht die auf deutschem Territorium gewonnene regenerative Energie nicht aus und setzt ebenfalls auf internationale Kooperation z. B. mit Ländern der 3. Welt.

Jean Pütz

Hier geht’s zu seinem Artikel

Italien im Aufwind

Nicht nur der Gewinn der Europameisterschaft signalisiert, aus der lahmen Ente Italien unter Ministerpräsident Draghi, dem früheren Chef der Europäischen Zentralbank, wird Italien wieder zu einem geachteten Industriestaat in Europa. Was wenige vermuten, Italien hat im Umsatz die zweitgrößte Industrie in der EU. Es ist nicht nur FIAT, sondern auch die Maschinenbau-Industrie, die dem Aufschwung Flügel verleiht. Seit über 30 Jahren bin ich Ehrenmitglied der Deutsch-Italienischen Wirtschaftsvereinigung e. V. Deshalb habe ich die vorherige Entwicklung manchmal mit Bangen verfolgt, aber ab sofort mit Zuversicht.

Einen Wehrmutstropfen muss ich doch in die Diskussion bringen. Der Süden Italiens, der Mezzogiorno profitiert leider überhaupt nicht von diesem Umschwung. Meine Frau ist Italienerin aus Apulien. Dort herrscht eine Jugendarbeitslosigkeit von bis zu 60%. Die ehemals florierende Schuhindustrie ist in Billiglohn-Länder abgewandert. So entwickelt sich dieser Landstrich immer mehr zu einer reinen Agrar-Wirtschaft. Vielleicht ein Beispiel für zukünftige Entwicklung in Deutschland, wenn sich die Grün-Ideologen durchsetzen.

Abhilfe würde meines Erachtens ein duales Ausbildungssystem wie es in Deutschland durch die Verknüpfung von praktischer Lehre und Berufsschule entstanden ist, leisten, aber obwohl ich mich persönlich darum bemüht habe, scheint die schulische Infrastruktur dafür nicht geeignet zu sein. Hinzu kommt der permanente Aderlass von intelligenten Jugendlichen, die nach Abitur und Studium in Norditalien und der Schweiz ihr Glück suchen, und dort die Wirtschaft auf Vordermann bringen. Aber vielleicht entsteht in Zukunft ein wenig Hoffnung durch europäische Kooperation.

Jean Pütz

Italien im Aufwind

 

Echtheit von Honig prüfen

Als Jungimker, der seit vier Jahren mittlerweile fünf Bienenstöcke unterhält, bin ich an diesem Thema sehr interessiert. Es ist ja verblüffend, das Honig auf so viele Arten verfälscht werden kann. Für mich gilt zur Zeit das Sprichwort: Die dümmsten Bauern haben die dicksten Kartoffeln. Ich gestehe, dass ich mir das komplette Wissen der Imker zwar nach und nach angeeignet habe, aber bin immer noch angewiesen auf meinen Freund Gerd, den ich den Bienen-König nenne. Mit einem Stock habe ich angefangen, daraus sind mittlerweile fünf geworden, weil es mit gelungen ist, die Bienenschwärme jeweils einzufangen. So ist es verblüffend, dass ich im vorigen Jahr einen garantiert naturreinen Honig mit nur 14% Wassergehalt schleudern konnte. Erlaubt sind Wassergehaltswerte bis 20%, die bei vielen Honigen aus dem Supermarkt nicht immer eingehalten werden. In diesem Jahr ist mir wieder ein Coup gelungen, pro Bienenstock habe ich jetzt in der Frühjahrsernte 16 kg gewinnen können, was wegen der ungünstigen Witterung eine Sensation darstellt und mich an die Spitze der Imker katapultiert. Was meine Bienchen sonst noch an ökologischen Wohltaten verrichten, bleibt dabei unerwähnt.

Übrigens, auch mitten in der Städten kann man sich als Imker erfolgreich betätigen. Zwei meiner Freunde sind da mittlerweile Spezialisten.

Ihr Jean Pütz

(BZfE) – Honig gehört zu den Lebensmitteln, die am häufigsten gefälscht werden. Mit den derzeit gängigen Analysemethoden kann unechter Honig in vielen Fällen nicht sicher entlarvt werden. Daher hat der Deutsche Berufs- und Erwerbsimkerbund (DBIB) gemeinsam mit dem Forschungskreis der Ernährungsindustrie (FEI) ein Forschungsprojekt zum Nachweis der Authentizität von Honig gestartet. Ziel ist ein routinetaugliches Analyseverfahren, das die nur in reinem Honig vorkommenden Enzyme und Eiweiße nachweist.

Es gibt viele Wege, Honig zu fälschen. Häufig wird er mit preisgünstigem Zuckersirup gestreckt. Es gibt im Ausland aber auch „Honigfabriken“, die unreifen Honig in industriellem Maßstab konzentrieren und verarbeiten. Pollen können entfernt oder hinzugefügt werden. So entsteht der Eindruck eines natürlichen Honigs. Solche Praktiken sind nach der EU-Honigverordnung nicht erlaubt. Insbesondere extrem günstige Honige stehen in der Kritik, weil von einer geringen Qualität und Fälschungen ausgegangen werden muss.

„Bei der Reifung werden dem Honig von den Bienen besondere, bienentypische Enzyme zugesetzt. In diesem neuen Forschungsprojekt werden Profile dieser natürlichen Enzyme erfasst“, erklärt DBIB-Präsidentin Annette Seehaus-Arnold. Für die Analysen stellen die Imker Blütenhonige von verschiedenen Bienenrassen zur Verfügung. Auf Basis der großen Probenauswahl wird mit Hilfe der Massenspektrometrie eine umfangreiche Referenzliste der nur in reinem Honig vorkommenden Enzyme erstellt. Anhand dieser Liste können honigverarbeitende Betriebe in Zukunft unechten Honig leichter nachweisen. Das neue Analyseverfahren wird Fälschungen von Honig und deren Import zu Niedrigpreisen erschweren, meint der DBIB. Denn die in naturbelassenem Honig vorkommenden Enzyme und ihre speziellen Marker sind im Industrielabor sehr schwierig nachzubauen.

Mobiles Internet in Deutschland extrem teuer – ein Ländervergleich

Diese Rechnung kann ich persönlich bestätigen. Mein Sohn, Professor für Biochemie in Straßburg für deutsch-französische Studien zahlt  29,00 € pro Monat inkl. MwSt für den Internet-Zugang. Darin enthalten sind: 60 Gigabyte Datenvolumen pro Monat und weitere Faszinitäten, d. h. kostenloses Telefonieren in der gesamten EU. Ich persönlich zahle bei der Telekom durchschnittlich 55,00 € + MwSt. Dabei verfüge ich nur über ein Datenvolumen von 5 Gigabyte pro Monat. Das halte ich für einen Skandal, der mit dafür verantwortlich ist, dass Deutschland in Sachen Digitalisierung ein Entwicklungsland ist. Daran beteiligt ist auch der Staat bzw. die Bundesregierung, die Milliarden Euro eingenommen hat, als sie die Frequenzen versteigerte. Für 5G-Geschwindigkeiten, dem Mobilstandart der fünften Generation, mussten die mobilen Provider noch einmal Milliarden Euro zahlen.  Diese Kosten werden natürlich auf den Verbraucher übertragen. Da stimmt doch etwas nicht mit der Weitsicht. Hinzu kommt, dass ich für meinen Festnetz-Anschluss gebeutelt werde. Die Datenrate war über das normale Telefonkabel so gering, dass ich einen sogenannten Hybrid-Anschluss benötige. Doch der bricht von Zeit zu Zeit zusammen. Da man den Fehler zunächst bei sich selbst vermutet, geht da ganz viel Zeit drauf. Zusätzlich zahle ich dafür noch einmal durchschnittlich 40,00 €.

Leider bin ich da nicht der Einzige und deshalb sind die hohen Kosten ein Grund für die Rückständigkeit Deutschlands in Sachen Digitalisierung – was übrigens die Bundesregierung regelmäßig bedauert. Gespannt bin ich, was aus dem Versprechen wird, dass im nächsten Jahr überall ein schneller Internet-Zugang garantiert wird. Asche auf das Haupt der verantwortlichen Politiker.

Jean Pütz

Hier der Vergleich nur für Europa

(pte) – Mobiles Internet in Deutschland bleibt im Ländervergleich überdurchschnittlich teuer. Zu diesem Fazit kommt der Verbraucherzentrale Bundesverband (vzbv) in seiner aktuellen Auswertung der Preisstrukturen . Zwar sinken die Preise in Deutschland wie auch in Europa, doch schneidet das Ausland oft verbraucherfreundlicher ab. Deutschland bleibt kontinuierlich auf Platz eins oder zwei der teuersten Länder für mobiles Internet.

Polen 83 Cent, Deutschland 3,35 Euro

Der VZBV-Auswertung nach haben deutsche Verbraucher 2019 im Schnitt etwa drei Mal so viel für mobiles Internet gezahlt wie Endkunden in den besonders günstigen europäischen Ländern. Dies zeigt sich anhand der durchschnittlichen Kosten für ein Gigabyte mobiles Datenvolumen bei reinen Datentarifen, die in den europäischen Ländern stark variieren. Zum Beispiel zahlten 2019 Verbraucher in Polen 0,83 Euro für ein Gigabyte mobiles Datenvolumen, während in Deutschland der Preis dafür bei 3,35 Euro lag.

Dabei ist mobiles Datenvolumen die Grundlage für eine app-basierte digitale Infrastruktur. Entsprechend der voranschreitenden Digitalisierung wird auch immer mehr mobiles Datenvolumen benötigt. Verbrauchten die Menschen 2019 deutschlandweit noch 2,76 Mrd. Gigabyte, so stieg die Nutzung 2020 bereits auf 3,97 Mrd. Gigabyte, so der „Jahresbericht 2020 – Märkte im digitalen Wandel“ der Bundesnetzagentur

Textilfasern extrem zugfestig, produziert durch genmanipulierte Bakterien

Was heutzutage durch die Technologie alles möglich ist. Noch so viele Proteste der Gen-Gegner können die Entwicklung nicht verhindern. Ich hoffe, die Wissenschaft ist ihrer Verantwortung bewusst, und bezieht die Nebenwirkungen und Risiken in ihr Kalkül mit ein.

Goethe schrieb in seiner Ballade ‚Der Zauberlehrling‘: ‚Die Geister die ich rief, die werde ich nicht mehr los‘. Diese Erkenntnis steht heute über vielen Technologien, doch leider auch unberücksichtigt bei vielen Gesetzesvorhaben. Jedes einzelne Gesetz in demokratischen Staaten sollte stets unter der Berücksichtigung von Nebenwirkungen und Risiken gefasst werden. Doch leider fällt das oft dem grassierenden Populismus zum Opfer.

Jean Pütz

Hier nun ein Forschungsergebnis menschlicher Kreativität, welches durchaus verblüffend ist

(pte) – Ingenieure der Washington University haben sogenannte Amyloid-Seiden-Hybridproteine entwickelt, die fester und widerstandsfähiger sind als natürliche Spinnenseiden. Die Proteine werden allerdings nicht im Labor hergestellt, sondern von Bakterien, deren Gene der Forscher Fuzhong Zhang verändert hat.

Kristallanordnung optimiert

Zhang arbeitet seit Jahren daran, Spinnenseide für technische Anwendungen im Labor biotechnisch herzustellen. 2018 konnte er einen ersten Erfolg melden. Er hatte Bakterien so manipuliert, dass sie Spinnenseide produzierten, deren Leistung in allen wichtigen mechanischen Eigenschaften mit ihren natürlichen Gegenstücken vergleichbar war.

„Dann fragte ich mich, ob wir nicht ein noch besseres Material produzieren können“, so Zhang. Gemeinsam mit seinem Doktoranden Jingyao Li machte er sich daran, die Aminosäuresequenz von natürlicher Spinnenseide zu verändern. Die Forscher erkannten, dass die Festigkeit der Spinnenseide nicht zuletzt auf eingebauten Nanokristallen beruht. Im Laufe der Evolution hätten sich die Zahl und die Anordnung dieser Kristalle immer weiter verbessert. Es sei kaum möglich, ausreichende Mengen an Nanokristallen dieser Art in künstlich hergestellter Spinnenseide zu platzieren.

Umbau des Seidenproteins

Um dieses Problem zu lösen, haben die Experten das Seidenprotein umgebaut, indem sie die Reihenfolge seiner Bausteine veränderten und sogenannte Amyloidsequenzen einbauten, die eine starke Tendenz zur Bildung der gewünschten Nanokristalle aufweisen. Es entstand ein Seidenprotein mit zahlreichen aneinandergereihten Bausteinen. Je länger diese Kette ist, desto stärker und zäher ist die Faser.

Eine Kette mit 128 Gliedern kam auf einen Wert im Gigapascal-Bereich. Zum Vergleich: Die Zugfestigkeit von Metallen liegt im Megapascal-Bereich. Trotz ihrer überragenden Eigenschaften ist diese künstliche Spinnenseide einfacher aufgebaut als natürliche, sodass sie von genmanipulierten Bakterien leichter herzustellen ist. Zhang glaubt, dass er bei der Entwicklung von Hochleistungsfasern noch lange nicht am Ende ist. „Wir können die Biologie so weiterentwickeln, dass wir die Natur übertreffen“, meint der Forscher.

Regenerative synthetische Kraftstoffe, die CO2-neutrale Verbrennungsmotoren oder Turbinen ermöglichen

(KIT) – Der Einsatz synthetischer Kraftstoffe könnte zukünftig Treibhausgasemissionen von Flugreisen und Schwertransporten minimieren. Mit einer Power-to-Liquid Anlage von INERATEC, die das Karlsruher Institut für Technologie (KIT) gemeinsam mit dem Spin-off am Energy Lab 2.0 betreibt, rückt das in greifbare Nähe. Die modulare Anlage ist in einem Container untergebracht und soll nun von der Ausgründung in Serie gefertigt werden.

„Das ist der letzte Ausbauschritt auf dem Weg zu einem industriellen Einsatz“, sagt Professor Roland Dittmeyer vom Institut für Mikroverfahrenstechnik des KIT. „Anlagen dieser Bauweise werden weltweit dazu beitragen, den Transportsektor und die chemische Industrie mit E-Fuels sowie E-Chemicals nachhaltiger zu gestalten.“ Die Anlage steht auf dem Gelände des Energy Lab 2.0 am Campus Nord des KIT. Sie produziert aus Kohlendioxid (CO2) und erneuerbarem Wasserstoff (H2) ein synthetisches Kraftstoffgemisch, auch SynCrude genannt, das zu synthetischem Kerosin, Diesel und Benzin weiterverarbeitet werden kann. „Dafür sind zwei Reaktorstufen notwendig, die wir zum ersten Mal gekoppelt, mit einem verbesserten Design und in einem für die Technologieentwicklung relevantem Maßstab betreiben“, sagt Dittmeyer. „Wir können bis zu 200 Liter Kraftstoff pro Tag erzeugen.“

Innovative Technologie von INERATEC

Die langkettigen Kohlenwasserstoffe des SynCrudes werden in einer der Reaktorstufen mittels Fischer-Tropsch-Synthese (FT-Synthese) aus Synthesegas hergestellt, das hauptsächlich aus Kohlenstoffmonoxid (CO) und H2 besteht. Es wird in dem anderen der FT-Synthese vorgeschalteten Reaktor durch die rückwärtige Wassergas-Shift-Reaktion (RWGS) erzeugt. Der RWGS-Reaktor ist aus mikrostrukturierten Platten aufgebaut, die einen flexiblen Betrieb der Anlage ermöglichen und für mehr Leistungsfähigkeit sorgen. Das neue Design dieser Platten wurde nun im gekoppelten Betrieb erfolgreich demonstriert. „Mit dem optimierten RWGS-Reaktor lassen sich die Reaktionen jetzt noch präziser steuern, und so konnten wir den Prozess signifikant verbessern“, sagt Dr. Tim Böltken, einer der Geschäftsführer von INERATEC. Jede Stunde könne bis zu drei Kilogramm Wasserstoff aus Elektrolyseuren verarbeitet werden. „Das entspricht einer Anschlussleistung von 125 Kilowatt, und das setzt weltweit Maßstäbe“, so Böltken.

Im nächsten Schritt erfolgt die Serienproduktion

Die Demonstration der RWGS Reaktor-Technologie von INERATEC auf dieser Skalierungsstufe stellt den letzten wichtigen Schritt in einem universitären Forschungsumfeld dar. Über weitere Skalierung, Standardisierung und Vervielfältigung will das Unternehmen die Power-to-X-Technologie danach schnell und kostengünstig mit einer Serienproduktion bereitstellen können. Über das Projekt IMPOWER2X wird das Spin-off des KIT von der Europäischen Union mit 2,5 Millionen Euro gefördert.

Bereits 2019 wurde in der ersten Förderphase des Kopernikus-Projekts P2X die weltweit erste vollintegrierte Anlage zur Produktion von „Sprit aus Luft und grünem Strom“ am KIT in Betrieb genommen. Die Anlage produzierte täglich ungefähr zehn Liter synthetische Kraftstoffe und kombinierte die CO2-Abscheidung aus der Luft, eine Hochtemperaturelektrolyse zur Synthesegaserzeugung, die FT-Synthese sowie die Produktaufbereitung zum fertigen Kraftstoff. Aktuell, in der zweiten Förderphase von P2X, wird diese Prozesskette in der Skalierung von 250 Kilowatt im Energy Lab 2.0 aufgebaut und soll dann ab 2022 etwa 200 bis 300 Liter Kraftstoff pro Tag direkt aus dem CO2 der Luft erzeugen. (mhe)

 

Zur Hochwasserkatastrophe 2021

(KIT) – Um Hochwassergefahren besser einschätzen zu können, sollen Gefahrenkarten historische Daten einbeziehen. Dafür plädieren Forschende am CEDIM – Center for Disaster Management and Risk Reduction Technology des Karlsruher Instituts für Technologie (KIT). Das CEDIM hat einen ersten Bericht zur Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen vorgelegt. Was die Rolle des Klimawandels betrifft, birgt die Kombination aus mehr verfügbarem Wasser in der Atmosphäre und einer zunehmenden Beständigkeit von Großwetterlagen ein steigendes Potenzial für extreme Niederschlagsereignisse.

Die Hochwasserkatastrophe in der vergangenen Woche hat in Deutschland mehr als 170 Todesopfer gefordert (Stand: 21. Juli 2021). Immer noch werden Menschen vermisst. Die Schäden an Gebäuden und Infrastruktur lassen sich erst grob bestimmen und gehen in die zweistelligen Milliarden – davon allein mindesten zwei Milliarden Euro für Verkehrsinfrastrukturen. Inzwischen hat der Gesamtverband der Deutschen Versicherungswirtschaft e.V. (GDV) den versicherten Schaden auf vier bis fünf Milliarden Euro nur in Rheinland-Pfalz und Nordrhein-Westfalen geschätzt. Wie kam es zu den Überflutungen, die vor allem Rheinland-Pfalz und Nordrhein-Westfalen betrafen? Wie lassen sich Hochwassergefahren – besonders seltene, extreme Ereignisse – vorab besser abschätzen? Mit diesen Fragen hat sich die Forensic Disaster Analysis (FDA) Group des CEDIM befasst und einen ersten Bericht vorgelegt.

Wie die Forschenden erläutern, führten enorme Niederschlagsmengen dazu, dass beispielsweise der Pegel an der Ahr (Altenahr) seinen bisherigen Rekord von 2016 (3,71 Meter, Abfluss: 236 m³/s) deutlich überstieg. Überflutungsbedingt fiel die Messstation bei einem Wert von 5,05 Metern (Abfluss: 332 m³/s) allerdings aus. Das Landesamt für Umwelt Rheinland-Pfalz kalkulierte aus Modellrechnungen für die Katastrophennacht einen Pegel von bis zu sieben Metern, basierend darauf schätzten die Expertinnen und Experten einen Abfluss zwischen 400 bis 700 m³/s ab.

Mehrere Faktoren führten zu den extrem hohen Niederschlagssummen

Aus meteorologischer Perspektive führten verschiedene Faktoren zu den extrem hohen Niederschlagssummen. „Innerhalb von 48 Stunden fiel in Teilen von Nordrhein-Westfalen und Rheinland-Pfalz mehr Regen, als dort üblicherweise im gesamten Monat Juli niedergeht; der Hauptanteil ging sogar innerhalb von nur rund zehn Stunden nieder“, berichtet CEDIM-Sprecher Professor Michael Kunz. Außerdem verstärkte das stark gegliederte Gelände der betroffenen Regionen, besonders im Landkreis Ahrweiler, mit teils tief eingeschnittenen Flusstälern den Oberflächenabfluss. Der bereits annähernd gesättigte Boden durch teils kräftige Niederschläge in den vorangegangenen Tagen verschärfte die Situation zusätzlich.

Um die Überflutungsflächen in den am schwersten betroffenen Gebieten Kreis Ahrweiler und Rhein-Erft-Kreis abzuschätzen, kombinierte das Forschungsteam Satellitendaten mit Luftaufnahmen von (Amateur-)Drohnen und Helikoptern sowie Fotos aus sozialen Medien. Nach diesen geschätzten Überflutungsflächen befinden sich in den betroffenen Gebieten knapp über 19 000 Gebäude mit einem Wert von rund neun Milliarden Euro. In Verbindung mit empirischen Daten vergangener Hochwasserkatastrophen (Infrastrukturschäden, Elementarschäden und andere Schäden) schätzten die Forschenden einen Gesamtschaden zwischen elf und 24 Milliarden Euro (erste CEDIM-Schätzung: 21. Juli 2021). Dabei ist allerdings zu berücksichtigen, dass die Überflutungsflächen nur einen Teil der gesamten betroffenen Fläche ausmachen.

Mehr verfügbares Wasser in der Atmosphäre und zunehmende Beständigkeit von Großwetterlagen steigern Gefahr

Ob ein einzelnes Extremereignis oder die Abfolge mehrerer Extreme bereits auf den Klimawandel zurückzuführen sind, lässt sich nach Aussage der Karlsruher Katastrophenforschenden weder exakt belegen noch komplett verneinen, besonders wenn es um Ereignisse auf kurzen Zeit- und Raumskalen geht, die stark von lokalen Faktoren beeinflusst sind. Für die großräumigen Prozesse in der Atmosphäre, die zur Entstehung von Extremereignissen führen, gilt jedoch: Die Kombination aus mehr verfügbarem Wasser in der Atmosphäre infolge der Temperaturzunahme und einer zunehmenden Beständigkeit von Großwetterlagen mit einem sich tendenziell nach Norden verlagerndem Jetstream, dem Starkwindband in der oberen Troposphäre, birgt ein hohes Gefahrenpotenzial. „Da für diese drei Faktoren ein positiver Trend zu erwarten ist, wird auch das Potenzial für extreme Niederschlagsereignisse in Zukunft zunehmen“, erklärt Kunz.

Bereits 1804 und 1910 bedeutende Hochwasserereignisse im Ahrtal

„Im Ahrtal gab es bereits in der Vergangenheit zwei besonders bedeutende Hochwasserereignisse, nämlich 1804 und 1910. Ein Vergleich mit historischen Aufzeichnungen lässt annehmen, dass die diesjährigen Werte allerdings niedriger einzuordnen sind als die von 1804“, sagt der stellvertretende CEDIM-Sprecher Dr. James Daniell. Für das Hochwasserereignis von 1804 wurde der Abfluss von der Universität Bonn bereits auf ca. 1 100 m³/s geschätzt. Das diesjährige Ereignis könnte hydrologisch betrachtet ein ähnliches Ausmaß wie das von 1910 mit einem Abfluss von 500 m³/s gehabt haben. „Die aktuellen Hochwasserkarten für das Ahrtal basieren derzeit auf einer Abflussstatistik mit Daten seit 1947, da seit diesem Zeitpunkt homogene Messreihen zur Verfügung stehen. Dadurch werden die beiden historischen Ereignisse bei der Gefährdungsabschätzung bisher jedoch nicht berücksichtigt“, sagt Dr. Andreas Schäfer, Erstautor des Berichts. So liegt die aktuelle Schätzung eines hundertjährlichen Hochwassers als Bemessungsgrundlage für den Hochwasserschutz für die Ahr bei 241 m³/s.

Die FDA Group des CEDIM plädiert dringend dafür, in Hochwasser-Gefahrenkarten historische Daten einbeziehen, auch aus der Zeit vor der kontinuierlichen Messaufzeichnung, um Hochwassergefahren besser abschätzen zu können. „Zwar müssen wir bei den Analysen und Interpretationen der Daten grundsätzlich beachten, dass sich sowohl Infrastrukturen als auch Hochwasserschutzmaßnahmen in den vergangenen Jahren verändert haben. Daher lassen sich die Messwerte direkt schwerer vergleichen, und wir sollten uns weniger auf die Pegelstände fokussieren“, erklärt Daniell. „Wir können die Pegelstände von 1804 und 1910 als indirekte Anzeiger heranziehen, um Hochwasserjahre zu identifizieren. Messwerte zum Abfluss, über die zeitliche Entwicklung und über die Niederschlagsummen sind für die Interpretation jedoch wichtiger. Letztendlich sollten aber beide historische Größen – Pegel und Abfluss – beim Erstellen von Gefahrenkarten einbezogen werden.“ (or)

Bemühungen eines Bürgers, der sich um unsere Demokratie bemüht mit meine Stellungnahme

Lieber Herr Sommer,

viel schlimmer ist, dass Politiker, die ihrer Vernunft gehorchen und in der Lage sind, richtige logische Schlüsse zu ziehen, in Populismuszeiten keine Chance mehr haben, gewählt zu werden. Das gilt auch für die Bereitschaft, längere Abhandlungen zu lesen, selbst dann, wenn sie volkswirtschaftlich sinnvoll und wohlstanderhaltend sind. Auch Moderationen über 2 bis 3 Minuten nimmt die Schwarmintelligenz der Deutschen nicht mehr wahr – außer einer Bürger-Elite, die mit Vernunft betonten Ideen kaum Chancen bekommen. Selbst die Wissenschaft wird durch das Füllhorn der staatlichen Unterstützungen korrumpiert, und zum political correctness gedrängt. Das geht leider quer durch alle Parteien.

Früher habe ich geglaubt, Demokratie wäre in der Lage, Probleme zu lösen. Leider aber ist die ausgeartet in die Verfolgung von emotionalen, einseitigen Lösungen, wobei nur die Vielfalt zum Ziel führen würde. Als Beispiel nenne ich das Elektro-Auto. In Deutschland ist es überflüssig wie ein Kropf, aber dem unbedarften Bürger wird klargemacht, hinten kommt kein Abgas raus, also rettet es das Klima. Einzelne Personen bestimmen dann die Scene, wie Elon Musk, der für Kalifornien notwendige Elektro-Autos entwickelt hat, die Städte würden sonst im Smog ersticken. Das gilt besonders für die chinesischen Städte. Nachweislich ist das E-Auto ökologisch nicht zielführend, wird aber auch von der Presse zum Goldstandard erhoben. Nebenwirkungen und Risiken werden PR-Tricks völlig unterdrückt. Die florierende deutsche Automobil-Industrie ist darauf reingefallen, weil die EU ja den auf Eingaben deutscher Politiker nicht das einzelne Auto im Verbrauch reduzieren will, sondern auf den sogenannten Flottenverbrauch setzt. Fälschlicher Weise wird ein E-Auto als CO2-neutral gezählt und reduziert den durchschnittlichen Flottenverbrauch, damit die großen SUVs weiter verkauft werden können, die kurzfristig maximal fünf Jahre den Profit garantieren. Das wird von allen Parteien gut geheißen – außer der AFD, deren Aufkommen von allen Demokraten mit Recht als Katastrophe empfunden wird.

Ich schreibe Ihnen nur, weil ich Ihr gutgemeintes und wertvolles Engagement etwas eingrenzen möchte. Unserer Demokratie geht es nicht gut. Die dahinter stehende Selbstorganisation eines Volkes durch freie Demokratie wird immer mehr eingeengt. Corona ist nur ein Beispiel, aber auch der Tatsache geschuldet, dass der Bildungsstand unseres Volkes in Sachen Naturwissenschaften einen Tiefpunkt erreicht. Verschwörungstheoretiker aller Arten überdecken jegliche Art von Vernunft. Vielleicht können Sie das einmal in Ihren Kommentaren und Bemühungen einfließen lassen.

Ansonsten Hochachtung

(Wegen Makuladegeneration kann ich nicht mehr lesen und schreiben, aber diktieren. Bitte nehmen Sie mir gelegentliche Verständnis-Irritationen nicht übel)

Jean Pütz

(Demokratie Plus) – Am 26. September 2021 ist es wieder so weit. Ich freue mich jetzt schon darauf. Sie gehört zu den Ritualen von Wahlen ebenso wie Umfragen, Hochrechnungen und Straßeninterviews.

Die „Elefantenrunde“.

Niemand weiß genau, wer wann diesen Begriff prägte. Es gibt sie seit über einem halben Jahrhundert, mit im Grunde immer gleichem Konzept: Am frühen Wahlabend versammelt sich die Runde der Vorsitzenden aller im Bundestag vertretenen Parteien in einem Fernsehstudio und interpretiert die Wahlergebnisse.

Das ist schon allein deshalb immer wunderschön anzuhören, weil fast jedes Mal fast alle Parteien die Wahl im Grunde gewonnen haben – glaubt man deren Protagonist*innen. Es gab schon Abende, an denen ein (noch) amtierender Bundeskanzler als Einziger im Raum nicht realisieren wollte, dass seine Zeit abgelaufen war.

Köstlich klingen auch die in Variationen immer wieder dargebrachten Erklärungen, warum denn die reine Prozentzahl so enttäuschend ausfiel, wo doch im Grunde die übergroße Mehrheit der Wählerinnen und Wähler die Position der jeweiligen Partei teilen würde.

Meist seien die angeblich gerade an diesem Tag zu Hause geblieben. Wahlweise wegen zu guten oder zu schlechten Wetters, wegen der falschen Annahme, die Wahl sei ohnehin schon gewonnen oder verloren oder aus anderen, oft überraschend kreativen Gründen.

Eine krachende Wahlniederlage wird zumeist damit begründet, dass man seine – zweifellos klugen und mehrheitsfähigen Positionen – nicht genügend „vermitteln“ konnte.

Faktisch nie hört man den Satz: „Wir haben die Wahl verloren, weil die große Mehrheit der Wähler*innen unsere Ziele nicht teilt.“

Das ist tatsächlich nicht der politischen Rhetorik geschuldet, sondern einer Variante des Phänomens der verzerrten Wahrnehmung.

In der vergangenen Woche sprachen wir über die egocentric bias – kurz gesagt, die Überschätzung der eigenen Bedeutung für Prozesse und Ergebnisse. Wir haben gesehen, dass ein kluger Umgang mit diesem Phänomen zum Beispiel in Beteiligungsprozessen durchaus eine positive Wirkung haben kann.

Heute wollen wir uns eine andere Ausprägung dieser Verzerrung genauer anschauen.

Wir Menschen neigen nicht nur dazu, unsere eigene Rolle (im Positiven wie im Negativen) überzubewerten. Das gilt auch für unsere Sicht auf die Wirklichkeit. Wir glauben in der Regel nicht nur, dass wir Recht haben, wir glauben auch, dass weit mehr Menschen unsere Meinung teilen, als dies der Fall ist.

Verantwortlich dafür sind mehrere Effekte, die zwei wichtigsten sind das Phänomen der Verfügbarkeitsheuristik und die so genannte Bestätigungsverzerrung: die confirmation bias.

Letztere besagt im Grunde, dass wir aus einer Fülle von Informationen tendenziell intensiver jene wahrnehmen, die unsere Meinung bestätigen. Wir bevorzugen also, was uns bestätigt, indem

  • passende Informationen besser in Erinnerung bleiben,
  • passende Informationen höher gewertet werden als gegensätzliche,
  • Informationsquellen für unpassende Informationen gemieden werden.

Das allein verzerrt bereits unsere Wahrnehmung. Dazu kommt, wie wir diese – bereits vorselektierten – Informationen interpretieren.

Hier kommt die Verfügbarkeitsheuristik ins Spiel: Wir bewerten die Wahrscheinlichkeit von Ereignissen je nach ihrer Verfügbarkeit.

Wenn ein Ereignis besonders spektakulär ist, wenn wir davon besonders viel in den Medien lesen, dann halten wir es für besonders häufig.

Und das gilt eben auch für Meinungen. Wir nehmen tendenziell eher zur Kenntnis, was uns bestätigt. Und wir neigen zusätzlich dazu, diese Bestätigungen auch noch für besonders repräsentativ zu halten.

Genau das ist das Geschäftsmodell der Sozialen Medien. Die dortigen Algorithmen checken für uns genau nach diesen Kriterien. Inhalte, die mit unseren Vorlieben korrespondieren, bekommen wir besonders häufig angezeigt, andere werden ausgeblendet. So wirken sie quasi als Katalysator und fügen dieser Verzerrung eine weitere Ebene hinzu:

Wir bekommen ein vorgefiltertes Abbild der Welt präsentiert, selektieren selbst noch einmal und das, was am Ende übrig bleibt, wird dann auch noch verallgemeinert.

Geht es um ganz unbequeme Wahrheiten, so steht am Ende dieser Verzerrungskette dann auch schon mal eine glatte Leugnung der Wirklichkeit. Der Klimawandel ist dann nur ein Fake, Corona eine Erfindung von Bill Gates und Flüchtlinge sind nur hier, um unsere Töchter zu vergewaltigen.

So extrem scheitert die Wirklichkeit nur an wenigen Menschen, aber wir alle sind von den Verzerrungen nicht gefeit. Wir alle unterliegen ihnen – in unterschiedlicher Intensität.

So entsteht am Ende des Tages gesellschaftliche Spaltung, durch Selbstbestätigungsblasen, deren Mitglieder nicht mehr in der Lage sind, mit Anderen wertschätzend zu diskutieren – die es ihnen ja auch nicht leicht machen, weil ihre Blase ihnen eine ganz andere Wirklichkeit vorspiegelt und möglicherweise beide davon überzeugt sind, die Meinung der „schweigenden Mehrheit“ zu teilen.

Schlimm? Sicher. Unlösbar? Keinesfalls. In der kommenden Woche schauen wir uns gemeinsam an, wie wir diese Verzerrungen in Diskursen – und in Beteiligungsprozessen – nicht nur berücksichtigen, sondern tatsächlich austricksen können.

Herzlichst, Jörg Sommer