Alle Beiträge von Minge
Umweltschonende Lithiumgewinnung
(pte) – Mit einer neuen Technologie lässt sich Lithium mit einer Kostenersparnis von 60 Prozent gegenüber heutigen Techniken gewinnen. Außerdem ist das von Wissenschaftlern der Stanford University entwickelte Verfahren deutlich umweltverträglicher, weil damit weniger Wasser, Chemikalien und Land verbraucht werden als bisher üblich. Allerdings funktioniert es nur mit Thermalwässern (Sole), die Lithium enthalten. Die Forschungsergebnisse erschienen vor Kurzem im Fachjournal „Matter“.
„Potenzieller Wendepunkt“
„Die unserem Ansatz innewohnenden Effizienz- und Kostenvorteile machen ihn zu einer vielversprechenden Alternative zu derzeitigen Extraktionstechniken und zu einem potenziellen Wendepunkt in der Lithiumversorgungskette“, erläutert der leitende Forscher Yi Cui. Das Forschungsteam schätzt, dass sein Ansatz 3.500 bis 4.400 US-Dollar pro Tonne hochreines Lithiumhydroxid kostet, das kostengünstig in Lithiumcarbonat in Batteriequalität umgewandelt werden kann – verglichen mit etwa 9.100 Dollar pro Tonne für die vorherrschende Technologie zur Gewinnung von Lithium aus Sole. Die Produktion von Lithium aus Gestein ist noch weitaus teurer und umweltschädlicher.
Heutzutage wird Lithium aus Sole gewonnen, indem das Wasser verdampft wird, ein energieaufwändiger Prozess. Alternativ kann die Sole auch durch Umweltwärme eingedickt werden, doch das dauert Monate. Cui und sein Team setzen dagegen auf ein Elektrolyseverfahren, ähnlich dem zur Spaltung von Wasser in Wasser- und Sauerstoff. Als Energielieferant soll grüner Strom dienen, sodass der Prozess weitgehend klimaneutral abläuft. Dabei wird der Lithiumgehalt der Sole durch Abspalten von Wasser in mehreren Schritten drastisch erhöht.
Nebenprodukt der Geothermie
Wasser mit einer hohen Konzentration an Salzen, einschließlich Lithium, kommt in der Natur in einigen Seen, heißen Quellen und Grundwasserleitern sowie als Nebenprodukt bei der Erdöl- und Erdgasförderung und der Meerwasserentsalzung vor, außerdem in der Sole, die zur Nutzung von Erdwärme zu Heizzwecken und zur Stromerzeugung aus dem Untergrund gefördert wird. Experimentell wurde dieses Wasser auch in Deutschland schon genutzt, um Lithium zu gewinnen, allerdings nicht mit einem Elektrolyseverfahren.
Lithium spielt eine entscheidende Rolle für die Bekämpfung des Klimawandels. Einem Bericht der Unternehmensberatung McKinsey zufolge wird die Nachfrage nach Lithium von etwa einer halben Mio. Tonnen im Jahr 2021 auf drei bis vier Mio. Tonnen 2030 steigen. Der starke Zuwachs ist vor allem auf die Einführung von Elektrofahrzeugen und Systemen zur Speicherung erneuerbarer Energien zurückzuführen, die beide auf Batterien angewiesen sind. Angesichts des zunehmend schleppenden Absatzes von E-Autos dürfte der Bedarf zwar nicht ganz so rasant steigen, dennoch bleiben klimaschonende Gewinnungstechniken für Lithium extrem wichtig.
Neues Kühlsystemen auf Basis eines physikalischen elastokalorischen Effekts
(pte) – 48 Prozent effektiver als heutige Geräte ist ein Kühlsystem, das Forscher der Ingenieursschule an der Hong Kong University of Science and Technology (HKUST) entwickelt haben. Während andere Anlagen ein Kältemittel benötigen, das im ungünstigen Fall klimaschädlich ist, kommt das HKUST-Gerät ganz ohne ein solches aus. Es basiert auch nicht auf Kompression und Dekompression, sondern auf einem elastokalorischen Effekt. Ihre Forschungsergebnisse haben die Wissenschaftler vor Kurzem im Fachjournal „Nature Energy“ veröffentlicht.
Für Klimatisierung nutzbar
Wenn ein Material wie Nitinol, eine Nickel-Titan-Legierung, mechanischem Druck ausgesetzt und verformt wird, kommt es zur kristallinen Phasenumwandlung, wobei sich das Material erwärmt. Die entstehende Wärme wird über eine Wärmesenke, etwa Wasser, abgeführt, sodass das sogenannte Gedächtnismaterial sich an seine ursprüngliche Form erinnert, diese wieder einnimmt und wieder auf die Ausgangstemperatur abkühlt. Wird nun das Kraftfeld entfernt, so verringert sich die Ordnung und das Material kühlt auf einen Wert unterhalb der Ausgangstemperatur ab. Diese lässt sich zum Klimatisieren nutzen.
Dieser Effekt ist zwar schon länger bekannt, ließ sich bisher jedoch nicht in der Praxis nutzen. Die Temperaturdifferenzen waren zu gering und damit die Kühlleistung. Dieses Problem hat das Team um Sun Qingping und Yao Shuhuai gelöst, indem es mehrere dieser Systeme kaskadenförmig hintereinanderschaltete. Die erste Temperatursenkung des ersten Geräts reduzierte das nachfolgende, bis eine ausreichende Differenz erreicht war. Die Wärmesenke (Wasser) konnte so um 75 Grad erhöht werden, die sich anderweitig nutzen lassen, etwa zur Erwärmung von Brauchwasser.
Bald leistungsfähigere Legierungen
Darauf aufbauend arbeitet das Forscherteam jetzt an der Entwicklung von Hochleistungs-Formgedächtnislegierungen, die noch effektiver sind und die Kühlleistung verbessern, um die Kommerzialisierung dieser innovativen Technologie voranzutreiben. Umgekehrt lässt sich das System auch als Wärmepumpe zum Heizen einsetzen, die beispielsweise Erdwärme auf ein höheres Temperaturniveau bringt. An dieser Entwicklung arbeitet das Fraunhofer-Institut für Physikalische Messtechnik (IPM) in Freiburg.
Raumkühlung und -heizung machen 20 Prozent des weltweiten Stromverbrauchs aus, Tendenz steigend angesichts des Klimawandels. „Wir sind zuversichtlich, dass die elastokalorische Kältetechnik dank der kontinuierlichen Fortschritte in der Materialwissenschaft und im Maschinenbau in Zukunft umweltfreundliche und energieeffiziente Kühl- und Heizlösungen der nächsten Generation bereitstellen kann, um den riesigen weltweiten Kältemarkt zu versorgen und die dringende Aufgabe der Dekarbonisierung und der Eindämmung der globalen Erwärmung anzugehen“, resümiert Sun.
KI steigert Bedeutung von Digitalkompetenz & kritischem Denken – Mit einer Einführung von Jean Pütz
Diese Presseinformation der Universität Hohenheim gebe ich mit Bedenken weiter. Denn in letzter Zeit wird der KI Eigenschaften zugewiesen als ob sie zu allem fähig sei. Da wird von Digitalkompetenz gesprochen, die demnächst jeder beherrschen müsste.
Aus der Sicht der Forscher ist dieser Wunsch durchaus verständlich. Allerdings möchte ich einige Bedenken anmerken:
Ich bin fest davon on überzeugt, dass die Masse der Menschen völlig überfordert ist und sich eine Art Herrenrasse herausbildet, die nach dem Motto „Big-Brother is Watching you“ eine ungeheure Macht erhält. Die Anwendungen von KI können vieles erleichtern, aber die Nebenwirkungen und Risiken müssen auch berücksichtigt werden, weil eine Gegenbewegung zu erwarten ist.
Wenn die Bürger sich überfordert fühlen, dann haben Verschwörungstheorien die Oberhand gewinnen. Schon heute entfernt sich unsere Demokratie von der Logik und ein engagierter Abgeordneter in den Parlamenten hat mit seiner Vernunft kaum mehr Chancen. Denn auf den Populismus setzende Kollegen laufen ihm den Rang ab. So sehe ich auch die heutige Überhandnahme vor Irrationalität in politischen Entscheidungen und viele Entscheidungen werden wider besseren Wissens geschaffen. Gegen die Mehrheit beruht unsere Demokratie entstehen Gesetze die mit Rationalität nichts mehr zu tun haben. Die Wissenschaft hat einen Turm zu Babel gebaut, mit Einsichten in die früher verborgenen Geheimnisse menschlichen Lebens der Gefahr läuft unbeherrschbar zu werden.
Ihr Jean Pütz
(Uni Hohenheim) – Künstliche Intelligenz (KI) verändert die Bedeutung von grundlegenden menschlichen Kompetenzen − von der Bildung über den Beruf bis hin zum privaten Leben. Zu diesem Ergebnis kommt eine Studie unter Leitung der Universität Hohenheim in Stuttgart. Danach gewinnen methodische Basiskompetenzen wie kritisches Denken und Problemlösungskompetenz stark an Bedeutung. Auch die Digitalkompetenz wird immer wichtiger, während die Relevanz von Fremdsprachenkenntnissen abnimmt. Soziale Basiskompetenzen bleiben weitgehend stabil. Ein Whitepaper fasst die Ergebnisse zusammen und gibt Empfehlungen, wie die Erkenntnisse in Bildungsprogramme und Arbeitsorganisation eingebaut werden können.
Künstliche Intelligenz beeinflusst mittlerweile sämtliche Lebensbereiche, sei es im Beruf, im privaten Umfeld oder auch in der Bildung. Sprachgesteuerte Assistenzsysteme wie Alexa, Siri und Cortana oder Computer Vision zum Entsperren von Smartphones sind nur einige Beispiele, die zu einer immer häufigeren Nutzung von KI-Systemen im Alltag führen. In jüngster Zeit finden zudem sogenannte generative KI-Systeme wie ChatGPT oder GeminiAI immer größere Verbreitung.
„Künstliche Intelligenz zieht in alle Lebensbereiche ein und verändert sie“, so Studienleiter Prof. Dr. Henner Gimpel von der Universität Hohenheim. „Dabei dient Künstliche Intelligenz derzeit vorrangig als unterstützendes Werkzeug“, erklärt der Experte. „Jedoch zeichnet sich ab, dass KI in Zukunft vermehrt Tätigkeiten zu einem großen Teil oder sogar ganz übernehmen wird. Diese neuen Möglichkeiten verändern die erforderlichen Kompetenzen von Menschen, die zunehmend mit KI zu tun haben.“
Wie verändert sich die Bedeutung von Basiskompetenzen im Zeitalter von KI?
Doch welchen Einfluss hat dies auf die Fähigkeiten der Menschen, den zukünftigen Anforderungen gerecht zu werden? Wie sollten Bildungseinrichtungen, Arbeitgeber:innen und die Gesellschaft insgesamt auf die Veränderungen reagieren? Diesen Fragen sind Forschende vom Fachgebiet Digitales Management an der Universität Hohenheim in Zusammenarbeit mit dem Forschungsinstitut für Informationsmanagement (FIM) und dem Fraunhofer-Institut für Angewandte Informationstechnik (FIT) nachgegangen.
Ihr Augenmerk galt den sogenannten Basiskompetenzen, die oft auch als Schlüsselkompetenzen bezeichnet werden. „Gemeint ist damit eine Kombination aus Fertigkeiten, Wissen und Einstellungen, die zur Erfüllung einer bestimmten Aufgabe oder Aktivität erforderlich sind“, erläutert Dr. Julia Lanzl von der Universität Hohenheim. „Diese Kompetenzen decken alle Lebensbereiche ab und können in vielen verschiedenen Zusammenhängen eingesetzt werden. Gleichzeitig bilden sie die Grundlage für die Entwicklung weiterer spezifischer, kontextbezogener Fähigkeiten.“
„Damit sich Bildungseinrichtungen, Arbeitgeber:innen und Individuen auf die Veränderung einstellen können, müssen sie wissen, wie sich die Bedeutung einzelner Basiskompetenzen durch KI verändern wird“, sagt Frederik Schöttl, Doktorand im Fachgebiet Digitales Management. „Ein gutes Prognose-Tool ist eine sogenannten Delphi-Studie, bei der die Befragten immer wieder mit den Einschätzungen der anderen Teilnehmenden konfrontiert werden und diese bewerten.“ So entstand ein Meinungsbild von 34 Expert:innen aus Wissenschaft und Praxis, die sich entweder innerhalb der Forschung oder dem individuellen Beruf intensiv mit Kompetenzen und/oder KI beschäftigt haben.
Methodische Basiskompetenzen gewinnen an Bedeutung
Demnach werden methodische Basiskompetenzen wie kritisches Denken, Entscheidungskompetenz, analytisches Denken und Problemlösungskompetenz durch die zunehmende Nutzung von KI an Wichtigkeit gewinnen. „KI kann viele Aufgaben automatisieren, aber die Fähigkeit, komplexe Probleme zu lösen und kritisch zu hinterfragen, bleibt eine menschliche Domäne“, analysiert Frederik Schöttl die Studienergebnisse. „Die Menschen müssen in der Lage sein die Ergebnisse von KI-Systemen auf ihre Korrektheit und Glaubwürdigkeit zu prüfen. Aufgrund der ‚Black-Box‘-Natur vieler KI-Systeme und der generativen KI-Technologien wird besonders das kritische Denken immer wichtiger.“
Steigende Relevanz von Digitalkompetenzen, aber Fremdsprachen weniger wichtig
Eine zunehmende Bedeutung zeigt sich auch bei der Digitalkompetenz: „In einer von KI geprägten Welt ist es unerlässlich, digitale Technologien zu verstehen und anzuwenden“, sagt Prof. Dr. Gimpel. „Die Fähigkeit digitale Werkzeuge und Technologien effektiv zu nutzen, wird in nahezu allen Lebensbereichen unerlässlich. Dies könnte bedeuten, dass die Digitalkompetenz in Zukunft spezialisierter und die Fähigkeit zur KI-Nutzung zu einer eigenständigen Kompetenz wird.“
Die Expert:innen in der Studie kommen jedoch auch zu dem Schluss, dass Fremdsprachenkenntnisse an Bedeutung verlieren. „KI-Technologien sind zunehmend in der Lage, Übersetzungen und sprachliche Kommunikation zu übernehmen, wodurch der Bedarf an traditionellen Fremdsprachenkenntnissen sinkt“, so Mike Possin, wissenschaftliche Hilfskraft. „Nichtsdestoweniger ist es aktuell immer noch nötig, das Ergebnis einer KI-generierten Übersetzung zu überprüfen.“
Soziale Basiskompetenzen bleiben weitgehend unbeeinflusst
Soziale Basiskompetenzen wie Fähigkeit zur Empathie, Kommunikation und Zusammenarbeit bleiben weitgehend stabil in ihrer Bedeutung. „Menschliche Interaktionen sind nur in geringem Maße durch KI ersetzbar“, erklärt Dr. Lanzl. „KI kann hier zwar in einigen Aspekte unterstützen, aber echte menschliche Verbindungen und das Verständnis emotionaler und sozialer Kontexte sind zumindest bisher schwer zu automatisieren.“
Eine Ausnahme bilde die Ethik- und Kulturkompetenz: „Sie gewinnt an Relevanz, da die Notwendigkeit steigt moralische Normen und Werte im Umgang mit KI zu hinterfragen und zu überwachen.“
Handlungsempfehlungen
„Die zunehmende Verbreitung von KI erhöht die Relevanz von Basiskompetenzen – dessen sind sich die Expert:innen aus Praxis und Wissenschaft einig, die an unserer Delphi-Studie teilgenommen haben“, fasst Prof. Dr. Gimpel zusammen. „Dies unterstreicht die Notwendigkeit, nicht nur spezifische und kontextbezogene Kompetenzen zu fördern, sondern auch die grundlegenden Basiskompetenzen zu vermitteln, insbesondere im Bildungsbereich.“
Aus Sicht der Forschenden sind daher Bildungseinrichtungen, Arbeitgeber:innen und Politik gefordert, ihre Programme und Strategien anzupassen, um den Herausforderungen des KI-Zeitalters gerecht zu werden: Bildungseinrichtungen sollten in ihren Lehrplänen Basiskompetenzen stärker berücksichtigen und systematisch fördern. Soziale Basiskompetenzen sowie Ethik- und Kulturkompetenzen sind für Arbeitgeber:innen bei der Auswahl und Mitarbeiterentwicklung wichtig. Gleichzeitig sollten Schulungsprogramme einen starken Fokus auf Digitalkompetenzen und kritisches Denken legen, um auf die Zusammenarbeit mit KI-Systemen vorzubereiten.
HINTERGRUND: Delphi-Studie
Eine Delphi-Studie ist eine wissenschaftliche Methode zur Erhebung von Expertenmeinungen zu einem bestimmten Thema. Dabei werden mehrere Runden von (Online-)Befragungen durchgeführt, bei denen die Teilnehmenden zuerst auf Basis ihrer individuellen Expertise Ansichten äußern und dann mit dem anonymisierten Feedback der anderen konfrontiert werden. Ziel ist einen Konsens oder eine Konvergenz der Meinungen zu erreichen oder zumindest die Gründe für die Divergenz zu verstehen.
HINTERGRUND: DeLLFi und ABBA
Die Studie wurde durch zwei Projekte an der Universität Hohenheim ermöglicht, die digitale und analoge Lehre ideal verzahnen wollen:
Ziel von DeLLFi ist, eine kompetenzorientierte, digital unterstützte Lehre als festen Bestandteil der Lehre in Hohenheim zu etablieren. Die acht Maßnahmenpakete des Projektes „Digitalisierung entlang Lehren, Lernen und Forschen integrieren“ werden gefördert von der Stiftung Innovation in der Hochschullehre.
Ziel von ABBA ist es, Wirtschaftswissenschaftler:innen die notwendigen Kompetenzen für die Bewertung und Integration von Technologie in betriebliche Prozesse und Entscheidungen zu vermitteln. Das Projekt „AI for Business | Business for AI“ wird durch das Bundesministerium für Bildung und Forschung und mehrere beteiligte Länder gefördert.
Text: Stuhlemmer
Hilfe für Autoimmunkranke
(Uni Kiel) – Einem Forschungsteam mit Beteiligung des Exzellenzclusters PMI ist es gelungen, krankheitsverursachende T-Zellen bei Autoimmunerkrankungen aus dem Blut zu isolieren und zu analysieren.
Bei Autoimmunerkrankungen attackiert das Immunsystem fälschlicherweise körpereigene Strukturen. Einem Forschungsteam aus Kiel, Lübeck und Berlin ist es nun mit einer von ihnen entwickelten Methode gelungen, bestimmte krankmachende Immunzellen genauer zu analysieren. Dabei stellten sie fest, dass diese Zellen teilweise jahrelang in einen ruhenden Zustand wechseln können und dadurch für die bisherigen Therapieansätze unerreichbar werden. Wechseln die Zellen dann wieder in einen aktiven Zustand, bringen sie erneut weitere Immunzellen dazu die körpereigenen Strukturen anzugreifen und entfachen so die Erkrankung auf Neue. Die Ergebnisse hat das interdisziplinäre Forschungsteam unter Beteiligung zahlreicher Mitglieder des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ (PMI) vor kurzem im renommierten Fachmagazin „Immunity“ veröffentlicht.
Überraschend: Autoreaktive Immunzellen in ruhendem Zustand
Die Forschenden haben Blutproben von Patientinnen und Patienten untersucht, die eine von drei Autoimmunerkrankungen hatten, bei denen bekannt ist, gegen welche Strukturen sich das Immunsystem richtet. Mithilfe einer von ihnen entwickelten Methode (Antigen-reactive T cell enrichment, ARTE, s.u.) konnten sie aus der großen Menge verschiedener Immunzellen im Blut gezielt die seltenen autoreaktiven Immunzellen anreichern und analysieren. Das sind die Zellen, die fälschlicherweise auf körpereigene Strukturen reagieren, Entzündungen in Gang bringen und andere Immunzellen dazu veranlassen die körpereigenen Strukturen anzugreifen.
„Bisher wurde angenommen, dass diese Zellen bei Autoimmunerkrankungen chronisch aktiviert sind und so die Entzündung antreiben“, erklärt die Erstautorin Dr. Carina Saggau vom Institut für Immunologie der Christian-Albrechts-Universität zu Kiel und des Universitätsklinikums Schleswig-Holstein (UKSH), Campus Kiel. „Doch wir konnten nun zeigen, dass überraschenderweise ein Teil von ihnen in einen ruhenden Zustand ist, der in der Wissenschaft als „exhausted“, also erschöpft, bezeichnet wird, und in diesem Zustand teilweise jahrelang im Blut zirkuliert.“ Dieser ruhende Zustand ist bisher aus der Tumorforschung bekannt: In Tumoren befinden sich die Immunzellen, die eigentlich den Tumor bekämpfen müssten, in so einem Zustand und lassen den Tumor daher ungehindert wachsen.
„Bei den untersuchten Autoimmunerkrankungen vermuten wir, dass die chronische Aktivierung durch die körpereigene Struktur nach einiger Zeit zu einer Art „Notabschaltung“ führt. Der Körper braucht einen Mechanismus, um solche Zellen abzuschalten, die dauerhaft aktiviert werden“, sagt Professor Alexander Scheffold, Direktor des Instituts für Immunologie und Mitglied im Exzellenzcluster „Precision Medicine in Chronic Inflammation“ PMI. Der Immunologe hat die interdisziplinäre Forschungsarbeit gemeinsam mit dem Neuroimmunologen PD Frank Leypoldt vom Institut für klinische Chemie am UKSH, Campus Kiel, und Professor Friedemann Paul vom Experimental and Clinical Research Center der Charité, Berlin, geleitet.
Reaktivierung der ruhenden Zellen führt zu neuem Krankheitsschub
Der ruhende Zustand führt bei den Autoimmunerkrankungen jedoch auch dazu, dass diese Zellen den gängigen Therapien entgehen, die darauf abzielen das überreaktive Immunsystem zu unterdrücken. Das heißt: Häufig schlägt die Therapie an und unterdrückt die Symptome der Autoimmunreaktion, aber einige der krankmachenden T-Zellen überleben in dem ruhenden Zustand. Werden einige der ruhenden Zellen reaktiviert, vermutlich durch Infektionen oder Umweltfaktoren, können sie den gesamten Krankheitsprozess wieder anschalten. Die Betroffenen erleben einen neuen Krankheitsschub.
„Diese Beobachtung erklärt, warum derzeitige Therapien keinen dauerhaften Schutz vor Rückfällen bieten“, erklärt PD Frank Leypoldt, ebenfalls Mitglied im Exzellenzcluster PMI. „Gleichzeitig eröffnen sie neue Ansatzpunkte für gezieltere Therapien. So könnte man versuchen, mit speziell auf die ruhenden Zellen gerichteten Therapien, diese selektiv anzugreifen und so die Krankheit effektiver, nachhaltiger und präziser zu behandeln. Alternativ könnte man, basierend auf bestehenden Ansätzen aus der Tumormedizin, die Zellen reaktivieren, um sie dann besser therapeutisch zu erreichen,“ so Leypoldt weiter.
Außerdem seien die Beobachtungen wichtig für ein besseres Verständnis der zugrundliegenden Krankheitsmechanismen, betont Scheffold. „Wir haben die Zusammenhänge nun an drei Modellerkrankungen erstmals gezeigt. Als nächstes möchten wir untersuchen, bei welchen anderen Entzündungserkrankungen wir diesen Zustand noch finden, um besser verstehen zu können, was den verschiedenen Erkrankungen jeweils zu Grunde liegt. Nur so ist eine spezifische Therapie der jeweiligen Krankheitsursachen im Sinne einer echten Präzisionsmedizin möglich“, erklärt Scheffold.
Über die ARTE-Methode:
In einer Blutprobe reagieren nur etwa eine aus hunderttausend T-Zellen gegen das spezifische Autoantigen, also das körpereigene Molekül, gegen das sich das Immunsystem bei der Autoimmunerkrankung richtet. Um diese seltenen Zellen überhaupt untersuchen zu können, haben Prof. Petra Bacher und Prof. Alexander Scheffold vom Exzellenzcluster PMI das sogenannte „Antigen-reactive T cell enrichment“ (ARTE, Anreicherung antigenreaktiver T-Zellen) entwickelt. Das Verfahren basiert darauf, Blutzellen im Reagenzglas kurz mit dem Antigen zu konfrontieren. Antigen-spezifische T-Zellen werden so aktiviert und können anhand von „Aktivierungsmarkern“ mit Magnetpartikeln markiert werden. Über magnetische Trennsäulen, werden diese seltenen T-Zellen dann aus einer größeren Blutmenge herausfiltriert und analysiert.
Neue Methode: Anitbiotika gegen resistente Bakterien
(pte) – 70 Prozent aller derzeit zugelassenen Antibiotika werden aus Actinobakterien in der Erde gewonnen. Forschern der University of Helsinki ist jetzt ein wichtiger Durchbruch gelungen. Sie haben einen Wirkstoff entdeckt, der die Virulenz der EPEC-Bakterien unterdrückt, ohne ihr Wachstum zu beeinflussen. Auch konnte ein Wirkstoff identifiziert werden, der das Wachstum der Bakterien verhindert.
Fokus auf EPEC-Stamm
Die Forscher haben sich auf den EPEC-Stamm konzentriert, da er häufig bei Kindern unter fünf Jahren einen fallweise tödlichen Durchfall auslöst. Davon betroffen sind vor allem Entwicklungsländer. EPEC verursacht eine Erkrankung, indem es sich an Zellen im menschlichen Darm anbindet. In einem nächsten Schritt werden Virulenzfaktoren in der Wirtszelle platziert, die sie am Ende abtöten. Die jetzt getesteten Wirkstoffe stammen von vier Arten von Actinobakterien.
Sie wurden von Wirbellosen gewonnen, die während einer Expedition im Jahr 2020 gesammelt worden waren. Diese Bakterien sind dann im Labor kultiviert, ihre Zellen extrahiert und ihr Inhalt in Fraktionen zerlegt worden. Jede Fraktion wurde dann in vitro getestet – und zwar anhand von EPEC, die sie an gezüchteten Darmkrebszellen angehängt hatten. Die Forscher konnten in der Folge zwei bisher unbekannte Wirkstoffe mit einer starken Aktivität gegen Viren und Bakterien nachweisen.
„T091-5“ aussichtsreich
Einer der neuen Wirkstoffe kommt von einem unbekannten Stamm mit der Bezeichnung „T091-5“ im Genus von Rhodococcus. Der andere namens „T160-2“ rührt vom bisher unbekannten Stamm in einen weiteren Genus – und zwar von Koncuria. Anders als die Wirkstoffe von T160-2 verlangsamte der Wirkstoff von T091-5 das Wachstum der EPEC-Bakterien nicht. Somit ist T091-5 der Kandidat mit der größten Erfolgsaussicht. Details sind in „Frontiers in Microbiology“ nachzulesen.
Interessante Erklärung der Lithium-Ionen-Batterie
(pte) – Die Hersteller von Lithium-Ionen-Batterien laden sie im Werk auf, bevor sie an die Kunden weitergegeben werden. Dabei machen sie einen entscheidenden Fehler, sagt Will Chueh von der Stanford University in Kalifornien. Gemeinsam mit Kollegen vom Teilchenbeschleuniger SLAC und des Toyota Research Institute(TRI) hat er herausgefunden, dass sich die Batterielebensdauer entscheidend verlängert, wenn beim ersten Ladevorgang sehr hohe Ströme fließen.
„Eine echte Herausforderung“
Das SLAC liefert hochenergetische und extrem scharfe Röntgenstrahlen, die selbst kleinste Strukturen sichtbar machen. „Wir haben hier ein hervorragendes Beispiel dafür, wie das SLAC mithilfe der Produktionswissenschaft entscheidende Technologien für die Energiewende erschwinglicher macht. Wir meistern eine echte Herausforderung, der sich die Industrie gegenübersieht“, sagt Chueh.
Wird eine Batterie geladen, fließen die Lithiumionen in die negative Elektrode und werden dort gespeichert. Entlädt sie sich, fließen sie wieder heraus und wandern zur positiven Elektrode; dadurch wird ein Elektronenfluss ausgelöst, der E-Autos und Smartphones mit Strom versorgt. Die positive Elektrode einer neuen Batterie besteht zu 100 Prozent aus Lithium, so Xiao Cui, der leitende Forscher des Batterieinformatik-Teams in Chuehs Labor. Jedes Mal, wenn die Batterie einen Lade-/Entladezyklus durchläuft, wird ein Teil des Lithiums deaktiviert. Die Minimierung dieser Verluste verlängert die Lebensdauer der Batterie.
Verluste zahlen sich später aus
Seltsamerweise besteht eine Möglichkeit, diesen Verlust zu minimieren, darin, während der ersten Ladung der Batterie absichtlich einen Teil der ursprünglichen Lithiummenge zu verlieren, so Cui. Dieses wird zu einer Passivierungsschicht, der so genannten Festelektrolyt-Interphase (SEI), die sich während der ersten Ladung auf der Oberfläche der negativen Elektrode bildet.
Die SEI schützt die negative Grafitelektrode vor Nebenreaktionen, die den Lithiumverlust beschleunigen und die Batterie schneller altern lässt. „Die Formation ist der letzte Schritt im Herstellungsprozess. Wenn sie nicht gelingt, sind die Mühen, die bis dahin in die Batterie investiert wurden, vergeblich gewesen“, weiß Cui. Schnelles Laden am Anfang kann die Lebensdauer einer Batterie um 50 Prozent erhöhen, so die Forscher.
Erstmals möglich: Der exakte Blick ins Molekül
„SPOTLIGHT“: Sonne statt fossile Brennstoffe
(pte)- Die Grundlage für eine klimaneutrale Versorgung der chemischen Industrie mit Rohstoffen unter Verzicht auf fossile Quellen hat die Forschungsorganisation TNO mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) gelegt. Im Rahmen des Projekts „SPOTLIGHT“, zu dem das DLR den Photoreaktor beisteuerte, wird Solarenergie und Wasserstoff hergestellt. Synthesegas ist ein Mix aus Kohlenstoffmonoxid und Wasserstoff.
Das Besondere an der TNO/DLR-Entwicklung: Das Verfahren soll Synthesegas wirtschaftlich produzieren, wenn der CO2-Preis 200 Euro pro Tonne beträgt. Davon ist Europa allerdings noch weit entfernt. Derzeit liegt der Preis beispielsweise in Deutschland und Österreich bei 45 Euro. Schweden und die Schweiz kommen allerdings schon auf mehr als 100 Euro.
Katalysatoren nutzen Sonnenlicht
„Wir nutzen sogenannte plasmonische Katalysatoren. Diese Materialien absorbieren viel Sonnenlicht und werden in chemischen Prozessen eingesetzt, die durch Sonnenlicht angetrieben werden. Wenn man die Katalysatoren modifiziert, kann die Reaktion für bestimmte Prozesse optimiert werden, zum Beispiel für die Erzeugung von Synthesegas“, so Nicole Meulendijks von der Technischen Universität Eindhoven, die die Entwicklung des Katalysators leitet.
Plasmonische Katalysatoren haben die Fähigkeit, alle Frequenzen des Sonnenlichts zu nutzen. Nichts geht verloren. Der Reaktor wird derzeit vom Licht des Kölner Sonnenofens bestrahlt. Dass ist eine künstliche, elektrisch betriebene „Sonne“, die für Experimente eine sichere Versorgung ermöglicht. In der Praxis wird er bevorzugt in Regionen aufgestellt, in denen die Sonneneinstrahlung besonders intensiv ist, etwa in Nordafrika. Kombiniert mit Stromspeichern geht der Betrieb auch weiter, wenn die Sonne nicht scheint. Dann übernehmen Hochleistungs-Leuchtdioden, die mit grünem Strom betrieben werden, den Part der Sonne.
Anlage für eine Mio. Tonnen CO2
Geplant ist im weiteren Verlauf des Projekts eine Großanlage, die bis zu eine Mio. Tonnen CO2 pro Jahr verarbeiten kann. Die in SPOTLIGHT entwickelte Technologie bietet laut den Entwicklern das Potenzial, bis zu 800 Mio. Tonnen CO2 pro Jahr wiederzuverwerten, heißt es beim DLR. Das entspricht etwa 18 Prozent der gesamten CO2-Emissionen der EU.
Populismus und Wunschdenken der derzeitigen Klimapolitik – ein teurer Spaß
Im Jahre 1990 habe ich in der ARD Sendung „Bilder auf der Wissenschaft“ auf die Energievergeudung in Gebäuden hingewiesen. In zwei Sendungen mit dem Titel „Der Sonne eine Chance“ habe ich alles vorweg genommen, was Jahre später von den Grünen-Ideologen aufgegriffen wurde. Allerdings in einer sehr stümperhaften Weise. Damals machte die Co2-Abgabe in die Atmosphäre in den Gebäuden etwa 40% aus. Aber die Heureka-Politik (wie ich sie nenne), widmet sich eher den Co2 Abgaben im Verkehr und populistisch wurde das Augenmerk auf den Auspuff gelegt. Man glaubte durch radikale Elektrifizierung des Verkehrs die Lösung zu finden. Dieser bewirkte aber insgesamt nur 20% Co2-Ausstoß. Hinzukam, dass ein idealer Scharlatan mit Namen Elon Musk die Idee der Elektromobilität so werbewirksam verkaufte, dass sogar die erfolgreichste deutsche Industriesparte der Automobilindustrie darauf reinfiel und aktuell im Begriff ist Selbstmord zu betreiben.
Das alles habe ich bei Facebook ausführlich meinen über 100.000 Follower vorgetragen. Erst viel später fiel dann auf, dass es ja noch den Bereich der Gebäude gab. Das einzige was einfiel war eine elektrische Wärmepumpe zu setzen, zumindest wenn es im Winter sehr kalt wird, physikalisch sehr ineffizient wird. Sie kann also auf keinen Fall das Problem lösen.
Erst Jahre später wird sich das beweisen. Lesen Sie dazu den folgenden Artikel von der Plattform „Das Hauptstadtbriefing“.
Ihr Jean Pütz
(Pioneer) – Der Gebäudesektor soll bis 2045 klimaneutral werden. So sieht es das ambitionierte Klimaschutzgesetz der ehemaligen CDU-geführten Regierung vor. Dafür setzt Klimaminister Robert Habeck vor allem auf eines: Sanieren. Deshalb hat er auch das größte Förderprogramm der Regierung, die Bundesförderung für effiziente Gebäude (BEG), aufgestellt. Volumen für 2024: 16,7 Milliarden Euro.
Den Weg zur Klimaneutralität bekräftigte zuletzt der gestern erschienene Transformationsbericht des Bundes.
Doch Habecks realpolitisches Handeln hat sich längst von seinen Zielen entkoppelt. Der Klimaminister wurde desillusioniert, wie unsere Kollegin Laura Block analysiert.
1) Ziele werden verfehlt
Um die Klimaziele in 2045 zu erreichen, müssen hier jährlich zwei Prozent des Bestands saniert werden. Bisher liegt die Quote bei 0,7 Prozent.
Ein Sanierungsbeispiel: Beim Wärmepumpengipfel 2022 beschloss die Regierung gemeinsam mit den Verbänden, die Voraussetzungen zu schaffen, damit in diesem Jahr 500.000 Wärmepumpen verbaut werden können. Bis Mitte August wurden rund 200.000 Anträge für eine Förderung gestellt.
Von den 16,7 Milliarden Euro Fördervolumen ist bisher knapp die Hälfte abgeflossen.
2) Boom fällt aus
Die Bundesregierung rechnet für das Jahr 2025 mit einer kleinen Sanierungsflaute. Das Wirtschaftsministerium hat daher die Mittel für die BEG um 2,4 Milliarden Euro gekürzt.
Es sei „deutlich geworden, dass ein höherer Anteil von Vorhaben deutlich langsamer realisiert wird als ursprünglich angenommen und dass der Anteil an Stornierungen ebenfalls angestiegen ist“, sagt das Wirtschaftsministerium auf Anfrage.
Mit seinem Versprechen, trotzdem weiterhin alle Anträge genehmigen zu wollen, unterstreicht Habeck seine Erwartung: Es werden sowieso nicht viele Anträge gestellt.
3) Sparbetrag könnte größer sein
Der Einbruch bei den Anträgen könnte im kommenden Jahr sogar noch größer ausfallen. Denn: Der Klima- und Transformationsfonds (KTF), der das Förderprogramm des Bundes finanziert, sieht eine Globale Minderausgabe in Höhe von neun Milliarden Euro vor. Das heißt: Irgendwo muss noch gespart werden.
Sehr wahrscheinlich betrifft das auch die BEG-Gelder. Denn diese machen rund 62 Prozent der Gesamtausgaben aus.
Es sei grotesk, dass die Ampel ausgerechnet bei der BEG so viel Geld spart, sagt Axel Gedaschko, Präsident des Spitzenverbands der deutschen Wohnungswirtschaft. Er sagt uns: „Wenn die Mittel abgesenkt werden, hat das natürlich zur Folge, dass dann nicht mehr in dem Stile saniert werden kann, wie es eigentlich vom Bund erhofft wird.“
Spätestens mit der CO2-Preis-Steigerung würden sich Eigentümer Gedanken über eine energetische Sanierung machen, so Gedaschko. „Das bedeutet dann entweder, Programm stoppen, oder so verändern, dass für den einzelnen Förderfall weniger Geld aufgewendet wird.“
Fazit: Das Klimaministerium glaubt an die Sache, aber nicht an ihr Ziel. Dem Klima hilft das nicht.