Alle Beiträge von Minge

Geheimnis der inneren Uhr endlich gelüftet

(pte) – Forscher der Duke-NUS Medical School und der University of California Santa Cruz haben das Geheimnis zur Regulierung der inneren Uhr des Menschen gelüftet. Demnach befindet sich dieser Regulator direkt am Ende von Casein Kinase 1 delta (CK1δ). Dabei handelt es sich um ein Protein, das als Schrittmacher für unsere innere biologische Uhr oder den natürlichen zirkadianen Rhythmus agiert, der den Schlaf-Wach-Rhythmus kontrolliert. Die im „PNAS“ veröffentlichten Ergebnisse könnten den Weg für neue Ansätze zur Behandlung von Krankheiten ebnen, die mit der inneren Uhr in Zusammenhang stehen.

Geringfügige Unterschiede

CK1δ reguliert die zirkadianen Rhythmen, indem es andere Proteine, die bei der inneren Uhr eine Rolle spielen, identifiziert und so das Timing dieser Rhythmen genau abstimmt. Zusätzlich zur Modifizierung anderer Proteine kann auch CK1δ selbst markiert werden und so seine Fähigkeit zur Regulierung der Proteine, die beim Betrieb der inneren Uhr eine Rolle spielen, verändern.

Frühere Studien hatten bereits zwei unterschiedliche Versionen von CK1δ, die Isoforme δ1 und δ2, identifiziert, die sich nur durch 16 Aminosäuren am Ende des Proteins, dem sogenannten Schwanz, unterscheiden. Diese geringfügigen Unterschiede wirken sich jedoch maßgeblich auf die Funktion von CK1δ aus. Bekannt war auch, dass eine Markierung dieser Proteine dazu führt, dass ihre Fähigkeit zur Regulierung der inneren Uhr abnimmt. Nun ist bekannt, wie das genau vonstatten geht.

Mittels Advanced-Spectroscopy- und Spektrometrie-Techniken konnten die Forscher auf diese Enden der Proteine zoomen und herausfinden, dass die Art und Weise, wie diese Proteine markiert werden, von ihren ausgeprägte Schwanzsequenzen bestimmt wird. Laut der korrespondierenden Autorin Carrie Partch von der University of California Santa Cruz verweisen die neuen Ergebnisse auf drei spezifische Bereiche am Schwanz von CK1δ, wo sich Phosphatgruppen anbinden können.

Diese Stellen sind für die Kontrolle der Aktivität des Proteins von entscheidender Bedeutung. Werden diese Punkte mit einer Phosphatgruppe markiert, wird CK1δ weniger aktiv. Das bedeutet, dass es die innere Uhr nicht mehr so wirksam beeinflussen kann. Laut David Virshup, der sich seit Jahrzehnten mit diesem Protein beschäftigt, gibt es jetzt endlich eine Antwort auf die Frage, die die Forschung sehr mehr als 25 Jahren beschäftigt hat.

CK1δ von großer Bedeutung

Der co-korrespondierende Autor hat nachgewiesen, dass der δ1-Schwanz umfassender mit dem Hauptteil des Proteins interagiert. Das führe zu einer größeren Selbsthemmung von δ2 und bedeute, dass das Isoform δ1 strenger von seinem Ende her kontrolliert wird als δ2. Mutieren diese Stellen oder werden sie entfernt, wird δ1 aktiver. Das führe zu Veränderungen der zirkadianen Rhythmen. Im Gegensatz dazu verfügt δ2 von seinem Schwanz her nicht über die gleiche regulierende Wirkung.

Damit ist nachgewiesen, wie ein kleiner Teil von CK1δ seine gesamte Aktivität beeinflussen kann. Diese Selbstregulierung ist für den Erhalt einer ausgewogenen Aktivität von CK1δ von entscheidender Bedeutung, die wiederum dabei hilft, den zirkadianen Rhythmus zu kontrollieren.

CK1δ spielt jedoch bei vielen anderen Vorgängen im Körper ebenfalls eine fundamentale Rolle. Dazu gehören die Zellteilung sowie das Entstehen von Krebs und bestimmter neurodegenerativer Erkrankungen. Also könnten diese Forschungsergebnisse zu neuen Behandlungsansätzen für eine ganze Reihe von Krankheiten beitragen.

Kirigami revolutioniert unter anderem Antennen für Mobilfunk im Mikrowellenbereich

(pte) – Forscher der Drexel University und der University of British Columbia nutzen zur Entwicklung moderner Hochleistungsantennen die alte japanische Kunst des Schneidens und Faltens von Papier, Kirigami. Ziel hierbei ist die Herstellung komplizierter 3D-Designs als Vorlage für beispielsweise neue Mobilfunkantennen.

MXene-Tinte auf Zellulose-Azetat

Die Experten haben bereits demonstriert, wie aus einem Blatt Zellulose-Azetat – also einer durchsichtigen Folie, die mit einer leitfähigen Tinte auf MXene-Basis versehen ist – mit Kirigami-Technik eine flexible 3D-Antenne für Mikrowellen entsteht. Deren Übertragungsfrequenz lässt sich einfach durch Ziehen oder Zusammendrücken an die jeweilige Aufgabe anpassen.

„Damit die drahtlose Technologie Fortschritte in Bereichen wie der Softrobotik sowie der Luft- und Raumfahrt ermöglicht, müssen Antennen für eine abstimmbare Leistung und eine einfache Herstellung ausgelegt sein. Kirigami ist ein natürliches Modell für einen Fertigungsprozess, da sich komplexe 3D-Formen aus einem einzigen 2D-Materialstück einfach erstellen lassen“, so Yury Gogotsi von der Drexel-Ingenieurschule.

Mikrowellenantennen können bisher elektronisch oder durch Änderung ihrer Form neu konfiguriert werden. Das Hinzufügen der erforderlichen Schaltkreise zur elektronischen Steuerung einer Antenne erhöht jedoch ihre Komplexität. Die Antenne wird sperriger, anfälliger für Fehlfunktionen und teurer in der Herstellung. Die Kirigami-MXene-Technik überwindet diese Nachteile, heißt es.

Breites Anwendungsfeld für MXene

MXene sind eine Familie von 2D-Nanomaterialien, die Drexel-Forscher bereits 2011 entdeckt haben. Ihre physikalischen und elektrochemischen Eigenschaften lassen sich durch geringfügige Änderung ihrer chemischen Zusammensetzung an die jeweiligen Aufgaben anpassen.

MXene wurden in den vergangenen zehn Jahren häufig für Anwendungen eingesetzt, die Materialien mit präzisem physikalisch-chemischem Verhalten erfordern, wie elektromagnetische Abschirmung, Biofiltration, Energiespeicherung und der Telekommunikation. Die Kirigami-Antennen erwiesen sich als wirksam bei der Übertragung von Signalen in drei oft genutzten Mikrowellenfrequenzbändern: zwei bis vier, vier bis acht und acht bis zwölf Gigahertz, die auch für den Mobilfunk genutzt werden.

Leichtsinn führt zu großen Gefahren in der IT-Sicherheit

(pte) – Nicht nur das Risikoempfinden der Deutschen in Bezug auf Cyber-Gefahren ist im Vergleich zu 2021 um zwölf Prozentpunkte gesunken. Laut dem neuen Report des IT-Security-Spezialisten G Data hat auch die Wissenskompetenz im Umgang damit im gleichen Zeitraum um sieben Punkte eingebüßt.

IT-Abteilungen gefordert

Der Studie zufolge variiert die Wahrnehmung von IT-Sicherheit stark zwischen dem privaten und beruflichen Umfeld. Während das Sicherheitsgefühl im privaten Umfeld gegenüber 2021 um rund acht Prozentpunkte gesunken ist, hat es im beruflichen Bereich lediglich um einen Prozentpunkt abgenommen.

Dieser Unterschied deutet laut den Experten darauf hin, dass viele Berufstätige den Irrglauben haben, dass die Verantwortung für IT-Sicherheit allein bei der IT-Abteilung liegt. Gleichzeitig sähen sich dieselben Personen im privaten Umfeld gezwungen, selbst aktiv zu werden. Diese unterschiedliche Wahrnehmung sei problematisch.

„Jeder muss Beitrag leisten“

G Data sieht folglich eine gefährliche Lücke in der IT-Sicherheit am Arbeitsplatz, die aus der mangelnden persönlichen Verantwortung und Sensibilisierung für Cyber-Bedrohungen entsteht. „Es ist entscheidend, dass jeder Einzelne erkennt, dass er einen aktiven Beitrag zur IT-Sicherheit leisten muss, um gegen Cyber-Bedrohungen gewappnet zu sein“, heißt es.

Meilenstein in der Abbildung von Krebsgewebe auf Molekularer Ebene

(HZDR) – Das Institut für Radiopharmazeutische Krebsforschung am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) entwickelt Radiotracer als radioaktive Arzneimittel für die klinische Anwendung. Der Freistaat Sachsen fördert nun über Mittel aus dem Europäischen Fonds für regionale Entwicklung sowie mit Steuermitteln des Landes Sachsen den Kauf eines für Kleintierstudien geeigneten simultanen PET/MRT-Scanners. Als Teil des Projekts „GliaRPET“ wollen die HZDR-Forscher*innen mit dem Gerät am Leipziger Standort die präzise Bildgebung von Gehirntumoren auf molekularer Ebene mittels Positronen-Emissions-Tomographie (PET) und Magnetresonanztomographie (MRT) verbessern. Das soll langfristig die translationale Entwicklung neuer Radiopharmaka voranbringen.
Strukturelle Informationen, wie etwa hochauflösende anatomische Bilder von Tumoren und seiner Metastasen, verbunden mit der Radiotracer-basierten Darstellung des Tumormikromilieus auf molekularer Ebene: Das ist notwendig, um zu beurteilen, wie gut Radiotracer, also radioaktive Moleküle, bei Hirntumorpatient*innen für die molekulare Bildgebung geeignet sind. Essentiell sind diese Informationen für Prof. Klaus Kopka, Direktor des Instituts für Radiopharmazeutische Krebsforschung, denn: „Unser Ziel ist, geeignete Radiotracer als radioaktive Arzneimittel zu entwickeln und sie in die nuklearmedizinische Praxis zu überführen.“
Zum Einsatz kommen die Radiopharmaka im Kampf gegen Krebs zum einen in der nicht-invasiven nuklearmedizinischen Diagnostik, zum anderen in der Therapie von primären und sekundären Hirntumoren. Doch die genaue Anreicherung von Radiotracern und die unterschiedlichen molekularen Stoffwechselvorgänge sind im Gewebe bei Kleintieren wie Ratten und Mäusen oft nur schwer zu erkennen. Deshalb braucht es möglichst eine hochauflösende Bildgebung.
Klaus Kopka und sein Team konnten dafür nun über den Europäischen Fonds für regionale Entwicklung (EFRE InfraProNet 2021-2027) Mittel für den Kauf eines für Kleintierstudien geeigneten kryogen-freien simultanen 7-Tesla-Hochfeld-MRT/PET-Scanners und dessen Einbau in die Forschungsinfrastruktur am HZDR-Standort in Leipzig einwerben. Rund 2,7 Millionen Euro kostet das Gerät, das nun produziert und auf die speziellen Ansprüche der HZDR-Forschenden angepasst wird. In spätestens zwei Jahren soll es in Betrieb gehen. Das Forschungsteam will über das Hightech-Gerät unterschiedlichste Techniken der modernen Bildgebung bündeln.
Deutschlandweit einmaliger Scanner
So können die Forschenden mit dem Gerät künftig die anatomische und die molekulare In-vivo-Bildgebung simultan und nicht wie bisher nacheinander durchführen. Das ermöglicht ihnen, die Verteilung der Radiopharmaka mittels PET- bei gleichzeitiger MRT-Bildgebung zu verfolgen und bei mehreren Tieren gleichzeitig und in kürzeren Intervallen zu messen. Dadurch verkürzen sich die Scan-Zeiten und die Forschungsarbeit wird deutlich effizienter: Tumortragende Kleintiere werden in Studien wesentlich geringer belastet, Forschungspersonal weniger zeitlich beansprucht.
Hinzu kommt, dass die MRT-Komponente eine Magnetfeldstärke von 7 Tesla aufweist. Dadurch liegt es deutlich über der gängigen Magnetfeldstärke von 3 Tesla, mit der Geräte in Kliniken üblicherweise ausgestattet sind. „Das ermöglicht uns neben einer besseren anatomischen Auflösung eine funktionelle MRT-Bildgebung und die Darstellung Tumor-spezifischer Stoffwechselvorgänge mittels In-vivo-Magnetresonanzspektroskopie“, erklärt Daniel Gündel. Dank des in dieser Kombination deutschlandweit einmaligen Scanners werden sich beispielsweise Tumore und Metastasen im Gehirn der Kleintiere schon in sehr frühen Stadien erkennen lassen.
Außerdem besitzt das Scangerät eine PET- sowie eine Einzelphotonen-Emissions-Computertomographie (SPECT)-Komponente. „Insgesamt sind wir damit auf dem aktuellsten Stand der Technik, um multimodale nichtinvasive Bildgebungstechniken an experimentellen Tiermodellen von Hirntumoren durch den Einsatz neuartiger Radiotracer durchzuführen“, sagt Dr. Daniel Gündel, der als Biologe am HZDR-Standort Leipzig auf dem Gebiet der Radiotracer-basierten Kleintierbildgebung forscht.
Grundlage für internationale Kooperationen
„Für uns ist das Kleintier-7T MRT/PET-Gerät ein Meilenstein, denn dadurch wird das HZDR auf dem Gebiet der radiopharmazeutischen Krebsforschung national und international sehr kompetitiv“, bilanziert Klaus Kopka. Anspruch sei zudem, noch mehr internationale Kooperationen initiieren zu können. Profitieren soll von dem modernen Scangerät die neue Professur „Experimentelle Neuroonkologische Radiopharmazie“, die derzeit gemeinsam mit der Universität Leipzig berufen wird.
Das strategisch ausgerichtete Vorhaben „GliaRPET“ werde damit zur wesentlichen Voraussetzung für anspruchsvolle multimodale Bildgebungsstudien in tierexperimentellen Hirntumormodellen. Die Ergebnisse der präklinischen MRT/PET-Studien sollen künftig gemeinsam mit Projektpartnern, wie der Universität Leipzig oder dem Nationalen Zentrum für Strahlenforschung in der Onkologie – OncoRay, in die bildgeführte Strahlentherapie übertragen werden.

Weichmacher beeinträchtigen Gehirnfunktion

(pte) – Die beiden Weichmacher DEHP und DINP haben negative Auswirkungen auf die normale Hirnfunktion von Wirbeltieren. Zu dem Schluss kommen Forscher der Universität Bayreuth. Diese Chemikalien werden beispielsweise in PVC, Farben und Kosmetika verwendet. Details sind in „Ecotoxicology and Environmental Safety“ nachzulesen.

Blut-Hirn-Schranke passiert

DEHP beeinträchtigt die Entwicklung und Fortpflanzung, weshalb er an vielen Stellen bereits durch die bisher als sicherer geltende Alternative DINP ersetzt wurde. Nun zeigt sich, dass DEHP zusätzlich die Blut-Hirn-Schranke beeinträchtigt. Diese schützt das Gehirn vor Erregern oder Giftstoffen im Blut. Die Experten warnen daher vor einer Gefahr auch für Erwachsene.

Die Fachleute haben Goldfische vier Wochen lang einer umweltrelevanten Konzentration von Weichmachern ausgesetzt. Anschließend haben sie die Auswirkung von DEHP respektive DINP auf das Gehirn am Mauthner-Neuron – der größten Nervenzelle im Stammhirn von Fischen – untersucht. Das Mauthner-Neuron ist für entsprechende Messungen zugänglich und bekommt Input aus einer Vielzahl von Sinnessystemen, weshalb es sich für die Untersuchung anbietet.

„Ergebnisse sind alarmierend“

„Die Ergebnisse unserer Studie sind alarmierend und mit einiger Vorsicht auch übertragbar auf den Menschen. Grundlegende Funktionen des Gehirns, wie Nervenzellen Information verarbeiten und weiterleiten sowie die Übertragung von Information von einer Nervenzelle auf die andere laufen bei Fischen nicht anders ab als beim Menschen. Und hier finden wir Effekte der Weichmacher-Exposition“, sagt der Bayreuther Wissenschaftler Peter Machnik.

Laut den Messungen am Mauthner-Neuron der Fische reduzieren sowohl DEHP als auch DINP die Leitungsgeschwindigkeit der Nervenzelle um 20 Prozent. Auch wurden negative Folgen auf die Verbindung zwischen den Nervenzellen – die Synapsen – und damit auf die Übertragung der Erregung von einer Nervenzelle auf die andere festgestellt. Zudem wurden Hinweise darauf gefunden, dass beide Weichmacher die visuelle Wahrnehmung der Fische beeinträchtigen.

Alkohol als Speichermedium: Power-to-Methanol könnte zu einem Standbein der Energiewende werden

(HZDR) – Effiziente Speichertechnologien sind eine tragende Säule eines regenerativen Energiesystems, um überschüssigen Strom zwischenzuspeichern. Methanol könnte in diesem Zusammenhang eine wichtige Rolle zukommen. Die große Frage dabei ist, wie sich solche Power-to-Methanol-Systeme in eine künftige Infrastruktur der Erneuerbaren integrieren und wirtschaftlich betreiben lassen. Eine Antwort darauf hat Dr. Stefan Fogel vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR) durch aufwendige Modellierung und umfangreiche Simulationen während seiner Dissertation gefunden.
Die unstete Verfügbarkeit von Sonne und Wind stellt ein zukünftiges Energiesystem, das auf erneuerbaren Quellen beruht, vor große Herausforderungen. Herrschen beste Wetterbedingungen, wird mitunter mehr Strom generiert, als das Netz abnehmen kann. Damit die Anlagen dann nicht gedrosselt werden müssen, sind kluge Speicherlösungen gefragt. Eine davon könnte Power-to-Methanol sein. Mit dieser wird Überschussstrom aus Solaranlagen oder Windparks zuerst in Wasserstoff und dann zusammen mit Kohlendioxid-Emissionen aus Industrieprozessen in den einfachsten Vertreter der Alkohole umgewandelt.
„Methanol ist ein sehr guter Energiespeicher und hat auf das Volumen bezogen im Vergleich zu Wasserstoff eine viel höhere Energiedichte“, sagt Dr. Stefan Fogel vom HZDR-Institut für Fluiddynamik. „Als Flüssigkeit lässt es sich auch wesentlich einfacher transportieren und speichern.“ Das macht den Alkohol einerseits zu einem idealen Speichermedium. Andererseits ist er aber auch ein wichtiger Grundstoff in der Chemieindustrie. Wie sich der Herstellungsprozess aber in ein regeneratives Energiesystem integrieren lässt, ist noch nicht umfassend erforscht.
„Arbeiten zur stationären und dynamischen Modellierung und Simulation von Power-to-Methanol-Prozessen auf Basis von Hochtemperatur-Elektrolyseuren sind in der wissenschaftlichen Literatur bisher stark unterrepräsentiert“, erklärt der Chemieingenieur. „Gleiches gilt für deren wirtschaftliche Bewertung.“ Deshalb hat sich Fogel für seine Arbeit auf eben jene Elektrolyse-Systeme fokussiert, die bei Betriebstemperaturen über 600 Grad Celsius reinen Wasserstoff erzeugen. Dieser wird ohne weiteren Separationsaufwand direkt in der Synthesestufe genutzt. Das ist effizienter als die heute etablierten Technologien wie zum Beispiel die alkalische Elektrolyse.
Digitaler Zwilling zeigt Potentiale auf
Den digitalen Zwilling, den er dabei vom Power-to-Methanol-System modelliert hat, nutzte er für umfassende Simulationen. „Ich habe mir angeschaut, was passiert, wenn man das System dynamisch betreibt“, geht er ins Detail. Die Frage ist besonders im Hinblick auf regenerative Energien essentiell. Denn heutige Elektrolyseure werden üblicherweise für einen Betrieb rund um die Uhr ausgelegt. Doch dezentral an einem Windpark oder einer Photovoltaik-Anlage angeschlossen, würden die Systeme nur in Zeiten von Energieüberschuss arbeiten. Das bringt einerseits technische Herausforderungen mit sich, beeinflusst aber andererseits auch wesentlich die Kosten für das produzierte Methanol. „Dabei hat sich gezeigt, dass man einen solchen Prozess durchaus flexibilisieren kann“, erläutert Fogel. „Es wäre in Zukunft also möglich, eine Power-to-Methanol-Anlage mit einer Photovoltaik- oder Windkraft-Anlage zu koppeln, im Teillastbetrieb zu fahren und trotzdem kompetitive Produktionskosten zu erzielen.“
Dass man von diesem Punkt heute allerdings noch weit entfernt ist, zeigt seine techno-ökonomische Bewertung der aus den Simulationen gewonnenen Daten. Denn die ergab, dass die Kosten für das Methanol unabhängig von den Prozessverschachtelungen und den eingesetzten Technologien aktuell nicht konkurrenzfähig sind. Das liegt in erster Linie daran, dass fossile Rohstoffe durch die über Jahrzehnte aufgebaute Infrastruktur heute noch konkurrenzlos billig sind. „Durch die Elektrolyse-Technologie entstehen massive Kapitalkosten für die Investitionen in diese Anlagen“, weiß Fogel. „Bis zu 70 Prozent der Kosten entfallen auf die Investition. Die eigentlichen Produktionskosten sind am Ende gar nicht so hoch.“
Das sieht der Forscher allerdings nur als vorübergehende Phase an, die jede neue Technologie durchlaufen müsse. Denn sollte der Markt für Power-to-Methanol in den kommenden Jahren hochlaufen, würden Skaleneffekte die Kosten reduzieren. „Ich habe in meiner Arbeit auch untersucht, wie sich das Thema in den kommenden 20 Jahren entwickeln könnte“, betont der Chemieingenieur. Dazu führte er eine umfangreiche Literaturrecherche durch und projizierte die Kosten in die Zukunft. Das Ergebnis: Es wird eine drastische Kostenreduktion geben. „Im Jahr 2050 könnten wir mit dem Power-to-Methanol-Prozess den Punkt erreicht haben, an dem wir mit den fossilen Energieträgern gleichauf liegen.“
Für seine Dissertation erhielt Dr. Stefan Fogel den Franz Stolze-Preis 2024. Mit dieser Auszeichnung würdigt die TU Dresden herausragende wissenschaftliche Abschlussarbeiten von Studierenden und jungen Wissenschaftler*innen auf dem Gebiet der Energietechnik.

Umweltschonende Lithiumgewinnung

(pte) – Mit einer neuen Technologie lässt sich Lithium mit einer Kostenersparnis von 60 Prozent gegenüber heutigen Techniken gewinnen. Außerdem ist das von Wissenschaftlern der Stanford University entwickelte Verfahren deutlich umweltverträglicher, weil damit weniger Wasser, Chemikalien und Land verbraucht werden als bisher üblich. Allerdings funktioniert es nur mit Thermalwässern (Sole), die Lithium enthalten. Die Forschungsergebnisse erschienen vor Kurzem im Fachjournal „Matter“.

„Potenzieller Wendepunkt“

„Die unserem Ansatz innewohnenden Effizienz- und Kostenvorteile machen ihn zu einer vielversprechenden Alternative zu derzeitigen Extraktionstechniken und zu einem potenziellen Wendepunkt in der Lithiumversorgungskette“, erläutert der leitende Forscher Yi Cui. Das Forschungsteam schätzt, dass sein Ansatz 3.500 bis 4.400 US-Dollar pro Tonne hochreines Lithiumhydroxid kostet, das kostengünstig in Lithiumcarbonat in Batteriequalität umgewandelt werden kann – verglichen mit etwa 9.100 Dollar pro Tonne für die vorherrschende Technologie zur Gewinnung von Lithium aus Sole. Die Produktion von Lithium aus Gestein ist noch weitaus teurer und umweltschädlicher.

Heutzutage wird Lithium aus Sole gewonnen, indem das Wasser verdampft wird, ein energieaufwändiger Prozess. Alternativ kann die Sole auch durch Umweltwärme eingedickt werden, doch das dauert Monate. Cui und sein Team setzen dagegen auf ein Elektrolyseverfahren, ähnlich dem zur Spaltung von Wasser in Wasser- und Sauerstoff. Als Energielieferant soll grüner Strom dienen, sodass der Prozess weitgehend klimaneutral abläuft. Dabei wird der Lithiumgehalt der Sole durch Abspalten von Wasser in mehreren Schritten drastisch erhöht.

Nebenprodukt der Geothermie

Wasser mit einer hohen Konzentration an Salzen, einschließlich Lithium, kommt in der Natur in einigen Seen, heißen Quellen und Grundwasserleitern sowie als Nebenprodukt bei der Erdöl- und Erdgasförderung und der Meerwasserentsalzung vor, außerdem in der Sole, die zur Nutzung von Erdwärme zu Heizzwecken und zur Stromerzeugung aus dem Untergrund gefördert wird. Experimentell wurde dieses Wasser auch in Deutschland schon genutzt, um Lithium zu gewinnen, allerdings nicht mit einem Elektrolyseverfahren.

Lithium spielt eine entscheidende Rolle für die Bekämpfung des Klimawandels. Einem Bericht der Unternehmensberatung McKinsey zufolge wird die Nachfrage nach Lithium von etwa einer halben Mio. Tonnen im Jahr 2021 auf drei bis vier Mio. Tonnen 2030 steigen. Der starke Zuwachs ist vor allem auf die Einführung von Elektrofahrzeugen und Systemen zur Speicherung erneuerbarer Energien zurückzuführen, die beide auf Batterien angewiesen sind. Angesichts des zunehmend schleppenden Absatzes von E-Autos dürfte der Bedarf zwar nicht ganz so rasant steigen, dennoch bleiben klimaschonende Gewinnungstechniken für Lithium extrem wichtig.

Neues Kühlsystemen auf Basis eines physikalischen elastokalorischen Effekts

(pte) – 48 Prozent effektiver als heutige Geräte ist ein Kühlsystem, das Forscher der Ingenieursschule an der Hong Kong University of Science and Technology (HKUST) entwickelt haben. Während andere Anlagen ein Kältemittel benötigen, das im ungünstigen Fall klimaschädlich ist, kommt das HKUST-Gerät ganz ohne ein solches aus. Es basiert auch nicht auf Kompression und Dekompression, sondern auf einem elastokalorischen Effekt. Ihre Forschungsergebnisse haben die Wissenschaftler vor Kurzem im Fachjournal „Nature Energy“ veröffentlicht.

Für Klimatisierung nutzbar

Wenn ein Material wie Nitinol, eine Nickel-Titan-Legierung, mechanischem Druck ausgesetzt und verformt wird, kommt es zur kristallinen Phasenumwandlung, wobei sich das Material erwärmt. Die entstehende Wärme wird über eine Wärmesenke, etwa Wasser, abgeführt, sodass das sogenannte Gedächtnismaterial sich an seine ursprüngliche Form erinnert, diese wieder einnimmt und wieder auf die Ausgangstemperatur abkühlt. Wird nun das Kraftfeld entfernt, so verringert sich die Ordnung und das Material kühlt auf einen Wert unterhalb der Ausgangstemperatur ab. Diese lässt sich zum Klimatisieren nutzen.

Dieser Effekt ist zwar schon länger bekannt, ließ sich bisher jedoch nicht in der Praxis nutzen. Die Temperaturdifferenzen waren zu gering und damit die Kühlleistung. Dieses Problem hat das Team um Sun Qingping und Yao Shuhuai gelöst, indem es mehrere dieser Systeme kaskadenförmig hintereinanderschaltete. Die erste Temperatursenkung des ersten Geräts reduzierte das nachfolgende, bis eine ausreichende Differenz erreicht war. Die Wärmesenke (Wasser) konnte so um 75 Grad erhöht werden, die sich anderweitig nutzen lassen, etwa zur Erwärmung von Brauchwasser.

Bald leistungsfähigere Legierungen

Darauf aufbauend arbeitet das Forscherteam jetzt an der Entwicklung von Hochleistungs-Formgedächtnislegierungen, die noch effektiver sind und die Kühlleistung verbessern, um die Kommerzialisierung dieser innovativen Technologie voranzutreiben. Umgekehrt lässt sich das System auch als Wärmepumpe zum Heizen einsetzen, die beispielsweise Erdwärme auf ein höheres Temperaturniveau bringt. An dieser Entwicklung arbeitet das Fraunhofer-Institut für Physikalische Messtechnik (IPM) in Freiburg.

Raumkühlung und -heizung machen 20 Prozent des weltweiten Stromverbrauchs aus, Tendenz steigend angesichts des Klimawandels. „Wir sind zuversichtlich, dass die elastokalorische Kältetechnik dank der kontinuierlichen Fortschritte in der Materialwissenschaft und im Maschinenbau in Zukunft umweltfreundliche und energieeffiziente Kühl- und Heizlösungen der nächsten Generation bereitstellen kann, um den riesigen weltweiten Kältemarkt zu versorgen und die dringende Aufgabe der Dekarbonisierung und der Eindämmung der globalen Erwärmung anzugehen“, resümiert Sun.

KI steigert Bedeutung von Digitalkompetenz & kritischem Denken – Mit einer Einführung von Jean Pütz

Diese Presseinformation der Universität Hohenheim gebe ich mit Bedenken weiter. Denn in letzter Zeit wird der KI Eigenschaften zugewiesen als ob sie zu allem fähig sei. Da wird von Digitalkompetenz gesprochen, die demnächst jeder beherrschen müsste.

Aus der Sicht der Forscher ist dieser Wunsch durchaus verständlich. Allerdings möchte ich einige Bedenken anmerken:
Ich bin fest davon on überzeugt, dass die Masse der Menschen völlig überfordert ist und sich eine Art Herrenrasse herausbildet, die nach dem Motto „Big-Brother is Watching you“ eine ungeheure Macht erhält. Die Anwendungen von KI können vieles erleichtern, aber die Nebenwirkungen und Risiken müssen auch berücksichtigt werden, weil eine Gegenbewegung zu erwarten ist.

Wenn die Bürger sich überfordert fühlen, dann haben Verschwörungstheorien die Oberhand gewinnen. Schon heute entfernt sich unsere Demokratie von der Logik und ein engagierter Abgeordneter in den Parlamenten hat mit seiner Vernunft kaum mehr Chancen. Denn auf den Populismus setzende Kollegen laufen ihm den Rang ab. So sehe ich auch die heutige Überhandnahme vor Irrationalität in politischen Entscheidungen und viele Entscheidungen werden wider besseren Wissens geschaffen. Gegen die Mehrheit beruht unsere Demokratie entstehen Gesetze die mit Rationalität nichts mehr zu tun haben. Die Wissenschaft hat einen Turm zu Babel gebaut, mit Einsichten in die früher verborgenen Geheimnisse menschlichen Lebens der Gefahr läuft unbeherrschbar zu werden.

Ihr Jean Pütz

(Uni Hohenheim) – Künstliche Intelligenz (KI) verändert die Bedeutung von grundlegenden menschlichen Kompetenzen  von der Bildung über den Beruf bis hin zum privaten Leben. Zu diesem Ergebnis kommt eine Studie unter Leitung der Universität Hohenheim in Stuttgart. Danach gewinnen methodische Basiskompetenzen wie kritisches Denken und Problemlösungskompetenz stark an Bedeutung. Auch die Digitalkompetenz wird immer wichtiger, während die Relevanz von Fremdsprachenkenntnissen abnimmt. Soziale Basiskompetenzen bleiben weitgehend stabil. Ein Whitepaper fasst die Ergebnisse zusammen und gibt Empfehlungen, wie die Erkenntnisse in Bildungsprogramme und Arbeitsorganisation eingebaut werden können.

Künstliche Intelligenz beeinflusst mittlerweile sämtliche Lebensbereiche, sei es im Beruf, im privaten Umfeld oder auch in der Bildung. Sprachgesteuerte Assistenzsysteme wie Alexa, Siri und Cortana oder Computer Vision zum Entsperren von Smartphones sind nur einige Beispiele, die zu einer immer häufigeren Nutzung von KI-Systemen im Alltag führen. In jüngster Zeit finden zudem sogenannte generative KI-Systeme wie ChatGPT oder GeminiAI immer größere Verbreitung.

„Künstliche Intelligenz zieht in alle Lebensbereiche ein und verändert sie“, so Studienleiter Prof. Dr. Henner Gimpel von der Universität Hohenheim. „Dabei dient Künstliche Intelligenz derzeit vorrangig als unterstützendes Werkzeug“, erklärt der Experte. „Jedoch zeichnet sich ab, dass KI in Zukunft vermehrt Tätigkeiten zu einem großen Teil oder sogar ganz übernehmen wird. Diese neuen Möglichkeiten verändern die erforderlichen Kompetenzen von Menschen, die zunehmend mit KI zu tun haben.“

Wie verändert sich die Bedeutung von Basiskompetenzen im Zeitalter von KI? 

Doch welchen Einfluss hat dies auf die Fähigkeiten der Menschen, den zukünftigen Anforderungen gerecht zu werden? Wie sollten Bildungseinrichtungen, Arbeitgeber:innen und die Gesellschaft insgesamt auf die Veränderungen reagieren? Diesen Fragen sind Forschende vom Fachgebiet Digitales Management an der Universität Hohenheim in Zusammenarbeit mit dem Forschungsinstitut für Informationsmanagement (FIM) und dem Fraunhofer-Institut für Angewandte Informationstechnik (FIT) nachgegangen.

Ihr Augenmerk galt den sogenannten Basiskompetenzen, die oft auch als Schlüsselkompetenzen bezeichnet werden. „Gemeint ist damit eine Kombination aus Fertigkeiten, Wissen und Einstellungen, die zur Erfüllung einer bestimmten Aufgabe oder Aktivität erforderlich sind“, erläutert Dr. Julia Lanzl von der Universität Hohenheim. „Diese Kompetenzen decken alle Lebensbereiche ab und können in vielen verschiedenen Zusammenhängen eingesetzt werden. Gleichzeitig bilden sie die Grundlage für die Entwicklung weiterer spezifischer, kontextbezogener Fähigkeiten.“

„Damit sich Bildungseinrichtungen, Arbeitgeber:innen und Individuen auf die Veränderung einstellen können, müssen sie wissen, wie sich die Bedeutung einzelner Basiskompetenzen durch KI verändern wird“, sagt Frederik Schöttl, Doktorand im Fachgebiet Digitales Management. „Ein gutes Prognose-Tool ist eine sogenannten Delphi-Studie, bei der die Befragten immer wieder mit den Einschätzungen der anderen Teilnehmenden konfrontiert werden und diese bewerten.“ So entstand ein Meinungsbild von 34 Expert:innen aus Wissenschaft und Praxis, die sich entweder innerhalb der Forschung oder dem individuellen Beruf intensiv mit Kompetenzen und/oder KI beschäftigt haben.

Methodische Basiskompetenzen gewinnen an Bedeutung

Demnach werden methodische Basiskompetenzen wie kritisches Denken, Entscheidungskompetenz, analytisches Denken und Problemlösungskompetenz durch die zunehmende Nutzung von KI an Wichtigkeit gewinnen. „KI kann viele Aufgaben automatisieren, aber die Fähigkeit, komplexe Probleme zu lösen und kritisch zu hinterfragen, bleibt eine menschliche Domäne“, analysiert Frederik Schöttl die Studienergebnisse. „Die Menschen müssen in der Lage sein die Ergebnisse von KI-Systemen auf ihre Korrektheit und Glaubwürdigkeit zu prüfen. Aufgrund der ‚Black-Box‘-Natur vieler KI-Systeme und der generativen KI-Technologien wird besonders das kritische Denken immer wichtiger.“

Steigende Relevanz von Digitalkompetenzen, aber Fremdsprachen weniger wichtig

Eine zunehmende Bedeutung zeigt sich auch bei der Digitalkompetenz: „In einer von KI geprägten Welt ist es unerlässlich, digitale Technologien zu verstehen und anzuwenden“, sagt Prof. Dr. Gimpel. „Die Fähigkeit digitale Werkzeuge und Technologien effektiv zu nutzen, wird in nahezu allen Lebensbereichen unerlässlich. Dies könnte bedeuten, dass die Digitalkompetenz in Zukunft spezialisierter und die Fähigkeit zur KI-Nutzung zu einer eigenständigen Kompetenz wird.“

Die Expert:innen in der Studie kommen jedoch auch zu dem Schluss, dass Fremdsprachenkenntnisse an Bedeutung verlieren. „KI-Technologien sind zunehmend in der Lage, Übersetzungen und sprachliche Kommunikation zu übernehmen, wodurch der Bedarf an traditionellen Fremdsprachenkenntnissen sinkt“, so Mike Possin, wissenschaftliche Hilfskraft. „Nichtsdestoweniger ist es aktuell immer noch nötig, das Ergebnis einer KI-generierten Übersetzung zu überprüfen.“

Soziale Basiskompetenzen bleiben weitgehend unbeeinflusst

Soziale Basiskompetenzen wie Fähigkeit zur Empathie, Kommunikation und Zusammenarbeit bleiben weitgehend stabil in ihrer Bedeutung. „Menschliche Interaktionen sind nur in geringem Maße durch KI ersetzbar“, erklärt Dr. Lanzl. „KI kann hier zwar in einigen Aspekte unterstützen, aber echte menschliche Verbindungen und das Verständnis emotionaler und sozialer Kontexte sind zumindest bisher schwer zu automatisieren.“

Eine Ausnahme bilde die Ethik- und Kulturkompetenz: „Sie gewinnt an Relevanz, da die Notwendigkeit steigt moralische Normen und Werte im Umgang mit KI zu hinterfragen und zu überwachen.“

Handlungsempfehlungen

„Die zunehmende Verbreitung von KI erhöht die Relevanz von Basiskompetenzen – dessen sind sich die Expert:innen aus Praxis und Wissenschaft einig, die an unserer Delphi-Studie teilgenommen haben“, fasst Prof. Dr. Gimpel zusammen. „Dies unterstreicht die Notwendigkeit, nicht nur spezifische und kontextbezogene Kompetenzen zu fördern, sondern auch die grundlegenden Basiskompetenzen zu vermitteln, insbesondere im Bildungsbereich.“

Aus Sicht der Forschenden sind daher Bildungseinrichtungen, Arbeitgeber:innen und Politik gefordert, ihre Programme und Strategien anzupassen, um den Herausforderungen des KI-Zeitalters gerecht zu werden: Bildungseinrichtungen sollten in ihren Lehrplänen Basiskompetenzen stärker berücksichtigen und systematisch fördern. Soziale Basiskompetenzen sowie Ethik- und Kulturkompetenzen sind für Arbeitgeber:innen bei der Auswahl und Mitarbeiterentwicklung wichtig. Gleichzeitig sollten Schulungsprogramme einen starken Fokus auf Digitalkompetenzen und kritisches Denken legen, um auf die Zusammenarbeit mit KI-Systemen vorzubereiten.

HINTERGRUND: Delphi-Studie

Eine Delphi-Studie ist eine wissenschaftliche Methode zur Erhebung von Expertenmeinungen zu einem bestimmten Thema. Dabei werden mehrere Runden von (Online-)Befragungen durchgeführt, bei denen die Teilnehmenden zuerst auf Basis ihrer individuellen Expertise Ansichten äußern und dann mit dem anonymisierten Feedback der anderen konfrontiert werden. Ziel ist einen Konsens oder eine Konvergenz der Meinungen zu erreichen oder zumindest die Gründe für die Divergenz zu verstehen.

HINTERGRUND: DeLLFi und ABBA

Die Studie wurde durch zwei Projekte an der Universität Hohenheim ermöglicht, die digitale und analoge Lehre ideal verzahnen wollen:

Ziel von DeLLFi ist, eine kompetenzorientierte, digital unterstützte Lehre als festen Bestandteil der Lehre in Hohenheim zu etablieren. Die acht Maßnahmenpakete des Projektes „Digitalisierung entlang Lehren, Lernen und Forschen integrieren“ werden gefördert von der Stiftung Innovation in der Hochschullehre.

Ziel von ABBA ist es, Wirtschaftswissenschaftler:innen die notwendigen Kompetenzen für die Bewertung und Integration von Technologie in betriebliche Prozesse und Entscheidungen zu vermitteln. Das Projekt „AI for Business | Business for AI“ wird durch das Bundesministerium für Bildung und Forschung und mehrere beteiligte Länder gefördert.

Text: Stuhlemmer

Hilfe für Autoimmunkranke

(Uni Kiel) – Einem Forschungsteam mit Beteiligung des Exzellenzclusters PMI ist es gelungen, krankheitsverursachende T-Zellen bei Autoimmunerkrankungen aus dem Blut zu isolieren und zu analysieren.

Bei Autoimmunerkrankungen attackiert das Immunsystem fälschlicherweise körpereigene Strukturen. Einem Forschungsteam aus Kiel, Lübeck und Berlin ist es nun mit einer von ihnen entwickelten Methode gelungen, bestimmte krankmachende Immunzellen genauer zu analysieren. Dabei stellten sie fest, dass diese Zellen teilweise jahrelang in einen ruhenden Zustand wechseln können und dadurch für die bisherigen Therapieansätze unerreichbar werden. Wechseln die Zellen dann wieder in einen aktiven Zustand, bringen sie erneut weitere Immunzellen dazu die körpereigenen Strukturen anzugreifen und entfachen so die Erkrankung auf Neue. Die Ergebnisse hat das interdisziplinäre Forschungsteam unter Beteiligung zahlreicher Mitglieder des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ (PMI) vor kurzem im renommierten Fachmagazin „Immunity“ veröffentlicht.

Überraschend: Autoreaktive Immunzellen in ruhendem Zustand

Die Forschenden haben Blutproben von Patientinnen und Patienten untersucht, die eine von drei Autoimmunerkrankungen hatten, bei denen bekannt ist, gegen welche Strukturen sich das Immunsystem richtet. Mithilfe einer von ihnen entwickelten Methode (Antigen-reactive T cell enrichment, ARTE, s.u.) konnten sie aus der großen Menge verschiedener Immunzellen im Blut gezielt die seltenen autoreaktiven Immunzellen anreichern und analysieren. Das sind die Zellen, die fälschlicherweise auf körpereigene Strukturen reagieren, Entzündungen in Gang bringen und andere Immunzellen dazu veranlassen die körpereigenen Strukturen anzugreifen.

„Bisher wurde angenommen, dass diese Zellen bei Autoimmunerkrankungen chronisch aktiviert sind und so die Entzündung antreiben“, erklärt die Erstautorin Dr. Carina Saggau vom Institut für Immunologie der Christian-Albrechts-Universität zu Kiel und des Universitätsklinikums Schleswig-Holstein (UKSH), Campus Kiel. „Doch wir konnten nun zeigen, dass überraschenderweise ein Teil von ihnen in einen ruhenden Zustand ist, der in der Wissenschaft als „exhausted“, also erschöpft, bezeichnet wird, und in diesem Zustand teilweise jahrelang im Blut zirkuliert.“ Dieser ruhende Zustand ist bisher aus der Tumorforschung bekannt: In Tumoren befinden sich die Immunzellen, die eigentlich den Tumor bekämpfen müssten, in so einem Zustand und lassen den Tumor daher ungehindert wachsen.

„Bei den untersuchten Autoimmunerkrankungen vermuten wir, dass die chronische Aktivierung durch die körpereigene Struktur nach einiger Zeit zu einer Art „Notabschaltung“ führt. Der Körper braucht einen Mechanismus, um solche Zellen abzuschalten, die dauerhaft aktiviert werden“, sagt Professor Alexander Scheffold, Direktor des Instituts für Immunologie und Mitglied im Exzellenzcluster „Precision Medicine in Chronic Inflammation“ PMI. Der Immunologe hat die interdisziplinäre Forschungsarbeit gemeinsam mit dem Neuroimmunologen PD Frank Leypoldt vom Institut für klinische Chemie am UKSH, Campus Kiel, und Professor Friedemann Paul vom Experimental and Clinical Research Center der Charité, Berlin, geleitet.

Reaktivierung der ruhenden Zellen führt zu neuem Krankheitsschub

Der ruhende Zustand führt bei den Autoimmunerkrankungen jedoch auch dazu, dass diese Zellen den gängigen Therapien entgehen, die darauf abzielen das überreaktive Immunsystem zu unterdrücken. Das heißt: Häufig schlägt die Therapie an und unterdrückt die Symptome der Autoimmunreaktion, aber einige der krankmachenden T-Zellen überleben in dem ruhenden Zustand. Werden einige der ruhenden Zellen reaktiviert, vermutlich durch Infektionen oder Umweltfaktoren, können sie den gesamten Krankheitsprozess wieder anschalten. Die Betroffenen erleben einen neuen Krankheitsschub.

„Diese Beobachtung erklärt, warum derzeitige Therapien keinen dauerhaften Schutz vor Rückfällen bieten“, erklärt PD Frank Leypoldt, ebenfalls Mitglied im Exzellenzcluster PMI. „Gleichzeitig eröffnen sie neue Ansatzpunkte für gezieltere Therapien. So könnte man versuchen, mit speziell auf die ruhenden Zellen gerichteten Therapien, diese selektiv anzugreifen und so die Krankheit effektiver, nachhaltiger und präziser zu behandeln. Alternativ könnte man, basierend auf bestehenden Ansätzen aus der Tumormedizin, die Zellen reaktivieren, um sie dann besser therapeutisch zu erreichen,“ so Leypoldt weiter.

Außerdem seien die Beobachtungen wichtig für ein besseres Verständnis der zugrundliegenden Krankheitsmechanismen, betont Scheffold. „Wir haben die Zusammenhänge nun an drei Modellerkrankungen erstmals gezeigt. Als nächstes möchten wir untersuchen, bei welchen anderen Entzündungserkrankungen wir diesen Zustand noch finden, um besser verstehen zu können, was den verschiedenen Erkrankungen jeweils zu Grunde liegt. Nur so ist eine spezifische Therapie der jeweiligen Krankheitsursachen im Sinne einer echten Präzisionsmedizin möglich“, erklärt Scheffold.

Über die ARTE-Methode:

In einer Blutprobe reagieren nur etwa eine aus hunderttausend T-Zellen gegen das spezifische Autoantigen, also das körpereigene Molekül, gegen das sich das Immunsystem bei der Autoimmunerkrankung richtet. Um diese seltenen Zellen überhaupt untersuchen zu können, haben Prof. Petra Bacher und Prof. Alexander Scheffold vom Exzellenzcluster PMI das sogenannte „Antigen-reactive T cell enrichment“ (ARTE, Anreicherung antigenreaktiver T-Zellen) entwickelt. Das Verfahren basiert darauf, Blutzellen im Reagenzglas kurz mit dem Antigen zu konfrontieren. Antigen-spezifische T-Zellen werden so aktiviert und können anhand von „Aktivierungsmarkern“ mit Magnetpartikeln markiert werden. Über magnetische Trennsäulen, werden diese seltenen T-Zellen dann aus einer größeren Blutmenge herausfiltriert und analysiert.