Archiv der Kategorie: Klassische Medizin

Archaische Zellen helfen dem Immunsystem bei der Heilung

(pte) – Die bisher nur für Aufgaben in der Immunabwehr des menschlichen Körpers bekannten Mukosa-assoziierten invarianten T-Zellen (MAIT) lassen sich nutzen, um defektes Gewebe im Körper zu reparieren. Außerdem helfen sie bei Infektionen der Lunge, des Darms und der Haut. Das haben Forscher um Timothy Hinks von der medizinischen Fakultät der University of Oxford gemeinsam mit Kollegen des NIHR Oxford Biomedical Research Centre herausgefunden. Details wurden in „Cell Reports“ publiziert.

MAIT-Zellen auch in Tieren
„MAIT-Zellen kommen in großer Zahl in unterschiedlichen Geweben unseres Körpers vor. Man findet sie auch in Mäusen, Opossums und Beutelteufeln, einer Raubtierart, die nur noch in Tasmanien (Australien) zu finden ist. Die Zellen haben sich in den vergangenen 150 Mio. Jahren kaum verändert. Das lässt darauf schließen, dass sie eine wichtige Rolle beim der Gesunderhaltung spielen“, so Hinks.

Die bemerkenswert nützlichen Zellen wurden erst Anfang des 21. Jahrhunderts entdeckt. Anfangs war die wissenschaftliche Welt der Meinung, sie schützten vor bakteriellen Infektionen. Gemeinsam mit Kollegen der University of Melbourne fanden die Briten heraus, dass sie auch gegen virale Infekte helfen, etwa bei Grippe.

Selbstheilungskräfte aktiviert
„Jetzt haben wir eine dritte Funktion entdeckt“, sagt Paul Klenerman, der das Team in Oxford leitet. Diese sei möglicherweise noch bedeutender als die bisher bekannten. Wenn MAIT-Zellen schädliche Bakterien wittern, schalten sie Gene ein, die die Selbstheilungskräfte aktivieren, sodass sich das Gewebe generiert. „Das könnte die Erklärung dafür sein, dass diese Zellen in der Vergangenheit und heute so wichtig sind für die Gesundheit von Mensch und Tier“, so Klenermann. Er glaubt, dass diese Zellen für künftige Therapien einsetzbar sind. Sie lassen sich durch Moleküle aktivieren, die auf Vitaminen basieren und die Heilung von Krankheiten wie Hautgeschwüren und Infektionen des Darms beschleunigen könnten.

Mikroskop liefert Kinobilder aus lebenden Zellen

(pte) – Forscher der Universität Bielefel , des Leibniz-Instituts für Photonische Technologien (Leibniz-IPHT) und der Universität Jena haben eine neue Technik entwickelt, um Vorgänge in Zellen live zu beobachten. Den in „Nature Communications“ publizierten Ergebnissen nach haben die Forscher die Technik der superauflösenden strukturierten Beleuchtungsmikroskopie (SR-SIM) weiter verbessert.

Fluoreszenzmikroskopie
Bei dem fluoreszenzmikroskopischen Verfahren SR-SIM werden Objekte über ein spezielles Muster mit Laserlicht bestrahlt. Es regt besondere, fluoreszierende Moleküle in der Probe an, sodass sie Licht in einer anderen Wellenlänge wieder abgeben. Die mikroskopische Aufnahme zeigt dann dieses abgestrahlte Licht. Es wird zunächst in mehreren Einzelbildern aufgenommen und dann als hochaufgelöstes Bild auf einem Computer rekonstruiert.

Indem Team für das neue Mikroskop Parallelrechner-Verfahren auf modernen Grafikkarten einsetzt, konnte es die Bildrekonstruktion deutlich beschleunigen. Eine minimale Verzögerung von 250 Millisekunden ist den Wissenschaftlern nach für das menschliche Auge fast nicht wahrnehmbar. Auch die Rohdaten lassen sich mit dem neu erforschten Mikroskop schneller erzeugen. „Das macht es möglich, Proben schnell zu vermessen und bereits während eines Experiments Versuchsbedingungen sofort anzupassen, anstatt diese erst im Nachhinein auswerten zu können“, erklärt Rainer Heintzmann vom Leibniz-IPHT den Nutzen.

Gute Echtzeitaufnahmen
Das Verfahren wurde an biologischen Zellen getestet und die Bewegungen von Mitochondrien aufgezeichnet, den etwa einen Mikrometer kleinen Energiezentren der Zellen. „Wir konnten ungefähr 60 Einzelbilder pro Sekunde erzeugen – das ist eine höhere Bildfrequenz als bei Kinofilmen. Zwischen Messung und Bild liegen weniger als 250 Millisekunden, daher erlaubt die Technik Echtzeitaufnahmen“, ergänzt Andreas Markwirth von der Universität Bielefeld. So ließen sich Virenpartikeln auf ihrem Weg durch die Zelle untersuchen.

Umwelt und Gene beeinflussen Alzheimer-Risiko

(pte) – Mit dem sogenannten „Alzheimer’s Disease Exposome“ sollen große Wissenslücken über die Interaktion von Umweltfaktoren und genetischen Faktoren geschlossen werden, die das Erkrankungsrisiko von Alzheimer verringern oder erhöhen können. Der Vorschlag kommt von den Forschern Caleb Finch und Alexander Kulminski. Die Studie hierzu stand unter der Leitung der University of Southern California und der Duke University .

Mehr Forschung notwendig
Laut Finch geht es um einen neuen Ansatz zur umfassenden Beurteilung der zahlreichen Interaktionen zwischen Gehirn und Körper, die zu einer Erkrankung beitragen. Die Bedeutung dieses Bereiches zeige sich schon durch die großen individuellen Unterschiede des kognitiven Abbaus vor allem bei Personen, die über Gene verfügen, die das Alzheimer-Risiko erhöhen.

Zunehmendes Alter gilt als der wichtigste bekannte Risikofaktor. Zahlreiche andere Risikofaktoren wie auch Umwelteinflüsse sind derzeit nur wenig erforscht. Frühere Studien mit schwedischen Zwillingen legen jedoch nahe, dass die Hälfte der individuellen Unterschiede beim Alzheimer-Risiko auf Umwelteinflüsse zurückzuführen sein könnten.

Exposom-Modell entwickelt
Die beiden Klassen der Alzheimer-Gene werden im Exposom-Modell berücksichtigt. Bei der ersten Klasse handelt es sich um Alzheimer-Gene, die in Familien auftreten und dominant sind. Das bedeutet, dass Betroffene letztendlich an Alzheimer erkranken werden. In der zweiten Klasse sind Genvarianten wie APOE4 enthalten. Hier erhöht sich das Risiko mit der Anzahl der Kopien der Gene. Von den Trägern von APOE4 erreichen nur wenige das 100. Lebensjahr, ohne zu erkranken. Damit ist bewiesen, dass das Umweltrisiko zu diesen Schwankungen beiträgt.

Die Forscher zitieren in den in „Alzheimer’s & Dementia: The Journal of the Alzheimer’s Association“ veröffentlichten Forschungsergebnissen eine Studie, die ergeben hat, dass Alzheimer bei Trägern der dominanten Gene ein Jahrzehnt früher auftritt, die in Städten leben, aus niedrigeren Gesellschaftsschichten kommen oder über weniger Bildung verfügen.

Stamm der Tsimane als Basis
Laut Finch haben Umweltfaktoren wie Luftverschmutzung und ein niedriger sozioökonomischen Status die Onset-Kurve um zehn Jahre verschoben. „Bis jetzt hat niemand diesen Ergebnissen ausreichend Beachtung geschenkt“, bemängelt Finch. Neuere Beispiele stammen aus Finchs Forschung zu den Gen-Umwelt-Interaktionen zwischen parasitären Infektionen und dem Alzheimer-Risko-Gen APOE4.

Bei den Tsimane, einem vorindustriellen Stamm in Bolivien, schien das Vorhandensein dieses Gens gemeinsam mit chronischen parasitären Infektionen zur Verbesserung und nicht zur Verschlechterung der Kognition zu führen. Laut dem Wissenschaftler liefern diese erstaunlichen Ergebnisse ein Beispiel dafür, wie das Exposom-Konzept zu einem verbesserten Verständnis der Risikofaktoren für eine Demenz führen könnte.

Forschung zur Bewältigung von Infektionskrankheiten – Mit einem Vorwort von Jean Pütz

Liebe Besucher meiner Homepage,
nachdem die internationalen Pharmazie-Konzerne es abgelehnt haben, weiterhin Antibiotika zu erforschen, die gegen resistente Keime wirken, muss der Staat in die Bresche springen.
Ich persönlich halte es für eine Katastrophe und es zeigt definitiv, dass es bei dieser kommerziellen Forschung nicht um den Menschen sondern nur um den Profit geht.
Umso wichtiger wird die öffentlich-rechtliche Forschung, insbesondere an Universitäten und staatlich geförderten Forschungseinrichtungen. Damit die Wissenschaft auch sehr schnell in praktische Ergebnisse mündet, sollten ggf. kleinere Mittelstandsfirmen bzw. Start-ups intensiv gefördert werden. Als Beispiel möchte ich die folgende Meldung definieren.
Ihr Jean Pütz

(Leibniz-IPHT) – Gute Ideen aus der Forschung sollen künftig schneller zu den Patientinnen und Patienten gelangen. Dazu investiert der Bund in ein neues Leibniz-Forschungszentrum in Jena. Naturwissenschaftler, Technologieentwickler, Mediziner und Medizintechnikhersteller entwickeln dort künftig gemeinsam lichtbasierte Technologien für eine bessere Diagnostik und Therapie von Infektionskrankheiten. Das neue Leibniz-Zentrum für Photonik in der Infektionsforschung (LPI) setzte sich im nationalen Roadmap-Prozess des Bundesministeriums für Bildung und Forschung (BMBF) als eines von elf eingereichten Großprojekten durch. Damit bescheinigt das Ministerium der europaweit einmaligen Forschungsinfrastruktur, entscheidend zur Lösung gesellschaftlicher Herausforderungen beizutragen. Für die Gründung des LPI wurden 150 Millionen Euro beantragt.

Infektionskrankheiten zählen zu den häufigsten Todesursachen weltweit und stellen auch in Industrienationen eine wachsende Bedrohung dar. Weil immer mehr Erreger Resistenzen gegen verfügbare Antibiotika entwickeln, könnte auch von Krankheiten, die heute gut zu behandeln sind, in naher Zukunft wieder eine tödliche Gefahr ausgehen. Angesichts der aktuellen Situation müssen schnelle Diagnoseverfahren und neue Therapien für den Kampf gegen Infektionen erforscht werden. Photonische Technologien — also Methoden und Prozesse, die Licht als Werkzeug nutzen — können diese drängenden Probleme nachhaltig lösen. Lichtbasierte Verfahren messen schnell, empfindlich, berührungslos und tragen dazu bei, besser zu verstehen, wie Mikroben uns krank machen, wie sich unser Körper wehrt und wie sich diese Prozesse beeinflussen lassen.

Bis die Fortschritte dieser Forschung beim Patienten ankommen, vergeht allerdings viel Zeit. „Bis aus einer Idee ein marktfähiges Produkt wird, dauert es im Schnitt 14 Jahre“, so Prof. Jürgen Popp, wissenschaftlicher Direktor des Leibniz-Instituts für Photonische Technologien (Leibniz-IPHT) in Jena, das maßgeblich am neuen Zentrum für Infektionsforschung mitwirkt. „Viele Konzepte können nicht realisiert werden, da Ressourcen und Entwicklungsstrukturen nicht vorhanden oder nicht nutzeroffen zugänglich sind.“

Mit dem neuen Forschungszentrum soll sich das ändern. „Dank der umfangreichen und nachhaltigen Förderung des LPI durch den Bund können wir diese Lücken überwinden“, prognostiziert Popp, der auch Vorstandssprecher des Jenaer Forschungscampus’ InfectoGnostics ist. „Wir tragen so dazu bei, Lösungen zügig in diagnostische Geräte und Therapieansätze zu überführen: damit sie schneller vom Labor ans Krankenbett gelangen.“ Eine solche Forschungsinfrastruktur spiele „für die Leistungsfähigkeit, Innovationskraft und internationale Wettbewerbsfähigkeit des Wissenschafts- und Wirtschaftsstandorts Deutschland“ eine Schlüsselrolle, betont Bundesforschungsministerin Anja Karliczek. Herausragende Grundlagenforschung sei die Voraussetzung „für neues Wissen, technologische Durchbrüche und damit auch für unseren künftigen Wohlstand.“

Innovative Diagnosemethoden als Ausweg aus der Resistenz-Misere
Das neue Forschungszentrum entspringe einem dringenden medizinischen Bedarf, erläutert Prof. Dr. Michael Bauer, Direktor der Klinik für Anästhesiologie und Intensivmedizin am Universitätsklinikum Jena und Sprecher des Integrierten Forschungs- und Behandlungszentrums Sepsis und Sepsisfolgen. „Mediziner brauchen schnellere und genauere Diagnose-Methoden, um frühzeitiger und gezielter zu behandeln.“ Bei schweren Infektionskrankheiten zähle vor allem eins: Zeit. „Bisherige Standard-Diagnoseverfahren liefern zwar zuverlässige Ergebnisse, doch häufig müssen Mediziner zu lang warten, etwa bis sie wissen, welches Bakterium eine Infektion auslöst und welche Medikamente dagegen wirken. Schnelle Informationen für einen zielgenauen Antibiotika-Einsatz können helfen, uns aus der Resistenz-Misere zu befreien.“

Das ab 2019 entstehende Leibniz-Zentrum für Photonik in der Infektionsforschung (LPI) hat sich zum Ziel gesetzt, neue Verfahren für die Diagnose und Therapie von Infektionen zu erforschen und zu entwickeln. Dafür bündelt es die in Jena vorhandenen Kompetenzen auf den Gebieten der Optik und Photonik sowie der Infektionsforschung. Dieser Ansatz sei „einzigartig und hervorragend geeignet, um Infektionskrankheiten früh zu diagnostizieren und rechtzeitig geeignete Therapieantworten zu finden — insbesondere bei multiresistenten Erregern“, urteilt der Wissenschaftsrat als Deutschlands wichtigstes wissenschaftspolitisches Beratungsgremium.

In dem nutzeroffenen Zentrum arbeiten zukünftig Naturwissenschaftler, Technologieentwickler, Mediziner und Medizintechnikhersteller eng zusammen. Unter einem Dach werden bereits bestehende Kooperationen zwischen dem Leibniz-IPHT, dem Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut (Leibniz-HKI), dem Universitätsklinikum Jena und der Friedrich-Schiller-Universität Jena vertieft. Die Nutzerinnen und Nutzer des LPI sollen dank der kurzen Wege und klaren Übergabepunkte unkonventionelle Ideen schneller umsetzen können als bisher.

„Wir müssen die Forschung intensivieren, um neuartige therapeutische Lösungen und experimentelle Therapieansätze zu erschließen und zu validieren“, betont der wissenschaftliche Direktor des Leibniz-HKI, Prof. Dr. Axel Brakhage. „Hierzu zählen die Behandlung mit neuen Kombinationen vorhandener Wirkstoffe, der Einsatz von Nanopartikeln als Wirkstoffträger, Immunzell-basierte Therapien sowie neuartige Therapien, die eine Resistenzbildung seitens der Mikroorganismen vermeiden oder zumindest verzögern.“

Das neue Forschungszentrum wird für nationale und internationale Spitzenforscherinnen und -forscher wie für Anwender aus der Industrie offen sein. So sollen neue diagnostische Ansätze und zielgerichtete Therapieverfahren entstehen, welche direkt in die Anwendung und industrielle Produktion übertragen werden. Indem Fragen zur klinischen Validierung und Zertifizierung von Beginn an im Vordergrund stehen, kann das LPI die in Deutschland noch bestehenden Lücken in der Umsetzung von Forschungsergebnissen schließen und die Zeit bis zur Markteinführung drastisch verkürzen.

Chance, unkonventionelle Ideen umzusetzen
Mit photonischen Technologien für die klinische Anwendung und dem translationalen Forschungsansatz könne das LPI „die Pathogendiagnostik weltweit revolutionieren“, so der Wissenschaftsrat. Davon profitiert auch der Standort Jena, der mit der Ansiedlung hochqualifizierter Wissenschaftlerinnen und Wissenschaftler und neuer Firmen rechnen kann. „So wird die Sichtbarkeit und Attraktivität des Forschungsstandorts national und international erheblich gesteigert, insbesondere für den wissenschaftlichen Nachwuchs“, betont Prof. Dr. Walter Rosenthal, Präsident der Friedrich-Schiller-Universität.

Das Großprojekt beantragten das Leibniz-Institut für Photonische Technologien, das Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie — Hans-Knöll-Institut, das Universitätsklinikum Jena und die Friedrich-Schiller-Universität Jena unter der Schirmherrschaft der Leibniz-Gemeinschaft. Das Forschungsvorhaben wird in einem Neubau auf dem Gelände des Universitätsklinikums Jena in drei Phasen realisiert. Nach einer Vorbereitungsphase folgt eine vierjährige Realisierungsphase. In der anschließen- den Betriebsphase steht das Zentrum den Nutzern für Forschungsarbeiten zur Verfügung. Eine Verstetigung wird angestrebt.

Fettstoffwechselstörungen aggressiv behandeln

(DGE) – Während ihres gemeinsamen Kongresses in Paris vom 31.8. bis 4.9.2019 erließen am Eröffnungstag die Europäischen Gesellschaften für Kardiologie (ESC) und Atherosklerose (EAS) ihre Leitlinien 2019 für Lipidologie. Diese wurden zugleich online im European Heart Journal publiziert (1). Sie empfehlen für die in der Tabelle definierten Risiko-Kategorien eine aggressivere Herangehensweise als bisher mit tieferen Zielwerten für Low-Density-Lipoprotein (LDL-Cholesterin).

New LDL Targets Across CV Risk Categories

– For very-high-risk patients (10-year risk of cardiovascular [CV] death >10%) an LDL cholesterol (LDL-C) reduction of at least 50% from baseline and an LDL-C goal of less than 1.4 mmol/L (< 55 mg/dL) are recommended

– For very high-risk patients who experience a second vascular event within 2 years (not necessarily of the same type as the first event) while taking maximally tolerated statin therapy, an LDL-C goal of less than 1.0 mmol/L (<40 mg/dL) may be considered.

– For patients at high risk (10-year risk for CV death of 5% to 10%), an LDL-C reduction of 50% or greater from baseline and an LDL-C goal of less than 1.8 mmol/L (<70 mg/dL) may be considered.

– For individuals at moderate risk (10-year risk for CV death of 1% to 5%), an LDL-C goal of less than 2.6 mmol/L (<100 mg/dL) should be considered.

– For individuals at low risk (10-year risk for CV death <1%), an LDL-C goal of less than 3.0 mmol/L (<116 mg/dL) may be considered.

Insbesondere für die tägliche Praxis ist wichtig, dass der obere LDL-Wert des Referenzbereiches jetzt mit 116 mg/dl / 3.0 mmol/l festgelegt wurde, auch wenn ein nur sehr geringes 10-Jahresrisiko von unter 1%  für einen kardiovaskulären (CV) Tod besteht. Viele deutsche Labors geben heute als obere Grenze  160 mg/dl / <4.2 mmol/l an, nur wenige 130 mmol/dl / 3.4 mmol/l. Man soll also bei Patienten immer auch das 10-Jahresrisiko für ein CV Ereignis bestimmen. Dazu gibt es viele Tabellen und Scores, angefangen vom Framingham-Score  über den PROCAM-Score, für den es auch eine App gibt, bis zu den ESC-Scores.

Hinweise auf das Vorliegen einer homozygoten oder heterozygoten Familiären Hypercholesterinämie (FH) sollten bei jedem Patienten zumindest bei der Anamneseerhebung erfragt werden (Herzinfarkte und/oder Schlagfanfälle bei Eltern, Großeltern, Geschwistern?).

Facit: Aggressivere Herangehensweise an LDL-Erhöhungen, tiefere Zielwerte als bisher anstreben. Und: immer auch an die „tickende Zeitbombe“ eine FH denken.

Helmut Schatz

Cholesterin im Blut: Noch niedrigere LDL-Werte

(DGE) – Fettstoffwechselstörungen sind eine Hauptursache für Atherosklerose, auch unter „Gefäßverkalkung“ bekannt, mit den möglichen Folgen Herzinfarkt, Schlaganfall oder Gefäßverschluss in den Beinen. Wenn erhöhte Blutfette in der Familie liegen, also erblich bedingt sind, ist die Gefahr groß, schon in jungen Jahren kardiovaskuläre Ereignisse zu erleiden. Diese Hochrisikopatienten müssen früh erkannt und therapiert werden, um die Prognose zu verbessern. Eine neue europäische Lipid-Leitlinie empfiehlt diesen und anderen Patientengruppen nun noch niedrigere Zielwerte beim LDL-Cholesterin als bisher.

Hohe Cholesterinspiegel, auch Hypercholesterinämie genannt, haben einen großen Einfluss auf die Gefäße und die Entstehung von Atherosklerose. Es entstehen sogenannte Plaques, unter anderem durch Ablagerung von Cholesterin in der Gefäßwand, wodurch sich das Gefäß verengt und verhärtet („Verkalkung“). Zu den Folgeerkrankungen zählen Herzinfarkt und Schlaganfall.

Fettstoffwechsel-Störungen können primär (erblich) oder sekundär (erworben) sein. 80 Prozent des Cholesterins bildet der Körper selber, nur 20 Prozent werden über die Nahrung zugeführt. Bei der erblichen Form sprechen Mediziner von einer familiären Hypercholesterinämie (FH). Dr. med. Ulrike Schatz, Fettstoffwechsel-Expertin an der Technischen Universität Dresden erklärt: „Die familiäre Hypercholesterinämie wird häufig erst diagnostiziert, wenn es zu einem ‚Ereignis‘ – also Herzinfarkt oder Schlaganfall in jungen Jahren – kommt. Die FH führt von Geburt an zu sehr hohen Cholesterinwerten im Blut, woraus ein hohes Risiko für vorzeitige Gefäßverkalkungen entsteht.“ Bei der reinerbigen (homozygoten) Form könnten Herzinfarkte bereits im Kindesalter auftreten, bei der heterozygoten Form (Genmutation nur von einem Elternteil geerbt), schon vor dem 55. Lebensjahr, weiß die Expertin.

In Deutschland wird die Neuerkrankungsrate auf eins zu 300 geschätzt, das sind circa 270 000 Menschen mit FH. „Nur etwa zehn Prozent der Fälle werden diagnostiziert, 80 Prozent davon erreichen ihre Behandlungsziele nicht“, so Schatz. Die FH gilt als Hochrisikokonstellation für Herzinfarkt und Schlaganfall.

Um herauszufinden, ob eine familiäre Hypercholesterinämie vorliegt, empfiehlt die Expertin ein sogenanntes Kaskaden-Screening. Bei diesem untersuchen Ärzte die Verwandten ersten Grades (Eltern, Großeltern, Geschwister) des „Indexpatienten“, da die Erkrankung autosomal dominant, also von Generation zu Generation vererbt wird. „Durch eine frühzeitige effektive Therapie lässt sich die Prognose dieser Patienten ausschlaggebend verbessern“, so die Expertin.

Fettstoffwechsel-Störungen behandeln Mediziner, indem sie das individuelle Risiko des Patienten bewerten und dann mit ihm die Zielwerte des LDL-Cholesterins definieren. Die Behandlung folgt einer sogenannten Stufentherapie, die auf Lebensstil- und Diätmaßnahmen basiert, gefolgt von Medikamenten mit verschiedenen Wirkmechanismen und als letzte Möglichkeit die Lipoproteinapherese, also eine Blutwäsche von den Fetten.

Welche Zielwerte mit Medikamenten und Lebensstiländerungen erreicht werden sollten, beantwortet die am 31. August 2019 auf dem Kongress der Europäischen Gesellschaften für Kardiologie (ESC) und Atherosklerose (EAS) präsentierte und im European Heart Journal publizierte Lipid-Leitlinie jetzt neu. Sie empfiehlt eine „aggressivere“ Herangehensweise als bisher mit noch tieferen Zielwerten für LDL-Cholesterin – nach der Maxime „je niedriger, desto besser“. Dabei werden vier Patientenklassen gebildet, je nach ihrem Herz-Kreislauf-Risiko durch Komorbiditäten und dem Zehn-Jahres-Risiko für eine tödliche kardiovaskuläre Erkrankung. Der Zielwert für das LDL-C soll bei Höchstrisikopatienten – darunter auch Menschen mit familiärer Hypercholesterinämie und kardiovaskulärer Erkrankung oder mit weiteren Risikofaktoren – < 55 mg/dl (< 1,4 mmol/l) betragen. Der alte Wert lag bei < 70 mg/dl (<1,8 mmol/l). Gab es innerhalb von zwei Jahren trotz maximaler lipidsenkender Therapie ein zweites vaskuläres Ereignis (damit ein Progress), soll noch weiter gesenkt werden, auf < 40 mg/dl (<1,0 mmol/l). Für Patienten mit hohem Risiko rutscht der Zielwert für das LDL-C von 2016 noch <100 mg/dl (<2,6 mmol/l) definiert auf nun < 70 mg/dl (<1,8 mmol/l). Patienten mit moderatem Risiko haben nun nicht mehr den Zielwert < 116 mg/dl (<3,0 mmol/l), sondern < 100 mg/dl (<2,6 mmol/l). Bei Menschen mit einem niedrigen kardiovaskulären Risiko ist der Zielwert gleichgeblieben und liegt bei < 116 mg/dl (<3,0 mmol/l).

Professor Dr. med. Matthias M. Weber, Mediensprecher der Deutschen Gesellschaft für Endokrinologie, ergänzt: „Wir müssen vor allem das Bewusstsein für diese Form der Fettstoffwechsel-Störung steigern. Die FH ist eine gut therapiebare Erkrankung. Früh erkannt, können schwere Komplikationen wie ein Herzinfarkt in jungen Jahren verhindert werden.“ Schatz ergänzt: „Wenn wir frühzeitig die Diagnose stellen und die Hypercholesterinämie sowie alle weiteren Risikofaktoren strikt einstellen, so können wir das Risiko dieser Patienten auf das der Allgemeinbevölkerung senken.“ Entsprechend der neuen LL-Empfehlungen heißt es nun: „Je niedriger und je früher, desto besser“.

Künstliche Intelligenz vs. digitalisierte Medizin

(DGE) – Der Blogbeitrag vom 20./21. August 2019 über „Künstliche Intelligenz (KI) vs. Natürliche Intelligenz“ von Klaus Ehrenberger wurde in meinem Umfeld vielfach diskutiert. Ich wurde gebeten, einige Punkte aus dem Beitrag, die nicht für alle sofort verständlich waren, näher erläutern zu lassen und darf hier zunächst die Antwort von Klaus Ehrenberger  wiedergeben, dann einem Kommentar von mir.

Antwort:

1. Energieverbrauch der Informationsverarbeitung
– Das Gehirn ist ein Energiefresser. Circa 2% der Körpermasse verbrauchen fast 20% der aufgewendeten Körperenergie.
– Im Vergleich dazu ist der Stromverbrauch für Betrieb und Kühlung aller elektronischen Rechner viel größer. Er ist sogar so riesig, dass er Einzug in die aktuelle Klima-Debatte gehalten hat.

2. Informationsverarbeitung des Gehirns
1965 publizierte Nelson Kiang (1) die überraschende Tatsache, dass identische akustische Reize in den zugehörigen Nervenfasern jeweils leicht unterschiedliche Signalfolgen auslösen. Vor 25 Jahren hat unser kleines neurophysiologisches Arbeitsteam nach eingehenden eigenen Untersuchungen versucht, die Sinnhaftigkeit dieser eigenartigen Kodierungsstrategie modellhaft darzustellen (2). (Im Supermarkt etwa ist der auf die Artikel aufgeklebte Barcode die „Kodierungsstrategie“). Immerhin wurde unser Modell bis heute nicht widerlegt. Ein paar Jahre später konnten wir darauf hinweisen, dass das Phänomen der stochastischen Resonanz (= Signalverstärkung durch “inneres Rauschen“), erstmals beschrieben bei Krebsen, auch bei Warmblütern zur Anwendung kommt: die Erregung des zentralnervösen Rauschens verstärkt schwache Signale zu überschwelligen Erregungen.

3. Digital – analoge Signal- und damit Informationsübersetzer
sind Bildschirme, Lautsprecher, I-phones, 3D Brillen, virtuelle Laserprojektionen und was es sonst noch alles gibt.

4. EDV-gesteuerte künstliche Intelligenz ist im Alltag sehr nützlich
und erledigt zahlreiche repetitive Aufgaben. Künstliche Intelligenz ist ein wertvolles Hilfsmittel für den Menschen, aber kein Ersatz für das menschliche Gehirn. Die Künstliche Intelligenz ist ein Arbeitsinstrument und keine reale Welt. Wenn jemand die digitale Welt als reale Welt ansieht, so ist das ein Irrtum, der gefährlich werden kann. Zu glauben, dass die digitale die analoge Welt unnötig machen wird, ist nicht zutreffend. Niemand braucht Angst zu haben, dass der Mensch mit seiner (natürlichen, analogen) Intelligenz in Zukunft unnötig sein wird.

5. Analoge Computer
Die zentralnervöse Informationsverarbeitung ist noch viel zu wenig verstanden, um elektronisch erfolgreich simuliert werden zu können.

Kommentar

Die „Digitalisierte Medizin“ und die „Künstliche Intelligenz“ sind seit Jahren auf unseren  Kongressen ein wichtiges Thema, so auch auf dem diesjährigen Internistenkongress  in Wiesbaden 2019. Gerd Hasenfuß, der Tagungspräsident des Deutschen Internistenkongresses 2016 schrieb in seiner Kongresseinladung (4): „Apple, Google und die sozialen Netzwerke haben den Gesundheitsmarkt entdeckt und werden weitreichenden Einfluss auf die Medizin nehmen. Wir Ärzte müssen die digitale Medizin mitgestalten, um das große Potenzial dieser Entwicklung aus fachlicher Sicht für den Patienten nutzbar zu machen und Schaden durch fehlendes medizinisches Sachwissen zu verhindern“.

Im Buch „App vom Arzt. Bessere Medizin durch digitale Medizin“ stellen Jens Spahn, Markus Müschenich und Jörg F. Debatin, die digitale Medizin aus der Sicht des Gesundheitsmarktes dar (5). Sie schlagen vor, dass ein Patient statt einen, wie sie es nennen, „offline Arzt“ in ihrer Region zu konsultieren,  sich besser einen hervorragenden Spezialisten für diese Erkrankung wenden sollten, der online ist,  etwa auch in Australien. Und „Dr. Watson“, der Großcomputer von IBM, würde auch bei Diagnose und Therapie helfen. Für die so wichtige Empathie freilich sei der Mensch besser geeignet als ein Computer. Da wird jeder Arzt zustimmen. Abschließend in ihrem Buch fragen sie aber, „ob dieser Mensch ein Arzt sein muss. Wer weiss, was Krankenschwestern,  Krankenpfleger,  Seelsorger heute bereits leisten, wird diesen sicherlich zutrauen, auch hier die Wünsche eines Patienten zu erfüllen“. Der Referent, der dieses Buch zu referieren bekam, beendete seine Rezension mit dem Satz: „Bleiben dann nur noch „Dr. Watson“, virtuelle Ärzte und für die Empathie Assistenzpersonen und Seelsorger ? Schöne Neue Welt !“ (6).

Der Großcomputer „Watson“ von IBM, der sich zum Beispiel in der Quizsendung  „Jeopardy!“  zwei menschlichen Gegnern als hoch überlegen erwiesen hatte, wird aber in letzter Zeit wegen falscher Therapievorschläge heftig kritisiert. So sei im Jahre 2018 ein onkologischer Patient unter einer von Watson vorgeschlagenen Therapie zu Tode gekommen. Bei der Behandlung von Tumorerkrankungen sei er bisher keine echte Hilfe (7). Im medizinischen online-Dienst „Stat“ sei im Juli 2018 zu lesen gewesen, dass Watson ungesunde und falsche Therapieempfehlungen für Krebspatienten gegeben habe. Nach anfänglich großen Erwartungen ist die Enttäuschung im medizinischen Bereich umso größer (8). Die KI-Software biete keinen Mehrwert gegenüber Diagnosen von Krebsspezialisten. Viele onkologischen Programme an großen Institutionen wurden inzwischen eingestellt. Auch in der Klinikverwaltung mit Digitalisierung von Patientenakten und Arztbriefen wurde die Zusammenarbeit mit Watson vom Universitätsklinikum Gießen und Marburg wieder beendet, da sich das System als auch im Betrieb sehr teuer und „deutlich weniger intelligent als erhofft“ erwiesen habe (7). Hier erinnert sich der Referent an seine Assistentenzeit in den 1960er Jahren an der II. Medizinischen Universitätsklinik Wien, als der Klinikvorstand Professor Karl Fellinger seine Klinik – vor einem halben Jahrhundert! –  „digitalisieren“ wollte, und einen Großrechner, ich meine es war ein IBM 604 anschaffte, für den ein gekühltes kleines Haus gebaut wurde. Bei den Visiten hatten die Schwestern die Therapieangaben auf Lochkarten zu übertragen. Nach Auswertung über große Datentrommeln kamen die Anweisungen für die diagnostischen Maßnahmen und die Medikationspläne ausgedruckt zurück auf die Stationen. Dieses Verfahren wurde bald, nach etwa einem halben Jahr wieder eingestellt, da es mehr Arbeit machte als das herkömmliche Verfahren  und keineswegs fehlerfrei war.

Eine gewisse Analogie einer „KI-Medizin“ mag man in den selbstfahrenden Autos sehen, obwohl hier die Probleme vergleichweise wohl einfacher sind als auf dem weiten, oft sehr komplexen Feld der Medizin, insbesondere der personalisierten, der „precision medicine“. Gerade in der Präzisionsmedizin war „Dr. Watson“ trotz Versuchen kaum weitergekommen.

Es ist aber zu hoffen, dass die Entwicklung in der Digitalisierten Medizin fortschreitet und immer bessere Ergebnisse liefert. Wir Ärzte werden uns in heute kaum vorstellbaren Maße mit ihr auseinanderzusetzen haben. Der Mensch mit seiner natürlichen, analogen  Intelligenz aber wird gewiß nicht durch die künstliche, digitale Intelligenz völlig zu ersetzen sein.

Klaus Ehrenberger, Helmut Schatz

10.000 Schritte: Stimmt das mit dem älterwerden?

(DGE) – Im JAMA Internal Medicine wurde am 29. Mai 2019 eine Kohortenstudie an älteren  Frauen publiziert, die zeigte, dass bei täglich 4400 Schritten das Mortalitätsrisiko signifikant geringer war als bei 2700 Schritten/Tag (1). Ein Kommentar von Jennifer Abbasi im JAMA online vom 24. Juli 2019  trägt den Titel „For Mortality, Busting the Myth of 10 000 Steps per Day” (2).

I-Min Lee, Epidemiologin am Brigham and Women’s Hospital in Boston und Professor of Medicine an der  Harvard Medical School, untersuchte mit ihren Mitautoren  das Schrittverhalten und deren Intensität bei 17 741 Frauen aus der Women´s Health Study. Das mittlere Alter betrug 72 Jahre. Die Schrittanzahl und die Intensität, erfasst über ein Accelerometer, wurden für eine Periode von 4 bis 7 Tagen ausgewertet (1). Während der Beobachtungsperiode von im Mittel 4.3 Jahren verstarben 504 Testpersonen. Frauen mit 4400 Schritten starben signifikant seltener als solche mit nur 2700 Schritten pro Tag. Das Mortalitätsrisiko verringerte sich weiter, wenn die Schrittanzahl von 4400 bis zu 7500 Schritten  weiter, wenn auch prozentual weniger. Bei 7500 Schritten wurde ein Plateau erreicht, über dem keine weitere Reduktion des Sterberisikos beobachtet wurde. Die Schrittintensität zeigte keine klare Beziehung zur Mortalität.

Kommentar
Das Ergebnis dieser Kohortenstudie gilt für ältere Frauen. Ob es auch auf jüngere Altersgruppen oder für Männer zutrifft, bleibt offen, wenn man dies auch vermuten kann. Es ist freilich zu bedenken, dass die Frauen auf Grund von Morbidiäten weniger Schritte pro Tag gegangen sein könnten und ihr Mortalitätsrisiko durch andere Krankheiten mitbedingt war. Auch kann man sich fragen, ob das Schrittverhalten, erfasst während nur  4 – 7 Tagen,  für Todesfälle bis zu vier Jahre später mitverantwortlich sein kann.

In einem Gespräch mit JAMA sagte die Erstautorin Lee: „Step more – even a modest number of steps is associated with lower mortality. All steps count, not just those taken during exercise. If you already get 10 000 steps or more per day, don’t lower your goal. There is no harm, and there may be additional benefits for outcomes not studied like quality of life, physical function, and cognition” (2).

Helmut Schatz

Impfungen – Vorsicht für Rheumapatienten

(DGRh) – Impfungen sind für Rheuma-Patienten besonders wichtig, weil die Krankheit selbst und deren Behandlung die Immunabwehr gegen Bakterien und Viren schwächen. Die Deutsche Gesellschaft für Rheumatologie (DGRh) begrüßt deshalb, dass ein Expertenteam auf Initiative der Ständigen Impfkommission (STIKO) Anwendungshinweise für Menschen mit Autoimmunerkrankungen veröffentlicht hat, zu denen auch Rheuma und andere chronisch-entzündliche Erkrankungen gehören.

Bei rheumatischen Erkrankungen befindet sich das Immunsystem in ständiger Alarmbereitschaft. „Die Entzündung bindet Ressourcen, die bei der Abwehr von Krankheitserregern fehlen können“, erläutert der Präsident der DGRh Professor Hendrik Schulze-Koops, der am Klinikum der Ludwig-Maximilians-Universität München tätig ist. Menschen mit Rheuma erkranken deshalb doppelt so häufig an viralen oder bakteriellen Infektionen wie andere Menschen.

Die Experten raten den Patienten deshalb, an allen von der STIKO empfohlenen Impfungen teilzunehmen. Das gilt nicht nur für ältere Patienten mit rheumatoider Arthritis oder Psoriasis-Arthritis. Auch jüngere Menschen, zum Beispiel mit Morbus Bechterew, sollten darauf achten, dass sie alle für Kinder und Jugendliche vorgesehenen Impfungen erhalten haben.

„Das Problem ist, dass die Wirkung einer Impfung auf ein intaktes Immunsystem angewiesen ist“, sagt Professor Schulze-Koops. „Es muss die Antikörper bilden, die später vor einer Infektion schützen.“ Diese Voraussetzung ist bei rheumatischen Erkrankungen nicht immer gegeben und der Impferfolg somit gefährdet. Noch schwieriger wird es, wenn die Patienten mit Medikamenten behandelt werden, die das Immunsystem bremsen. Solche Immunsuppressiva sind heute ein Grundpfeiler der Behandlung. Die meisten Patienten erhalten Basistherapeutika wie Methotrexat (MTX), die das Fortschreiten der Gelenkzerstörung verhindern. Bei einem Krankheitsschub sind häufig Steroide notwendig.

Ob Patienten, die mit Immunsuppressiva behandelt werden, geimpft werden dürfen, hängt in erster Linie vom Impfstoff ab. Die meisten enthalten abgetötete Erreger. Es gibt Totimpfstoffe zum Beispiel gegen Pneumokokken, Hepatitis B, Meningokokken, Herpes zoster (Gürtelrose) und humane Papillomaviren (HPV). Auch der Grippeimpfstoff (gegen Influenza-Viren) zählt dazu, mit Ausnahme des Impf-Nasensprays, das eigentlich nur bei Kindern eingesetzt wird. Totimpfstoffe können nach Einschätzung der Experten bei Patienten mit rheumatischen Erkrankungen meist bedenkenlos eingesetzt werden.

„Bei einigen stark wirkenden Immunsuppressiva kann die Fähigkeit des Immunsystems zur Antikörperbildung jedoch soweit eingeschränkt sein, dass keine Schutzwirkung erzielt wird“, gibt Professor Schulze-Koops zu bedenken. Dazu gehören vor allem Biologika wie Rituximab oder Abatacept. Die Experten raten deshalb, die Impfungen vor Behandlungsbeginn durchzuführen.

Vorsicht geboten ist beim Einsatz von Lebendimpfstoffen, die abgeschwächte Krankheitserreger enthalten. „Das Immunsystem gesunder Menschen kommt damit gut zurecht“, sagt Professor Schulze-Koops: „Bei abwehrgeschwächten Menschen kann es jedoch zu einer Infektion kommen.“ Mit Lebendimpfstoffen wird heute gegen Masern-Mumps-Röteln (MMR-Impfung), gegen Gelbfieber und gegen Rotaviren geimpft. Der ältere Zosterimpfstoff wurde kürzlich durch einen Totimpfstoff abgelöst. Diese Impfungen erfolgen in den ersten Lebensjahren und sind in der Regel abgeschlossen, wenn entzündlich-rheumatische Erkrankungen auftreten. Einen guten Impfschutz benötigen übrigens nicht nur die Patienten selbst. Die Experten raten auch deren Angehörigen zur Impfung, um die Gefahr einer Übertragung zu minimieren.

Stummer Schlaganfalls als Nebenwirkung häufiger als vermutet

(pte) – Ein verdeckter oder stummer Schlaganfall tritt laut einer Studie der McMaster University häufig bei älteren Patienten auf, bei denen eine ausgewählte, nicht das Herz betreffende Operation durchgeführt wird. Ein Jahr später ist das Risiko eines Abbaus der kognitiven Fähigkeiten doppelt so hoch.

Stummer Schlaganfall häufiger
Weltweit erleiden rund 0,5 Prozent der Personen über 65 Jahren nach einer großen nicht das Herz betreffenden Operation einen offensichtlichen Schlaganfall. Dieser führt zu deutlichen Symptomen wie der Schwäche in einem Arm oder Problemen beim Sprechen, die mehr als einen Tag andauern. Verdeckte Schlaganfälle dagegen werden nur auf Gehirnscans wie einer Magnetresonanztomographie ersichtlich. Über deren Auftreten oder ihre Auswirkungen nach der Operation war bislang aber wenig bekannt.

Der NeuroVISION-Studie zufolge sind verdeckte Schlaganfälle nach einer Operation in dieser Altersgruppe sogar häufiger als offensichtliche. Laut Co-Studienleiter PJ Devereaux zeigte sich, dass eine von 14 Personen über 65 Jahren nach einem derartigen Eingriff einen stummen Schlaganfall erlitten hatte. Das legt nahe, dass weltweit drei Mio. Menschen betroffen sein könnten. An der Studie nahmen 1.114 Patienten über 65 Jahren aus zwölf Kliniken in Nord- und Südamerika, Asien, Neuseeland und Europa teil.

Risiko weiterer Erkrankungen steigt
Alle Patienten wurden innerhalb von neun Tagen nach der OP mit einer Magnetresonanztomographie auf Hinweise für einen stillen Schlaganfall untersucht. Die Forscher begleiteten die Studienteilnehmer ein Jahr lang, um ihre kognitiven Fähigkeiten zu beurteilen. Personen, die nach der Operation einen stummen Schlaganfall gehabt hatten, erlitten innerhalb eines Jahres wahrscheinlicher einen Abbau der kognitiven Fähigkeiten, ein perioperatives Delirium, einen offensichtlichen Schlaganfall oder eine Transitorische Ischämische Attacke. Die Forschungsergebnisse wurden in „The Lancet“ veröffentlicht.