Alle Beiträge von Balu

Wie ein erneuter Schlaganfall verhindert werden kann

Pressekonferenz der Deutschen Schlaganfall-Gesellschaft (DSG) am 25. Oktober zum Weltschlaganfalltag

Schlaganfall – und dann?! Wie ein erneuter Hirninfarkt verhindert werden kann

Berlin, Oktober 2018 Ein Schlaganfall kommt oft nicht alleine: Wer bereits einen Hirninfarkt
erlitten hat, besitzt gegenüber Gleichaltrigen ohne Vorbelastung ein
zehnfach höheres Risiko, erneut daran zu erkranken. Doch einem zweiten
Schlaganfall kann effektiv vorgebeugt werden: Laut Experten der
Deutschen Schlaganfall-Gesellschaft (DSG) sind 90 Prozent des
Erkrankungsrisikos auf behandelbare Faktoren wie Bluthochdruck, hohes
Cholesterin, Vorhofflimmern oder Rauchen zurückzuführen. Sie empfehlen
daher eine intensive präventive Behandlung – die aus ihrer Sicht
hierzulande momentan zu kurz kommt. Was muss sich konkret ändern, damit
mehr erneute Schlaganfälle verhindert werden? Darüber diskutieren
Experten der DSG unter anderem auf einer Pressekonferenz in Berlin am
Donnerstag, den 25. Oktober 2018, anlässlich des Weltschlaganfalltages
am 29. Oktober.

„Seit
vielen Jahren stehen hierzulande wissenschaftlich gesicherte
Behandlungsstrategien wie Blutdrucksenkung, Cholesterinsenkung oder
gerinnungshemmende Therapien zur Verfügung. Diese Strategien helfen
nachweislich, einen erneuten Schlaganfall zu verhindern“, sagt
DSG-Experte Professor Dr. med. Heinrich Audebert. „Problematisch ist
jedoch, dass die verfügbaren Präventionsmaßnahmen in der
Langzeit-Behandlung nach einem Schlaganfall nicht konsequent genug
genutzt werden.“

So
hat eine Berliner Studie gezeigt, dass ein halbes Jahr nach dem
Schlaganfall bei lediglich weniger als der Hälfte der Patienten
verbreitete Risikofaktoren wie Bluthochdruck ausreichend eingestellt
waren – eine solche Nachsorge sehen jedoch die Leitlinien vor. Nach
Einschätzung von Audebert ist die Prävention in Deutschland damit im
internationalen Vergleich zu wenig wirksam. „Viele Patienten könnten von
einer intensiveren ambulanten Betreuung profitieren“, so der Ärztliche
Leiter der Klinik und Hochschulambulanz für Neurologie an der Charité
Universitätsmedizin Berlin. „Zudem sind offensichtlich viele Betroffene
nach dem Schlaganfall mit der Umsetzung der teilweise komplexen
medizinischen Empfehlungen überfordert.“

Was
müsste nun konkret passieren, damit die Prävention hierzulande
effektiver wird? DSG-Experte Audebert fordert ein Umdenken: „Wir sollten
den Schlaganfall nicht nur als akutes Notfallereignis verstehen,
sondern vielmehr als chronische Erkrankung. Die starke Trennung zwischen
krankenhausbasierter Akutbehandlung und ambulanter Nachbetreuung macht
eine wirksame und patientenorientierte Sekundärprävention zu einer
großen Herausforderung.“

Mit
einem überschaubaren Aufwand ist es nach Einschätzung von Audebert
möglich, nach einem ersten Schlaganfall einen wesentlich besseren Schutz
zu bewirken. „Unmittelbar nach der Erkrankung sollten gezielte
Nachbetreuungsprogramme einsetzen“, meint der Neurologe. „Dafür ist es
wichtig, dass die behandelnden Ärzte – sowohl in der Akuteinrichtung als
auch in Hausarztpraxen – eng zusammenarbeiten.“

Zudem
sei eine gute Logistik entscheidend. Besonders wichtig sind dabei gute
Anbindungen an Kliniken mit Schlaganfallspezialeinrichtungen,
sogenannten Stroke Units. „In Ballungszentren mit universitären
Hochschulambulanzen ist dies natürlich eher gegeben“, so Audebert. „Für
eine ideale Versorgung müssen jedoch bundesweit möglichst flächendeckend
spezialisierte Ambulanzen einrichtet werden.“ Solche
Unterstützungsprogramme werden momentan von Schlaganfall-Experten
hinsichtlich ihrer Effektivität untersucht, Studien dazu stehen
teilweise kurz vor ihrem Abschluss. Die Ergebnisse der multizentrischen
und internationalen Studie zur „Intensivierten Sekundärprävention mit
Intention einer verringerten Rezidivrate bei TIA- und minor-stroke
Patienten“ (INSPiRE-TMS-Studie) sollen beispielsweise im Frühjahr
kommenden Jahres vorliegen.

Die
Unterstützungsprogramme sollen dabei in Ergänzung zur
Hausarztbehandlung und in enger Abstimmung mit den niedergelassenen
Ärzten durchgeführt werden. „Ziel ist es, die Patienten in ihrer
Eigenverantwortung zu stärken“, sagt der Experte. „Die Programme sollen
den Betroffenen helfen, ihre medikamentösen Behandlungen einzuhalten und
einen gesünderen Lebensstil zu führen.“ Wenn solche gezielten Maßnahmen
zukünftig häufiger umgesetzt würden, könnte das zu einer spürbaren
Senkung der Schlaganfallhäufigkeit in Deutschland führen – denn circa
ein Viertel der Betroffenen erleidet einen Schlaganfall als
Wiederholungsereignis.

Fachlicher Kontakt bei Rückfragen:

Prof. Dr. med. Heinrich Audebert

Leiter der INSPiRE-TMS-Studie

Was den Bewohnern von Peking den Atem raubt

der Smog-Alarm in dieser Woche in
Peking zeigt, wie brisant das Thema Luftverschmutzung in der
chinesischen Hauptstadt ist. Welche Faktoren die Luftqualität in der
Megametropole bestimmen, untersuchen Forscher des Karlsruher Instituts
für Technologie (KIT) bereits seit zehn Jahren. In der Arbeitsgruppe
Umweltmineralogie und Umweltsystemanalyse um Professor Stefan Norra
befassen sich die Forscher unter anderem mit der Entwicklung der
Feinstaubbelastung. Vor wenigen Tagen richteten die chinesischen Partner
um Professor Kuang Cen von der China University of Geosciences in
Peking dazu ein Symposium aus.

Schlechte Sicht, Menschen mit Atemmasken,
Fahrverbote, geschlossene Fabriken und stillgelegte Baustellen: In
dieser Woche hat Chinas Hauptstadt Peking erstmals die höchste Stufe des
Smog-Alarms ausgerufen. Eine graue Dunstglocke hängt über der
Megametropole. Smog, das heißt eine stark erhöhte Konzentration von
Luftschadstoffen, die bei bestimmten meteorologischen Bedingungen über
dicht besiedelten Gebieten auftritt, stellt schon seit vielen Jahren
immer wieder ein Problem in chinesischen Metropolen dar.
Feinstaubpartikel von wenigen Mikrometern Größe können tief in die Lunge
eindringen, von dort in die Blutbahn gelangen und Entzündungen
auslösen. Mögliche Folgen sind Reizungen der Schleimhäute und Atemwege,
Herz-Kreislauf-Erkrankungen und sogar Krebs.

Die Arbeitsgruppe Umweltmineralogie und
Umweltsystemanalyse um Professor Stefan Norra am KIT befasst sich
bereits seit 2005 mit der Luftqualität in Peking. So untersuchen die
Forscherinnen und Forscher die langfristige Entwicklung der
Staubbelastung, Wechselwirkungen zwischen natürlichen und vom Menschen
verursachten Partikeln sowie die Auswirkungen der jeweiligen städtischen
Nutzungstypen auf die Luftbelastung. Die Arbeitsgruppe ist am Institut
für Angewandte Geowissenschaften (AGW) und am Institut für Geographie
und Geoökologie (IfGG) angesiedelt.

Jüngst untersuchten Professor Stefan Norra und Dr.
Nina Jasmin Schleicher vom KIT gemeinsam mit Wissenschaftlern aus
Bordeaux und Peking die zeitliche und räumliche Verteilung sowie die
Quellen von partikelgebundenem Quecksilber (HgP) in der Luft über Peking
(N. J. Schleicher, J. Schäfer, G. Blanc, Y. Chen, F. Chai, K. Cen, S.
Norra: Atmospheric particulate mercury in the megacity Beijing:
Spatio-temporal variations and source apportionment. Atmospheric
Environment 109, 2015. DOI: 10.1016/j.atmosenv.2015.03.018). Quecksilber
kann Mensch und Umwelt schädigen. „Wie unsere Messungen ergaben, sind
die Quecksilberkonzentrationen in Peking gerade in der Heizperiode
alarmierend hoch“, berichtet der Geoökologe Stefan Norra. Denn die
Konzentrationen waren zeitlich im Winter, räumlich in der Innenstadt
innerhalb der dritten Ringstraße am höchsten. Als Hauptquelle der
Quecksilberemissionen ermittelten die Forscher besonders die
Kohleverbrennung; außerdem tragen Industrie, Verkehr sowie in geringerem
Maße auch die rote Farbe an historischen Gebäuden dazu bei.
„Quecksilber in der Luft sollte aufgrund seiner Toxizität künftig
stärker im Fokus von Beobachtungsaktivitäten und Minderungsmaßnahmen
stehen“, erklärt Norra.

Welchen Erfolg Maßnahmen zur Verringerung
atmosphärischer Partikelbelastung haben können, zeigten die Olympischen
Spiele 2008 in Peking. Damals durften in der Stadt und den umliegenden
Provinzen nur halb so viele Fahrzeuge wie sonst fahren, Restaurants mit
Kohleherden sollten Rußfilter einsetzen, die Produktion in der
Schwerindustrie wurde teilweise unterbrochen. Stefan Norra und sein Team
nahmen täglich Proben von Partikeln in der Luft, untersuchten Masse und
chemische Zusammensetzung. Tatsächlich verringerten die Maßnahmen die
Staubbelastung, aber nur solange sie in Kraft waren. Nach dem Ende der
Olympischen Spiele nahm die Luftverschmutzung rasch wieder zu.

Vor einigen Tagen stiegen in Peking die Werte für
den besonders gesundheitsschädigenden PM 2,5-Feinstaub (Partikel mit
einem Durchmesser von 2,5 Mikrometern und weniger) auf über 600
Mikrogramm pro Kubikmeter – mehr als das 24-Fache des Grenzwerts der
Weltgesundheitsorganisation. Vor allem Industrie, Verkehr und private
Haushalte sind für die Feinstaubbelastung verantwortlich. Zu den vom
Menschen verursachten Partikeln kommt in Peking noch geogener Staub
hinzu, der durch natürliche Prozesse aus Trockengebieten
herantransportiert wird. Er verursacht vor allem in den Frühjahrsmonaten
weitere intensive Staubbelastungen, sogenannte Staubstürme.

Neben kontinuierlichen Messungen über Jahre zu
verschiedenen Tageszeiten und an verschiedenen Standorten wurden in
dieser Kooperation unter anderem die vertikale Ausdehnung der
Luftbelastung mit Kolleginnen und Kollegen vom Institut für Meteorologie
und Klimaforschung – Atmosphärische Umweltforschung und dem Institut
für Regionalwissenschaften des KIT untersucht sowie das von Dr. Heike
Vogel und  Dr. Bernhard Vogel  am Institut für Meteorologie und
Klimaforschung – Forschungsbereich Troposphäre am KIT entwickelte
Programm COSMO-ART angewendet, um die Ausbreitung der Partikel zu
modellieren. Für Peking ist ein wichtiges Ziel, Methoden zu entwickeln,
um die Feinstaubbelastung für die jeweils nächsten Tage vorhersagen zu
können.

Diabetes und Adipositas

Gehäuft in ärmeren Wohngegenden?

In Deutschland leiden Menschen in benachteiligten Wohngegenden offenbar häufiger an Typ-2-Diabetes und Fettleibigkeit (Adipositas) – unabhängig vom individuellen Bildungsstatus. Das ist das Resultat einer Auswertung von Daten der Gesundheitsbefragung „Gesundheit in Deutschland Aktuell“ (GEDA), die Wissenschaftler des Helmholtz Zentrums München und des Robert Koch-Instituts Berlin durchgeführt hatten. Über 33.000 Menschen ab 30 Jahren hatten in den Jahren 2009 und 2010 an Telefoninterviews teilgenommen. Die geographische Benachteiligung wurde anhand des „German Index of Multiple Deprivation“ (GIMD) ermittelt. In den Index flossen Daten zu Einkommen, Beschäftigung, Bildung, Umwelt und Sicherheit in einem bestimmten Bezirk ein. Zusätzlich wurden individuelle Faktoren wie Alter, Geschlecht, Körpermassenindex (BMI), Rauchen, körperliche Bewegung und Bildung berücksichtigt.

Diabetes mellitus ist eine Stoffwechselstörung, bei der der Blutzuckerspiegel dauerhaft erhöht ist. Besonders häufig ist Typ-2-Diabetes, bei dem der Körper nicht mehr ausreichend auf das Hormon Insulin anspricht. In Regionen mit der höchsten Benachteiligung lag die Häufigkeit von Typ-2-Diabetes bei knapp 9 Prozent und von Adipositas (BMI größer 30) bei 17 Prozent. In gering benachteiligten Gebieten litten 6 Prozent der Befragten an Typ-2-Diabetes und 14 Prozent an Adipositas. Offenbar haben regionale Umstände wie eine materielle und soziale Ungleichheit einen Einfluss auf die Gesundheit. So gibt es in vielen ärmeren Wohngegenden weniger Möglichkeiten für sportliche Aktivitäten, kaum Grünflächen und Fahrradwege sowie eine geringere Ärztedichte. Für effektive Präventionsmaßnahmen müssen regionale und individuelle Risikofaktoren identifiziert und ihr Zusammenspiel ausgewertet werden, betonen die Wissenschaftler.
Heike Kreutz, (aid)

Eine neue Methode ermöglicht einen besseren Ausblick in die Zukunft zu wagen

Eine neue Methode ermöglicht Klimaforschern aus Daten der Vergangenheit einen besseren Ausblick in die Zukunft zu wagen

Bremerhaven, 27. November 2012. Eine der großen Fragen der Klimawissenschaften ist, um wie viel Grad C elsius die globale Temperatur steigt, wenn sich die Konzentration von Kohlendioxid in der Atmosphäre verdoppelt. Viele Wissenschaftler blicken dafür in die Vergangenheit, denn sie verrät, wie die Natur ohne den Einfluss des Menschen auf Klimaveränderungen reagiert hat. Die vielfältigen Forschungsergebnisse erschwerten es Wissenschaftlern bisher, genaue Vorhersagen darüber zu treffen, wie sich der Kohlendioxidanstieg auf die zukünftige Erwärmung auswirkt. Ein internationales Forscherteam hat deshalb die vorhandenen Resultate ausgewertet, kategorisiert und mit einer eindeutigen Terminologie versehen. Dieses Vorgehen soll helfen, die Bandbreite an Ergebnissen einzugrenzen und den Vergleich zwischen vergangenen Klimaveränderungen und den Prognosen über den zukünftigen Temperaturanstieg zu verbessern. Ihre neue Methode stellt die Gruppe in der aktuellen Ausgabe der Fachzeitschrift Nature vor.

Die Forschungsgruppe hat Ergebnisse aus über 20 Studien zusammengefasst, klassifiziert und verglichen, um eine mögliche Vorhersage über den zukünftig zu erwartenden globalen Temperaturanstieg zu treffen. In diesen, als Paläostudien bezeichneten, Arbeiten hatten Wissenschaftler versucht, die so genannte Klimasensitivität rückblickend mit Hilfe von Daten aus beispielsweise Eisbohr- oder Sedimentkernen zu rekonstruieren. Klimasensitivität ist eine wichtige Größe in der Klimawissenschaft. Sie beschreibt, wie die Durchschnittstemperatur auf der Erdoberfläche auf Veränderungen im Klimasystem reagiert. Konkret steht ihr Wert für den globalen Temperaturanstieg, den Klimamodelle berechnen, wenn sich der Kohlendioxidgehalt in der Atmosphäre verdoppelt. Den Anfangswert der Modelle bildet dabei die Kohlendioxidkonzen tration aus der vorindustriellen Zeit.

Das Team stand nun vor der Herausforderung, die zusammengetragenen Studien zu vergleichen. Jede Studie sprach zwar von „Klimasensitivität“, aber nicht alle berücksichtigten dieselben Faktoren. „Wir mussten also zunächst die verschiedenen Annahmen und Unsicherheiten herausarbeiten. Welche Studie berücksichtigte ausschließlich Kohlendioxid, welche beachtete zusätzlich andere Treibhausgase, wie zum Beispiel Methan, oder den Rückstrahleffekt, die sogenannte Albedo, von Eisflächen? Erst dann konnten wir die Daten vergleichen. Zusätzlich haben wir exemplarisch für einen Datensatz berechnet, welche Klimasensitivität wir bekommen, wenn wir beispielsweise nur Treibhausgase wie Kohlendioxid berücksichtigten, oder zusätzlich auch die Albedo“, erläutert Dr. Peter Köhler, Klimawissenschaftler am Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft und einer der Hauptautoren der neuen Veröffentlichung.

Mit Hilfe ihrer neuen Methode konnte die Forschergruppe am Ende zehn unterschiedliche Arten der Klimasensitivität unterscheiden. In einem zweiten Schritt legte sie dann für diese eine eindeutige Terminologie und konkrete Definitionen fest. Die neue Kategorisierung soll verhindern, dass Forscher in Zukunft unter dem Begriff Klimasensitivität eine weite Bandbreite a n Ergebnissen zusammenfassen, denen unterschiedliche Annahmen zugrunde liegen. „Idealerweise erkennt man schon beim ersten Blick auf eine Studie, welche Art der Klimasensitivität hier ermittelt wurde. Man soll also schon anhand der verwendeten Bezeichnung erkennen, welche Faktoren die Wissenschaftler als treibende Kräfte der Temperaturveränderung betrachtet haben. Mit unserer Terminologie geben wir einen konzeptionellen Rahmen, die Klimasensitivität anhand vergangener Klimazustände zu berechnen. Wir hoffen, dass dieser dabei hilft, Vorhersagen über zukünftige Klimaveränderungen besser zu bewerten“, erklärt der Klimawissenschaftler.

Diese Arbeit ist ein wichtiges Ergebnis der Klimawissenschaften. Sie fasst erstmals zusammen, wie Wissenschaftler bisher die Klimasensitivität mittels Daten der vergangenen 65 Millionen Jahre rekonstruiert und welche Annahmen sie hierzu veröffentlicht haben. Darüberhinaus belegt sie, dass die Klimaprognosen, die in den Berichten des Weltklimarates IPCC zusammengefasst sind, mit jenen Ergebnissen übereinstimmten, die aussagen wie die Natur im Laufe der Erdgeschichte auf Klimaveränderungen reagiert hat.

Ein Ziel hat das Forschungsteam allerdings noch nicht erreicht. „Wir hatten gehofft, die Werte der aktuell angenommen Klimasensitivität einschr änken zu können. In seinem letzten Bericht ging der Weltklimarat IPCC davon aus, dass die globale Temperatur um 2,1 Grad Celsius bis 4,4 Grad Celsius ansteigt, wenn sich der Kohlendioxidgehalt in der Atmosphäre gegenüber den Werten aus der vorindustriellen Zeit verdoppelt. Dies ist auch die Bandbreite, in der sich die von uns zusammengefassten Klimasensitivitätswerte momentan bewegen“, sagt Dr. Peter Köhler.

Um genauere Werte zu erhalten, müssten weitere Fragen geklärt werden. Die Wissenschaftler wissen zum Beispiel, dass die Klimasensitivität davon abhängt, welches Hintergrundklima vorherrscht. Also ob man zu einer bestimmten Zeit von e iner Eis- oder Warmzeit sprechen konnte. Doch wie genau sich dieses Hintergrundklima auf die Klimasensitivität auswirke, müsse noch geklärt werden. Der Klimawissenschaftler hofft, dass der in dieser Studie eingeführte konzeptionelle Rahmen die Forschung hierin vorantreibe.

Die Publikation entstand im Rahmen eines dreitägigen Workshop an der Königlich-Niederländischen Akademie der Wissenschaften in Amsterdam, an dem letztes Jahr über 30 Wissenschaftler teilnahmen.

Fettbewusst essen

Tipps und Tricks für den Alltag

(aid) – Fette sind ein wichtiger Bestandteil unserer Nahrung. Erwachsene sollten täglich ungefähr 70 bis 90 Gramm Fett verzehren. Das entspricht rund 30 bis 35 Prozent der täglichen Energiezufuhr: 10 Prozent der täglichen Energiezufuhr sollten einfach ungesättigte Fettsäuren liefern, weitere 7 bis 10 Prozent die mehrfach ungesättigten Fettsäuren. Es bleiben 10 Prozent der täglichen Energiezufuhr, die durch gesättigte Fettsäuren zugeführt werden sollten. Soviel zur Theorie aber was bedeutet das für die Praxis?
Als Faustregel gilt: Flüssige Fette sind hochwertiger als feste. "Je fester es ist, umso mehr gesättigte Fettsäuren enthält ein Fett. Reich an gesättigten Fettsäuren sind die meisten tierischen Fette, aber auch pflanzliche Plattenfette wie Kokosfett", erläutert Ernährungswissenschaftlerin Maria Flothkötter vom aid infodienst.
Die meisten Fette nehmen wir als versteckte Fette auf. Typische "Fettfallen" des Alltags sind hochverarbeitete Produkte wie Fertigpizza, Backwaren, süße und salzige Snacks, aber auch Speisen wie Gratins oder Nudelsoßen, denn sie enthalten reichlich versteckte Fette. Auch Fleisch und Wurst sind häufig fettreich. Aber selbst hier gibt es noch große Unterschiede: "Salami und feine Leberwurst enthalten circa 30 Prozent Fett. Aufschnittsorten aus Muskelfleisch wie Kochschinken und Putenbrust bringen es nur auf 2 bis 4 Prozent Fett", erklärt Flothkötter.
Die Nährwertkennzeichnung informiert zwar über die Mengen, es fällt aber schwer, die Qualität der darin enthaltenen Fette richtig zu beurteilen. Daher sollte rund die Hälfte der Fettzufuhr mit sichtbaren hochwertigen Ölen und Fetten gedeckt werden, denn die sind auf dem täglichen Speiseplan oft Mangelware. "Bereiten Sie Gemüse und Salate möglichst immer mit Pflanzenölen anstelle fertiger Joghurt-Dressings zu. Das Portionieren mit dem Löffel erleichtert es, einen Überblick über die Mengen zu behalten", so Flothkötter. Auch beim Kuchenbacken lassen sich Backfette durch hochwertige Pflanzenöle einfach ersetzen – ein Esslöffel Öl entspricht dabei etwa 10 Gramm Butter. Hierfür eignen sich raffinierte Öle: Die lassen sich auf 180 Grad erhitzen und sind zum Braten und Kochen sehr gut geeignet. Raps- und Sonnenblumenöl sind reich an mehrfach ungesättigten Fettsäuren und daher besonders empfehlenswert.
Auch Milchprodukte sind wichtig für unsere Ernährung. Ihr Fettgehalt ist meist auf der Packung gekennzeichnet. Bei Milch oder Joghurt sind jeweils der prozentuale Fettanteil angegeben – und die Sache klar. Anders bei Käse, denn dort bezieht sich der Fettgehalt immer auf die Trockenmasse (Fett i. Tr.). Multiplizieren Sie den angegebenen Wert bei Hartkäse mit 0,7, bei Weichkäse mit 0,5, dann kennen Sie auch die absolute Fettmenge im Produkt. Ein Tipp: Wählen Sie geschmacksintensive Sorten wie alten Gouda oder Roquefort – da reicht oft die Hälfte auf dem Brot.
aid, Dr. Christina Rempe

Genom eines Fötus entschlüsselt

Genom eines Fötus mit 18 Wochen entschlüsselt
Nicht-invasiver Test für genetisch bedingte Erkrankungen denkbar
 
Fötus: Test wirft ethische Fragen auf Foto: (pixelio.de, Der Arzt)

Seatlle (pte006/08.06.2012/10:20) – Eine Blutprobe der Mutter und Speichel des Vaters haben Wissenschaftler der University of Washington http://www.washington.edu dazu benutzt, das Genom eines Fötus im Mutterleib zu sequenzieren. Zum Zeitpunkt der Untersuchung war der Fötus 18 Wochen alt. Die in "Science Translational Medicine" http://stm.sciencemag.org veröffentlichten Studienergebnisse könnten laut den Forschern zu einem einfachen und sicheren Test für Tausende genetisch bedingte Erkrankungen führen. Sie räumen jedoch auch ein, dass ein derartiger Test viele ethische Fragen aufwerfen würde.

Genkarte aus Fragmenten

Die Forscher nutzten kleine DNA-Abschnitte des Fötus, die im Blut der schwangeren Mutter zu finden sind. Diese Fragmente wurden in einem nächsten Schritt mit der DNA der Eltern als Richtlinie zu einem kompletten Genom des Fötus zusammengesetzt. Diese genetische Karte wurde nach der Geburt mit DNA aus der Nabelschnur verglichen. Die Ergebnisse waren zu 98 Prozent richtig.

Die Wissenschaftler hoffen, dass ihre Studienergebnisse eines Tages für sichere Tests auf genetisch bedingte Erkrankungen eingesetzt werden. Zusätzlich gehen die Wissenschaftler davon aus, das neue genetische Defekte, die bei den Eltern nicht vorhanden sind, von einem weiterentwickelten Test erkannt werden sollten. Derartige Defekte entstehen in der Eizelle, im Sperma oder bei der Zeugung.

Test noch nicht ausgereift

Beim untersuchten Fötus konnten 44 neue Mutationen nachgewiesen werden. Die Untersuchung in der 18. Schwangerschaftswoche hatte 39 davon identifiziert. Das Screening ergab aber auch 25 Millionen mögliche neue Mutationen oder falsche positive Ergebnisse. Jay Shendure, einer der beteiligten Forscher, betonte, dass diese Studie die Möglichkeit eröffne, dass man das gesamte Genom eines Fötus mit einem einfachen, nicht-invasiven Test auf mehr als 3.000 durch ein Gen verursachte Erkrankungen untersuchen kann.

Frage der Ethik

David Bonthron von der University of Leeds http://www.leeds.ac.uk erklärte gegenüber der BBC, dass diese Idee "sehr interessant, sehr klug aber auch technisch sehr anspruchsvoll" sei. Der Molekularmediziner hält einen klinischen Einsatz erst in einigen Jahren für realistisch. Vor allem würden derartige Tests die Frage aufwerfen, was mit diesen Informationen anzufangen sei. "Es geht darum, was eine Gesellschaft für akzeptabel hält", so der Forscher.

Eine Warnung vor der Umsetzung kommt von Josephine Quintavalle von der Pro-life Alliance http://prolife.org.uk . Die Expertin erklärte, dass die gewonnenen Informationen an sich neutral sein mögen. Genetische Tests im Mutterleib führten derzeit jedoch fast unvermeidlich zu einer Abtreibung. "Desto einfacher und genauer ein derartiger Test ist, desto wahrscheinlicher ist auch, dass die Anzahl der Abtreibungen zunehmen wird."

Nicht-invasiver Test für genetisch bedingte Erkrankungen denkbar
 
Fötus: Test wirft ethische Fragen auf Foto: (pixelio.de, Der Arzt)

Seatlle (pte006/08.06.2012/10:20) – Eine Blutprobe der Mutter und Speichel des Vaters haben Wissenschaftler der University of Washington http://www.washington.edu dazu benutzt, das Genom eines Fötus im Mutterleib zu sequenzieren. Zum Zeitpunkt der Untersuchung war der Fötus 18 Wochen alt. Die in "Science Translational Medicine" http://stm.sciencemag.org veröffentlichten Studienergebnisse könnten laut den Forschern zu einem einfachen und sicheren Test für Tausende genetisch bedingte Erkrankungen führen. Sie räumen jedoch auch ein, dass ein derartiger Test viele ethische Fragen aufwerfen würde.

Genkarte aus Fragmenten

Die Forscher nutzten kleine DNA-Abschnitte des Fötus, die im Blut der schwangeren Mutter zu finden sind. Diese Fragmente wurden in einem nächsten Schritt mit der DNA der Eltern als Richtlinie zu einem kompletten Genom des Fötus zusammengesetzt. Diese genetische Karte wurde nach der Geburt mit DNA aus der Nabelschnur verglichen. Die Ergebnisse waren zu 98 Prozent richtig.

Die Wissenschaftler hoffen, dass ihre Studienergebnisse eines Tages für sichere Tests auf genetisch bedingte Erkrankungen eingesetzt werden. Zusätzlich gehen die Wissenschaftler davon aus, das neue genetische Defekte, die bei den Eltern nicht vorhanden sind, von einem weiterentwickelten Test erkannt werden sollten. Derartige Defekte entstehen in der Eizelle, im Sperma oder bei der Zeugung.

Test noch nicht ausgereift

Beim untersuchten Fötus konnten 44 neue Mutationen nachgewiesen werden. Die Untersuchung in der 18. Schwangerschaftswoche hatte 39 davon identifiziert. Das Screening ergab aber auch 25 Millionen mögliche neue Mutationen oder falsche positive Ergebnisse. Jay Shendure, einer der beteiligten Forscher, betonte, dass diese Studie die Möglichkeit eröffne, dass man das gesamte Genom eines Fötus mit einem einfachen, nicht-invasiven Test auf mehr als 3.000 durch ein Gen verursachte Erkrankungen untersuchen kann.

Frage der Ethik

David Bonthron von der University of Leeds http://www.leeds.ac.uk erklärte gegenüber der BBC, dass diese Idee "sehr interessant, sehr klug aber auch technisch sehr anspruchsvoll" sei. Der Molekularmediziner hält einen klinischen Einsatz erst in einigen Jahren für realistisch. Vor allem würden derartige Tests die Frage aufwerfen, was mit diesen Informationen anzufangen sei. "Es geht darum, was eine Gesellschaft für akzeptabel hält", so der Forscher.

Eine Warnung vor der Umsetzung kommt von Josephine Quintavalle von der Pro-life Alliance http://prolife.org.uk . Die Expertin erklärte, dass die gewonnenen Informationen an sich neutral sein mögen. Genetische Tests im Mutterleib führten derzeit jedoch fast unvermeidlich zu einer Abtreibung. "Desto einfacher und genauer ein derartiger Test ist, desto wahrscheinlicher ist auch, dass die Anzahl der Abtreibungen zunehmen wird."

Rosmarin in der Küche

**Rosmarin in der Küche**
Der Duft des Mittelmeers

(aid) – Rosmarin zaubert ein mediterranes Flair in die Küche. Sein

leicht harziges bis rauchiges Aroma verfeinert viele Speisen wie Lamm,

Geflügel, Kartoffeln und Gemüse.

Frische junge Zweige sind zur Herstellung eines Kräuteröls gut

geeignet. Dafür werden sie im heißen Ofen kurz getrocknet,

abgekühlt und mit etwas Meersalz und Pfefferkörnern in eine Flasche

gegeben. Anschließend mit Olivenöl auffüllen und an einem dunklen

Ort zwei bis drei Wochen ziehen lassen.

Getrocknete Rosmarinblätter schmecken kräftiger als Frischware. Sie

sollten sehr vorsichtig dosiert werden und dürfen auch länger

mitgaren. Frische ganze Zweige gibt man kurz vor Ende der Garzeit

hinzu und entfernt sie vor dem Servieren wieder.

Botanisch gesehen gehört Rosmarin (Rosmarinus officinalis) zur

Familie der Lippenblütler. Die mehrjährige Pflanze ist ein

immergrüner, dicht verzweigter Strauch, der bis zu zwei Meter hoch

werden kann. Die nadelförmigen derben Blätter sitzen direkt am

Zweig. Sie sind auf der Oberseite glatt, während die Unterseite mit

winzigen weißlichen Haaren besetzt ist. Rosmarin ist im

Mittelmeerraum heimisch und wächst auch heute noch wild in der

typischen Halbstrauchvegetation, auch Macchia genannt. Die römischen

Seefahrer gaben dem Kraut den Namen „Ros marinus“, was „Tau des

Meeres“ bedeutet. Denn der intensive Duft lag über dem Meer, noch

bevor die Küste zu sehen war. In den mittelalterlichen Klöstern

baute man Rosmarin wegen seiner anregenden und

durchblutungsfördernden Wirkung als Heilkraut an. In den Blättchen

stecken wertvolle ätherische Öle und Flavonoide (sekundäre

Pflanzenstoffe), Harze, Bitter- und Gerbstoffe.

Im Handel sind frische Rosmarinzweige und Rosmarin als Topfpflanze

erhältlich. Im eigenen Garten kann die Gewürzpflanze im

Sommerhalbjahr im Kübel gehalten werden. An einem sonnigen und

geschützten Standort gedeiht sie am besten. Das ganze Jahr über

können Triebspitzen und Blätter nach Bedarf geerntet werden.

Heike Kreutz

Europaweite Forschung für den Ökolandbau

Europaweite Forschung für den Ökolandbau
Deutschland an sieben neuen Projekten beteiligt
***********************************************************
(aid)
– Die europäische Forschung rund um zentrale Fragen des ökologischen
Landbaus wird bis 2018 auf EU-Ebene fortgesetzt. Im Zuge der
Verlängerung des sogenannten Core Organic-Programms starteten im
Frühjahr 2015 elf neue Forschungsprojekte, die jeweils von
Wissenschaftlern aus mindestens drei europäischen Ländern gemeinsam
bearbeitet werden. An sieben der elf Projekte sind auch deutsche
Forschungseinrichtungen beteiligt. Sie erhalten dafür Mittel aus dem
Bundesprogramm Ökologischer Landbau und andere Formen nachhaltiger
Landwirtschaft (BÖLN).

Inhaltlich decken die Projekte alle
wesentlichen Bereiche der ökologischen Erzeugung ab. Sie reichen von der
Interaktion zwischen Boden und Kulturpflanze über die Förderung der
Biodiversität zur Kontrolle von Krankheiten und Unkräutern bis zur
Verbesserung der Qualität von Bioprodukten. Auch das Management und die
Züchtung rund um die Tiergesundheit werden berücksichtigt.

In
den angelaufenen Studien mit deutscher Beteiligung geht es um neue
Ansätze im ökologischen Obstbau zur gezielten Förderung von Nützlingen,
mit denen sich die Ausbreitung von Schadinsekten und Krankheiten
eindämmen lässt. In einem weiteren Projekt sollen neue Strategien für
die ökologische Milchviehhaltung erarbeitet werden. Im Einzelnen geht es
um die Frage, wie sich durch Züchtung und Management Euterentzündungen,
Stoffwechselprobleme und andere Erkrankungen eindämmen lassen. Zur
Optimierung der Wertschöpfungskette wurde ein Projekt gestartet, in dem
der Anteil erwünschter und unerwünschter Inhaltsstoffe in Säften,
Trockenobst und Marmeladen aus Biogemüse und -obst optimiert werden
soll.

Die weiteren Projekte behandeln die vorbeugende
Bekämpfung von Weideparasiten bei Rindern, die Untersuchung von
Leistungsmerkmalen klassischer Zweinutzungsrassen bei Milchvieh, die
positiven Effekte einer vielfältigen Unkrautflora und die Erstellung
eines Leitfadens für die Verarbeitung ökologischer Produkte.
Jürgen Beckhoff, www.aid.de

Krebsdiagnose im monetären Spannungsfeld

Gesetzliche Krankenkassen blockieren neuartige Technik zur Krebsfrüherkennung

Bonn/Berlin (pte/03.09.2005/10:00) – In den Industrieländern sterben
die meisten Menschen an so genannten "Volkskrankheiten". Bösartige
Tumore und die Erkrankungen des Herz- und Gefäßsystems stellen heute
die mit Abstand häufigste Todesursache dar. Allein in Deutschland
erkranken jährlich von 1.000 Menschen vier an Krebs und fünf an einem
Herzinfarkt. Da es immer mehr alte Menschen gibt, steigen die Kosten
für die Krankenkassen unaufhörlich. Rund zwei Drittel aller
Krebserkrankungen könnten vermieden werden, wenn die Menschen gesund
leben würden, sagt die Deutsche Krebshilfe http://www.krebshilfe.de.
Prävention und Prognostik sind nötig, um Gesundheitsrisiken frühzeitig
zu erkennen und teure Behandlungsmethoden zu vermeiden.

"Die gesetzlichen Krankenkassen bemühen sich schon seit einiger Zeit,
das Thema Prävention aktiv zu nutzen. Sie wollen damit
Behandlungskosten für ihre Versicherten einsparen. Außerdem wissen die
Kassen, dass sich die diversen Programme sehr gut zur Profilierung am
Markt eignen", so Michael Sander, Geschäftsführer der TCP Terra
Consulting Partners GmbH http://www.terraconsult.de und
Vorstandsmitglied des CareHelix Instituts für Management und Dialog im
Gesundheitswesen (CIM) http://www.carehelix-institut.de im Gespräch
pressetext.

Nach Ansicht des Nuklearmediziners und Radiologen Professor Dr. Jürgen
Ruhlmann, Gründer des Medizin Centers Bonn http://mcbonn.de , könnte
bei der Krebsvorsorge aber noch wesentlich mehr getan werden. "Die
Nuklearmedizin und die Radiologie leisten mit Vorsorge- und
Diagnostikverfahren wie zum Beispiel dem PET-CT einen großen Beitrag
zur Früherkennung und zum Therapiemonitoring. In den Vereinigten
Staaten, in Italien, der Schweiz und Belgien zahlen die gesetzlichen
Krankenkassen für dieses hochsensible Verfahren. In Deutschland leider
nicht, da die Diskussion über PET-CT nicht sachgerecht geführt wird",
sagte Ruhlmann gegenüber pressetext. Die PET-CT ist eine
Fortentwicklung der PET (Positronen Emissions Tomographie), in der die
funktionellen Informationen der PET-Untersuchung und die strukturellen
und räumlichen Informationen der Röntgen-CT-Untersuchung in einer
PET-CT-Untersuchung zusammengefasst sind.

"Mit unserer neuen Technologie ist ein Quantensprung in der Diagnostik
möglich", meint Ruhlmann, der an zwei deutschen Hochschulen lehrt. Er
gründete 1994 das erste private PET-Zentrum in Deutschland und gilt als
Entwickler des Bonner Modells, der Kooperation einer privaten
Institution mit einer Universitätsklinik. Das PET-CT-Modell habe
zahlreiche Vorteile: Es biete eine optimale Kombination funktioneller
und anatomischer Informationen. Die Untersuchungszeit sei mit acht bis
15 Minuten extrem kurz. Außerdem zeichne sich das Verfahren durch eine
vielfach erhöhte Nachweisempfindlichkeit gegenüber Röntgenaufnahmen
aus. Der erste PET-CT-Scanner wurde im Mai 1998 als Prototyp im
PET-Zentrum in Pittbsburgh installiert. Ruhlmann kritisiert, dass diese
neuartige Technik nicht in den Leistungskatalog der gesetzlichen
Krankenkassen aufgenommen wird: "Der Deutsche Wissenschaftsrat hat
schon vor längerer Zeit gefordert, dass die gesetzlichen Kassen die PET
endlich in ihren Leistungskatalog aufnehmen sollen. In den USA ist das
schon vor mehreren Jahren geschehen. Ich bin der Meinung, dass hier das
Wort von Max Planck gilt, das ich etwas ergänzt habe: Eine geniale
Methode setzt sich nicht durch, weil sie so hervorragend ist, sondern
weil die Ignoranten, Besserwisser und Neider aussterben."