Alle Beiträge von Balu

Arbeit hält Ruheständler gesund

Körper und Geist profitieren von Altersteilzeit-Modellen

  
College Park/Klosterneuburg (pte/14.10.2009/12:45) – Statt völlig in Ruhestand zu gehen, sollten Senioren bei ihrer offiziellen Pensionierung besser in die Altersteilzeit wechseln. Das würde das Krankheitsrisiko verringern, die Bewältigung des Alltags fördern und geistige Funktionen besser erhalten, berichten Psychologen der Universität Maryland http://www.umd.edu im Journal of Occupational Health Psychology. Ausgehend von den Ergebnissen einer landesweiten Studie in den USA schlagen die Wissenschaftler eine "Übergangsbeschäftigung" in Form einer Halbtagsstelle, einer freiberuflichen Tätigkeit oder einer vorübergehende Aushilfstätigkeit vor. "Die Suche nach einer passenden Beschäftigung in der Pension kann Senioren den Übergang in den Ruhestand erleichtern und zum Erhalt körperlicher und geistiger Gesundheit beitragen", so Studien-Mitautorin Kenneth Shultz.

Ausgewertet wurde die "Health and Retirement Study", die 12.000 Teilnehmer im Pensionsantrittsalter sechs Jahre lang regelmäßig nach Gesundheit, Finanzen, Beschäftigung sowie Arbeits- oder Pensionsalltag befragte. Zur Feststellung der Gesundheit wurden ärztliche Beobachtungen zu Bluthochdruck, Diabetes, Krebs, Herz- und Lungenkrankheiten, Schlaganfall oder psychiatrische Probleme berücksichtigt, daneben auch demografische Angaben. Es zeigte sich, dass Pensionisten mit Übergangsbeschäftigungen gesünder waren als Renter im völligen Ruhestand. Auch die geistige Fitness, die man per Fragebogen erhob, blieb bei Arbeitstätigkeit eher erhalten. Weniger Vorteile zeigten sich allerdings, wenn nach der Pensionierung ein Wechsel in neue Berufsfelder stattfand, was vor allem bei finanziellen Engpässen der Fall war. Als Ursache vermuten die Studienautoren Anpassungsprobleme an neue Arbeitsbedingungen. "Erfolgt der Spartenwechsel nicht freiwillig sondern infolge einer Notwendigkeit, können die Vorteile einer Übergangsbeschäftigung oft nicht ausgenutzt werden", so Studienleiter Mo Wang.

Dass Altersteilzeit eine gute Übergangsform in den Ruhestand darstellt, betont auch Stefan Bayer, Präsident der österreichischen Akademie für Arbeitsmedizin http://www.aam.at im pressetext-Interview. "Oft schieben Menschen Unternehmungen wie etwa Reisen auf die Zeit nach der Pensionierung auf. Erreichen sie jedoch dieses abrupte Ende von 40 auf null Arbeitsstunden, empfinden sie dies oft wie den Sturz in einen Abgrund. Gerade in dieser Phase kommt es oft zu bösartigen Erkrankungen", erklärt der Mediziner. Erklärbar sei dies durch die stressbedingte Hormonausschüttung, die die totale Lebensumstellung mit sich ziehe, sowie durch das Gefühl, nicht mehr gebraucht zu werden. "Eine Weiterführung der Berufstätigkeit in reduzierter Form vermittelt hingegen das Bewusstsein, weiterhin einen sinnvollen Beitrag liefern zu können. Daneben können auch die Firmen vom Potenzial ihrer pensionierten Mitarbeiter profitieren", so Bayer.

Der Arbeitsmediziner empfiehlt Mitarbeitern kurz vor dem Pensionsantritt, mit ihren Betrieben ein Modell des Übergleitens in den Ruhestand auszuhandeln. "Trotz geringerer Arbeitsstunden und Gehalt kann so die Verbindung eines Mitarbeiters mit dem Unternehmen weiter aufrecht erhalten werden." Umgesetzt werde das bisher am ehesten in Banken, im Dienstleistungsbereich oder in der Industrie, wenn Pensionisten etwa als Tutoren für die Einschulung von Berufsanfängern herangezogen werden. Dieses Modell sei allerdings in der Praxis durch zahlreiche Hürden belegt, sei es der Verlust der Pensionszahlungen ab bestimmter Einkommensgrenze oder die Versicherungsproblematik. "Scheint es auch demografisch sehr wahrscheinlich, dass die Altersteilzeit in Zukunft stärker betont wird, spricht die derzeitige Arbeitsmarktpolitik eine andere Sprache", kritisiert Bayer.

Hightech-Seidenfasern regenerieren Körpergewebe

(pte006/12.04.2016/06:00) – Das von einer Gruppe oberitalienischer
Ingenieure und Techniker gegründete Start-up Silk Biomaterials http://silkbiomaterials.com hat ein innovatives Verfahren für die rekonstruierende Medizin
entwickelt. Mithilfe von Seidengarn kann verloren gegangenes
menschliches Gewebe zurückgewonnen werden. Damit eröffnen sich neue
Heilungsmöglichkeiten für Millionen von Menschen.

Mechanische Stabilität

Es handelt sich um ein Gebilde aus Seidenfäden in Mikro- und Nanogröße,
die im menschlichen Körper das Gerüst zur Bildung neuer Blutgefäße
liefern. "Dieses feinfaserige Material ist vollkommen biokompatibel und
regt die Zellvermehrung im Gewebe an", erklärt der für die Techniksparte
zuständige Ingenieur Antonio Alessandrino. Während das mikrofibrose
Fibroin für die biologischen Eigenschaften zuständig ist, sorgt das
nanofibrose Fibroin für die mechanische Stabilität. Es sei auch für
Einsatzzwecke im peripheren Nervengewebe und in der Onkologie geeignet.

Die im Firmeninkubator Comonext untergebrachte Silk Biomaterials hat
bereits durch den von öffentlichen Institutionen und Industrieverbänden
geförderten Premio dei Premi http://cotec.it fachliche Anerkennung gefunden. Inzwischen geht es darum, frisches
Kapital zur Fortführung des Projekts aufzutreiben. "Wir rechnen damit,
dass die vorklinische Testphase bis 2018 abgeschlossen sein wird", so
Silk-Biomaterials-Hauptgeschäftsführer Gabriele Grecchi. Danach soll das
weltweit bisher einzigartige Verfahren an Menschen getestet werden.

HADES und die Suche nach der Dunklen Materie

HADES und die Suche nach der Dunklen Materie

Obwohl sie das Weltall dominieren, kennt niemand ihre genaue
Beschaffenheit: Dunkle Materie und Dunkle Energie. Im HADES-Experiment
fahnden Wissenschaftler des Helmholtz-Zentrums Dresden-Rossendorf (HZDR)
gemeinsam mit Physikern aus 17 europäischen Instituten nach „dem
Teilchen“, das die Dunkle Materie erklären soll. Wie kürzlich in der
Fachzeitschrift "Physics Letters B" berichtet, scheidet das Dunkle
Photon, auch U-Boson genannt, als möglicher Kandidat zunächst aus.

Die wohl größten Rätsel in der Astrophysik sind die Dunkle Energie und
die Dunkle Materie. Die Dunkle Energie macht 75 Prozent des Universums
und die Dunkle Materie etwa 20 Prozent aus; die uns bekannte Welt
beschränkt sich damit auf lediglich rund fünf Prozent der Materie. Ohne
Dunkle Energie und Materie können weder die Ausdehnung des Universums
noch dessen Dichteverteilung – und damit Strukturen wie Galaxien,
Sterne, Planeten und andere kompakte Objekte – erklärt werden. Dabei ist
die Existenz von Dunkler Energie und Dunkler Materie nur theoretisch;
einen direkten Nachweis gibt es bislang nicht. Antworten erhofften sich
Wissenschaftler durch das Aufspüren unbekannter Teilchen, die nicht in
das Standardmodell der Teilchenphysik passen.

„Das negative Resultat der aktuellen HADES-Experimente ist sehr wichtig,
denn es zeigt, dass wir die Dunkle Materie auch in minimalen
Abweichungen innerhalb des Standardmodells suchen müssen“, erläutert
Professor Burkhard Kämpfer, Leiter der Hadronenphysik-Gruppe am Dresdner
Helmholtz-Zentrum. Eine neue heiße Spur liefern etwa die magnetischen
Momente der Myonen – das sind Elementarteilchen, die den Elektronen
ähneln. Professor Kämpfer: „Bei hochpräzisen Experimenten wurden
Hinweise auf Diskrepanzen des Standardmodelles entdeckt, womit sich die
Grenzen der Physik, wie wir sie heute kennen, verschieben würden.“

Das Standardmodell führt den Aufbau der Materie auf einige wenige
Bausteine zurück. Aus den Materieteilchen (Quarks, Elektronen und
Neutrinos) setzen sich die Atomkerne und Atome zusammen, aus denen auch
wir alle bestehen. Den Kleber, der die Welt zusammenhält, bilden die
Kraft- oder Wechselwirkungsteilchen (z.B. die Photonen bzw.
Lichtteilchen). Dazu gehört etwa auch das Higgs-Teilchen, dessen
Vorhersage im Jahr 2013 mit dem Nobelpreis ausgezeichnet wurde. Nur
durch die Interaktion mit dem Higgs-Boson ist erklärlich, wie einige der
Teilchen zu ihrer Masse kommen. Das Standardmodell kann damit eigentlich
als komplett gelten.

Bausteine der Dunklen Materie

Als Dunkle-Materie-Teilchen scheint keiner der bekannten Kandidaten in
Frage zu kommen. So ist die Suche nach diesen Teilchen wie die berühmte
Suche nach der Nadel im Heuhaufen. „Wir kennen weder die Nadel, also das
Teilchen, noch den Heuhaufen, d.h. seinen Aufenthaltsort in der
Unendlichkeit des Universums; vermutet wird aber eine Konzentration in
Galaxien “, so Professor Kämpfer. „Unsere Detektoren, die wir eigens für
das riesige HADES-Spektrometer am GSI Helmholtzzentrum für
Schwerionenforschung in Darmstadt entwickelt und gebaut haben, helfen
bei dieser Suche. Sie können einzelne Spuren, die aus dem Zusammenprall
von Teilchen herrühren, sehr genau detektieren.“

Für die Physiker, die sich in der europäischen HADES-Kollaboration
(High-Acceptance Di-Electron Spectrometer) zusammengeschlossen haben,
galt das Dunkle Photon als vielversprechender Kandidat für ein
Dunkle-Materie-Teilchen. Dieses wird auch U-Boson genannt, was mit der
sogenannten „U"-Symmetrie zusammenhängt. Sie macht das Dunkle Photon
einerseits zu einem Doppelgänger „normaler“ Lichtteilchen, ermöglicht
ihm andererseits aber auch, in eine sehr schwache Wechselwirkung mit
normaler Materie zu treten. Daher gehen die Wissenschaftler davon aus,
dass das Dunkle Photon genau wie ein gewöhnliches Photon in ein
Elektron-Positron-Paar zerfallen muss. Mit dem Dunklen Photon war die
Nadel also vorerst theoretisch identifiziert, als Heuhaufen entpuppten
sich spezifische Verteilungen von Elektron-Positron-Paaren, die bei der
Kollision von Teilchen an einem großen Beschleuniger entstehen.
Messsignale am HADES-Detektor im Ergebnis aktueller Experimente
enttäuschten nun aber die Erwartung der Physiker. Es fand sich nicht die
allerkleinste Spur eines Dunklen Photons.

Das HADES-Experiment

Ein bewährtes Mittel zur Erzeugung von Elektron-Positron-Paaren ist es,
verschiedene Teilchen zu beschleunigen und mit sehr hoher
Geschwindigkeit aufeinanderprallen zu lassen. In den Experimenten kommen
Strahlen aus Protonen, Deuteronen (diese setzen sich aus einem Neutron
und einem Proton zusammen) oder Atomkernen zum Einsatz, die auf
Ziel-Protonen oder -Kerne treffen. Tritt das seltene Ereignis ein und
ein Elektron-Positron-Paar entsteht, können Wissenschaftler dies als
messbares Signal detektieren, etwa mit dem einmaligen Detektorsystem
HADES. Die im HZDR gebauten Detektoren für HADES bestehen aus sechs
Ebenen mit einem dichten Netz aus Drähten zum Aufspüren von geladenen
Teilchen. Diese Drähte besitzen eine Positionsgenauigkeit von 25
Mikrometern (ein Mikrometer entspricht einem Tausendstel Millimeter),
und das bei einer Dicke, die dem Durchmesser eines menschlichen Haares
entspricht. Das HADES-System hat bislang etwa zehn Milliarden
analysierbare Ereignisse gesammelt.

Internationale Beschleunigerkonferenz in Dresden

Vom 15. bis zum 20. Juni 2014 findet in Dresden die „International
Particle Accelerator Conference (IPAC)“ statt. Etwa 1.500
Beschleunigerphysiker und Detektorexperten aus Europa, Amerika und Asien
werden erwartet, wobei Vertreter aller großen Beschleunigerzentren
zugegen sein werden. Für die Ausrichtung vor Ort ist das
Helmholtz-Zentrum Dresden-Rossendorf (HZDR) zuständig. An der
Organisation beteiligen sich zudem das Helmholtz-Zentrum Berlin, das
Deutsche Elektronen-Synchrotron DESY und natürlich das Helmholtzzentrum
für Schwerionenforschung GSI aus Darmstadt.

_Publikation: G. Agakishiev u.a. (HADES Collaboration), Phys. Lett. B
731, 265 (2014), DOI-Link:

Strom aus Erneuerbaren Energien immer günstiger zu haben

Strom aus Erneuerbaren Energien immer günstiger zu haben
Sinkende Investitionskosten verbessern Wettbewerbsfähigkeit gegenüber fossilen Energien

Berlin, 28. November 2012. Heutige Investitionen in Erneuerbare Energien sichern stabile Strompreise von morgen. Weil die klimafreundliche Elektrizität keine endlichen Ressourcen als Brennstoff benötigt, liegen die Betriebskosten von Erneuerbare-Energien-Anlagen in der Regel weit unter denen fossiler Kraftwerke. Bei den notwendigen Anfangsinvestitionen für den Bau der Stromerzeugungsanlagen sah es bisher anders aus. Doch die Kostenschere schließt sich zunehmend. Während die Investitionskosten für Anlagen auf Basis Erneuerbarer Energien sinken, ist der Bau fossiler Kraftwerke in den letzten Jahren teurer geworden. Einen Überblick über die Investitionskosten für Kohle- und Gaskraftwerke einerseits und Anlagen zur Nutzung Erneuerbarer Energien andererseits gibt ein neuer Studienvergleich der Agentur für Erneuerbare Energien unter www.energie-studien.de.

Die Investitionskosten für neue Kraftwerke sind neben den Brennstoffkosten der wichtigste Bestimmungsfaktor für die Stromgestehungskosten. Der neue Studienvergleich des �Forschungsradars Erneuerbare Energien� zeigt hier einen klaren Trend: Investitionen in die Stromerzeugung auf Basis Erneuerbarer Energien werden immer günstiger, während der Bau konventioneller Kraftwerke in den letzten Jahren teurer geworden ist. Für die etablierten Technologien ist dabei auch in Zukunft nicht mehr mit nennenswerten Kostensenkungen zu rechnen, während die noch relativ jungen Technologien zur Nutzung Erneuerbarer Energien auf ihren Lernkurven weiter voranschreiten. �Die finanziellen Belastungen durch die Energiewende werden sehr kritisch diskutiert. In dieser Debatte gerät oft aus dem Blick, dass das Beharren auf einer fossil-nuklearen Energieversorgung keineswegs stabile Strompreise bedeuten würde. Mit der Abhängigkeit von immer teurer werdenden fossilen und atomaren Energieträgern und notwendigen Neuinvestitionen in konventionelle Kraftwerke gibt es starke Triebkräfte für künftige Strompreisanstiege�, erklärt der Geschäftsführer der Agentur für Erneuerbare Energien, Philipp Vohrer.

Kosten Erneuerbarer Energien stark gesunken

�Der starke Zubau in den vergangenen Jahren hat insbesondere bei der Windenergie und der Photovoltaik zu erheblichen Kostendegressionen geführt, die sich an den gesunkenen EEG-Vergütungen für Neuanlagen ablesen lassen�, betont Vohrer. Zugleich mache man sich durch den konse¬quenten Ausbau der Erneuerbaren Energien unabhängiger von den techni¬schen und wirtschaftlichen Risiken der fossil-atomaren Energiewirtschaft. Durch den Verzicht auf endliche Rohstoffe wie Stein- oder Braunkohle haben Erneuerbare-Energien-Anlagen viel geringere Betriebskosten als ihre fossilen Pendants. Vohrer: �Das wird sich in den kommenden Jahren und Jahrzehnten zunehmend kostendämpfend auf den Stromrechnungen der Verbraucher bemerkbar machen.�

Eine untergeordnete Rolle für die Stromgestehungskosten fossiler Kraftwerke spielen bisher die Zertifikatspreise für den Ausstoß von Kohlendioxid im Rahmen des europäischen Emissionshandels. An der Leipziger Strombörse EEX notieren die Preise derzeit unter 7 Euro je Tonne CO2-Ausstoß. Die Umweltschäden durch den Ausstoß des Klimagases werden von Forschern jedoch bei mehr als dem Zehnfachen dieses Wertes angesetzt. �Das zeigt, dass die heutigen Marktpreise den Wert der Erneuerbaren Energien nicht widerspiegeln�, kritisiert Vohrer.

Der neue Studienvergleich im Forschungsradar ist im Netz zu finden unter:
http://www.energie-studien.de/de/service/mediathek/grafik-dossiers-studien-im-vergleich/detailansicht/article/studienvergleich-entwicklung-der-investitionskosten-neuer-kraftwerke.html

So lassen sich Kartoffeln aufbewahren

Kühl, trocken, dunkel, so lagern Sie Kartoffeln richtig.

Sind die Bedingungen optimal, lassen sich Kartoffeln – auch in größeren Mengen – wochen- und sogar monatelang lagern. Kühl, frostfrei, trocken und dunkel sollte der Lagerort sein. Die optimale Temperatur für die Lagerung liegt zwischen vier und sechs Grad Celsius. Unter vier Grad Celsius wandelt sich die Stärke in Zucker um, und die Kartoffeln schmecken dann unangenehm süß. Bei Temperaturen über acht Grad Celsius beginnen die Kartoffeln schnell zu keimen. Außerdem sollten Kartoffeln vor Licht geschützt werden, da sie unter Lichteinwirkung Solanin bilden. Dieser Giftstoff befindet sich vor allem in der Schale, den grün gefärbten Stellen und in Keimen. Daher müssen in jedem Fall die Schale entfernt und die entsprechenden Stellen großzügig herausgeschnitten werden.

Früher wurden die Knollen in größeren Mengen auf Lattenrosten oder hölzernen Horden im Keller gelagert – damals der ideale Aufbewahrungsraum für Kartoffeln. Heute sind solche Kartoffelkeller kaum noch zu finden. Und auch Vorratsräume als alternativer Lagerort für die Knollen sind mittlerweile selten. Daher ist es sinnvoll, je nach Bedarf öfters kleinere Mengen an Kartoffeln zu kaufen und sie rasch zu verbrauchen. Auch für eine kleine Kartoffelmenge gilt: Die Knollen möglichst kühl, trocken und dunkel aufbewahren. Am besten die Kartoffeln nicht in der Folienpackung aufbewahren, da sich sonst schnell Feuchtigkeit und dann Schimmel bilden kann. Sind die Knollen mit Papier oder Säcken abgedeckt, schränkt dies die Verdunstungsverluste ein und verhindert ein vorzeitiges Schrumpfen und Ergrünen. Falls nötig lassen sich Kartoffeln auch mal kurzzeitig im Kühlschrank bei Temperaturen von minimal vier Grad Celsius zwischenlagern.
Dr. Claudia Müller, (aid)

aid: Infodienst für Ernährung, Landwirtschaft und Verbraucherschutz. Der gemeinnützige Verein löste sich 2016 auf.

Volksverschlüsselung muss kommen

Volksverschlüsselung muss kommen

Gesellschaft für Informatik unterstützt
Initiative des Fraunhofer SIT zur Volksverschlüsselung und fordert mehr
Anstrengungen seitens der Bundesregierung

Bonn/Berlin, 02. Februar 2017 – Die Gesellschaft
für Informatik e.V. (GI) sieht die vom Fraunhofer-Institut für Sichere
Informationstechnologie (SIT) entwickelte Volksverschlüsselung auf dem
richtigen Weg zur flächendeckend sicheren E-Mail.  Mit einer Erweiterung
auf Klasse-1-Zertifikate und mit der Anbindung an eine allgemein
akzeptierte Zertifizierungsstelle könnte dieses Ziel bei entsprechender
Unterstützung durch die Bundesregierung auch zügig erreicht werden. 

Prof. Dr. Hannes Federrath, Vizepräsident der
Gesellschaft für Informatik und IT-Sicherheitsexperte von der
Universität Hamburg: „Trotz jahrelanger Bemühungen gibt es immer noch
keine einfache Lösung, mit der sich Nutzer vor der massenhaften
Ausforschung ihrer E-Mail-Nachrichten schützen können. Die bisherigen
Lösungsansätze zur Verschlüsselung des E-Mail-Verkehrs sind entweder
nicht benutzerfreundlich oder es handelt sich um Insellösungen, die
nicht mit dem existierenden E-Mail-System kompatibel sind.  Daraus
resultieren erhebliche Eintritts- und Nutzungsbarrieren, die einer
weiten Verbreitung entgegenstehen. 

Die Gesellschaft für Informatik begrüßt es daher,
dass inzwischen in mehreren Projekten daran gearbeitet wird, die
Benutzbarkeit der existierenden, wohluntersuchten Techniken zur
Ende-zu-Ende-gesicherten Übertragung von E-Mails zu verbessern. 
Aussichtsreich erscheinen insbesondere solche Ansätze, die S/MIME
nutzen, da diese Technik von den gängigen Desktop- und
Smartphone-Betriebssystemen ohne zusätzliche Software unterstützt wird.“

Initiativen wie die vom Fraunhofer SIT entwickelte Volksverschlüsselung (www.volksverschluesselung.de)
sind nach Auffassung der GI wegweisend.  Zum einen erzeugen sie
Aufmerksamkeit und tragen zur Verbreitung des Themas bei; zum anderen
verfolgen sie einen nutzerzentrierten Ansatz, der nicht nur
Schlüsselerzeugung und Zertifizierung, sondern auch den
Schlüsselaustausch und die Konfiguration der E-Mail-Programme abdeckt.

Prof. Dr. Hartmut Pohl, Sprecher des
GI-Präsidiumskreises Datenschutz und IT-Sicherheit und Geschäftsführer
der SoftScheck GmbH: „Das aktuelle Konzept der Volksverschlüsselung
weist allerdings einige Verbesserungsmöglichkeiten auf, die nach
Auffassung der Gesellschaft für Informatik einer schnellen Verbreitung
entgegenstehen. 

Erstens sieht das Konzept ausschließlich die
Ausstellung von Klasse-3-Zertifikaten vor, bei dem die Nutzer ihre
Identität nachweisen müssen. Dies stellt eine erhebliche
Eintrittsbarriere dar, da der Identitätsnachweis mit einem spürbaren
Aufwand für den Nutzer verbunden ist und nicht vollautomatisch ablaufen
kann.  Zudem steht dies einer schnellen und weiten Verbreitung entgegen.
Die GI empfiehlt daher, auch Klasse-1-Zertifikate anzubieten, die sich
lediglich auf die E-Mail-Adresse des Nutzers beziehen und eine
aufwändige persönliche Identifizierung entbehrlich machen. 

Zweitens benutzt die im Rahmen der
Volksverschlüsselung betriebene Zertifizierungsstelle derzeit ein
Stammzertifikat, dem die gängigen E-Mail-Programme nicht vertrauen. Dies
reduziert die Interoperabilität mit existierenden S/MIME-Nutzern
erheblich und beinhaltet das Risiko, dass auch die Volksverschlüsselung
zu einer Insellösung ohne weite Verbreitung wird.  Die GI empfiehlt
daher, ein Stammzertifikat zu verwenden, das in den gängigen Programmen
bereits hinterlegt ist.“

In jedem Fall geht es letztlich um eine
flächendeckend sichere E-Mail-Kommunikation, ein Ziel, das die
maßgebliche Mitwirkung staatlicher Stellen erfordert. Die
Bundesregierung hat angekündigt, Deutschland zum
„Verschlüsselungsstandort Nr. 1“ zu machen.  Die GI ruft die
Bundesregierung auf, dieses Ziel durch Unterstützung von Ansätzen wie
der Volksverschlüsselung nachdrücklich zu befördern.

Hormone spielen auch beim Gedächtnis eine Rolle

pte20190225012 Medizin/Wellness, Forschung/Technologie

Neuronen-Östrogen wichtig fürs Gedächtnis

US-amerikanische Wissenschaftler haben Folgen eines Mangels bei Labormäusen untersucht

(pte012/25.02.2019/10:30) – Östrogen spielt laut einer Studie des Medical College of Georgia at Augusta University http://augusta.edu/mcg im Gehirn eine wichtige Rolle bei der Aufrechterhaltung der
Kommunikation der Neuronen und der Entstehung von Erinnerungen. Männer
und Frauen produzieren Östrogen. Die Forschung hat bereits nachgewiesen,
dass Gehirne sonst über deutlich weniger dichte Dornenfortsätze und
Synapsen verfügen. Beide gelten als entscheidende Punkte für die
Kommunikation von Neuronen im Vorderhirn.

Aromatase von Bedeutung

Laut dem Team verfügen Mäuse, die kein Östrogen bilden, über ein
beeinträchtigtes räumliches Referenzgedächtnis. Das gilt auch für die
Wiedererkennungsfähigkeit und das kontextuelle Furchtgedächtnis. Dabei
kommt es zu Problemen, sich daran zu erinnern, was gefährlich ist.
Werden die Östrogenwerte in diesem Gehirnbereich wiederhergestellt,
verbessern sich auch diese Funktionen wieder. Die Forschungsergebnisse
wurden im "Journal of Neuroscience" veröffentlicht.

Es ist bekannt, dass Aromatase bei einer Reihe von Arten und auch dem
Menschen im Hippokampus und der Großhirnrinde einer Reihe von Arten
inklusive dem Menschen gebildet wird. Dieses Enzym wandelt Testosteron
in Östrogen um. Kommt es zu einer Blockierung, können laut
Forschungsleiter Darrell Brann Gedächtnisprobleme folgen.
Brustkrebspatientinnen, die ein Medikament einnehmen, das dieses Enzym
blockiert, haben ebenfalls von Problemen mit dem Gedächtnis berichtet.

Vor allem Frauen betroffen

Für die aktuelle Studie wurde die Aromatase im Vorderhirn deaktiviert.
Eingeschlossen war dabei der Hippokampus, der bei der Bildung von
langfristigen Erinnerungen und dem räumlichen Gedächtnis eine Rolle
spielt sowie die Großhirnrinde, die für Gedächtnis, Aufmerksamkeit,
Wahrnehmung und Denken wichtig ist. Die Aromatase wurde nur in den
erregenden Neuronen des Vorderhirns entfernt. Sie sind dafür
verantwortlich, dass sich zum Beispiel ein Gedanke formt.

Die Aromatase- und Östrogenwerte der Neuronen in diesem Gehirnbereich
reduzierten sich zwischen 70 und 80 Prozent. Die behandelten Mäuse
verfügten laut Brann über kein so gutes Gedächtnis wie normale Tiere.
Zusätzlich wurden umfangreiche Tests mit männlichen und weiblichen
Mäusen durchgeführt. Es zeigte sich, dass Gedächtnisprobleme bei
weiblichen Tieren ausgeprägter waren. Die Eierstöcke nutzen ebenfalls
Aromatase, jedoch in einer etwas anderen Form, um Testosteron in
Östrogen umzuwandeln. Vermutet wird, dass sich ein Entfernen der
Eierstöcke nicht auf die Östrogenwerte auswirkt. Brann zufolge scheint
es hier keine Abhängigkeit zu geben.

Elektromobilität als umweltpolitisches Feigenblatt

Elektromobilität als umweltpolitisches Feigenblatt

AM
AKTUELLEN RAND

von Uwe
Kunert

Der Ende des vergangenen Jahres
vorgelegte Fortschrittsbericht der Nationalen Plattform Elektromobilität (NPE)
gibt Anlass, die bislang nur zögerliche Verbreitung elektrischer Pkw kritisch
zu bewerten. Gut 8500 batterieelektrische Autos kamen 2014 zusätzlich auf
Deutschlandstraßen, der Bestand erreicht nun etwa 20000 Fahrzeuge. Damit sind
die Ergebnisse weit unterhalb des Pfades, um das Ziel von einer Million
Fahrzeugen im Jahr 2020 erreichen zu können. Aber wie sinnvoll ist diese nach
wie vor betonte Zielsetzung? Trotz der bisher erreichten technologischen
Fortschritte bestehen immer noch gravierende Hemmnisse wie geringe Reichweiten
und hohe Kosten. Es verwundert daher nicht, dass private Käufer diese
Technologie eher meiden und über 80 Prozent der Neuzulassungen von E-Autos
gewerblich erfolgen.

Die weitere Förderung und Forschung
sollte sich deshalb stärker auf Anwendungen konzentrieren, für die diese
Hemmnisse weniger bedeutsam sind: den Flotteneinsatz von E-Autos und leichten
Nutzfahrzeugen, die zum Beispiel im Lieferverkehr begrenzte Reichweiten
erfordern und täglich zum Standort zurückkehren, an dem sie aufgeladen werden.
Damit würde die Elektromobilität wieder mit Diensten nützlich, mit denen sie
vor 100 Jahren mit der Auslieferung von Milch und Post endete. Mit einer
derart fokussierten Strategie wäre zwar kein Millionenbestand an Fahrzeugen zu
erreichen. Aber die technologische Entwicklung könnte voranschreiten, bis die
Produkte auch auf einem subventionsfreien Markt für private Käufer attraktiv sind
(und möglichst unabhängig von lockenden Sonderrechten im Straßenverkehr). Zudem
könnte auf den von der NPE geforderten flächendeckenden Ausbau der
Ladeinfrastruktur in Deutschland zunächst verzichtet und geplante Fördermittel
gezielter eingesetzt werden. Denn bei der Entscheidung über dauerhaft prägende
Infrastrukturen sollte nicht vergessen werden, dass der technologische Wettlauf
um die Kundenakzeptanz für Elektrofahrzeuge zwischen Batterie und
Brennstoffzelle keinesfalls entschieden ist.

Auch die mit dem E-Auto erwarteten
Umweltvorteile rechtfertigen keine weitere Forcierung hoher Stückzahlen: Selbst
bei dem erheblichen Ökostrom Anteil in Deutschland schneiden E-Autos in der
Ökobilanz nicht besser ab als moderne Verbrenner, wenn die Vorketten der Produktion
(Fahrzeug und Kraftstoffe) angemessen berücksichtigt werden. In einigen anderen
Regionen der Welt, denen gelegentlich sogar Vorbildcharakter in Sachen
E-Mobilität bescheinigt wird (Staaten der USA, China), kann die Bilanz
bezüglich Klimaschutz aufgrund des Einsatzes von Kohlestrom deutlich negativer
ausfallen. Bedenklicher als die technologische Umweltbilanz fällt aber die
politische Bilanz der intensiven Bemühungen um die Straßen Elektromobilität
aus: Während die Akteurebehaupten,
die Elektromobilität sei der entscheidende Beitrag des Verkehrssektors zum
Klimaschutz, bleiben wichtige Aufgaben unerledigt, die ein höheres Potential
für rasche Beiträge zum Umweltschutz haben. Um nur drei Beispiele zu nennen:
Die jährlich über drei Millionen neuen Pkw werden von Jahr zu Jahr schwerer und
leistungsstärker und der Dieselanteil steigt – mit entsprechenden Folgen für
den Kraftstoffverbrauch und die Schadstoffemissionen. Diese Entwicklung ist
auch Ergebnis einer völlig unzureichenden Berücksichtigung von Umweltkriterien
bei der Reform der Kraftfahrzeugsteuer vor fünf Jahren. Auf der politischen
Reformagenda stand obendrein bereits mehrmals die steuerliche Behandlung von
Dienstwagen, die den Neufahrzeugmarkt in Deutschland zunehmend dominieren.
Vorschläge zum Abbau der Steuerprivilegien und zur Berücksichtigung von
Umweltmerkmalen wurden nicht umgesetzt. Andere Länder waren in dieser Hinsicht
fortschrittlicher.

Weiterer Handlungsbedarf besteht bezüglich der steuerlichen
Begünstigung von Dieselkraftstoff, die zumindest für die
private Verwendung durch nichts gerechtfertigt ist: Die zunehmende Verbrennung
von Diesel trägt wesentlich zur mangelhaften Luftqualität in Ballungsräumen
bei. Bei den niedrigen Energiepreisen wäre jetzt der beste Zeitpunkt, die
Dieselsteuer anzuheben – dies würde auch die Wettbewerbsfähigkeit der
alternativen Antriebe verbessern.

Dr. Uwe
Kunert ist Wissenschaftlicher

Mitarbeiter
in der Abteilung Energie,

Verkehr,
Umwelt

Der Beitrag
gibt die Meinung des Autors

wieder.

Lebensmittelallergie und Reizdarm

Antikörper gegen Weizen, Rind, Schwein, Lamm und Soja nachgewiesen

London (pte/14.07.2005/09:15) – Das Reizdarmsyndrom (IBS) könnte mit
allergischen Reaktionen auf verbreitete Lebensmittel zusammenhängen. Zu
diesem Ergebnis ist eine Studie des St George’s Hospital
http://www.sgul.ac.uk/sghms/home/home.cfm gekommen. Bluttests ergaben,
dass IBS-Patienten über erhöhte Antikörper gegen Lebensmittel wie
Weizen, Rind, Schwein, Lamm und Soya verfügen. Vorläufige Tests mit
Patienten ergaben, dass das Weglassen einiger dieser Lebensmittel zu
viel versprechenden Ergebnissen führte. Die Ergebnisse der Studie
wurden in dem Fachmagazin American Journal of Gastroenterology
http://www.amjgastro.com veröffentlicht.

Es wird angenommen, dass rund ein Drittel der Bevölkerung an einem
Reizdarm leidet. Bei einem von zehn Betroffenen sind die Symptome so
stark, dass ein Arzt aufgesucht wird. Diese Symptome können
unterschiedlich sein und von Schmerzen und Krämpfen im Bauchbereich bis
zu Durchfall, Verstopfung sowie einem aufgeblähten Magen reichen. Es
zeigte sich, dass Patienten mit verschiedenen Symptomtypen wie
Durchfall und Verstopfung Anzeichen von Überempfindlichkeit gegen
Lebensmittel aufwiesen. Der leitende Wissenschafter Devinder Kumar
erklärte, dass man mit einem einfachen Test wissenschaftlich
nachgewiesen habe, dass diese Symptome auf die Reaktion des Körpers auf
die Ernährung zurückzuführen sein können.

Aktuelle Forschungen legen laut BBC nahe, dass rund fünf Prozent der
Gesamtbevölkerung an einer Überempfindlichkeit gegen Lebensmittel
leiden. Bis zu 65 Prozent der IBS-Patienten glauben, dass ihre
Erkrankung mit einer Lebensmittelallergie in Zusammenhang stehen könnte.

Hauchdünne berührungsempfindliche Displays auf vielen Materialien

Im Hobbykeller drucken: Hauchdünne
berührungsempfindliche Displays auf vielen
Materialien

Wer bisher eine Grußkarte an die Liebsten
drucken wollte, konnte diese nur durch bunte Grafiken,
extravagante Schrifttypen und edles Papier aufwerten. Doch
wie wäre es, wenn man auf dem heimischen Drucker gleich
hauchdünne Bildschirme in das Papier einarbeiten
könnte, die selber entworfene Symbole anzeigen oder
sogar auf Berührungen reagieren? Nicht nur das
ermöglichen nun Saarbrücker Informatiker. Sie
haben einen Ansatz entwickelt, mit dessen Hilfe in der
Zukunft jeder Laie Displays in beliebigen Formen auf
verschiedene Materialien drucken und somit den Alltag
völlig verändern könnte.

Die Postkarte zeigt ein historisches Automobil. Drückt
man auf einen Knopf, leuchten Hinterachse und Lenkradstange
in der gleichen Farbe auf. Möglich machen dies zwei
Segmente auf einem flexiblen Display, die genau der Form der
Autoteile entsprechen. Saarbrücker Informatiker um
Jürgen Steimle haben es auf einem handelsüblichen
Tintenstrahldrucker ausgedruckt. Es ist elektrolumineszent:
Legt man eine elektrische Spannung an, gibt es Licht ab.
Dieser Effekt wird auch genutzt, um in Autos
Armaturenbretter bei Nacht zu beleuchten. Steimle leitet die
Arbeitsgruppe „Embodied Interaction“ am
Saarbrücker Exzellenzcluster „Multimodal
Computing and Interaction“, in der auch Simon
Olberding forscht.

„Bisher war so etwas nicht möglich“,
erklärt Olberding, „Displays wurden in Massen
produziert, waren starr, hatten immer eine rechteckige
Form.“ Genau das wollten Olberding und Steimle
ändern. Der von ihnen entwickelte Prozess sieht wie
folgt aus: Der Anwender entwirft mit einem Programm wie
Microsoft Word oder Powerpoint eine digitale Vorlage
für das gewünschte Display. Über die von den
Saarbrücker Informatikern entwickelten Verfahren
„Screen Printing“ und „Conductive Inkjet
Printing“ kann er diese nun drucken. Beide Verfahren
haben unterschiedliche Stärken und Schwächen,
lassen sich aber von einer Person je nach Verfahren in nur
wenigen Minuten oder in zwei bis vier Stunden
durchführen. Das Druckergebnis sind relativ
hochaufgelöste Displays, die nur 0,1 Millimeter dick
sind. Eine Din A4-Seite voll zu bedrucken, schlägt mit
rund 20 Euro zu Buche, am teuersten ist dabei die
Spezialtinte.

Da sich mit den Verfahren auch Materialien wie Papier,
Kunststoffe, Leder, Keramik, Stein, Metall und Holz
bedrucken lassen, sind allerlei zweidimensionale, aber auch
dreidimensionale Formen möglich. Die Anzeigen
können dabei wahlweise, aus einem Segment (Fläche,
Kontur, Muster, Rastergrafik), mehreren Segmenten oder
unterschiedlich aufgebauten Matrizen bestehen. „Sogar
berührungsempfindliche Displays können wir
drucken“, sagt Olberding. Die
Anwendungsmöglichkeiten sind damit vielfältig:
Diplays lassen sich so in nahezu jeden Alltagsgegenstand
integrieren – nicht nur in Papierobjekte, sondern zum
Beispiel auch auf Möbel und
Einrichtungsgegenstände, Taschen oder am Körper
getragene Gegenstände. So könnte man
beispielsweise das Armband einer Uhr erweitern, damit es
aufleuchtet, wenn eine Kurznachricht eintrifft. „Wenn
wir unseren Ansatz jetzt mit 3D-Druck kombinieren,
können wir dreidimensionale Gegenstände drucken,
die Informationen anzeigen und auf Berührungen
reagieren“, erklärt Steimle.

 
Hintergrund Saarbrücker Informatik

Den Kern der Saarbrücker Informatik bildet die
Fachrichtung Informatik an der Universität des
Saarlandes. In unmittelbarer Nähe forschen auf dem
Campus sieben weitere weltweit renommierte
Forschungsinstitute. Neben den beiden Max-Planck-Instituten
für Informatik und Softwaresysteme sind dies das
Deutsche Forschungszentrum für Künstliche
Intelligenz (DFKI), das Zentrum für Bioinformatik, das
Intel Visual Computing Institute, das Center for
IT-Security, Privacy and Accountability (CISPA) und der
Exzellenzcluster „Multimodal Computing and
Interaction“.