Archiv der Kategorie: Physik, Chemie, Technik

Haben Sie schon einmal etwas von Spintronik gehört? Eine neue Sparte tut sich auf

Bloß kleine Wellen schlagen

(HZDR) Die Spintronik gilt als vielversprechendes Konzept für die Elektronik der Zukunft. Sie könnte schnellere Computer und sparsamere Smartphones möglich machen. Einem Forscherteam unter Beteiligung des Max-Planck-Instituts für Intelligente Systeme (MPI-IS) und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) ist es nun gelungen, sogenannte Spinwellen deutlich einfacher und effektiver zu erzeugen als bislang bekannt. Die Forscher stellen ihre Resultate in der aktuellen Ausgabe der Fachzeitschrift Physical Review Letters (DOI: 10.1103/PhysRevLett.122.117202) vor.

Heutige Computerchips basieren darauf, dass elektrische Ladungen transportiert werden: Bei jedem Schaltprozess fließt in einem elektronischen Bauteil ein Strom von Elektronen, die dabei einen Widerstand verspüren und unerwünschte Abwärme erzeugen. Und je kleiner die Strukturen auf einem Chip sind, umso schwieriger wird es, diese Wärme abzuführen. Die ladungsbasierte Architektur ist auch zum Teil der Grund, warum die Taktraten der Prozessoren seit Jahren nicht mehr signifikant steigen. Die Zeiten, in denen die Chips mit schöner Regelmäßigkeit schneller und leistungsfähiger werden, neigen sich dem Ende zu. „Die bestehenden Konzepte stoßen allmählich an ihre Grenzen“, erklärt Dr. Sebastian Wintz vom Institut für Ionenstrahlphysik und Materialforschung am HZDR. „Deshalb arbeiten wir an einer neuen Strategie, den Spinwellen.“

Bei diesem Ansatz werden keine Ladungen mehr transportiert, sondern lediglich der Spin, der „Eigendrall“ von Elektronen in einem magnetischen Material. Die Elektronen bleiben dabei an ihren Plätzen, lediglich die Ausrichtung der Spins verändert sich. Da sich die Spins benachbarter Elektronen gegenseitig spüren, kann sich eine Änderung auf die Nachbarn übertragen. Das Resultat ist ein magnetisches Signal, das als Welle durchs Material läuft – eine Spinwelle. Der Vorteil: Bauteile, die mit Spinwellen arbeiten, würden kaum Abwärme erzeugen und könnten deshalb deutlich weniger Energie verbrauchen – interessant unter anderem für mobile Endgeräte wie Smartphones. Auch eine weitere Miniaturisierung der Bauteile ist für bestimmte Anwendungen denkbar, weil Spinwellen erheblich kürzere Wellenlängen besitzen als vergleichbare elektromagnetische Signale zum Beispiel im Mobilfunk. Dann würden noch mehr Schaltkreise auf einen Chip passen als heute.

Per Magnetwirbel zur Spinwelle

Zuvor ist allerdings noch einiges an Grundlagenforschung nötig. Wie zum Beispiel lassen sich Spinwellen möglichst effizient erzeugen? Seit längerem versuchen das die Fachleute, indem sie mikrometerkleine Metallstreifen auf dünne Magnetschichten aufbringen. Fließt ein Wechselstrom durch diesen Streifen, erzeugt er ein Magnetfeld, das auf engsten Raum begrenzt ist. Dieses Feld ruft dann in der Magnetschicht eine Spinwelle hervor. Die Methode hat jedoch einen Nachteil: Die Wellenlänge der erzeugten Spinwellen kann nur schwer kleiner werden als die Breite des Metallstreifens – ungünstig für die Entwicklung von hochintegrierten Bauteilen mit nanometerfeinen Strukturen.

Doch es gibt eine Alternative: Hat das magnetische Material die Form einer Kreisscheibe, entstehen Magnetwirbel, deren zentraler Kern nur etwa zehn Nanometer misst. Dieser Wirbelkern lässt sich durch ein Magnetfeld in Schwingung versetzen, wodurch in der Schicht eine Spinwelle entsteht. „Vor einiger Zeit konnten wir das mit relativ komplexen, aus mehreren Lagen bestehenden Materialien realisieren“, berichtet Wintz. „Jetzt ist es uns gelungen, Spinwellen über Wirbelkerne in einem sehr einfachen Material auszusenden.“ Hierbei wird eine etwa 100 Nanometer feine Schicht aus einer Nickel-Eisen-Legierung genutzt – ein Material, das einfach herzustellen ist.

Unerwartet kurze Längen

Bemerkenswert war dabei die Wellenlänge der erzeugten Spinwellen – sie betrug gerade mal 80 Nanometer. „Für die Fachwelt war neu und überraschend, dass das mit einem solch simplen Material möglich ist“, erzählt Dr. Georg Dieterle, der das Phänomen in seiner Doktorarbeit am MPI-IS untersucht hat. „Auch wir hatten nicht damit gerechnet, dass man damit bei Frequenzen im unteren Gigahertzbereich so kurze Wellen erzeugen kann.“ Den Grund für diese Kurzwelligkeit sehen die Fachleute in der Form der Ausbreitung. So hat die Spinwelle etwa in der Mitte der Nickel-Eisen-Schicht eine Art „Knoten“, in dem sich die magnetische Richtung lediglich auf und ab bewegt und nicht wie sonst üblich im Kreis schwingt.

Sichtbar machen konnte das Team die Phänomene mit einem speziellen Röntgenmikroskop am Elektronenspeicherring BESSY II des Helmholtz-Zentrums Berlin. „Nirgendwo sonst auf der Welt stehen die nötigen Orts- und Zeitauflösungen in dieser Kombination zu Verfügung“, betont Prof. Gisela Schütz, Direktorin am MPI-IS. „Ohne dieses Mikroskop hätte man diese Effekte nie beobachtet.“ Nun hoffen die Fachleute, dass das Ergebnis bei der weiteren Entwicklung der Spintronik hilft. „Unsere Wirbelkerne könnten zum Beispiel als lokale, gut kontrollierbare Quelle dienen, um die grundlegenden Phänomene zu erforschen und neue Konzepte mit Spinwellen-basierten Bauelementen zu entwickeln“, gibt Dieterle einen Ausblick. „Die von uns beobachteten Spinwellen könnten zukünftig für hochintegrierte Schaltungen interessant sein.“

Quantenforschung trifft Praxis

Nummer: 022/2019 | 21.03.2019

Die Quantenwelt verstehen – und wirtschaftlich nutzen

30 Millionen Euro für Quantenbildgebung und Quantensensorik

Erkenntnisse aus der Quantenforschung sollen rasch in die Anwendung gelangen, das ist das Ziel einer Forschungsinitiative des Bundesministeriums für Bildung und Forschung (BMBF) und der Fraunhofer-Gesellschaft. Rund 30 Mio. Euro stehen dafür bereit, knapp 80 Prozent davon (24 Mio. Euro) aus dem Haushalt des BMBF finanziert. Die verbleibenden Mittel stellen die Bundesländer, insbesondere Baden-Württemberg mit einer Sonderfinanzierung in Höhe von 5 Mio. Euro.

Bundesforschungsministerin Anja Karliczek betont: „Deutschland will die Chancen von Quantentechnologien nutzen und ihre Entwicklung aktiv mitgestalten. Erkenntnisse aus der Grundlagenforschung wollen wir in die Anwendung bringen. Dafür schaffen wir als Bundesregierung mit dem Programm ‚Quantentechnologien‘ jetzt die Voraussetzungen. Die technische Beherrschung der Quanteneffekte bis hin zu einzelnen Atomen, Elektronen und Photonen birgt enorme Potenziale, beispielsweise kann sie mit hochpräziser Bildgebung eine bessere Diagnostik ermöglichen. Wir wollen die Vernetzung von Forschung und Wirtschaft verstärken, damit wir diese Potenziale künftig nutzen können. Neben der quantenbasierten Bildgebung und Sensorik planen wir weitere Leuchttürme zur Quantenkommunikation und zum Quantencomputing. Damit machen wir große Schritte in das wichtige Zukunftsfeld der Quantentechnologien.“

Deutschland ist stark in der Quantenphysik und Quantentechnologien der ersten Generation. Diese Stärke möchte die Bundesregierung nutzen. Dafür hat sie im September 2018 das Rahmenprogramm „Quantentechnologien – von den Grundlagen zum Markt“ beschlossen.

Auf dieser Basis startet jetzt eine strategische Initiative des Bundesforschungsministeriums und der Fraunhofer-Gesellschaft zur Quantenbildgebung und Quantensensorik. Insgesamt elf Fraunhofer-Einrichtungen arbeiten im Rahmen der Initiative für das Ziel, mehr Forschungswissen aufzubauen und anwendungsnahe Technologien für enge Kooperationen mit der Wirtschaft zu entwickeln.

Die neuartigen Bildgebungsverfahren und Sensoren nutzen Quanteneffekte, um Abbildungen mit einem neuen Maß an Empfindlichkeit und Präzision über optische Verzerrungen hinweg zu erfassen oder kleinste Magnetfelder und elektrische Ströme zu vermessen. Die Anwendungsmöglichkeiten sind vielfältig: Messungen werden wesentlich genauer, beispielsweise in der medizinischen Diagnostik oder in neuartigen Navigationssystemen. Mit Quantentechnologien können auch elektronische Komponenten und Speichermedien auf kleinsten nanometrischen Dimensionen entwickelt werden.

Im Rahmen der Initiative werden die Quantum Photonics Labs (QPL) am Fraunhofer-Institut für Angewandte Optik und Feinmechanik in Jena gefördert. Damit entsteht ein Transferzentrum für universell einsetzbare quantenoptische Technologien. Das Zentrum besitzt Modellcharakter für das strategische Ziel einer nationalen Infrastruktur von Applikationslaboren – für und mit Partnern aus Forschung und Industrie.

Prof. Dr. Reimund Neugebauer, Präsident der Fraunhofer-Gesellschaft, fasst die zukünftige strategische Ausrichtung zusammen: „Die Fraunhofer-Gesellschaft erachtet die Quantentechnologien als bedeutende Chance für die Zukunft des Hightech-Standorts Deutschland und Europa. Im Schulterschluss mit dem BMBF werden wir die Quantentechnologien intensiv und mit Nachdruck fördern. Es wird Zeit, die wertvollen Erkenntnisse aus langjähriger Forschung zu nutzen. Diese besondere Technologie ist der Grundstein für den Aufbau einer international kompetitiven Industrie und einer selbstbestimmten Gesellschaft in den globalen Entwicklungen des digitalen Wandels.“

Hässliches monokromates Licht der Natriumdampf-Straßenbeleuchtung kann durch noch sparsamere LED-Leuchten ersetzt werden

Eine neuartige, noch sparsamere LED-Straßenleuchte haben Forschende am Karlsruher Institut für Technologie (KIT) entwickelt. Indem sie die herkömmlichen Hochleistungsdioden durch eine spezielle Anordnung schwächerer LEDs ersetzten, konnten die Wissenschaftler den Stromverbrauch noch einmal um 20 Prozent senken. Das vermindert den CO2-Ausstoß und Kommunen könnten Millionen an Stromkosten sparen. Die Pfalzwerke Netz AG hat im Rheinland-Pfälzischen Maxdorf jetzt erstmals Straßenlaternen mit den neuen Leuchtköpfen ausgestattet.

„Es ist uns gelungen, den Wirkungsgrad und die Lebensdauer der Lampen gegenüber herkömmlichen LED-Leuchten noch einmal deutlich zu steigern“, sagt Michael Heidinger vom Lichttechnischen Institut (LTI) des KIT. Er hat eine trickreiche Schaltung erdacht, die Alterung und Versagen einzelner Leuchtdioden abfängt. Eine größere Zahl von LEDs parallel zu schalten, sei schwierig, da der Ausfall einer einzelnen Diode zu einem Versagen des gesamten Systems oder Teilbereichs führt – ein Phänomen, das man etwa von dekorativen Lichterketten kennt. Die Alternative, die LEDs in Reihe zu schalten, habe ebenfalls Nachteile, da hier mit steigender Zahl der Dioden sehr hohe Spannungen benötigt werden. Weil die als nicht lebensbedrohlich geltende Berührungsspannung bei 120 Volt liegt, konnten bislang nur bis zu 40 LEDs in einer Reihenschaltung verbaut werden. Jetzt ist es möglich, viele Leuchtpunkte – bei den hier eingesetzten Leuchtmodulen sind es 48 – kostengünstig auf einer Platine zu montieren. Dazu sind die Leuchten sicherer zu handhaben, da es Heidingers neues Schaltkonzept erlaubt, mit Spannungen von 20 Volt zu arbeiten, wo sonst über 120 Volt notwendig sind.

Von den stromsparenden Eigenschaften der neuartigen LED-Leuchte dürften zukünftig auch Städte und Gemeinden profitieren: Die Umstellung der alten konventionellen stromfressenden Straßenbeleuchtung auf LED-Technik ist vielerorts bereits in vollem Gange. So umfasst etwa die Stadtbeleuchtung einer mittleren Großstadt mit rund 320 000 Einwohnern wie Karlsruhe nach Angaben der Stadtwerke über 55 000 Lampen (etwa 35 Prozent davon LEDs), deren Stromverbrauch im Jahr 2018 etwa 10 800 Megawattstunden betrug. Jährliche Strom- und Wartungskosten: rund drei Millionen Euro. Die zusätzlichen Einsparpotenziale sind erheblich. „Bei einer vollständigen Umstellung auf die neuartigen LEDs sind noch einmal finanzielle Einsparungen von bis zu 30 Prozent möglich“, sagt Stefan Lang, bei den Pfalzwerken verantwortlich für Technologie und Innovation.

Darüber hinaus haben die bislang einzigartigen Lampen Leuchteigenschaften, die für das menschliche Auge angenehmer sind. „Viele kleine LEDs werden aus einiger Entfernung als Flächenstrahler wahrgenommen. Sie blenden dadurch weniger als Hochleistungs-LEDs, die als Punktlichtquelle wahrgenommen werden“, sagt Klaus Müller, Geschäftsführer der Gratz Luminance GmbH, welche die neuen Außenleuchten im baden-württembergischen Weinsberg herstellt. Obendrein sind sie günstiger in der Anschaffung: Denn Kleinleistungs-LEDs sind billiger als Hochleistungs-LEDs, sodass das neue System zu einem niedrigeren Preis hergestellt und angeboten werden kann – obwohl mehr Leuchtdioden benötigt werden. Schließlich sei der Umstieg auf die neue Lampentechnik unkompliziert und damit preiswert: „Unser Leuchtenkopf kann einfach auf bestehenden Masten montiert werden“, erklärt Müller.

Die Leuchten werden im Feldtest in Maxdorf nun eingehend erprobt. Auch andere Kommunen interessieren sich für die Technik. Die Serienfertigung wird vorbereitet. „Wir hoffen die Leuchte im zweiten Halbjahr 2019 ausgewählten Pilotkunden anbieten zu können“, so Müller.

Details zum KIT-Zentrum Information · Systeme · Technologien (in englischer Sprache): http://www.kcist.kit.edu

Beton aus abgefangenem Kohlendioxid (CO2)

21. März 2019

Neue Ideen zur Nutzung von CO2 ausgezeichnet:

Beton aus Kohlendioxid

• Unternehmen aus Kanada, Norwegen und Deutschland prämiert
• Covestro sponsert Innovationspreis von Forschungsinstitut

Beton, Treibstoff oder Chemikalien aus CO2 herstellen – für diese bahnbrechenden Ideen sind drei Unternehmen aus Kanada, Norwegen und Deutschland mit einem neuen Innovationspreis prämiert worden. Sie nahmen die Auszeichnung des renommierten nova-Instituts am Mittwoch auf einer Konferenz zur CO2-Nutzung mit rund 200 Teilnehmern in Köln entgegen. Der Preis wird vom Werkstoffhersteller Covestro gesponsert, der selbst intensiv und erfolgreich an der Erforschung und praktischen Verwendung von Kohlendioxid als Rohstoff arbeitet.

Im Vorfeld hatte es 20 Einreichungen für den Preis „Best CO2 Utilisation 2019“ gegeben, den das nova-Institut erstmals vergibt. Dabei spielt das Recycling von Kohlendioxid eine zentrale Rolle. Jede Idee hat den Anspruch, langfristig industriell umgesetzt werden zu können. Dies zeige, welche Bedeutung das Thema inzwischen habe und wie aktiv zahlreiche Unternehmen auf diesem Gebiet bereits seien, so Michael Carus, Geschäftsführer des nova-Instituts.

CO2 mit anderen Augen sehen

„CO2 wird zunehmend mit anderen Augen gesehen, nämlich als wertvoller Rohstoff“, betonte auch der Covestro-Vorstandsvorsitzende Dr. Markus Steilemann, der die drei Preisträger kürte. „Damit gelingt es der Chemieindustrie, ihre Produktion nachhaltiger zu machen, fossile Ressourcen wie Erdöl zu ersetzen und die Kreislaufwirtschaft voranzutreiben.“

Fünf nominierte Unternehmen stellten ihre Lösungen auf der Konferenz in Kurzvorträgen vor, die Sieger wurden anschließend vom Publikum gewählt. Der erste Preis ging an das Unternehmen Carbicrete aus Kanada. Es hat ein Verfahren entwickelt, um Beton ohne Zement herzustellen. Dieser wird durch gemahlene Stahlschlacke ersetzt und die Mischung anschließend durch CO2 anstelle von Wärme und Dampf ausgehärtet. Das neue Produkt ist kostengünstiger, hochwertiger und nachhaltiger als Beton auf Zementbasis.

Auf den zweiten Platz kam die norwegische Firma Nordic Blue Crude, der es gelungen ist, aus CO2, Wasser und erneuerbarer Energie synthetisches Rohöl zu produzieren. Dieses kann als Diesel oder Kerosin verwendet und zu Benzin veredelt werden. Auf Rang drei folgte die Gesellschaft b.fab aus Dortmund – für ein Verfahren, um CO2, Wasser und erneuerbare Energie effizient in wertschöpfende Chemikalien wie Milchsäure umzuwandeln.

Covestro selbst hat mit wissenschaftlichen Partnern eine Technologie entwickelt, um CO2 in der Kunststoffproduktion zu nutzen. Das Unternehmen stellt damit bereits chemische Komponenten (Polyole) für Schaumstoff und für Bindemittel her, die in Matratzen und Sportböden Verwendung finden. Zahlreiche weitere Anwendungen sind in der Entwicklung.

LED-Forschung: Noch effizientere Lichtemission

pte20190322014 Forschung/Technologie

Aluminium-Tuning für Leuchtdioden

US-Forscher erreichen die fünffache Lichtemission

(pte014/22.03.2019/12:30) – Mit einem raffinierten technischen Trick ist es Forschern am National Institute of Standards and Technology (NIST) https://www.nist.gov gelungen, die Lichtemission einer der die Ultraviolett-Leuchtdioden (LED) zu verfünffachen. Sie reicherten in einem neuen Verfahren die Hülle, die die LED umgibt, mit Aluminiumatomen an. Dadurch gehen keinerlei Photonen mehr verloren. Alle landen im angeschlossenen Lichtwellenleiter.

Aluminium gegen Ausbüchsen von Elektronen

Die neuartige LED basiert auf Galliumnitrid-Nanodrähten, mit denen sich NIST-Experten seit langem befassen. Die Forscher dotierten das Halbleiter-Material Galliumnitrid mit Silizium, das heißt, sie schossen einzelne Siliziumatome hinein. Dadurch waren zusätzliche Elektronen verfügbar. Als Hülle wird gern mit Magnesium dotiertes Galliumnitrid verwendet. Diese Hülle stellt dann sogenannte Löcher, also positive Ladungen, bereit. Wenn Löcher und Elektronen sich vereinen, also ihre Ladungen neutralisieren, wird Licht frei, das Material fluoresziert.

Wenn die Hülle nun zusätzlich mit Aluminium dotiert wird, stellt sich der erwünschte Effekt ein: Die Emissionsleistung steigt auf das Fünffache. Das Aluminium reduziert die Verluste durch einen Überfluss an Elektronen und die interne Absorption von Licht. „Aluminium sorgt für eine Asymmetrie des elektrischen Stroms, die verhindert, dass Elektronen in die Hülle fließen statt ihre eigentliche Aufgabe zu erfüllen, nämlich sich mit den Löchern zu vereinen und ultraviolettes Licht zu erzeugen“, erklärt Matt Brubaker, der die Entwicklungsarbeit leitet.

Breites Anwendungsspektrum für UV-LED

Die NIST-Forscher haben auf der Basis der Nano-LED bereits ein Messgerät zur zerstörungsfreien Prüfung der Güte von Halbleitern und Solarzellen entwickelt. Die Diode könne auch in der Biologie eingesetzt werden, um Zellstrukturen und die Entfaltung von Proteinen zu erforschen.
Leuchtdioden, die ultraviolettes Licht emittieren, lassen sich auch nutzen, um bestimmte Kunststoffe auszuhärten – beispielsweise Plomben, die der Zahnarzt setzt -, um Wasser von Schadstoffen zu befreien und im medizinischen Bereich zu desinfizieren.

Der Kern der LED hat einen Durchmesser von 440 Nanometern (ein Nanometer ist ein Millionstel Millimeter). Die Hülle ist 40 Nanometer dick. Damit sie sich überhaupt manipulieren lässt, erhält sie in eine weitere inaktive Hülle, sodass die komplette LED einen Durchmesser von rund fünf Mikrometern hat.

Deutschland braucht Forschungspolitik aus einem Guss

Helmholtz-Präsident Jürgen Mlynek gegen Zersplitterung von Zuständigkeiten für Forschung im neuen Kabinett

Bonn/Berlin, 17. Oktober 2005. Der Präsident der Helmholtz-Gemeinschaft
Deutscher Forschungszentren, Professor Jürgen Mlynek, fordert, dass der
Bund in allen Fragen der Forschung auch künftig mit einer Stimme im
Kabinett spricht: "Eine Zersplitterung von Zuständigkeiten würde die
Innovationsfähigkeit Deutschlands gefährden."

Der Helmholtz-Präsident reagiert damit&nbs p;auf Berichte, wonach
die Zuständigkeiten für Technologie sowie Verkehr und Weltraum künftig
nicht mehr im Forschungsministerium, sondern beim Wirtschaftsminister
angesiedelt sein sollen.

Mlynek begründet seine Position mit zwei Argumenten:

– Forschung, Wissens- und Technologietransfer sowie wirtschaftliche
Innovation bilden zusammen einen komplexen Wertschöpfungsprozess. Sie
lassen sich nicht ohne Verluste auf mehrere Ressorts verteilen.

– Die Lösung großer und drängender Fragen von Wissenschaft, Wirtschaft
und Gesellschaft erfordert die Zusammenarbeit verschiedener Disziplinen
und Einrichtungen. Aus engen Wechselwirkungen zwischen den&nb
sp;großen Forschungsgebieten, zum Beispiel zwischen der Fernerkundung
aus dem Weltraum und der Umweltforschung, resultieren fruchtbare
Ansätze und weltweit beachtete Lösungen wie ein Tsunami-Frühwarnsystem.
Hochschul-, Wissenschafts- und Forschungspolitik muss dem Rechnung
tragen und in einer Hand vereint sein.

Das deutsche Forschungssystem hat sich in den letzten Jahren
grundlegend weiterentwickelt. Die Wissenschaftsorganisationen haben
gemeinsam mit den Universitäten die gegenseitige Vernetzung ausgebaut –
mit dem Effekt, dass Technologietransfer aus der Wissenschaft stärker
und der Kontakt zwischen Wissenschaft und Wirtschaft en ger geworden
ist. Möglich wurde dies durch eine Balance aus klaren
forschungspolitischen Signalen einerseits und dem Vertrauen der Politik
in die wissenschaftliche Autonomie andererseits. Ein gutes Beispiel
dafür ist der Pakt für Forschung und Innovation, eine zeitgemäße
Zielvereinbarung von Politik und Wissenschaft, deren Einhaltung für die
internationale Konkurrenzfähigkeit von Deutschland in Wissenschaft und
Wirtschaft unerlässlich ist.

Die Helmholtz-Gemeinschaft ist mit ihren 15 Forschungszentren und einem
Jahresbudget von rund 2,2 Milliarden Euro die größte
Wissenschaftsorganisation Deutschlands. Die 24 000 Mitarbeiterinnen und
Mitarbeiter der Helmholtz-Gemeinschaft erbringen wissenschaftliche
Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und
Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie,
Verkehr und Weltraum. Die Helmholtz-Gemeinschaft identifiziert und
bearbeitet große und drängende Fragen von Gesellschaft, Wissenschaft
und Wirtschaft, insbesondere durch die Erforschung von Systemen hoher
Komplexität. www.helmholtz.de

Große Gefahren durch Computer- und Smart Phone-Hacking

Wie den
digitalen Bedrohungen auf europäischer Ebene künftig besser begegnet
werden kann, haben unter der Koordination des BMBF-Verbundprojektes
secUnity 30 namhafte europäische IT-Sicherheitsexperten in der
secUnity-Roadmap niedergelegt, darunter Forscherinnen und Forscher des
Karlsruher Instituts für Technologie (KIT). Am heutigen Dienstag, 5.
Februar, stellen die Wissenschaftlerinnen und Wissenschaftler von
secUnity die Roadmap in Brüssel vor und übergeben sie offiziell an die
Europäische Agentur für Netzwerk und Informationssicherheit ENISA.

Übermittlung von
Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung –
nahezu kein Bereich kommt mehr ohne moderne Informations- und
Kommunikationstechnologien aus. Gleichzeitig nimmt die Zahl der
Cyberangriffe, die bekannt werden, stetig zu. Solche Attacken auf die
digitale Infrastruktur durch Kriminelle oder  staatliche Organisationen
bedrohen den Wohlstand und die Sicherheit unserer Gesellschaften, am
Ende sogar Freiheit und Demokratie. Bei einer Abendveranstaltung in der
Vertretung des Landes Hessen bei der Europäischen Union in Brüssel
werden secUnity-Wissenschaftler mit Vertretern des Europäischen
Parlaments und der Europäischen Kommission über „Zivile
Cybersicherheitsforschung für digitale Souveränität“ diskutieren und im
Anschluss offiziell die secUnity-Roadmap veröffentlichen und an die
Europäische Agentur für Netzwerk und Informationssicherheit  übergeben.

„Das Gefahrenpotenzial,
das Cyberattacken für hochentwickelte Länder entfalten können, kann man
nicht hoch genug einschätzen“, warnt Professor Jörn Müller-Quade,
Sprecher des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. In
secUnity arbeiten IT-Sicherheitsexperten aus ganz Deutschland zusammen.
Beteiligt sind, neben den drei nationalen Kompetenzzentren KASTEL, CRISP
und CISPA, Spezialisten der TU Darmstadt, der Ruhr-Universität Bochum
und der Fraunhofer-Institute für Angewandte und Integrierte Sicherheit
AISEC und für Sichere Informationstechnologie SIT.

Cybersicherheitsexperten
bemängeln schon lange, dass Firmen, öffentliche Einrichtungen und
Institutionen nicht ausreichend auf digitale Bedrohungen vorbereitet
seien. Im Gegenteil: Durch die fortschreitende Vernetzung, die sich
durch digitale Trends wie Industrie 4.0, Smart Home oder selbstfahrende
Autos noch potenzieren wird, würden die Angriffsflächen für
Cyberkriminelle immer größer. In der jetzt vorgelegten Roadmap, die das
vom Bundesministerium für Bildung und Forschung (BMBF) geförderte
Verbundprojekt secUnity initiiert hat, haben die über 30 europäischen
Autoren zukünftige Herausforderungen und Lösungswege identifiziert.  Zum
Beispiel werden die Sicherheit eingebetteter Systeme, Maschinelles
Lernen, die Problematik der fehlenden Awareness und das Phänomen von
Fake News untersucht und Vorschläge für mehr Sicherheit erarbeitet.

Sehr kritisch sehen die
Experten die Verwendung von Hardwarelösungen, die oft ohne
IT-Sicherheitsüberprüfung verwendet werden. Dies gefährde die digitale
Souveränität Europas. „Eine Möglichkeit diese Situation zu verbessern,
wären hier europäische Prüfinstitute, um die Technik unabhängig zu
analysieren“, so Professor Michael Waidner, Direktor des Nationalen
Forschungszentrums für angewandte Cybersicherheit CRISP und des
Fraunhofer-Instituts SIT in Darmstadt. Zudem könnten
Open-Source-Software- und Hardwarelösungen transparent in der EU
entwickelt werden. 

Da aber auch in Zukunft
noch weiterhin eine Vielzahl von preiswerten jedoch unsicheren Hard-
und Softwarekomponenten  verbaut und genutzt wird, reichen Ansätze zur
Entwicklung vertrauenswürdiger europäischer Lösungen  nicht aus, um 
vernetzte Systeme wirksam zu schützen. Am Beispiel Smart Home führt
Professorin Claudia Eckert, Direktorin des Fraunhofer-Instituts für
Angewandte und Integrierte Sicherheit AISEC in München aus: „Wir
brauchen Lösungen, um die Risiken solcher Komponenten zu minimieren und
die Systeme resilient zu betreiben. Kameras, Türöffner, die
Heizungssteuerung – jedes Heimautomatisierungsgerät ist ein mögliches
Einfallstor für große Netz-Attacken. Sichere Gateways für die Verbindung
unsicherer Komponenten können beispielsweise dafür sorgen, dass keine
sensitive Information die Heimumgebung verlässt und keine Zugriffe von
außen auf Steuerungskomponenten möglich sind.“ Resilienz trotz
unkalkulierbarer Komponenten – dies muss natürlich insbesondere für
kritische Infrastrukturen wie Gesundheits- und Energieversorgung, aber
auch für Behörden und Unternehmen sichergestellt werden.

Auch die weltweit stark
vorangetriebene Entwicklung von Quantencomputern berge Gefahren. Jörn
Müller-Quade warnt: „Es ist zwar bislang noch nicht gelungen, einen
hinreichend großen Quantencomputer zu bauen, um die Sicherheit aktueller
kryptographischer Verfahren zu gefährden, aber dies könnte sich schnell
ändern. Der derzeitige Fortschritt in der Quantentechnologie ist so
groß, dass wir heute schon Vorsorge treffen müssen. Wir müssen unsere
komplexen vernetzten Systeme auf zukunftssichere, noch weiter zu
erforschende Verschlüsselungsverfahren umstellen.”

Methoden der
Künstlichen Intelligenz viele neue Anwendungsfälle, sie bringen aber
auch gravierende Risiken für die IT-Sicherheit mit sich: Maschinelle
Lernprozesse können durch gezielte Manipulationen während der Lernphase
und auch im Betrieb einfach angegriffen werden. „Bevor diese
Technologien in kritischen Bereichen oder zur Verbesserung der
Lebensqualität eingesetzt werden können, muss das Vertrauen in diese
Verfahren und in deren Zuverlässigkeit auf ein wissenschaftliches
Fundament gesetzt werden“, fordert Professor Thorsten Holz von der
Ruhr-Universität Bochum.

Auch werfen neue
Möglichkeiten der Informationsgesellschaft wie etwa intelligente
Stromnetze, die den Alltag komfortabler machen und beim Energiesparen
helfen, rechtliche und ganz besonders datenschutzrechtliche Fragen auf:
„Angesichts der fundamentalen Risiken, die durch die Digitalisierung
ganzer Industriezweige und auch kritischer Infrastrukturen wie die
Strom- oder Energieversorgung für die Versorgungssicherheit entstehen,
brauchen wir dringend einen europäisch harmonisierten Rechtsrahmen für
IT-Sicherheit", sagt Dr. Oliver Raabe vom Zentrum für Angewandte
Rechtswissenschaft (ZAR) des KIT. Die rechtlichen Maßstäbe, welche
Risiken akzeptabel sind und welche Schutzmaßnahmen den Unternehmen
zugemutet werden könnten, müssten erst noch entwickelt werden. Ebenso
Maßgaben für die Sicherung von Qualität und Unverfälschbarkeit der
großen Datenbestände (Big Data).

Zudem müssen die
Bürgerinnen und Bürger selbst, die zunehmend komplexe
Kommunikationssysteme nutzen, beim Schutz ihrer Privatsphäre und
IT-Sicherheit unterstützt werden. „Ziel der Forschung ist daher zum
Beispiel, Methoden für einen Privacy Advisor zu entwickeln. Diese sollen
beim Hochladen von Bildern oder Nachrichten ins Netz die Risiken
einschätzen und unter Berücksichtigung bisheriger Posts aufzeigen, wie
viel zusätzliche private Information durch die Veröffentlichung
preisgegeben wird. Dies würde die Bürger dabei unterstützen, sich
souverän in sozialen Netzwerken zu bewegen“, kündigt Professor Michael
Backes, Gründungsdirektor des CISPA Helmholtz-Zentrums für
Informationssicherheit, an.

Angesichts dieser immer
größer werdenden Datenbestände, ergeben sich für viele Unternehmen neue
Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar
sichere Marktposition im digitalen Zeitalter zu verlieren. „Daten sind
nicht per se das Öl des 21. Jahrhunderts. Sie bekommen erst dann einen
Wert, wenn Geschäftsmodelle entwickelt werden, die sie wertvoll machen –
und Wertvolles hat besonderen Schutz und Sicherheit verdient“, erklärt
Peter Buxmann, CRISP-Wissenschaftler und Professor für
Wirtschaftsinformatik sowie Leiter des Gründungszentrums HIGHEST an der
TU Darmstadt. Bürgerinnen und Bürger müssen sich des Wertes und
Schutzbedarfs ihrer Daten bewusst werden, während Transparenz bei der
Nutzung und Weiterverarbeitung von Daten sowie faire Preismodelle von
Anbietern umgesetzt werden müssen. „Politisch sollten wir uns deswegen
eher weg vom Prinzip der Datensparsamkeit in Richtung Datensouveränität
bewegen und faire Geschäftsmodelle fördern und fordern“, so Buxmann.

Kondensierte Materie

Nr. 06/2014 (25.03.2014)

Physik-Experten versammeln sich in Dresden

Frühjahrstagung
der Sektion Kondensierte Materie der Deutschen Physikalischen
Gesellschaft (DPG) zum fünften Mal an der Technischen Universität
Dresden. Erwartet werden wieder über 5.000 Teilnehmerinnen und
Teilnehmer.

Dresden / Bad Honnef, 25. März 2014 � Die
DPG-Frühjahrstagung der Sektion Kondensierte Materie (SKM) ist vom 30.
März bis zum 4. April 2014 zu Gast an der Technischen Universität
Dresden. Das Hauptprogramm startet am 31. März. Die Themen der Tagung
erstrecken sich über alle Fachgebiete der SKM (Festkörperphysik,
Biophysik, Chemische Physik, Physik in der Industrie, u. v. m.). Diese
werden in zahlreichen Symposien, beispielsweise über Spintronik, die
Polymer-Forschung oder die Frage nach eindimensionalen Metallen,
behandelt. Die TU Dresden ist eine der insgesamt elf
Exzellenzuniversitäten in Deutschland und gilt über die Landesgrenzen
hinaus als Spitzenuniversität mit einem besonders breiten
Fächerspektrum.

Auch in diesem Jahr werden über 5.000
Expertinnen und Experten aus vielen Fachbereichen der Physik und allen
Teilen der Welt erwartet. Es gibt zahlreiche Highlights, wie
beispielsweise den Abendvortrag, die teilweise öffentlich und somit für
jeden frei zugänglich sind. Während der Festsitzung am 1. April halten
DPG-Präsidentin Johanna Stachel und der ehemalige sächsische
Ministerpräsident Kurt Biedenkopf Ansprachen. Ferner werden bedeutende
Preise an herausragende Physiker verliehen. Der Festvortrag von Mildred
Dresselhaus (MIT) thematisiert die Spektroskopie als Methode zur
Untersuchung von geschichteten Materialien. Als diesjähriger Preisträger
der Stern-Gerlach-Medaille, der höchsten Auszeichnung auf dem Gebiet
der experimentellen Physik, hält auch Gerhard Abstreiter einen Vortrag.
Beim Industrietag am Mittwoch, den 2. April, können sich
Nachwuchsphysikerinnen und -physiker sowie Interessierte über den
�Physiker als Unternehmer� informieren und so erste Kontak
te in
Wirtschaft und Industrie knüpfen. Weitere Highlights sind die Jobbörse
und die Lehrertage. Letztgenannte halten am 4. und 5. April für
Lehrkräfte und Lehramtsstudenten Vorträge und Workshops bereit.

ÖFFENTLICHE VERANSTALTUNGEN (Eintritt frei)
Mittwoch, 2. April, 20:00 Uhr, Hörsaal H01 (Audimax)

Nano-Gold ist magnetisch

Sensationeller Nachweis: Nano-Gold ist magnetisch

Wissenschaftler des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) haben gemeinsam mit europäischen Kollegen aus Saragossa, Grenoble und Granada herausgefunden, dass Gold stark magnetisch werden kann – wenn die Partikel klein genug und die richtigen Reaktionspartner vorhanden sind.

Um Magnetismus im Gold ging es den Forschern um Molekularbiologin Dr. Sonja Selenska-Pobell gar nicht vordergründig. Vielmehr züchteten sie im Rahmen einer Promotion den Mikroorganismus Sulfolobus acidocaldarius – einen Vertreter der Archaeen – für biotechnologische Versuche. Die Zellwand dieser Einzeller besteht, anders als bei Bakterien, aus nur einer einzigen Komponente, dem so genannten S-Layer oder Hüllprotein. Diese membranartige, hoch-geordnete Oberflächenstruktur ist die einzige Schutzhülle des in extrem lebensfeindlichen Gebieten vorkommenden Organismus.

Hochgereinigte S-Layer als Matrix für Gold-Nanocluster

Der S-Layer lässt sich nach der aufwendigen Züchtung der Archaeen-Kultur im Labor durch spezielle Verfahren vom Inhalt der Zellen lösen. Anders als bei den bakteriellen S-Layern, die häufig als Trägermaterial für metallische Nano-Cluster eingesetzt werden, ist es bei Sulfolobus acidocaldarius möglich, die Zellwand nicht in Fragmenten, sondern im Ganzen zu isolieren und zu reinigen. Das ist den Dresdner Wissenschaftlern gelungen. „Man muss sich das vorstellen wie einen winzig kleinen Ballon mit Poren“, erklärt Selenska-Pobell. „Nach der Isolierung haben wir eine perfekte, reine und extrem stabile Matrix, die als Trägermaterial für Nano-Cluster dienen kann.“ Die Wissenschaftler behandelten die schwefelhaltige Eiweiß-Hülle mit einer Goldlösung und benutzten dann ein Reduktionsmittel, um metallisches Gold zu erhalten. Das Ergebnis: Die Goldpartikel lagerten sich als Nano-Cluster auf der Eiweiß-Trägerschicht ab. Im Gegensatz zu auf Bakterien hergestellten Gold-Clustern wiesen die auf den Archaeen entstandenen Partikel-Ansammlungen eine Größe von rund zwei statt vier Nanometern auf. Und: Sie waren magnetisch. Hinweise darauf, dass kleinste Goldpartikel magnetische Eigenschaften haben könnten, gab es bereits von verschiedenen Forschergruppen. Den Dresdner Wissenschaftlern gelang es nun aber erstmalig, das Phänomen physikalisch eindeutig zu bestätigen.

Reines Gold wird stark magnetisch

„Das hat uns wirklich überrascht“, sagt Dr. Thomas Herrmannsdörfer, Physiker im Hochfeld-Magnetlabor des HZDR, der die Nano-Cluster aus Gold in einem hohen Magnetfeld untersucht hat. „Wir vermuteten zuerst, dass das Material Verunreinigungen enthält, die für die magnetischen Eigenschaften verantwortlich waren. Doch es wurde schnell klar, wie außerordentlich selektiv die Bildung der Gold-Cluster mit Hilfe des Hüllproteins stattfindet.“ Herkömmliche Methoden zur Herstellung von Nano-Clustern liefern Partikel mit deutlichen Größenunterschieden.

Mit Hilfe hochmoderner Röntgenstrahlungs-Streumethoden an der Europäischen Synchrotron-Strahlungsquelle (ESRF) in Grenoble konnten die Wissenschaftler in Kooperation mit Kollegen aus Saragossa präzise nachweisen, dass es sich bei den Nano-Clustern um reinstes und stark magnetisches Gold handelt. Gründe dafür könnten die Wechselwirkung der Gold- mit den Schwefelatomen der Sulfolobus-S-Layer, die Größe der Partikel sowie die Beschaffenheit der biologischen Matrix sein. „Bereits kleine Änderungen im Elektronenhaushalt von Materialien oder ihrer räumlichen Ausdehnung führen oft zu drastischen Veränderungen der physikalischen Eigenschaften“, sagt Herrmannsdörfer. Diese Effekte werden in vielen Bereichen der Nanotechnologie genutzt.

„Unsere Entdeckung ist ein Geschenk der Natur“, freut sich Dr. Sonja Selenska-Pobell. „Wir haben die Anordnung und Ausdehnung des Nano-Goldes nicht beeinflusst, es hat sich von selbst so ergeben.“ In den nächsten Jahren wollen die Wissenschaftler weitere Untersuchungen zu Nano-Clustern auf Proteinen durchführen – dann mit noch höherer Güte an der geplanten Helmholtz-Beamline am European XFEL in Hamburg.
(Autorin: Sara Schmiedel)

Konzept für eine Algorithmen-Akademie – Mit persönlicher Meinung von Jean Pütz

Professor Trottenberg kam vor einiger Zeit auf mich zu und bat mich, mit zu helfen, dass algorithmisches Wissen und Denken stärker verbreitet wird in Schule und Öffentlichkeit. Das ist insofern außerordentlich wichtig, weil diese Denkmethode die Voraussetzung  ist für das Programmieren insbesondere was die Künstliche Intelligenz anbelangt. Leider findet diese Vermittlung in den Lehrplänen der Schulen selbst in den Fächer Informatik nur selten statt. Da es so außerordentlich wichtig ist, werde ich mich nach meinen Möglichkeiten dafür einsetzen, dass es nicht nur an den Höheren Schulen, sondern auch an Berufs- und Berufs-Fachschulen gelehrt wird.

Mittlerweile haben viele Gespräche stattgefunden, u. a. auch mit der Bundesministerin Frau Karliczek. Professor Trottenberg und einige kompetente Mitstreiter haben dazu ein vorläufiges Konzept entwickelt, dass ich Ihnen im Vorfeld nicht vorenthalten möchte

Ihr Jean Pütz

Digitales Gestalten mit Algorithmen – von Euklid bis KI

In dem hier konzipierten Projekt sollen die auf Digitale Bildung ausgelegten Entwicklungen

  •  Roberta (Fraunhofer IAIS)
  • Initiative  – Algorithmen im Schulunterricht (Interscience, Universität zu Köln)

integriert und zu einer Online-Plattform „Digitales Gestalten mit
Algorithmen“
für Schulen, Lehrer*innen und Schüler*innen ausgebaut werden. Die Entwicklungen werden vom Fraunhofer-Institut IAIS (Roberta) und vom Mathematischen Institut der UzK und der InterScience GmbH („Algorithmen im Schulunterricht“) getragen. Dies sind auch die Hauptpartner im hier konzipierten Projekt.

Der Grundgedanke ist, dass „Digitale Bildung“ sich nicht darauf beschränken darf, den Schüler*innen einen kompetenten Umgang
mit digitalen Geräten und Medien zu vermitteln, sondern dass als Lernziel auch ein Verständnis für zentrale algorithmische Konzepte und Prinzipien als den fundamentalen Methoden und Grundlagen aller digitalen Entwicklungen unabdingbar ist.

Dies gilt insbesondere für Algorithmen der Künstlichen Intelligenz
(KI) und des Maschinellen Lernens (ML)
, die daher einen Schwerpunkt des
Projektes bilden.

Ziele:

Als Ergebnis des hier skizzierten Projekts wird „Digitales
Gestalten mit Algorithmen“
als Angebot für Deutschland flächendeckend
zur Verfügung stehen. Digitales Gestalten mit Algorithmen wird dabei die gesamte Bildungskette von der Grundschule bis zum Abitur abdecken, einschließlich des schulischen Teils der dualen Bildung (Berufsschulen).

Digitales Gestalten mit Algorithmen ist dabei eine online nutzbare Plattform, mit der algorithmisches Verständnis, algorithmisches
Denken und
algorithmische Praxis (Programmierung und Anwendung) erlernt und eingeübt werden kann. Die Plattform setzt keine digitalen Vorkenntnisse voraus und kann insbesondere von Schulen, Lehrer*innen und Schüler*innen frei genutzt werden.

Zukünftige Schwerpunkte der Plattform werden elementare,
fortgeschrittene und ausgereifte Methoden der Künstlichen Intelligenz und des Maschinellen Lernens sein. Über Digitales Gestalten mit KI/ML- Algorithmen hinaus soll die Plattform auch Angebote und Möglichkeiten für eine breit angelegte Aufklärung der Öffentlichkeit bieten und Interessenten zu einer realistischen Einschätzung der Chancen und Risiken der KI/ML verhelfen.

Hintergrund:

Algorithmen sind der Kern alles Digitalen:

• Algorithmen liegen allen Programmen zugrunde und sind damit
Grundlage für alle Prozesse im Rechner (interne Prozesse, Anwendungen)

• Algorithmen steuern sämtliche Netze und deren Nutzung, bis hin zum
Internet der Dinge

• Algorithmen ermöglichen die strukturierte Verarbeitung aller Daten
und intelligente Daten-Analyse,

Algorithmisches Verständnis und algorithmische Praxis durch Programmierung und Anwendung sind in zunehmendem Maße Basisfähigkeiten einer digitalen Gesellschaft und Arbeitswelt.

Ausgangsbasis, Vorarbeiten (*):

• 10 Jahre Seminarausbildung von Lehramtsstudierenden, über 500 Absolventinnen und Absolventen an der Universität zu Köln

• Fraunhofer IAIS führend im Bereich ML/Robotik, ROBERTA-Entwicklung und -Verbreitung: 450.000 Schülerinnen und Schüler geschult, 2000 Lehrerinnen und Lehrer sind Roberta-Teacher, 200.000 Nutzer der Online-Plattform in über 70 Ländern

• Bereitschaft der nationalen Kompetenzzentren ML, ihre algorithmischen Ergebnisse in ein solches Angebot einzubringen

Umsetzung:

• Zusammenführen der Konzepte
von Roberta und der algorithmischen Bildung mit dem Schwerpunkt und Fokus auf KI in Zusammenarbeit mit den Kompetenzzentren

• Etablierung einer Online-Plattform, in der Schüler*innen, aber auch Auszubildende und alle anderen Schulformen ebenso wie Mitarbeiter*innen im Betrieb grafisch lernen können, (KI) Algorithmen zusammen zu binden und für eigene digitale gestalterische Zwecke einzusetzen.

• Integration aktueller KI-Algorithmen durch die Kompetenzzentren

• Konzept und Lehrmaterial zur entsprechenden algorithmischen Lehrer-Aus- und Fortbildung mit Anschlussfähigkeit und Integrierbarkeit in den regulären Unterricht, z.B. alle mathematischen Inhalte durch algorithmische Komponente abschließen, Nutzung in der Programmierung (Informatikunterricht, fächerübergreifender Unterricht)

• Pilotierung in einer möglichst großen Zahl von Schulen, Weiterbildungseinrichtungen und Betrieben, z.B. rund um die Kompetenzzentren ML

Digitale Bildung ohne ein grundlegendes Verständnis von Algorithmik bleibt substanzlos.