Archiv der Kategorie: Computer, TV, Medien

„Digitale Ameisen“ jagen Computer-Würmer

Schwarmintelligenz zum Aufspüren von Netzwerk-Bedrohungen

Winston-Salem/Bochum (pte/29.09.2009/13:25) – Biologische Vorbilder sind in der Robotik bereits gang und gebe, doch nun hat ein US-Forscherteam auch in Sachen Cybersecurity Anleihen bei der Natur genommen. Sie setzen auf "digitale Ameisen", die in Netzwerken umherwandern und dabei helfen sollen, Sicherheitsbedrohungen wie Würmer rasch aufzuspüren. Denn wenn eine Ameise eine potenzielle Gefahr entdeckt, konvergieren dank Schwarmintelligenz nach biologischem Vorbild schnell viele Ameisen um die Bedrohung. In einem Test konnten die Forscher der Wake Forest University http://www.wfu.edu und des Pacific Northwest National Laboratory (PNNL) http://www.pnl.gov zeigen, dass ein Ameisenschwarm erfolgreich einen Wurm aufspürt.

"Wir wissen aus der Natur, dass sich Ameisen sehr effektiv gegen Bedrohungen wehren", meint Errin Fulp, Informatikprofessor an der Wake Forest. Denn die Insekten bauen schnell eine massive Verteidigung auf, um nach Ausschalten einer Bedrohung wieder zur normalen Routine zurückzukehren. Bei der digitalen Umsetzung dieses Schwarmverhaltens setzen die Forscher darauf, dass jede Ameise bei der Suche nach Hinweisen auf Bedrohungen im Netzwerk eine Spur hinterlässt, die den Duftmarken ihrer biologischen Vorbilder ähnelt. "Eine digitale Ameise ist programmiert, einen stärkeren Duft zu hinterlassen, wann immer sie Hinweise identifiziert", sagt Fulp. Die stärkere Spur locke weitere Ameisen an, wodurch bei einer potenziellen Infektion ein Schwarm entstehe. In einem gemeinsamen Projekt von PNNL und Wake Forest wurde der Ansatz des digitalen Ameisenschwarms im Sommer auf einem Netzwerk aus 64 Computern getestet, wobei die Ameisen tatsächlich einen eingeschleusten Wurm aufspüren konnten.

"Generell begrüßen wir alle Forschungsansätze, die es sich zum Ziel gesetzt haben, Frühwarnsysteme und Schutzmechanismen vor der steigenden Malware-Flut zu entwickelt", meint Ralf Benzmüller, Leiter der G Data Security Labs, auf Nachfrage von pressetext. Daher sei die Idee von Fulp und seinen Kollegen sicherlich interessant. "Theoretisch könnte der Einsatz einer Ameisen-Patrouille, die autonom nach Schädlingen sucht, Malware frühzeitig aufspüren und womöglich unschädlich machen", so Benzmüller. Allerdings müsse erst nachgewiesen werden, dass das Konzept effizienter und nachhaltiger zum Schutz vor Malware beitragen könne als andere Intrusion-Detection-Verfahren.

"Das Konzept erinnert an die Antiviren-Viren aus den späten 80er-Jahren des letzten Jahrhunderts", meint Benzmüller. Dabei wurde versucht, Schadcode mit Antiviren-Viren zu entdecken und zu beseitigen. Der erste Vertreter dieser Art war 1988 "Den Zuk", der den Brain-Virus von infizierten Rechnern entfernen konnte. "Dieses Konzept war und ist jedoch äußerst fragwürdig, denn auch ein sogenannter guter Virus bleibt nichts anderes als ein Schädling", betont der G-Data-Experte. Zu einem unerwünschten Einnisten der digitalen Ameisen auf Rechnern kann es den US-Forschern zufolge hingegen nicht kommen. Denn ohne spezielle Software-"Wachposten" in einem System "überleben" die Ameisen dort nicht. Die Wachposten wiederum leiten Informationen an "Feldwebel" im Netzwerk weiter, die wiederum menschlichen Operatoren als oberste Entscheidungsinstanz unterstellt sind.

Digitalisierung und die Folgen

die Digitalisierung ganzer Lebensbereiche oder auch
die rasante Entwicklung von neuen Technologien im Bereich der
künstlichen Intelligenz und Robotik werden unsere Arbeit in Zukunft
entscheidend prägen. Doch auf was genau müssen wir uns als
Arbeitnehmerinnen und Arbeitnehmer einstellen? Welche Fähigkeiten werden
erforderlich sein und wo ergeben sich vielleicht ganz neue
Möglichkeiten?

Die Chancen und Herausforderungen des
technologischen Fortschritts für unsere Arbeit stehen im Mittelpunkt des
Wissenschaftsjahres 2018 – Arbeitswelten der Zukunft, das die
Bundesministerin für Bildung und Forschung Johanna Wanka am Montag, 19.
Februar, in Berlin eröffnet. Auch Wissenschaftlerinnen und
Wissenschaftler des Karlsruher Instituts für Technologie (KIT)
beschäftigen sich auf vielfältige Weise mit Arbeitswelten der Zukunft
und wollen in den Dialog mit der Gesellschaft treten. Dabei beziehen sie
ganz unterschiedliche Positionen.

„Die Arbeitswelten von morgen bleiben gleich – und
sind doch anders“, sagt etwa Informatikprofessor Michael Beigl und rät
zu einem nüchternen Blick sowie Optimismus im Umgang mit den
Veränderungen. Der Experte für Pervasive Computing Systems forscht am
Internet of Things (IoT) und an Softwarelösungen für die Industrie 4.0:
„Gleich bleibt unsere Tätigkeit im Allgemeinen. Anders sind insbesondere
die Künstliche-Intelligenz-gestützten Werkzeuge mit denen wir arbeiten
werden. Diese werden uns nicht nur Arbeitsvorgänge abnehmen können,
sondern uns besseren Überblick über Sachverhalte schaffen. Und statt nur
Ergebnisse auf Nachfrage werden solche Systeme in Zukunft auch proaktiv
Erkenntnisse liefern. Ein Produktionsingenieur wird beispielsweise
nicht nur Messergebnisse auswerten, sondern seine intelligente Software
liefert ihm gleich Regeln, warum etwas funktioniert oder nicht. Der
Verwaltungsangestellte wird nicht nur die Vorgänge sehen, sondern auch
Vorschläge erhalten, wie man Gleiches mit weniger Aufwand erreichen
kann. Daraus etwas kreativ zu gestalten und Entscheidungen zu treffen,
wird der Arbeitnehmer der Zukunft aber immer noch selbst müssen.“

Der Technikphilosoph Professor Armin Grunwald,
Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse
(ITAS) und des Büros für Technikfolgen-Abschätzung beim Deutschen
Bundestag (TAB), warnt aber vor einem einseitig enthusiastischen Blick
auf den technologischen Fortschritt. Ihm machen vor allem die
gesellschaftlichen Folgen Sorgen, wenn Automatisierung und Roboter
zukünftig viele Arbeitsplätze ersetzen:

„Die Betroffenen der Automatisierung sind nicht
zwingend für die neuen Arbeitsplätze qualifiziert. Uns drohen da große
soziale Probleme. Leider dominiert unsere Gesellschaft aber ein naiver
Fortschrittsglaube, wobei sicherlich eine Rolle spielt, dass die
deutsche Wirtschaft vom Export dieser Maschinen und Roboter profitiert.
Wir müssen daran denken, dass weitreichende Innovationen immer Gewinner
und Verlierer mit sich bringen.“

Um die Verlierer dieser Entwicklung
gesellschaftlich nicht zu sehr abzuhängen, schlägt Grunwald vor, auch
über direkte politische Maßnahmen nachzudenken: „Wir müssen Steuern
zahlen, der Roboter nicht. Das ist ein klarer Wettbewerbsnachteil für
Menschen. Dadurch wird sich die Verbreitung der Robotik im Arbeitsleben
stark beschleunigen. Es ist an der Zeit, das politisch zu überdenken,
eine Steuer für Roboterarbeit steht irgendwann an.“

Auch Professorin Barbara Deml vom Institut für
Arbeitswissenschaft und Betriebsorganisation (ifab) hält es für möglich,
dass die Geschwindigkeit der technologischen Neuerungen immer mehr zu
einem Problem für einen Teil der Arbeitnehmer werden könnte:

„Ich gehe davon aus, dass eintönige, sich
wiederholende Tätigkeiten noch stringenter automatisiert werden. Dabei
denke ich nicht nur an die Produktion, sondern auch an Verwaltung oder
Vertrieb. Vermutlich werden wir auch eine noch viel stärkere
Unterstützung durch intelligente Assistenzsysteme erleben. Viele
Tätigkeiten werden dadurch wesentlich einfacher auszuführen sein.
Demgegenüber steht aber auch der volkswirtschaftliche Anspruch,
hochkomplexe digitale Produkte sehr schnell zu entwickeln. Diese
dynamische, forschungsintensive Wissensarbeit wird an einige
Arbeitnehmer höchste Anforderungen stellen. Die Konsequenz aus der
Vereinfachung auf der einen Seite und dem gestiegenen Anspruchsniveau
auf der anderen Seite wird zu einer Polarisierung der Arbeitswelt
führen.“

Um auf diese Veränderungen angemessen zu reagieren,
brauche es mehr als die oft bemühte Empfehlung, individuell flexibel zu
bleiben oder mit Weiterbildungen und lebensbegleitendem Lernen zu
reagieren: „Diese Haltung ist von einer geradezu resignativen Anpassung
an die Veränderung geprägt. Zielführend und richtig wäre es, die
Veränderung heute aktiv mitzugestalten und selbst Leitplanken, was zum
Beispiel Arbeitszeitmodelle angeht, zu definieren“, so Deml. Eine solche
proaktive Haltung sei auch deshalb wichtig, weil die Digitalisierung
das Potenzial habe, unser menschliches Zusammenleben insgesamt zu
verändern: „Neue Technologien führen zu Verhaltens- und
Erlebensänderungen. Gemeinsam mit unserer zunehmenden Abhängigkeit von
Technologien, der Frage des Datenschutzes sowie dem Informationsmonopol
einiger weniger global tätiger Unternehmen könnte das zu einer Gefahr
für die Demokratie werden.“

3D-Realität breitet sich aus

02
| 2019 – Tragbare Augmented-Reality – näher zur Realität durch Kombination aus
hocheffizienter Durchsichtoptik und extrem stromsparender
OLED-Mikrodisplay-Technologie

Dresden /
6.2.2019

LetinAR, ein koreanisches Start-up-Unternehmen,
das eine Optiklösung für Augmented-reality (AR)-Brillen entwickelt, und
Fraunhofer FEP als deutscher Spezialist für die kundenspezifische Entwicklung
von OLED-Mikrodisplays für Wearables, präsentieren gemeinsam die Zukunft der
AR-Brillentechnologie durch ihren ersten gemeinsamen Demonstrator des
PinMR™-Linsensets mit ultra-low-power OLED-Mikrodisplay auf dem Mobile World
Congress (MWC) in Barcelona, Spanien, vom 25. bis 28. Februar 2019, am Stand
Nr.
CS80 (Hall Congress Square).

Augmented-Reality (AR) und die
dazu notwendige Technik durchdringt immer mehr Lebensbereiche. Selbst in
Spielzeugen wird AR inzwischen eingeführt und lässt virtuelle Welten über
entsprechende Endgeräte auf Spielteppichen entstehen oder die altbewährte
Spielzeugeisenbahn virtuell über den Schienen in heutigen Kinderzimmern fahren.
In der Industrie ist AR bereits angekommen – immer mehr Unternehmen werden in
Zukunft für ein breites Anwendungsspektrum auf AR-Lösungen setzen. Bei großen
Logistikunternehmen und Autobauern gehören Wearables zur Anzeige von
Produktionsdaten oder Lagerplätzen bereits zum Inventar und Arbeitsalltag.
Diverse tragbare Endgeräte in Form von Datenbrillen oder anderen
Anzeigelösungen am Kopf oder Körper des Arbeiters in der Logistik oder an der
Produktionsstrecke sind bereits am Markt.

Dennoch ist man gerade für die bedienerfreundliche Brillenlösung, welche das
Arbeiten mit freien Händen und ohne Ändern des Blickfokus weg vom Arbeitsobjekt
ermöglicht, noch immer mit Hürden konfrontiert. Den derzeit erhältlichen
AR-Brillen mangelt es noch immer an entscheidenden Parametern, die zur
Nutzerfreundlichkeit und Ergonomie für den langfristigen Einsatz am Menschen
nötig sind. Formfaktor, überdimensionale "Boxen" vor dem Gesicht
aufgrund aufwändiger Optikelemente und Displays, ein enges Sichtfeld, kurze
Akkulaufzeiten, komplizierte und teure Produktionsprozesse und ungenaue
Farbauflösung sind einige der wichtigsten Fakten, die den Durchbruch der
AR-Brille verzögern.

LetinAR ist ein koreanisches Startup-Unternehmen, das sich auf die Entwicklung
neuartiger Optiken für AR-Brillen spezialisiert hat.  Die
PinMR™-Technologie von LetinAR wird neue Maßstäbe bei der Herstellung dieser
Wearables setzen. Sie haben den sogenannten "Pinhole-Effekt" auf
kleinste Spiegel angewendet und diese in Brillengläser integriert. Dieser PinMR
™ reflektiert das von einem Mikrodisplay erzeugte Licht und leitet es in die
menschliche Pupille. Der Benutzer kann das über ein Mikrodisplay mit
vergrößernder Durchsichtoptik erzeugte virtuelle Bild sowie das Bild aus der
realen Welt bequem betrachten. Das menschliche Auge kann die Spiegel, die
kleiner als die Pupillen sind, nicht erkennen. Nur das virtuelle Bild, welches
durch das von diesen Spiegeln reflektierte Licht entsteht, ist sichtbar.

Diese speziell entwickelte Pin-Spiegel-Optik (PinMR™) wurde nun mit der
OLED-Mikrodisplay-Technologie des Fraunhofer FEP kombiniert, die für ihren
extrem geringen Stromverbrauch bekannt ist. Die extrem kleine Größe des sehr
stromsparenden OLED-Mikrodisplays eignet sich perfekt für kleine,
miniaturisierte und leichte Systeme, die tragbar und einfach in Brille, Kappe
oder Helm zu integrieren sind. Die OLED-Technologie des Displays ermöglicht
scharfe Bilder mit sehr hohen Kontrasten und Helligkeit über einen sehr weiten
Dynamikbereich (bisher monochromes Grün, aber grundsätzlich erweiterbar bis
Vollfarbe). Darüber hinaus ermöglicht ein zusätzliches, innovatives
Bluetooth-Konzept nun eine energiesparende Kommunikation mit dem
Wearable/Display. Die Datenübertragung von z.B. Scannerdaten an Lagerorte oder
Füllstände kann in der Logistik direkt an die AR-Brille eines Kommissionierers
übertragen werden. Und das ohne die Schicht für Ladezeiten der Brille
unterbrechen zu müssen.

Jeonghun Ha, CTO bei LetinAR, sagt: "Es ist eine Ehre, mit dem Fraunhofer
FEP als weltweit renommierten Spezialisten für die kundenspezifische
Entwicklung von OLED-Mikrodisplays, zusammenzuarbeiten", und "Die
Zusammenarbeit zwischen LetinAR und Fraunhofer FEP wird die technischen
Barrieren abbauen, die den Durchbruch von Augmented-Reality (AR)-Brillen lange
Zeit behindert haben. LetinAR und Fraunhofer FEP freuen sich darauf, die
Zusammenarbeit für weitere AR-Anwendungen auszuweiten."

Dr. Uwe Vogel, Bereichsleiter Mikrodisplays und Sensoren am Fraunhofer FEP,
erklärt die Vorteile: „Wir freuen uns sehr, einen weltweit ersten Demonstrator
mit der vielversprechenden PinMR™ Optik von LetinAR  gemeinsam mit unseren
ultra-low-power Mikrodisplays in Barcelona vorstellen zu können. Die Zusammenarbeit
zeigt, was unsere Technologie in Kombination mit der neuesten Technologie der
Optikspezialisten von LetinAR hervorbringen kann. Diese Verschmelzung von
Technologien wird hoffentlich bald zu extrem kleinen, leichten und
elektrooptisch effizienten Bauelementen für Datenbrillen und anderen Wearables
führen, die eine deutlich verbesserte Akkulaufzeit und reduzierte Ladezyklen
ermöglichen und damit immer einsatzbereit sind, wie beispielsweise die heutigen
Smartphones, mit denen sie sich drahtlos verbinden können."

Der Demonstrator überzeugt durch eine sehr hohe optische Effizienz der
LetinAR-Technologie, derzeit ist am Markt keine vergleichbar effiziente
Durchsichtoptik am Markt erhältlich. Gemeinsam mit den extrem kleinen
OLED-Mikrodisplays stellen die Wissenschaftler ein System vor, das künftige
AR-Brillen einen großen Schritt voranbringen kann – ergonomische und
platzsparende Designs rücken in greifbare Nähe. Auch die einfache Steuerbarkeit
von OLED-Mikrodisplays punktet bei Systementwicklern. Insgesamt kann die
Kombination der beiden Technologien einige der aktuellen Hürden überwinden und
neuen AR-Wearables den Weg in den täglichen Einsatz ebnen. Künftig wollen die
Entwickler beider Einrichtungen die vorgestellten Technologien gemeinsam mit
Herstellern für die AR-Systeme und Wearables der Zukunft kundenspezifisch
voranbringen.

Zur Vorstellung der Konzepte und für Diskussionen zu möglichen
Technologieentwicklungen und -transfers stellen beide Einrichtungen einen
ersten gemeinsamen Technologiedemonstrator der hocheffizienten
Durchsichtoptiken mit den OLED-Mikrodisplays auf dem Mobile World Congress
2019, in Barcelona, Spanien am Stand von LetinAR, Nr. CS80 (Hall Congress Square)
vor.

Das LetinAR-Team wird ebenfalls einen
Einblick in den AR-Markt- und Technologietrends geben.
Jaehyeok Kim, CEO von
LetinAR, wird die den Beitrag zum Thema “Why can’t we have true Augmented
Reality glasses, yet?: Bold suggestion to tackle the AR optics problem” am 25.
Februar 2019 von 10:30 – 11:30 Uhr in CC4.2, 4G30,
Halle 4 präsentieren.  Die Teilnehmer können den Datenbrille-Demo von
LetinAR PinMR™ auf der Konferenz erleben. Private Meetings, Konferenztermine
und Pressegespräche können unter https://letinar.com. gebucht werden.

Über LetinAR (www.letinar.com):

LetinAR mit Sitz in Seoul/Südkorea konzentriert sich auf die Entwicklung
optischer Systeme für Augmented Reality (AR) Datenbrillen. LetinAR hat den
sogenannten "Pinhole-Effekt" auf winzige Spiegel angewendet und prägt
den neuen Begriff "PinMR™". Ziel ist es, traditionelle optische
AR-Systeme wie Halbspiegel, diffraktive optische Elemente (DOEs) und
Wellenleiter durch eine eigene, markengeschützte PinMR™-Technologie zu
ersetzen.

LetinAR plant, PinMR™ Linsen als komplettes Modul zu liefern, das aus PinMR™
Linsen und einem Mikrodisplay von externen Partnern besteht. LetinAR wird Ende
2019 damit beginnen, PinMR™ Linsenmuster für einige Kunden bereitzustellen, was
es den Herstellern von Datenbrillen ermöglicht, das Verwendungspotenzial von
PinMR™ Linsen für ihre eigenen Produkte zu bewerten.

LetinAR hat 700.000 $ Startkapital von Naver, der größten Portalseite und
Suchmaschinenbetreiber in Südkorea, gesammelt. LetinAR erhielt anschließend 5,4
Millionen Dollar in der Serie A von einem anderen Internet-Riesen, Kakao
Ventures, KB Investment, Naver als Nachfolger und drei weiteren koreanischen
VCs.


Über das Fraunhofer FEP (www.fep.fraunhofer.de):

Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und
Plasmatechnik FEP mit Sitz in Dresden beschäftigt sich mit der Entwicklung
innovativer Lösungen, Technologien und Verfahren zur Oberflächenmodifikation
und organischen Elektronik.

Neben der langjährigen Erfahrung in der Elektronenstrahl- und Plasmatechnologie
ist das Fraunhofer FEP der führender unabhängiger Forschungs- und Entwicklungsdienstleister,
der die organische Elektronik dem Design und der Prozessintegration von
Silizium-CMOS-Integrierten Schaltungen (ICs) kombiniert. Ziel ist es, die
Ergebnisse von Forschung und Entwicklung im Bereich kombinierter
Silizium-Organik mikroelektronischer Bauelemente in die Produktion zu
übertragen, indem man sich auf spezifische Prozessentwicklung, Komponenten,
Systemintegration und Anwendungen auf Basis der OLED-auf-Silizium-Technologie
konzentriert.

Daher suchen wir kontinuierlich nach Partnern für Weiterentwicklung und
Kommerzialisierung Fraunhofer FEP‘s fundierter Erfahrungen in der Entwicklung
einzigartiger OLED-Mikrodisplay-Architekturen, wie großflächige
OLED-Mikrodisplays für VR, ultra-low power, low-latency und bidirektionale Mikrodisplays,
die Bildanzeige mit eingebetteter Bildsensorik für AR kombinieren, oder die
Mikrostrukturierung für verbesserte Energieeffizienz und Farbe von
RGB-OLED-Displays belegen. Darüber hinaus wird die Technologie- und
Designkompetenz auch auf optoelektronische Sensorlösungen angewandt, die
Silizium-CMOS-basierte und/oder organische Photodetektoren (OPD) und
eingebettete Beleuchtung für interaktiven optischen Fingerabdruck- oder
Oberflächentopologie-Bildsensoren, Single-Chip-Reflexionslichtschranken, optische
Sensoren mit eingebetteter Beleuchtung (z. B. Neigungs-, Streulicht-,
Wellenfrontsensoren), Lab-on-Chip-Module mit eingebetteter Mikrofluidik oder
Bio- und Umweltüberwachung nutzen.

Nutzung von Social Media macht unhöflich

Nutzung von Social Media macht unhöflich
Anonymität im World Wide Web erleichtert es, gemein zu sein
 
Social Media: Anonymität lässt uns fies werden (Foto: pixelio.de/JMG)

Vancouver/Linz (pte032/23.10.2013/13:37) – Die verstärkte Nutzung von Social Media lässt viele User ihre guten Manieren vergessen. Zu diesem Schluss kommt eine neu erschienene Erhebung von Insights West http://insightswest.com . Demnach machen 80 Prozent der Befragten Social Media und neue Technologien für das wachsende unzivilisierte Verhalten verantwortlich. Psychologen und Befragte sind sich jedoch einig, dass Social Media schlechte Manieren zwar nicht direkt entstehen lässt, es durch die Anonymität im Web aber einfacher wird, Bosheiten schnell und weitläufig zu verbreiten.

Gemeinheiten ausprobieren

"Anonymität ist ein enthemmender Faktor. In ihrem Schutz fällt die Scheu, die uns face-to-face von bösen Worten abhalten würde", sagt Bernad Batinic, JKU-Institutsvorstand für Psychologie http://jku.at , gegenüber pressetext. Auch mangelnde Medienkompetenz und das Bedürfnis etwas auszuprobieren, das in der Realität zu riskant wäre, seien Gründe für ungebührliches Verhalten im Web. "Andererseits bietet jene Anonymität aber auch die Möglichkeit, sich online viel mehr zu öffnen, als man es vielleicht in der direkten Kommunikation tun würde."

Peter Chow-White, Universitätsprofessor für Kommunikation, ist sich außerdem sicher, dass die Online-Welt mehr über die Persönlichkeit und tatsächlichen Gedanken eines Users aussagt als über den Weg der Kommunikation. Die Hürden, Unhöflichkeiten zu äußern, sind online viel geringer, da man sich dort hinter einer anonymen Identität verstecken kann. YouTube hat dieses Problem mittlerweile erkannt und ändert seine Einstellungen für Videokommentare.

Junge besonders betroffen

Neue Technologien und Social Media machen sonst versteckte Negativität sichtbar, und gerade junge User leiden besonders oft unter den Tücken, die das Internet für die Kommunikation mitbringt. Kaum verwunderlich, wenn Mobbing und dreiste Bemerkungen auf der Tagesordnung stehen. Fehlender persönlicher Kontakt macht es zudem schwierig, nonverbale Kommunikationsmerkmale wie die Tonlage oder Gesten unverfälscht zu vermitteln.

190 Sekunden liegen zwischen zwei Massenangriffen auf deutsche IT-Systeme

Koordinierte Massenangriffe sind im Internet
immer häufiger zu beobachten. Oft sind wichtige Infrastrukturen wie
Verkehrsnetze oder die IT in Krankenhäusern das Ziel, dort, wo sie
besonders großen Schaden anrichten. Die "Distributed Denial of Service –
DdoS-  Attacks" zielen darauf ab, einen bestimmten Dienst mit großen
Datenpaketen zu überlasten und unbenutzbar zu machen.Forscherinnen und
Forscher am Center for IT-Security, Privacy and Accountability, kurz
CISPA, haben für diese Art Angriff einen "Honeypot" entwickelt – 
ähnlich wie ein Honigtopf Bienen anlockt, zieht dieser DDoS-Angriffe an.
Mit einem globalen Sensor-Netzwerk aus dutzenden von Honeypots haben
die Forscher bereits mehr als 14,5 Millionen Angriffe dokumentiert. Etwa
alle 190 Sekunden werden dabei auch Ziele in Deutschland getroffen.
Durch bekannte Angriffsmuster lässt sich hieraus ein Frühwarnsystem
entwickeln, so dass Gegenmaßnahmen ergriffen werden können. Über eine
spezielle Fingerabdruck-Methode können sogar Hinweise auf die Identität
der Angreifer gemacht werden.

CISPA ist eines von drei Kompetenzzentren zur
IT-Sicherheit, deren Gründung das Bundesministerium für Bildung und
Forschung 2011 angestoßen hat. Am 14. März 2018 lädt CISPA zum
Deutsch-Französischen Tag der IT-Sicherheit in die Congresshalle
Saarbrücken ein. Hochkarätige Expertinnen und Experten aus Deutschland
und Frankreich stellen den aktuellen Stand der Forschung in der
IT-Sicherheit  vor.

Intel will Computer menschenähnlicher machen

Intel will Computer menschenähnlicher machen
"Perceptual Computing" macht PCs mit Augen und Gesten steuerbar
 
"Perceptual Computing": den PC freihändig steuern (Foto: intelfreepress.com)

Santa Clara (pte004/03.12.2013/06:15) – Chip-Gigant Intel http://intel.com arbeitet an Software und Hardware für "Perceptual Computing", einer Technologie mit deren Hilfe Benutzer den Computer mit Gesten und sogar Augenbewegungen steuern können. Mithilfe von Gesichtserkennung und Spracherkennung werden auch Emotionen und Körpersprache erkennbar. Bereits nächstes Jahr sollen Geräte verfügbar sein, die Perceptual Computing nutzen.

Neue Apps in Entwicklung

Bisher konzentriert sich Intel noch auf Software zur Umsetzung der neuen Technologie. Ein Software Developer Kit ermöglicht Programmierern die Entwicklung von Apps, was auf breite Resonanz gestoßen ist. 26.000 Mal ist das Kit heruntergeladen worden. Zudem veranstaltete der Chip-Riese Wettbewerbe mit 100 Mio. Dollar an Preisgeldern, um Entwickler für die Technik zu interessieren.

Bei den neuen Geräten, die nächstes Jahr die Technologie nutzen sollen, hofft Intel, dass in allen seine Chips zu finden sind. Zwar könnten Hersteller auch Chips der Konkurrenz benutzen. Intel ist aber der Ansicht, dass nur seine Hardware die nötige Rechenpower hat, um die neuen Funktionen flüssig laufen zu lassen. Auch die energiesparenden Intel-Atom-Hauptprozessoren sollen nicht ausreichend sein, sondern nur die Core-Prozessoren, die in PCs und einigen Tablets zum Einsatz kommen.

Neue Hardware mit 3D-Kameras

Allerdings arbeitet das Unternehmen daran, Perceptual Computing auch für seine energieeffizienten Prozessoren möglich zu machen. Zudem plant es seine Chips mit Grafikbeschleunigern und Tools auszustatten, um die Möglichkeiten der neuen Technologie besser auszunutzen. Zwar besitzt zum Beispiel Kinect für Microsofts Xbox schon einige Merkmale von Perceptual Computing, Intel will aber vor allem Fortschritte erzielen bei der Interaktion in der Nahdistanz bis zu einem Meter vom Gerät.

Das Ziel sind laut Intel "sensorische Eingaben, die Computer menschenähnlicher werden lassen", sagt Intel-Manager Anil Nanduri. PCs sollen Konversationen führen können und Kontext verstehen, etwa wenn man zu ihnen sagt: "Spiel mal etwas Musik", anstatt nur Kommandos auszuführen. Bewegungen einzelner Finger sollen erkannt werden. Besonderes Augenmerk richtet man auf die Erkennung von Raumtiefe. Deswegen gibt es eine Kooperation mit Creative für 3D-Kameras. Diese sollen im zweiten Halbjahr 2014 in PCs und Tablets integriert werden.

Laptops sind keine ideale Lernhilfe

Laptops sind keine ideale Lernhilfe
Handschriftliche Notizen fördern Verständnis eher

Princeton (pte011/25.04.2014/13:33) – Für immer mehr Studenten ist das Notebook ein Lernbegleiter, auf dem sie auch ihre Notizen währen Vorlesungen machen. Doch das ist einer aktuellen Studie zufolge gar nicht so gut. "Unsere Ergebnisse zeigen, dass Laptops auch bei korrekter Nutzung – also nicht zum Einkaufen auf Amazon während des Unterrichts – dennoch die akademische Leistung schmälern können", so Pam Mueller, Psychologin an der Princeton University http://princeton.edu . Um Konzepte wirklich zu begreifen und langfristig zu behalten, ist es immer noch besser, sie wirklich zu Papier zu bringen.

Wissen gehört auf Papier

Mobile Computer halten immer stärker in Hörsälen Einzug, was bisher vor allem aufgrund der potenziellen Ablenkung – durch Spiele, Shopping oder überschwänglichen Online-Medienkonsum – auf Kritik gestoßen ist. Doch die in Psychological Science http://pss.sagepub.com veröffentlichte Studie zeigt ein viel grundlegenderes Problem. Digitale Notizen scheinen nicht das ideale Mittel, wenn es darum geht, wirklich inhaltliche Konzepte zu verstehen, statt nur einfach Fakten zu behalten. Das hat ein Experiment mit 65 Studenten gezeigt, die sich Notizen zu ausgewählten TED Talks http://ted.com/talks entweder auf einem Laptop oder auf einem Notizblock machen durften.

Nach den Vorträgen, die nicht unbedingt alltägliche Informationen enthalten, mussten die Probanden Ablenkungen über sich ergehen lassen, darunter eine schwierige Gedächtnisübung. 30 Minuten nach dem eigentlichen Vortrag mussten die Studenten dann Fragen zum jeweiligen TED Talk beantworten. Ging es einfach nur um Fakten, war es egal, wie die Probanden mitgeschrieben hatten. Bei konzeptionellen Fragen ("Wie unterschieden sich Japan und Schweden in ihrem Zugang zu Gleichberechtigung in der Gesellschaft?") schnitten die Laptop-Nutzer hingegen deutlich schlechter ab.

Häufig Sinnloser Wortlaut

Die digitalen Notizen waren umfangreicher und haben Vorträge eher wörtlich wiedergegeben. Ersteres scheint zwar von Vorteil, Letzteres dagegen hinderlich für den Lernerfolg. Die Forscher vermuten, dass handschriftlich Mitschreibende Information direkt vorverarbeiten und daher Wichtigeres notieren. Daher kam etwas überraschend, dass Notebook-Nutzer auch dann merklich schlechter abschnitten, wenn sie explizit ermuntert wurden, wörtliches Mitschreiben zu unterlassen. Bei Tests eine Woche nach dem Vortrag hatten Studenten mit Notizen auf Papier erneut die Nase vorn. Wieder zeigte sich, dass wörtliche Mitschriften konzeptionellem Verständnis nicht dienlich scheinen.

"Ich glaube nicht, dass wir Menschen in Massen dazu bekommen, zum Notizblock zurückzukehren", sagt Mueller. Doch gibt es einige neue Stylus-Technologien, die vielleicht eher einen sinnvollen Zugang zu digitalen gespeicherten Notizen ermöglichen. Denn solche Geräte hätten auch den Vorteil "gezwungen zu sein, eingehende Information zu verarbeiten, statt sie nur gedankenlos aufzuschreiben". Jedenfalls sollten sich die Menschen bewusst vor Augen führen, wie sie Notizen machen – sowohl mit Blick auf das Medium als auch die Strategie.

Experten-Gruppe für Fusionsrechnungen eingerichtet

Spezialisten im IPP betreuen schnelle Computercodes / Unterstützung für Forscher aus ganz Europa

Mit einer Auftaktveranstaltung am 20. Mai 2009 nimmt im Max-Planck-Institut für Plasmaphysik (IPP) in Garching bei München eine Experten-Gruppe für Höchstleistungsrechnungen in der Fusionsforschung ihre Arbeit auf. Das mit finanzieller Hilfe der Europäischen Union im IPP eingerichtete "High-Level-Support-Team" soll die Wissenschaftler des europäischen Fusionsprogramms dabei unterstützen, ihre Rechencodes für die Bearbeitung auf Supercomputern tauglich zu machen.

Ziel der Fusionsforschung ist es, ähnlich wie die Sonne aus der Verschmelzung von Atomkernen Energie zu gewinnen. Um das Fusionsfeuer zu zünden, muss es gelingen, den Brennstoff – ein extrem dünnes, ionisiertes Wasserstoff-Gas, ein "Plasma" – stabil und gut wärmeisoliert in Magnetfeldern einzuschließen und auf Temperaturen über 100 Millionen Grad aufzuheizen. Das komplexe Plasmaverhalten erkundet man auf experimentellem Weg in zahlreichen Fusionsanlagen. Nächster großer Schritt ist der internationale Fusionstestreaktor ITER (lat. "der Weg"), der zurzeit in weltweiter Zusammenarbeit in Cadarache/Südfrankreich aufgebaut wird. Aber auch die rechnerische Beschreibung der Fusionsplasmen hat eine bemerkenswerte Leistungsfähigkeit erreicht. Langfristiges Ziel ist es, die Vorgänge in einem Fusionsplasma – darunter turbulente Bewegungen im Plasma, Vorgänge in der Plasmarandschicht oder die Wirkung verschiedener Heizverfahren – vollständig auf dem Rechner simulieren zu können.

Abgesehen vom physikalischen Verständnis sind für solche Simulationen schnelle Höchst-leistungsrechner nötig: Der HPC-FF (High Performance Computer for Fusion) mit einer Rechenleistung von 100 Teraflop/s, also rund hundert Billionen Rechenschritten pro Sekunde, wird demnächst im Forschungszentrum Jülich für Fusionsforscher aus ganz Europa verfügbar sein. Ein gut zehnfach schnellerer Petaflop-Rechner soll ab 2012 in japanisch-europäischer Kooperation für das Internationale Fusionsforschungszentrum (IFERC) in Rokkasho beschafft werden. Je schneller die Computer große Datenmengen verarbeiten können, desto anspruchsvollere Probleme lassen sich lösen: Mit einem Petaflop-Rechner sollten Simulationen über das volle Volumen des 800 Kubikmeter großen ITER-Plasmas möglich werden.

Um über 100 Billionen Rechenschritte in einer Sekunde abzuarbeiten – einige Millionen Jahre lang würde dies per Taschenrechner dauern – nutzen die modernen Superrechner zehntausende von Prozessoren gleichzeitig. Für solche "massiv parallelen Systeme" sind die Rechencodes der Plasmatheoretiker jedoch nicht von vorneherein geeignet. Um die enorme Leistungsfähigkeit der Computer richtig ausnutzen zu können, müssen daher die Spezialisten in Garching die Programmierung mit raffinierten mathematischen Methoden genau auf die verteilte Rechenkapazität zuschneiden. "Fünf Mitglieder der Expertengruppe werden im IPP und im Rechenzentrum Garching arbeiten, die beide auf dem Gebiet der Computational Physics langjährige Erfahrung besitzen. Vier weitere Mitarbeiter sind in anderen europäischen Fusionslaboratorien zu Hause", erklärt Prof. Dr. Sibylle Günter, Leiterin des IPP-Forschungsbereiches ‚Tokamaktheorie‘ und Vorsitzende des HPC-Rates.

Aufgabe des HPC-Rats ist es unter anderem, den optimalen Gebrauch des Jülicher Rechners sicherzustellen: "Mit HPC-FF in Jülich und der Expertengruppe im IPP in Garching ist die europäische Fusionsforschung mit den nötigen Werkzeugen und Kenntnissen ausgestattet, um die ITER-Experimente effektiv vorzubereiten und auszuwerten. Und wir können jetzt numerische Modelle erarbeiten, die zum Entwerfen eines Demonstrationskraftwerks gebraucht werden", meint Prof. Günter. Ziel ist es außerdem, die europäischen Fusionstheoretiker für die kommende Computer-Generation, die Petaflop-Rechner, fit zu machen: "Dazu müssen wir jetzt mit dem Training der Wissenschaftler und der Weiterentwicklung der Rechencodes beginnen."

Während der Auftaktveranstaltung am 20. Mai im IPP stellen sich die ersten Theorie-Projekte vor, die der HPC-Rat aus zahlreichen aus ganz Europa eingegangenen Anträgen zur Optimierung ausgewählt hat. Zunächst für vier Jahre wird das HPC-Projekt im Rahmen des European Fusion Development Agreement (EFDA) finanziert, dann steht die Entscheidung über eine Verlängerung an.

 

Tablets als Frühstück-Gadgets

Morgens und am Abend wird am meisten gesurft
 
Tablets: Gehören für viele Nutzer auf den Frühstückstisch (Foto: apple.com)

London (pte003/21.11.2011/06:10) – Während des Frühstücks und abends vor dem Fernseher surfen Tablet-User am häufigsten im Netz: Das ist das Ergebnis einer Studie des Unternehmens comScore http://comscore.com , die das unterschiedliche Nutzungsverhalten von Smartphones, Tablets und PCs untersucht hat. Während vom PC aus im Schnitt erst ab 9:00 Uhr morgens gesurft wird und die Nutzung dann über den Tag stetig abnimmt, erreichen Tablets und Smartphones schon um 8:00 Uhr früh den ersten und um 10:00 Uhr abends den zweiten Höhepunkt, berichtet der britische Guardian. Großbritannien liegt bei der Nutzung von Tablets gleichauf mit den USA auf Platz zwei – unangefochtener Spitzenreiter: Singapur.

Schnell wachsender Tablet-Markt

Obwohl in den USA und Großbritannien erst etwa vier Prozent der Internetzugriffe über das Smartphone und nur rund 1,6 Prozent über Tablets stattfinden, sind diese Zahlen für die jungen Technologien durchaus beeindruckend, meinen Experten. Immerhin hätten beide Märkte vor vier Jahren noch gar nicht existiert. Mit dem Start des iPads begann erst der Siegeszug der Tablets, seitdem wurden alleine von dem Apple-Gerät weltweit 40 Mio. Stück verkauft – Android-Geräte noch gar nicht mitgerechnet. Die Untersuchung zeigt nun, wie die Nutzer die Geräte in ihren Tagesablauf integriert haben: Tablets haben herkömmliche PCs nicht ersetzt, sondern werden ergänzend eingesetzt.

Die Nutzer springen zwischen den Geräten hin und her: Man liest morgens auf dem Tablet-PC die neuesten Nachrichten, wechselt dann im Büro auf den PC und kehrt am Ende des Tages zum Tablet zurück. Smartphones werden zwischendurch zum Surfen genutzt, wenn gerade kein PC zur Verfügung steht. Doch der Siegeszug der Tablets steht erst am Anfang, so die Vorhersage von comScore: Bislang nutzt nur ein sehr kleiner Prozentsatz der Menschen die neuen Geräte, doch das Potenzial ist auch im Mainstream groß. Schließlich kommen immer mehr günstige Geräte auf den Markt.

 

2012 fast 33 Mio. Android-Geräte befallen

Malware: 2012 fast 33 Mio. Android-Geräte befallen
Jeder 14. Schädling macht Handys nur unbrauchbar – Einige komplexer
 
Kaputtes Gerät: manche Malware macht das (Foto: flickr.com, Robert Nelson)

Dallas/Peking (pte003/16.04.2013/06:10) – 2012 haben sich 32,8 Mio. Android-Geräte eine Malware-Infektion eingehandelt, schätzt NQ Mobile http://www.nq.com in seinem 2012 Security Report – eine Steigerung um mehr als 200 Prozent gegenüber dem Vorjahr. Diese Zahl dürfte 2013 nochmals getoppt werden, denn schon allein im ersten Quartal wurden dem Mobile-Security-Spezialisten zufolge über zehn Mio. Smartphones und Tablets befallen. Die globale Malware-Hochburg mit 25,5 Prozent der infizierten Geräte ist demnach China.

Die Flut rollt

Gut ein Viertel der 2012 entdeckten mobilen Schadsoftware zielt darauf ab, persönliche Daten des Nutzers auszuspionieren und daraus Profit zu schlagen. Doch nicht alle Malware passt zum Bild der modernen, gewinnorientierten Cybercrime-Szene. Etwa jeder 14. Schädling dient nur dem "Bricking" – dem Unbrauchbarmachen des befallenen Geräts. Insgesamt wird mobile Malware laut NQ Mobile aber immer intelligenter und geht dabei auch neue Wege, inklusive der Querinfektion von klassischen Computern.

Mit insgesamt über 65.000 Schädlingen ist die Zahl der mobilen Bedrohungen laut NQ Mobile 2012 gegenüber dem Vorjahr um 163 Prozent gestiegen. Diese Flut hat allein unter Android, auf das fast 95 Prozent der Malware entfallen, knapp 33 Mio. Opfer gefordert. Beinahe zwei Drittel der Infektionen entfielen dabei auf sogenannte "potenziell unerwünschte Programme" wie beispielsweise Spyware oder Adware, die sich häufig als legitime Apps tarnen.

Profit durch Spionage

Die meisten befallenen Geräte gibt es in China, gefolgt von Indien und Russland (19,4 bzw. 17,9 Prozent). Die USA rangieren mit knapp einen Zehntel der Infektionen auf Rang vier und nicht weit vor Saudi-Arabien. Mit sieben Prozent ist der Anteil der mobilen Malware, der Geräte einfach nur unbrauchbar macht, zwar recht beachtlich. Die meisten Schädlinge können aber mehr und ihren Machern beispielsweise durch Spionage Profit verschaffen.

Zudem ist im Februar erstmals ein Android-Schädling aufgetaucht, der über eine USB-Verbindung auch PCs infizieren kann. Zwar habe sich dieser nicht weit ausgebreitet, doch ist er ein Paradebeispiel dafür, dass Angriffe in der vernetzten Welt immer ausgeklügelter werden. NQ-Mobile-CEO Omar Khan betont daher, dass intelligentere Systeme nötig werden, die User schon vor der Infektion schützen. Zudem sei es nötig, Konsumenten besser zu informieren, damit sie Betrügereien erkennen und vermeiden können.