Archiv der Kategorie: Computer, TV, Medien

Die Versöhnung des linearen Fernsehens mit der Zukunft

Die Versöhnung des linearen Fernsehens mit der Zukunft
„Heute ist Fernsehen überall”

Am 28.10.2016 ging der Relaunch des ZDFs
online: ZDF.de und die Mediathek verschmolzen zu einer Einheit. Im
Rahmen der Münchner Medientage beschäftigten sich am 26. Oktober
hochkarätige Expertinnen und Experten auf einem Panel damit, was die
digitale Transformation für die öffentlich-rechtliche Medienlandschaft
und diese Vorlage des ZDFs für alle Medienhäuser bedeutet. Eingeladen
hatte die Agentur Exozet die das ZDF dabei unterstützt, sich digital im
Markt neu aufzustellen und sich als Brücke zwischen der traditionellen
und der neuen Welt des TVs erfolgreich im Markt zu positionieren.

Mit welcher Strategie sehen Fernsehsender in
die Zukunft? Welche Bedeutung hat dabei die Sender-Marke? Wie
organisieren sich Fernsehanstalten, um zukunftsfähig zu werden? Diese
Fragen diskutierten im Rahmen der 30. Münchner Medientage Experten von
privaten und öffentlich-rechtlichen Sendern. Auf dem Podium saßen Robert
Amlung, Beauftragter für digitale Strategien des ZDF, Ina Bauer,
Director Sales, Marketing & New Media, ATV und Robert Dube, Leiter
Video on Demand, RTL interactive. Außerdem auf dem Podium waren Uwe
Hofer, Partner bei Exozet, Lauri Kivinen, Geschäftsführender Direktor
und Intendant der Allgemeinen Rundfunkanstalt Finnlands Yleisradio,
sowie Thomas Prantner, Stv. Direktor für Technik, Online und neue
Medien, ORF. Das komplette Panel ist hier abrufbar.

Kivinen (Yleisradio) eröffnet das Panel mit
einem „Espresso Briefing“. Die im Jahre 1926 gegründete Rundfunkanstalt,
kurz „Yle“, ist eine öffentlich-rechtliche Mediengesellschaft und
Vorreiter in Sachen Digitaler Transformation. Der Sender hat rund 3.000
Mitarbeiter und ist damit etwa so groß wie der MDR oder der NDR. Neben
vier TV-Kanälen gibt es sechs Radio-Kanäle und ein großes
Online-Angebot. Einige Sendungen strahlt Yle klassisch linear aus,
andere laufen nur online. Einige stellt der Sender kurzfristig zur
Verfügung. Andere verbleiben bis zu vier Jahren im Netz. Eine bestimmte
Serie konnten Zuschauer als Preview bis zu zehn Folgen im Voraus im Netz
anschauen. Dies nutzen sie „zunehmend“, wie Kivinen sagt. Anderes
wieder schauen User lieber direkt: „Sport ist Frischware“, so der Finne.

„Heute ist Fernsehen überall. Es wird
angeboten über verschiedene Netze, über verschiedene Technologien, auf
verschiedenen Schirmen“, sagt Kivinen. Genau das ist die
Herausforderung: Welche Inhalte kann ein Sender via Kanal, welche „über
Katalog“, also Mediathek anbieten? Kivinens Empfehlung: Online und
Broadcast als Einheit planen. Die Veröffentlichung von Beiträgen sollte
davon abhängig gemacht werden, auf welchem Kanal sie besser ihr
Zielpublikum erreichen. „Dies erfordert eine gute Kenntnis des
Publikums“, so Kivinen. Fernsehen werde nicht sterben, Sender müssen ein
Angebot entwickeln, das die verschiedensten Bedürfnisse des Publikums
erfüllt.

Die anschließende Diskussion bestätigte, dass
lineares Fernsehen nicht sterben werde. Die klassischen Sender sehen
Netflix, Zattoo und Co. mit ihren ausschließlichen Video-on-Demand- und
Streaming-Angeboten keineswegs als gefährliche Konkurrenz. Amlung (ZDF)
sagt, dass das ZDF die Mediathek als eigenständige Marke positionieren
will. Dies sei eine längerfristige Aufgabe, die nicht mit dem Relaunch
abgeschlossen sei. Es gebe zwar in bestimmten Milieus diese starke
Nutzung von Streaming-Angeboten, aber eben nicht in allen. Das ZDF mit
seinem öffentlich-rechtlichen Auftrag müsse aber alle Milieus erreichen.
Er sieht Online-Angebote daher als Chance, teilweise stark
fragmentierte Zielgruppen zu erreichen: „Wir haben durch unseren
Relaunch mehr Möglichkeiten, auf unterschiedliche Nutzerbedürfnisse
einzugehen.“

Auch für RTL spielt ihre Mediathek “TV NOW”
eine nachgeordnete Rolle. Noch plane RTL nicht, spezielle Formate für TV
NOW zu produzieren, auch wenn es denkbar wäre. Die sei ein iterativer
Prozess. Dube sagt: „Vorerst steht Reichweite im Fokus. Die ist bei TV
nach wie vor sehr hoch.“ Shows wie „Der Bachelor“, „Bauer sucht Frau“
oder Daily Soaps wie „Gute Zeiten, Schlechte Zeiten“ funktionieren
besser im linearen TV, weil sie „Talk of Town“ sind. „Netflix
funktioniert anders“, so Dube. Perspektivisch können Online-Angebote
Relevanz bekommen. Doch zuvor müssen technische Herausforderungen
gemeistert werden, sonst können die werbefinanzierten Sender der
RTL-Gruppe kein Geld verdienen. „Werbung über Online auszuspielen ist
aufwändig. Ein Drittel der Entwicklungsaufwendungen gehen in
Implementierung von Werbung. Andere Anbieter haben den Vorteil, dass sie
sich nicht über Werbung refinanzieren“, so Dube. Auch Bauer (ATV) sieht
Video on Demand (VoD) als Ergänzung. Der kürzlich gelaunchte VoD-Sender
und die Mediathek des österreichischen Privatsenders ist für sie daher
zuallererst eine Investition in die Zukunft und in neue Zielgruppen. Für
Prantner (ORF) ist die TVthek „die kleine Schwester“ des linearen
Fernsehens in Österreich. „Wir haben Tagesreichweiten mit 3,5 Millionen
Menschen mit unseren vier Kanälen, in der TVthek sind es nur 140.000.“

„Wir müssen uns dem User annähern“, so Hofer
(Exozet), „online first? Online only? Personalisierung? Das müssen wir
weiterdenken. Man muss mit dem Inhalt spielen. Da gibt es je nach Art
des Senders sicher unterschiedliche Wege.“ Auf jeden Fall müssen der
Zuschauer und seine Bedürfnisse im Zentrum stehen. „Wir sollten
multimedialer denken. Dabei entscheidend ist die User Experience“,
empfiehlt Prantner.

Doch blickt der Zuschauer noch durch, wenn er
auf einer Plattform mit eigener Marke weitere „Unter-Marken“ sieht? So
ist „TV NOW“ eine eigene Marke genauso wie die Sender „RTL“, „RTL II“,
„VOX“ etc., deren Inhalte auf dieser Mediathek vertreten sind. Beim
öffentlich-rechtlichen Mitbewerber aus Mainz gibt es die Dachmarke
„ZDF“, Kanal-Marken wie „ZDFneo“ und Programmmarken wie der erfolgreiche
Krimi „Wilsberg“. Letzteren könnte man durchs Lizenzgeschäft potenziell
auch auf Netflix sehen. Ist das nicht zu viel? „Keineswegs“, betont
Hofer (Exozet).

Marken spielen im unüberschaubaren Meer der
Online-Angebote eine wichtige Rolle. Sie helfen dem User, sich
zurechtzufinden und dienen als relevantes Filter- und
Navigationselement. So kann ein Sender ohne Weiteres auch auf anderen
Plattformen wie auf YouTube vertreten sein (noch eine Marke!). Warum er
das sollte? „Weil da die User sind“, so Hofer (Exozet) trocken und gibt
zu bedenken: „Ist nicht längst der Content die eigentliche Marke?“ Für
starke, unverwechselbare Angebote wie GZSZ, Jan Böhmermann oder Bauer
sucht Frau gilt dies zweifellos.

Doch wie organisiert man eine solche
Transformation? Wie können Zuschauer und vor allem Mitarbeiter
mitgenommen werden, um die neue Entwicklung nachzuvollziehen und die
Änderungen zu akzeptieren? Der finnische Sender Yle baute komplett neue
Strukturen auf. Nicht mehr die TV-Kanäle bekamen das Geld. Es wurde je
nach Bedarf auf lineare oder non-lineare Angebote aufgeteilt, um die
verschiedenen Zielgruppen zu erreichen. Das sei kein leichter Weg, sagt
Kivinen: „Es braucht eine enge Beziehung zum Publikum. Die Veränderungen
müssen sanft sein. Und so hat es fünf Jahre gedauert und auch
personelle Veränderungen nötig gemacht.“

Ein Prozess, vor dem nun auch das ZDF steht.
Bereits seit Jahren sind verschiedene Redaktionen kanalübergreifend
zuständig. So betreut die Nachrichten-Redaktion alle
Nachrichten-Aufgaben. Dieses Prinzip wird nun langsam für alle Inhalte
weiter ausgebaut. Amlung sagt: „Die Veränderungen beim ZDF dauern lange.
Aber der Wille ist da.“

Über Exozet
Exozet, die
Agentur für Digitale Transformation, arbeitet für Unternehmen aus den
Branchen Medien, Entertainment, Brands, Start-ups, Finance,
Telekommunikation sowie für öffentliche Auftraggeber. Mit rund 140
Mitarbeiterinnen und Mitarbeitern in Berlin, Potsdam-Babelsberg und Wien
berät und gestaltet sie seit 1996 den Digitalen Wandel in Unternehmen
wie z.B. Axel Springer, BBC, Audi, Deutsche Telekom und dem ZDF. Bereits
mehrfach wurde das Unternehmen ausgezeichnet, zuletzt 2015 mit einem
Digital Emmy.

Facebook hat keinen Einfluss auf Online-Shopping

Facebook hat keinen Einfluss auf Online-Shopping
Nur ein Prozent aller Käufe durch Social Media beeinflusst
 
Online-Shopping: Facebook für Werbung "sinnlos" (Foto: amazon.de)

Cambridge/Wien (pte002/02.10.2012/06:05) – Soziale Medien haben so gut wie keinen Einfluss auf das Konsumverhalten von Online-Shoppern. Zu diesem überraschenden Ergebnis kommen die Marktforscher von Forrester Research http://forrester.com , die festgestellt haben, dass lediglich ein Prozent aller Internet-Nutzer aufgrund von Informationen aus sozialen Netzwerken ein Produkt kauft.

Ende der Diskussion

"Wir wissen schon einige Zeit, dass Facebook für Unternehmen nicht der beste Werbekanal ist und es für die meisten auch nie sein wird. Hoffentlich können wir mit dieser Diskussion jetzt endlich aufhören", sagt Forschungsleiterin Sucharita Mulpuru.

Wie Untersuchungen belegen, verbringt ein gutes Viertel aller Amerikaner seine Online-Zeit auf Facebook, Twitter und anderen sozialen Netzwerken und rund 70 Prozent tätigen ihre Käufe im Netz. Brancheninsider kritisieren schon lange, dass man über Facebook nur schwer Marketing betreiben kann. Dass die Erfolgsquote so gering ist, haben aber nur wenige vorhergesagt.

Keine Spontankäufe

2011 hat das Inc. Magazine einen Artikel veröffentlicht, in dem Marketingexperten soziale Netzwerke für Werbezwecke als "sinnlos" bezeichneten. Im Frühjahr 2012 hat der Automobilhersteller General Motors angekündigt, sich von Facebook zu verabschieden. Berichten zufolge hat der Industriegigant über zehn Mio. Dollar in Werbung auf der sozialen Plattform investiert, die Erfolge blieben aber aus.

"Die Idee, dass man auf Facebook Produkte teilt und vergleicht, ist prinzipiell nicht schlecht. Dadurch kann man zum Beispiel das Markenbewusstsein steigern. Unsere Studie zeigt aber das, was viele Unternehmen schon wissen: Social Media überredet die Nutzer nicht zum Spontankauf", so Mulpuru.

Maßgeschneiderte Werbung unbeliebt

Die Österreichischen Internet-Nutzer erteilen personalisierten Werbeeinblendungen eine klare Abfuhr. Das bestätigt eine Studie des SORA-Instituts http://sora.at , die von der Telekom Austria Group http://telekomaustria.com in Auftrag gegeben wurde. Nur neun Prozent können sich mit der maßgeschneiderten Werbung anfreunden und vor allem auf Facebook werden solche Inhalte als störend empfunden.

"Die Mehrheit findet personalisierte Angebote nicht einmal hilfreich und ist dagegen, dass Nachrichtenportale, Suchmaschinen und Shopping-Seiten nur noch Empfehlungen anbieten. Gleichzeitig fehlt es den Nutzern aber am Bewusstsein, dass es überhaupt so etwas wie Personalisierung gibt", fasst Hannes Ametsreiter, Generaldirektor der Telekom Austria Group, die Ergebnisse der Studie zusammen.

Illegaler Datenhandel auf Allzeithoch

Online-Betrug hat sich in zwei Jahren vervierfacht
 
Phishing-Attacke: Datenhandel seit 2010 vervierfacht (Foto: flickr.com/fellowcr)

Costa Mesa/Salzburg (pte022/02.10.2012/13:55) – Im vergangenen Halbjahr wurde weltweit mit mehr als 20 Mio. illegalen Datensätzen Handel getrieben. Der Informationsdienstleister Experian http://experian.com ortet einen starken Anstieg des Handels mit Kreditkarteninformationen von Internet-Nutzern und verbindet diesen Umstand mit der Verbreitung von kostenpflichtigen Diensten im Web. Seit 2010 hat sich der Handel vervierfacht.

Durchschnittlich 40 Konten

"Es gibt eine riesige Dunkelziffer. Die Kreditinstitute wissen zwar darüber Bescheid, dass ihre Kunden im Visier von Betrügern sind, sie können aber nur in Intervallen reagieren. Die Kriminellen werden auch immer geschickter, weil sie nur kleine Beträge abheben, was der Kunde oder die Firma im Regelfall nicht sofort erkennen", sagt der Kriminalbeamte Herbert Reisenzein gegenüber pressetext, der auf seiner Webseite http://kbds.at Tipps zur Vermeidung von Online-Betrugsfällen publiziert.

Der besorgniserregende Anstieg des illegalen Datenhandels betrifft vor allem die Altersgruppe der 25- bis 34-Jährigen, die im Durchschnitt 40 verschiedene Konten bei iTunes und Co angelegt haben. Obwohl Kreditinstitute vermehrt in die IT-Sicherheit investieren und versuchen ihre Kunden über die Gefahren, die im Netz lauern, aufzuklären, mehren sich die kriminellen Machenschaften rapide.

Accounts in fünf Stunden gehackt

Die Datensätze, die private Informationen und Bankverbindungen von Internet-Nutzern beinhalten, werden für bis zu 30 Dollar pro Stück an kriminelle Vereinigungen und Einzeltäter verkauft, die mit den Daten auf Beutejagd gehen. Die verbreitetste Form des Internetbetrugs ist der Identitätsdiebstahl. Dabei loggen sich die Täter in E-Mail-Konten ihrer Opfer ein und suchen nach Bankverbindungen und Kreditkarteninformationen.

Die Forscher von Experian haben für ihre Studie acht E-Mail-Kontoen angelegt, um zu beobachten, wie lange es dauert, bis sie infiltriert werden. Innerhalb von fünf Stunden wurden alle Konten gehackt. Die Kriminellen loggten sich aus verschiedenen Ländern wie Albanien und Südafrika ein. Dabei stürzten sich die Online-Betrüger auf private E-Mails und Bestätigungsnachrichten, in denen sie Passwörter und Benutzernamen ausspionierten.

70 Mio. Euro Schaden in Deutschland

Laut den Forschern wurden 2010 rund 9,5 Mio. Datensätze gesammelt, 2011 stieg die Zahl auf 19,04 Mio. und bis zum Ende dieses Jahres erwarten sie sich, dass die 40-Mio.-Grenze überschritten wird. Die Experten empfehlen die Verwendung von unterschiedlichen Passwörtern, damit die Betrüger mit einem Datensatz nicht Zugang zu allen Konten erlangen.

Dem Lagebericht des Bundeskriminalamts zufolge hat es 2011 in Deutschland rund 60.000 Fälle von Internet-Kriminalität gegeben. Der verursachte Schaden ist um 16 Prozent auf schätzungsweise 71,2 Mio. Euro gestiegen. Mit Phishing-Mails und dem missbräuchlichen Einsatz von Kreditkartendaten sei ein Schaden von rund 50 Mio. Euro entstanden.

Neue Tastatur für Touchscreens

Neue Tastatur für Touchscreens

Informatiker entwerfen neues Tastaturlayout auf Touchscreen-Geräten

Ein neues Tastaturlayout für Geräte mit berührungsempfindlichen Bildschirmen hat ein Team um Antti Oulasvirta vom Max-Planck-Institut für Informatik in Saarbrücken entworfen. Die neue Anordnung der Tasten beschleunigt die Zwei-Daumen-Eingabe deutlich. Mithilfe von Computeroptimierung und eines Modells von Daumenbewegungen untersuchten die Forscher Millionen von möglichen Layouts, um das mit den besten Eigenschaften zu finden. Eine Untersuchung bestätigte, dass nach kurzer Gewöhnungsphase normale Nutzer 34 Prozent schneller tippen konnten als auf einem Tablett mit QWERTY-Layout.

Auf heutigen Smartphones und Tablet-Computern zu schreiben, dauert länger als nötig. Denn die Tasten sind auf Geräten mit berührungsempfindlichen Bildschirmen genauso wie auf einer klassischen Schreibmaschine angeordnet. Dieses QWERTY-Layout ist nicht an die Eingabe per Daumen angepasst. Die Zwei-Daumen-Eingabe unterscheidet sich ergonomisch deutlich vom 10-Finger-System auf einer separaten Computertastatur. Bei der Verwendung des QWERTY-Layouts tippen normale Nutzer mit den Daumen nur ungefähr 20 Wörter pro Minute, erheblich weniger als auf einer Tastatur. Nun haben die Forscher des Max-Planck-Instituts für Informatik das Tastaturlayout gemeinsam mit Kollegen von den Universitäten St. Andrews und Montana Tech deutlich verbessert, indem sie ein Modell der Daumenbewegungen mit einem Computer-Optimierungsalgorithmus verknüpften.

Den Informatikern war bei ihren Untersuchungen schnell bewusst, dass kleinere Änderungen am Layout, zum Beispiel durch das Vertauschen oder Verschieben einiger Tasten, keinen großen Gewinn brächte. Häufig verwendete, englische Wörter wie "on, see, you, read, dear, immune, based", müssen auf einem geteilten QWERTY mühsam mit einem einzelnen Daumen eingegeben werden. Das war der Auslöser, ein Tastaturlayout für die Zwei-Daumen-Eingabe – erst einmal in englischer Sprache – zu entwickeln, das sowohl die Eingabegeschwindigkeit erhöht als auch die Belastung für die Daumen minimiert.

"Der Schlüssel für eine Daumen-optimierte Tastatur liegt darin, längere Eingaben mit nur einem Daumen zu vermeiden. Außerdem möchten wir häufig genutzte Buchstaben zentral und nahe beieinander anordnen“, sagt Antti Oulasvirta. „Erfahrene Schreiber bewegen ihre Daumen simultan: Während ein Daumen einen Buchstaben eingibt, befindet sich der andere schon bei der nächsten Taste“. Um die Eingabe zu optimieren, haben die Informatiker ein entsprechendes Vorhersagemodell entwickelt.

Die computergestützte Optimierung hatte zwei Ziele: die Bewegungszeit der Daumen zu minimieren und möglichst abwechselnd beide Seiten zu verwenden. Das Resultat dieser Berechnungen war unerwartet. Im neuen Tastatur-Layout KALQ liegen alle Vokale außer dem "y" im Bereich des rechten Daumens, wohingegen der linke Daumen mehr Buchstaben zugewiesen bekommt. Zur bestmöglichen Verwendung der neuen Tastaturanordnung wurden die Nutzer darin geschult, ihre Daumen wie erfahrene Schreiber simultan zu bewegen.

Per Ola Kristensson von der Universität St. Andrews: "Das überkommene QWERTY bindet den Menschen bei der Verwendung von mobilen Computern an eine suboptimale Schnittstelle. Ehe die Nutzer aber QWERTY den Rücken kehren, möchten sie eine verlockende Alternative. Wir denken, dass KALQ mit einer ausreichend hohen Leistungssteigerung belohnt, um die Nutzer zum Umsteigen zu bewegen und dann von der schnelleren und komfortableren Texteingabe zu profitieren."

Die Autoren haben dazu eine Fehlerkorrektur auf Grundlage der Wahrscheinlichkeitstheorie entwickelt, die sowohl die Daumenbewegung als auch statistische Erkenntnisse über die eingegebenen Texte in Betracht zieht. Diese Fehlerkorrektur ermöglicht geübten Nutzern, bei akzeptabler Fehlerrate deutlich schneller zu tippen. Dank dieser Verbesserungen konnten die Nutzer bis zu 37 Wörter je Minute eingeben – das beste bisher erreichte Ergebnis für Zwei-Daumen-Eingabe auf berührungsempfindlichen Bildschirmen.

Die Forscher werden ihre Arbeiten am 1. Mai auf der CHI 2013 in Paris vorstellen. Computer Human Interaction ist das zentrale internationale Forum für Spitzenforschung und -entwicklung auf dem Gebiet Mensch-Computer-Interaktion.

KALQ wird ab Anfang Mai als freie App auf Android-Smartphones zur Verfügung gestellt werden. Die Originalveröffentlichung, weitere Informationen und Videos sind auf der Projekt-Webseite verfügbar: http://www.mpi-inf.mpg.de/~oantti/KALQ/

Comenius-Siegel für aid-Computerspiel

Kasimir – Garten, Zwerge & Co. erhält Auszeichnung
***********************************************************

(aid) – Die Gesellschaft für Pädagogik und Information e. V. (GPI), wissenschaftliche Fachgesellschaft für Multimedia, Bildungstechnologie und Mediendidaktik, hat am 20. Juni 2008 zum dreizehnten Mal die begehrten Comenius-EduMedia-Auszeichnungen für Bildungsmedien verliehen. Einer der Preisträger ist das aid-Computerlernspiel "Garten, Zwerge & Co.".
Mit der Verleihung der Comenius-Auszeichnungen fördert die GPI pädagogisch, inhaltlich und gestalterisch herausragende Bildungsmedien aus allen Ländern Europas. Die Comenius-Siegel gelten als die bedeutendsten deutschen und europäischen Auszeichnungen für didaktische Multimediaprodukte. Außer mit der Comenius-Auszeichnung wurde "Garten, Zwerge & Co." bereits mit einer Giga-Maus und dem Serious-Games-Award prämiert, sowie für den TOMMI 2007 nominiert.
In dieser Gartensimulation können Kinder ihren eigenen Garten pflegen. Zusammen mit dem Hasen Kasimir und Gartenzwerg Kalle lernen sie spielerisch alle wichtigen Pflanzen, Tiere und Werkzeuge kennen. Tolle Bastelanleitungen und Rezepte werden in einem Bastelbuch gesammelt. Außerdem können Spiele entdeckt und E-Mail-Postkarten mit hübschen Gartenmotiven verschickt werden.
aid, Anne Staeves

Weitere Informationen sowie eine Demoversion zum aid-Computerlernspiel "Abenteuer mit Kasimir – Garten, Zwerge & Co.", Bestell-Nr. 61-4153, Preis: 19,95 EUR, gibt es unter www.aid-medienshop.de.

Mobilfunkstandards 4G und 5G bieten kaum Schutz

Mobilfunkstandards 4G und 5G bieten kaum Schutz

Nicht zu schließende Sicherheitslücken gefunden – Alle Geräte betroffen

David Rupprecht, Thorsten Holz (Mitte) und Katharina Kohls (Foto: RUB, Marquard)
David Rupprecht, Thorsten Holz (Mitte) und Katharina Kohls (Foto: RUB, Marquard)

Bochum (pte021/28.06.2018/10:18) –

Über Sicherheitslücken im Mobilfunkstandard LTE können Angreifer
herausfinden, welche Internetseite ein bestimmter Nutzer besucht und ihn
sogar auf eine gefälschte Webseite umleiten. Das haben IT-Experten vom
Horst-Görtz-Institut der Ruhr-Universität Bochum (RUB) http://ruhr-uni-bochum.de herausgefunden. Betroffen sind alle Geräte, die LTE, auch 4G genannt,
verwenden. Schließen lassen sich die gefundenen Lücken nicht; sie sind
sogar noch im kommenden Mobilfunkstandard 5G enthalten, der derzeit
zertifiziert wird.

Integrität nicht überprüft

Ganz aussichtslos in Sachen IT-Sicherheit ist die Lage
laut den Forschern aber nicht. So lässt sich das Problem von anderen
Mechanismen in Browsern oder Apps eindämmen. Das Grundproblem:
Nutzerdaten, die über LTE übertragen werden, werden zwar verschlüsselt,
aber nicht auf ihre Integrität überprüft. "Ein Angreifer kann den
verschlüsselten Datenstrom verändern und dafür sorgen, dass die
Nachrichten auf einen eigenen Server umgeleitet werden, ohne dass das
dem Nutzer auffällt", erklärt IT-Fachmann David Rupprecht.

Grundvoraussetzung für einen gezielten Angriff: Der
Angreifer muss sich in der Nähe des Opfer-Handys befinden. Mit einem
speziellen Equipment schaltet er sich dann in die Kommunikation zwischen
Handy und Mobilfunkmast ein, verändert die Nachrichten und leitet den
Nutzer so auf eine falsche Webseite um. Auf dieser Webseite kann der
Angreifer dann beliebige Aktionen durchführen, zum Beispiel eingegebene
Passwörter gezielt abgreifen.

Nur HTTPS schafft Abhilfe

"Webseiten oder Apps, die das Sicherheitsprotokoll
HTTPS in der richtigen Konfiguration verwenden, bieten jedoch einen
zuverlässigen Schutz gegen eine Umleitung", beruhigt Rupprecht. Sie
würden eine Warnung ausgeben, wenn ein Nutzer auf eine falsche Seite
umgeleitet werden soll. Nicht verhindern lässt sich aber, dass ein
Angreifer Aktivitäten auf dem Handy überwacht und damit etwa erfährt,
wer der Nutzer ist und welche Webseiten er aufruft.

Trotzdem bleibt Unbehagen: Die Bochumer haben gezeigt,
dass sie auch nur anhand des Traffic Pattern – der Menge von
Nutzerdaten, die ein Handy in einem bestimmten Zeitraum sendet, –
zurückschließen konnten, welche Webseite der Nutzer aufgerufen hatte.
Dafür muss sich der Angreifer nicht aktiv zwischen die Kommunikation von
Handy und Mobilfunkmast schalten, sondern es reicht aus, passiv
Metadaten der Verbindung mitzuschneiden.

Erschreckend einfach ist ein Angriff: Es reicht eine
frei im Handel erwerbliche Ausrüstung im Wert von rund 4.000 Euro. Die
Forscher nutzten einen PC und zwei sogenannte Software Defined Radios,
die das Senden und Empfangen von LTE-Signalen ermöglichen. Eines der
Geräte gibt sich beim Opfer-Handy als Mobilfunknetz aus, das andere gibt
sich beim echten Mobilfunknetz als Handy aus. So kann das System
bestimmte Daten gezielt verändern, während es den Großteil der Daten
unverändert weiterleitet. Je nach Equipment kann der Angreifer einige
hundert Meter vom Opfer-Handy entfernt sein, um die Attacke
durchzuführen.

Schutz ist Telkos zu teuer

"Aus den LTE-Dokumentationen ist ersichtlich, dass
bewusst auf einen Integritätsschutz verzichtet wurde, der die Angriffe
verhindern würde", ergänzt Rupprechts Kollege Thorsten Holz. Der Grund:
Für die Sicherheitsmaßnahme müssten an alle Nutzerdaten zusätzliche vier
Byte angehängt werden. "Die Datenübertragung ist für die Netzbetreiber
teuer und der Integritätsschutz wurde für verzichtbar gehalten", weiß
Holz. Aber auch im Mobilfunkstandard 5G ist der Integritätsschutz
derzeit nicht generell vorgesehen. Geräte müssten vom Hersteller richtig
konfiguriert werden, damit der Schutz greift. Link zum Paper: http://alter-attack.net

„Harakiri“-Chip zerstört sich auf Befehl selbst

"Harakiri"-Chip zerstört sich auf Befehl selbst

Hartglas-Explosion soll Zugang zu sensiblen Daten verhindern

Chip: Datensicherheit durch Selbstzerstörung (Foto: flickr.com/Yuri Samoilov)
Chip: Datensicherheit durch Selbstzerstörung (Foto: flickr.com/Yuri Samoilov)

Palo Alto (pte012/07.10.2015/11:30) –

Forscher des Xerox Palo Alto Research Center (PARC) http://www.parc.com haben einen neuartigen Computerchip präsentiert, der sich auf Befehl
binnen weniger Sekunden selbst zerstört. Ziel der "Harakiri"-Strategie
ist es, Unbefugten gänzlich die Möglichkeit zu nehmen, sich Zugang zu
besonders sensiblen Daten zu verschaffen. Der im Rahmen eines Projekts
des Pentagon-Forschungsarms DARPA http://www.darpa.mil entwickelte Chip realisiert seine Zerstörung mithilfe eines speziellen
Hartglases, das bei Erhitzung explodiert und in tausende kleine Stücke
zerfällt.

Sicherer als andere Methoden

"Sie können Ihr Handy in kochendes Wasser oder auf den
Boden werfen oder versuchen, seinen Speicher zu löschen, indem Sie eine
starke Stromladung hindurch schicken", zitiert "LiveScience" den
Materialforscher und PARC-Manager Gregory Whiting. All diese "low
tech"-Möglichkeiten, sensible Daten schnell zu löschen, hätten aber ein
Problem: Sie können nicht aus der Ferne ausgeführt werden. "Außerdem ist
es etwa auch mit den meisten dieser Methoden schwierig sicherzustellen,
dass wirklich alle Informationen von einem elektronischen Gerät
gelöscht werden", ergänzt Whiting. Oft würden schon wenige Bits
ausreichen, um einen Speicher wiederherzustellen.

Mit dem neuen Ansatz sei es nun gelungen, gleich beide
Probleme auf einmal zu lösen. "Unser Chip lässt sich ganz leicht aus der
Ferne steuern. Um die Selbstzerstörung einzuleiten, kann so gut wie
alles von WLAN-Signalen bis hin zu Radiowellen verwendet werden",
erklärt der Wissenschaftler. Dabei sei auch die Sicherheit wesentlich
höher. "Das Hartglas, das wir einsetzen, zersplittert auf Kommando in so
kleine Teile, das nicht nur die Daten gelöscht werden, sondern auch die
einzelnen Bits neu angeordnet oder überhaupt völlig zerstört werden. Um
diese Daten wiederherzustellen, müsste man alle diese winzigen
Stückchen wieder in die ursprüngliche Ordnung bringen", so Whiting.

Hitzeschock lässt Glas zerbersten

Interessant ist, dass sich dem Experten zufolge jeder
handelsübliche Computerchip in ein derartiges "Harakiri"-Bauteil
verwandeln lässt. Hierfür wird einfach die Siliziumscheibe direkt auf
dem Hartglas angebracht. Dieses oft auch als Sicherheitsglas bezeichnete
Material ist besonders widerstandsfähig und wird deshalb etwa auch bei
Smartphones verbaut. "Wenn man ein Stück davon abbricht, zerspringt es
explosionsartig in viele winzige Teile", erklärt der PARC-Experte.

Genau das machen sich die Wissenschaftler zunutze. Sie
setzen die Methode des sogenannten "Ionenaustausches" ein, um das Glas
an einer bestimmten Stelle gezielt zu erhitzen. "Das erzeugt eine enorme
Spannung im Material. Aufgrund des Hitzeschocks bildet sich eine
Fraktur, die immer größer wird und letztlich das Glas zerbersten lässt",
erläutert Whiting die Vorgehensweise.

GPS-Systeme führen Fahrer zunehmend in die Irre

GPS-Systeme führen Fahrer zunehmend in die Irre
Experten fordern richtigen Umgang und gesunden Menschenverstand
 
GPS: Blindes Vertrauen bleibt oft gefährlich (Foto: pixelio.de, R. Ortner)

Wien (pte003/01.02.2013/06:10) – Navigationsgeräte führen Nutzer immer häufiger in die Irre, setzen sie falsch ab oder bringen sie sogar in Lebensgefahr. Während vor ein paar Wochen eine Belgierin fälschlicherweise nach Zagreb statt nach Brüssel gelotst wurde und somit mehr als 1.000 Kilometer umsonst hinter sich brachte, musste in den USA nun ein junger Mann aufgrund des defekten Gerätes mit seinem Leben bezahlen. Er wurde zum falschen Haus koordiniert und vom Eigentümer kurzerhand erschossen.

Auch wenn Fälle wie der erste noch vergleichsweise harmlos ausgehen, fällt die Software jedoch relativ oft aus und verursacht zum Teil hohe Schäden. Diese Vorkommnisse schreien förmlich nach einer erneuten Aufklärung über die Gefahren der immer schneller fortschreitenden, jedoch nicht fehlerlosen Technologie. Experten raten daher zum sorgsamen Umgang mit GPS-Systemen und verweisen auf den gesunden Menschenverstand.

Nur Orientierungshilfen

"Die Hauptbotschaft für die Endkonsumenten von Navigationssystemen ist, dass die Geräte keine Autopiloten sind, sondern vielmehr Orientierungshilfen", stellt Steffan Kerbl, Leiter der Testabteilung des ÖAMTC http://oeamtc.at , gegenüber pressetext klar. Die Geräte selbst seien dabei nicht das Problem, sondern das Datensystem.

Das Kartenmaterial ist zum Teil auch heute noch fehlerhaft und bedarf laut dem Spezialisten Aktualisierungen im Expresstempo, da solche Irrfahrten keine Seltenheit mehr darstellen. "Dennoch kann man nicht immer den Navigationssystemen die Schuld geben, denn auch das grobe Fehlverhalten der Nutzer ist oft verantwortlich. Wenn manche demnach mitten im Tunnel umdrehen, weil das das Gerät empfiehlt, können sie es dennoch nicht als Ausrede verwenden", so Kerbl.

Geräte oft nicht zielführend

Der Ansatz "Technologie verblödet" wurde und wird stets medial diskutiert. "Hinsichtlich des Orientierungsverlustes aufgrund eines Navigationssystems kann man diesen Ansatz schon unterschreiben", führt der Fachmann aus. Mehrere Tests belegen, dass sobald Menschen Anweisungen bekommen – sei es auch nur von einem Gerät – es ihnen schwer fällt, gegensätzlich diesen Anweisungen zu handeln.

"Das muss trainiert werden. Die Geräte und das Kartenmaterial sind mittlerweile ziemlich gut, jedoch nicht perfekt", sagt Kerbl. Wichtig sei vor allem, dass Konsumenten der Technologie nicht blind vertrauen und sich immer wieder selbst überzeugen, wo sie sich befinden und ob die Adresse adäquat eingegeben wurde. "Bei gänzlich unbekannten Territorien sollten sich die Fahrer vorab zusätzliche Informationen holen", schließt Kerbl ab.

 

Wikipedia soll Videoinhalte bekommen

San Francisco (pte/22.06.2009/13:15) – Wikipedia will in Zukunft auch Videos in seine Artikel integrieren. In einigen Monaten bzw. bis etwa Anfang Herbst sollen die User die Möglichkeit erhalten, neben Fotos nun auch Bewegtbilder beim Erstellen bzw. Editieren von Beiträgen einzufügen. Die Wikimedia Foundation http://wikimediafoundation.org/, die Organisation hinter der populären Online-Enzyklopädie, hofft, die Seite damit zu "revolutionieren", und möchte Content-Inhaber dafür gewinnen, Videoinhalte einer breiten öffentlichen Basis zur Verfügung zu stellen. Zunächst werden sich die Videos allerdings auf vorgegebene Quellen wie dem "Internet Archive" und "Wikimedia Commons" beschränken.

"Die Lizenzen für die multimedialen Inhalte werden jene sein, die jetzt schon auf Wikimedia Commons verfügbar sind. Darüber hinaus hat Wikipedia schon lange Kooperationen mit diversen Content-Partnern wie Bibliotheken oder Fotoarchiven", sagt Catrin Schoneville, Sprecherin von Wikimedia Deutschland, im Gespräch mit pressetext. In diese Richtung werde es hinsichtlich der Videoinhalte in Zukunft sicherlich auch Bestrebungen geben, Partner zu finden. "Aktuell stehen wir aber noch in keinen aktiven Verhandlungen", ergänzt Schoneville. Keinesfalls im Interesse von Wikimedia sei es, ein Werbe- und Promotionkanal für Firmen zu werden. "Unser Fokus liegt auf einer inhaltlichen Bereicherung der Plattform", betont die Sprecherin.

Über ein neues Funktionsfeld sollen die Nutzer die Videoinhalte per Mausklick hinzufügen können. Das Installieren von spezieller Videosoftware ist nicht notwendig, die Inhalte können ohne weitere Bearbeitung direkt in den jeweiligen Artikel integriert werden. In einer späteren Phase soll die Nutzung der multimedialen Inhalte jedoch ausgeweitet werden. Wikipedia will es ermöglichen, das gesamte Web nach importierbaren, Copyright-freien Videos durchsuchen zu können und es soll Werkzeuge zum Editieren und reorganisieren von Multimedia-Content geben.

Wikimedia betont, dass das Videoprojekt ausnahmslos auf Open-Source-Formaten basiert. Mitgetragen wird es unter anderem auch von der Mozilla Foundation, die den Webbrowser Firefox entwickelt. Rechteinhaber sollen sich ermutigt fühlen, ihre Inhalte auf diese Weise zur Verfügung zu stellen. "Wenn die Leute erst einmal sehen, dass Open-Source-Videos viel mehr Beachtung im offenen Web finden, wird das auch die Content-Provider dazu animieren, auf den Zug aufzuspringen", meint Michael Dale, Software Engineer bei dem Video-Start-up Kaltura, das für das Projekt mit Wikimedia zusammenarbeitet. (Ende)

Cyber City soll professionelle Hacker trainieren

Netzwerke staatlicher Einrichtungen sollen besser geschützt werden
 
Hacker: CyberCity bereitet auf Hacker-Angriffe vor (Foto: flickr.com/devdsp)

New Jersey/Berlin (pte028/29.11.2012/13:55) – Das Sans Institute http://sans.org hat eine Miniatur-"Cyber City" entwickelt, die staatlich beauftragte Hacker ab Dezember auf verschiedene Missionen schicken soll, um Angriffe auf die virtuelle Infrastruktur abzuwehren. Bestehend aus einer Bank, einem Krankenhaus sowie einem Stromnetz und einem Zugsystem, bildet das System eine Stadt. Die winzigen Gebäude sind auf einer Gesamtfläche von nur 1,8 Meter komprimiert. Sie simulieren die reale Welt, um den professionellen Hackern die Konsequenzen solcher Cyber-Angriffe demonstrieren zu können.

Krisenmanagement wichtig

"Grundsätzlich können gute Cyber-Attacken erst Wochen nach ihrer Durchführung detektiert werden und machen sich nur geringfügig bemerkbar. Daher hat man meist keinen geeigneten Ansatzpunkt, um dementsprechendes Krisenmanagement einzuleiten. Die einzigen Eingriffe, auf die man erfolgreich reagieren kann sind jene, die erhebliche Störungen – wie zum Beispiel einen Zusammenbruch der Börse – auslösen und somit hohe Wellen schlagen", sagt Sandro Gaycken von der Freien Universität Berlin http://inf.fu-berlin.de gegenüber pressetext.

Laut Ed Skoudis, Gründer von Counter Hack http://counterhack.net , wurden über 18 Missionen erstellt, welche die Teilnehmer dazu anregen, Strategien zu entwickeln, um Computer-Attacken zu vereiteln, die in der realen Umgebung erheblichen Schaden anrichten würden. Ein besseres Verständnis für die Schwachstellen einer Stadt kann heutzutage entscheidend sein, da Cyber-Angriffe von anderen Staaten an Häufigkeit und Raffinesse zunehmen. Durchschnittlich haben die Missionen eine Dauer zwischen einigen Stunden und ein paar Tagen.

Cyber City wappnet für Real-Angriff

Die Computernetzwerke verschiedener Finanzunternehmen, Produktionsbetriebe und der gesamten Infrastruktur sind schon seit Jahren von den Cyber-Angriffen fremder Länder betroffen. Mithilfe der praktischen Ausbildung hoffen die Experten, die Cyber-Krieger mit den Fähigkeiten auszustatten, die notwendig sind, um online Attacken erfolgreich zu bekämpfen und die Kontrolle über die virtuelle Welt zurückzuerlangen. Obwohl Cyber City seine Teilnehmer gezielt auf bestimmte Situationen vorbereitet, sind die Möglichkeiten des Modells dennoch limitiert.