Alle Beiträge von Balu

GPS-Systeme führen Fahrer zunehmend in die Irre

GPS-Systeme führen Fahrer zunehmend in die Irre
Experten fordern richtigen Umgang und gesunden Menschenverstand
 
GPS: Blindes Vertrauen bleibt oft gefährlich (Foto: pixelio.de, R. Ortner)

Wien (pte003/01.02.2013/06:10) – Navigationsgeräte führen Nutzer immer häufiger in die Irre, setzen sie falsch ab oder bringen sie sogar in Lebensgefahr. Während vor ein paar Wochen eine Belgierin fälschlicherweise nach Zagreb statt nach Brüssel gelotst wurde und somit mehr als 1.000 Kilometer umsonst hinter sich brachte, musste in den USA nun ein junger Mann aufgrund des defekten Gerätes mit seinem Leben bezahlen. Er wurde zum falschen Haus koordiniert und vom Eigentümer kurzerhand erschossen.

Auch wenn Fälle wie der erste noch vergleichsweise harmlos ausgehen, fällt die Software jedoch relativ oft aus und verursacht zum Teil hohe Schäden. Diese Vorkommnisse schreien förmlich nach einer erneuten Aufklärung über die Gefahren der immer schneller fortschreitenden, jedoch nicht fehlerlosen Technologie. Experten raten daher zum sorgsamen Umgang mit GPS-Systemen und verweisen auf den gesunden Menschenverstand.

Nur Orientierungshilfen

"Die Hauptbotschaft für die Endkonsumenten von Navigationssystemen ist, dass die Geräte keine Autopiloten sind, sondern vielmehr Orientierungshilfen", stellt Steffan Kerbl, Leiter der Testabteilung des ÖAMTC http://oeamtc.at , gegenüber pressetext klar. Die Geräte selbst seien dabei nicht das Problem, sondern das Datensystem.

Das Kartenmaterial ist zum Teil auch heute noch fehlerhaft und bedarf laut dem Spezialisten Aktualisierungen im Expresstempo, da solche Irrfahrten keine Seltenheit mehr darstellen. "Dennoch kann man nicht immer den Navigationssystemen die Schuld geben, denn auch das grobe Fehlverhalten der Nutzer ist oft verantwortlich. Wenn manche demnach mitten im Tunnel umdrehen, weil das das Gerät empfiehlt, können sie es dennoch nicht als Ausrede verwenden", so Kerbl.

Geräte oft nicht zielführend

Der Ansatz "Technologie verblödet" wurde und wird stets medial diskutiert. "Hinsichtlich des Orientierungsverlustes aufgrund eines Navigationssystems kann man diesen Ansatz schon unterschreiben", führt der Fachmann aus. Mehrere Tests belegen, dass sobald Menschen Anweisungen bekommen – sei es auch nur von einem Gerät – es ihnen schwer fällt, gegensätzlich diesen Anweisungen zu handeln.

"Das muss trainiert werden. Die Geräte und das Kartenmaterial sind mittlerweile ziemlich gut, jedoch nicht perfekt", sagt Kerbl. Wichtig sei vor allem, dass Konsumenten der Technologie nicht blind vertrauen und sich immer wieder selbst überzeugen, wo sie sich befinden und ob die Adresse adäquat eingegeben wurde. "Bei gänzlich unbekannten Territorien sollten sich die Fahrer vorab zusätzliche Informationen holen", schließt Kerbl ab.

 

57 Gigabit pro Sekunde durch Glasfaser gejagt

57 Gigabit pro Sekunde durch Glasfaser gejagt

Rasende Geschwindigkeit auch bei bis zu 85 Grad realisierbar

Datenturbo: Milton Feng (re.) und Team (Foto: L. Brian Stauffer)
Datenturbo: Milton Feng (re.) und Team (Foto: L. Brian Stauffer)

Champaign (pte004/29.03.2016/06:15) –

Einem Team der University of Illinois http://illinois.edu ist es gelungen, fehlerfrei Daten mit einer Geschwindigkeit von 57
Gigabit pro Sekunde (Gbps) via Glasfaser zu übertragen. Möglich machen
das spezielle Halbleiter-Laser. Den Forschern zufolge ermöglicht ihre
Technologie annähernd so hohe Datenraten selbst bei Temperaturen bis 85
Grad. Es wird also möglich, ohne zusätzliche Kühlung blitzschnell jene
gewaltigen Datenberge zu übertragen, die bei modernen Anwendungen im
Big-Data-Zeitalter anfallen.

Freie Fahrt für Virtual Reality

"Es gibt da draußen eine Menge Daten, aber wenn die
Übertragung nicht schnell genug ist, kann man die gesammelten Daten
nicht nutzen", meint Teamleiter Milton Feng. "Dann kann man aufkommende
Technologien, die massive Datenströme nutzen, wie Virtual Reality, nicht
verwenden", so der Elektrotechnik- und Informatikprofessor Milton Feng.
Sein Team hat sich daher damit befasst, wie man Daten-Highways noch
schneller machen und somit für immer datenhungrigere Anwendungen rüsten
kann.

Die Forscher setzen dabei auf sogenannte
Oxid-Oberflächenemitter (Vertical-Cavity Surface-Emitting Laser, VCSEL).
Das sind spezielle Halbleiter-Laser, mit denen die Forscher schon 2013
immerhin 40 Gbps erreicht haben (pressetext berichtete: http://pte.com/news/20131106032 ). Nun ist es nicht nur gelungen, die Übertragungsrate bei
Raumtemperatur nochmals um fast die Hälfte hochzuschrauben. Und selbst
bei 85 Grad Temperatur schafft die aktuellste Entwicklung noch
fehlerfrei 50 Gbps. Eben das macht die Entwicklung besonders attraktiv.

Datenturbo ohne Kühlschrank

Besonders im Sommer gleicht ein Serverraum schnell
einem Ofen, weil so viel Wärme erzeugt wird. Deshalb gibt es in
Rechenzentren große Kühlsysteme. Da ist es wünschenswert, dass
wenigstens die Datenübertragung keinen extra Kühlschrank braucht. "Das
muss von Raumtemperatur bis 85 Grad funktionieren, ohne Energie und
Ressourcen für Kühlung aufzuwenden", so Feng. Doch die
Oxid-VCSEL-Technologie ist seiner Meinung nach nicht nur für
Rechenzentren attraktiv. Da Glasfasern leichter als Kupferkabel sind,
ortet der Informatiker Potenzial beispielsweise in der Luftfahrt. "Das
kann sehr nützlich für die Industrie sein."

Wissenschaftlichen Ethos bei der Plagiatsdebatte

GI fordert Wahrung des wissenschaftlichen Ethos bei der Plagiatsdebatte

Bonn, 28. Februar 2011        Der Computer, das Internet und die heute
vorhandenen Suchtechnologien machen es möglich, innerhalb weniger Sekunden
relevante Texte zu einem gegebenen Thema zu finden. Genauso schnell ist es
auch möglich, diese Texte in eigenen Arbeiten unverändert zu verwenden.
Durch die Mühelosigkeit dieses Kopiervorganges entsteht oft kein Bewusstsein
dafür, mit dem geistigen Eigentum anderer angemessen umzugehen. Die gleichen
Suchtechnologien ermöglichen es jedoch auch, wörtliche Kopien sehr schnell
zu finden, und öffentlich zu machen. Das Internet ist also nicht nur häufige
Quelle des Problems, sondern es kann zugleich auch ein sehr effektives
Gegenmittel sein.

Die Gesellschaft für Informatik ist die Vereinigung all jener, die digitale
Medien nicht nur nutzen, sondern entwickeln und aktiv vorantreiben.
GI-Präsident Stefan Jähnichen: „Unsere Mitglieder tragen eine besondere
Verantwortung, geistiges Eigentum auch im Zeitalter der digitalen Medien zu
schützen, da sie genau die Werkzeuge schaffen, die seine Verletzung so
einfach machen. Für alle in Lehre und Ausbildung Tätigen bedeutet dies, ihre
Schüler und Studierenden immer wieder für einen korrekten Umgang mit
geistigem Eigentum zu sensibilisieren.“

Plagiate an Schulen und Hochschulen werden deshalb regelmäßig mit einer
Aberkennung der jeweiligen Prüfungsleistung bestraft. Weitere Maßnahmen
reichen vom Elternbrief über die Entlassung oder Exmatrikulation, in
schweren Fällen bis zum Disziplinarverfahren. Der aktuelle Umgang der
Bundesregierung mit einem öffentlich nachgewiesenen und durch die
Universität bestätigten Plagiatsfall mache es praktisch unmöglich, Schüler
und Studierende in Zukunft für den korrekten Umgang mit geistigem Eigentum
zu sensibilisieren, sagte Jähnichen.

Als Vereinigung derer, die das Kopieren so einfach gemacht haben, fordert
die Gesellschaft für Informatik, bei Plagiaten nicht wegzusehen oder zu
verharmlosen, sondern im Umgang mit geistigem Eigentum umso wacher zu
bleiben und weiterhin strikte Maßstäbe anzulegen, die für alle Berufsstände
und sozialen Schichten gleichermaßen verbindlich sind.

Wind und warmes Wasser treiben Rückzug des Westantarktischen Eisschildes vora

Wind und warmes Wasser treiben Rückzug des Westantarktischen Eisschildes voran
Neue
geologische Studie erklärt die Ursachen des Schelfeis- und
Gletscherrückzuges vor 7500 Jahren und verbessert das Verständnis der
aktuellen Eisverluste in der Westantarktis

Bremerhaven, 6. Juli
2017. Wandernde Westwinde und warmes Tiefenwasser sind die treibenden
Kräfte hinter dem zunehmenden Eismassenverlust in der Westantarktis. Zu
diesem Ergebnis kommt ein internationales Geologenteam, dessen Studie
heute im Fachmagazin Nature erschienen ist. Die Wissenschaftler aus
Deutschland, Großbritannien, Dänemark und Norwegen hatten mit Hilfe von
Sedimentkernen das Zusammenspiel von Ozean und Eisströmen im
Amundsenmeer für die zurückliegenden 11.000 Jahre rekonstruiert und
deutliche Parallelen zwischen den aktuellen Ereignissen und großen
Eisverlusten vor mehr als 7500 Jahren entdeckt. Die neuen Daten sollen
nun helfen, die zukünftige Entwicklung des Westantarktischen Eisschildes
besser vorherzusagen.

Mit ihren neuen Erkenntnissen füllen die
Wissenschaftler eine entscheidende Lücke in der Klima- und
Eismodellierung. „Bisher wurde immer nur spekuliert, wer oder was in der
geologischen Vergangenheit den Rückzug der Eisströme im Amundsenmeer
vorangetrieben hat. Eindeutige Beweise hatte man nicht, was zu
Unsicherheiten in der Modellierung geführt hat. Wir können jetzt mit
unseren Daten belegen, dass es damals wie heute warmes Tiefenwasser ist,
welches auf den Kontinentalschelf strömt und die Eismassen von unten
schmilzt. Auf Basis dieser Fakten können wir nun die Modelle validieren
und ihre Vorhersagegenauigkeit entscheidend verbessern“, sagt Geologe
und Koautor der Studie Dr. Johann Klages vom Alfred-Wegener-Institut,
Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).

Für ihre
Studie hatten die Wissenschaftler Sedimentkerne analysiert, die im Jahr
2010 auf einer Expedition des deutschen Forschungseisbrechers Polarstern
in die Pine Island-Bucht des Amundsenmeeres geborgen worden waren. Die
Bodenproben enthielten Überreste winziger Meeresorganismen, sogenannter
Foraminiferen. Der geochemische Fingerabdruck ihrer Kalkschalen erlaubt
Rückschlüsse auf die Umweltbedingungen zu Lebzeiten der Tiere. Auf diese
Weise gelang es den Forschern, die Temperatur-, Strömungs- und
Eisverhältnisse im Amundsenmeer für die zurückliegenden 11.000 Jahre zu
rekonstruieren.

„In diesem Zeitraum haben sich die Schelfeise
und Gletscher der Region zweimal stark zurückgezogen. Der erste Rückzug
vollzog sich bis vor etwa 7500 Jahren, bevor das Eis wieder stagnierte.
In den 1940er Jahren setzte dann der zweite Rückzug ein. Er hält bis
heute an und macht das Amundsenmeer zu einem Hotspot des Klimawandels“,
sagt AWI-Geologe und Koautor Dr. Gerhard Kuhn.

Die in das
Amundsenmeer mündenden Gletscher und Eisströme verlieren inzwischen so
viel Eis, dass sie allein zehn Prozent des globalen
Meeresspiegelanstieges verursachen. Weltweite Aufmerksamkeit erregen vor
allem der Pine Island-Gletscher und der Thwaites-Gletscher. Beide haben
ihr Fließtempo und ihre Rückzugsraten in den vergangenen Jahrzehnten
enorm gesteigert. Zusammen genommen speichern die Eisströme der Region
so viel Eis, dass sie im Falle ihres Abschmelzens den Meeresspiegel um
1,2 Meter ansteigen lassen könnten.

„Eine der derzeit drängenden
Fragen lautet, wie werden sich diese Gletscher in der Zukunft verhalten.
Jetzt, wo wir genauer verstehen, wie die Eismassen in der Vergangenheit
reagiert haben, können wir uns ein besseres Bild davon machen, was
derzeit geschieht“, sagt Erstautor Dr. Claus-Dieter Hillenbrand vom
British Antarctic Survey.

Die neuen geologischen Daten zeigen im
Kern, dass seit dem Ende der letzten Eiszeit warmes Tiefenwasser in die
Pine Island Bucht geströmt ist. Infolgedessen schrumpften den Eismassen
so lange, bis sich vor 7500 Jahren die Westwinde nordwärts verlagerten
und der Warmwasser-Einstrom abbrach. „In den 1940-Jahren sind die Winde
dann wieder Richtung Süden gewandert, woraufhin der Warmwassereinstrom
erneut einsetzte. Er hält bis heute an und ist verantwortlich für die
Eisverluste, die wir derzeit in der Westantarktis beobachten“, sagt
Koautor Dr. James Smith vom British Antarctic Survey.

An der Studie waren Wissenschaftlerinnen und Wissenschaftler folgender Institutionen beteiligt:
• British Antarctic Survey,
• Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung,
• Universitäten in Cambridge, Leicester, Exeter, Kopenhagen und Tromsø,
• British Geological Survey,
• University College London.

Wikipedia soll Videoinhalte bekommen

San Francisco (pte/22.06.2009/13:15) – Wikipedia will in Zukunft auch Videos in seine Artikel integrieren. In einigen Monaten bzw. bis etwa Anfang Herbst sollen die User die Möglichkeit erhalten, neben Fotos nun auch Bewegtbilder beim Erstellen bzw. Editieren von Beiträgen einzufügen. Die Wikimedia Foundation http://wikimediafoundation.org/, die Organisation hinter der populären Online-Enzyklopädie, hofft, die Seite damit zu "revolutionieren", und möchte Content-Inhaber dafür gewinnen, Videoinhalte einer breiten öffentlichen Basis zur Verfügung zu stellen. Zunächst werden sich die Videos allerdings auf vorgegebene Quellen wie dem "Internet Archive" und "Wikimedia Commons" beschränken.

"Die Lizenzen für die multimedialen Inhalte werden jene sein, die jetzt schon auf Wikimedia Commons verfügbar sind. Darüber hinaus hat Wikipedia schon lange Kooperationen mit diversen Content-Partnern wie Bibliotheken oder Fotoarchiven", sagt Catrin Schoneville, Sprecherin von Wikimedia Deutschland, im Gespräch mit pressetext. In diese Richtung werde es hinsichtlich der Videoinhalte in Zukunft sicherlich auch Bestrebungen geben, Partner zu finden. "Aktuell stehen wir aber noch in keinen aktiven Verhandlungen", ergänzt Schoneville. Keinesfalls im Interesse von Wikimedia sei es, ein Werbe- und Promotionkanal für Firmen zu werden. "Unser Fokus liegt auf einer inhaltlichen Bereicherung der Plattform", betont die Sprecherin.

Über ein neues Funktionsfeld sollen die Nutzer die Videoinhalte per Mausklick hinzufügen können. Das Installieren von spezieller Videosoftware ist nicht notwendig, die Inhalte können ohne weitere Bearbeitung direkt in den jeweiligen Artikel integriert werden. In einer späteren Phase soll die Nutzung der multimedialen Inhalte jedoch ausgeweitet werden. Wikipedia will es ermöglichen, das gesamte Web nach importierbaren, Copyright-freien Videos durchsuchen zu können und es soll Werkzeuge zum Editieren und reorganisieren von Multimedia-Content geben.

Wikimedia betont, dass das Videoprojekt ausnahmslos auf Open-Source-Formaten basiert. Mitgetragen wird es unter anderem auch von der Mozilla Foundation, die den Webbrowser Firefox entwickelt. Rechteinhaber sollen sich ermutigt fühlen, ihre Inhalte auf diese Weise zur Verfügung zu stellen. "Wenn die Leute erst einmal sehen, dass Open-Source-Videos viel mehr Beachtung im offenen Web finden, wird das auch die Content-Provider dazu animieren, auf den Zug aufzuspringen", meint Michael Dale, Software Engineer bei dem Video-Start-up Kaltura, das für das Projekt mit Wikimedia zusammenarbeitet. (Ende)

Mit Virus gegen Krebs

AAV2 vernichtet gezielt krankhafte Krebszellen innerhalb von sechs Tagen

Hershey (pte/22.06.2005/15:54) – Nur sechs Tage benötigt ein harmloser
und weit verbreiteter Virus um Brust-, Prostata-, und
Gebärmutterhalskrebszellen in Laborkulturen zu töten. Das berichten die
Forscher des Penn State College of Medicine
http://www.hmc.psu.edu/college/ heute, Mittwoch, auf dem derzeit in
Hershey stattfindenden Jahreskongress der American Society for Virology
http://www.mcw.edu/asv/ . "Unsere Ergebnisse zeigen, dass der
Adeno.Associated Virus Typ 2 (AAV2) gezielt verschiedene Krebszellen
abtöten kann, während er gesunde Zellen verschont", erklärte
Studienleiter Craig Meyers. Damit könnte AAV2 zu einem hochwirksamen
Mittel bei der Entwicklung von Krebstherapien werden, erklären die
Forscher.

Laut Angaben der Experten ist ein Großteil der Bevölkerung mit diesem
harmlosen Virus infiziert, der keine bekannten krankmachenden Effekte
hat. Die Forscher nehmen an, dass AAV2 die Krebszellen als krankhafte
Zellen erkennt und sie daraufhin zerstört. Warum jedoch dieser Prozess
stattfindet bleibt weiterhin unklar. "Mit AAV2 infizierte Personen sind
meist auch mit HPV (Human Papilloma Virus) infiziert, der in Verbindung
mit Gebärmutterhalskrebs steht", erklärte Meyers. Dieses Virus dient
AAV2 als Helfervirus um sich zu vermehren. Dadurch unterbricht er
jedoch den Lebenszyklus seines Wirtes und leitet die Apoptose – den
programmierten Zelltod – ein.

Telefonieren via Internet

So telefonierte man früher:

Sicher kennen Sie noch aus Ihrer Kindheit die sogenannten Dosentelefone. Die bestehen meist aus zwei Konservendosen, die über eine straff gespannte Schnur verbunden sind. Spricht man in die Dose hinein, wird der Dosenboden in Schwingung versetzt. Diese Schwingungen pflanzen sich dann als Wellen entlang der Schnur fort. Das führt wiederum an der entfernten Dose zu hörbaren Schwingungen.

Das Prinzip der Sprachübertragung durch Schwingungen führte 1860 zum ersten Telefon. Nicht aber etwa durch den Schotten Graham Bell, sondern durch den US-Italiener Antonio Meucci. Die Erfindung wurde ihm aber erst im Jahre 2002 posthum zuerkannt. Seitdem gilt Bell immerhin als Entwickler des ersten allgemein brauchbaren Telefons.

Wie auch beim Dosentelefon brachten Schallwellen zunächst eine Metallmembran zum Schwingen. Im Bell’schen Apparat wurden diese Schwingungen jedoch mit Hilfe eines Magneten und einer Spule in elektrische Impulse umgewandelt. Diese Signale wurden dann über eine Drahtverbindung zum weit entfernten Empfängertelefon weiter geleitet. Das dort entstehende Magnetfeld brachte schließlich eine Lautsprechermembran zum Schwingen.

Fortschrittlicher war da schon das berühmte W 48 aus den 1940er Jahren. Das Gehäuse bestand aus Bakelit, die Technik basierte bereits auf kompakten Lautsprecher- und Mikrofonkapseln.

Kaum zu glauben, bis heute telefoniert man bei Verwendung von Analogtelefonen – zumindest etappenweise – nach dem ursprünglichen Prinzip:

Die Sprache läuft zunächst in Form von Schwingungsimpulsen durch ein zweiadriges Kupferkabel. Erst in einer Vermittlungsstelle wird eine Analog-Digital-Wandlung vorgenommen. Das Telefongespräch wird dann als digitaler Datenstrom zur Vermittlungsstelle des Empfängers übertragen. Das geschieht bereits mehr und mehr über Satellit oder Glasfaserleitungen. Hat der Empfänger einen analogen Anschluss, werden die digitalen Signale wieder in analoge gewandelt.

Im Falle eines ISDN-Telefons wird die Sprache bereits im Telefon digitalisiert. Hier findet also die gesamte Kommunikation auf digitalem Wege statt. Dadurch lassen sich mehr Informationen durch die Kabel jagen als es das analoge Netz erlaubt. Man spricht hier von einer höheren Datenübertragungsrate oder auch Bandbreite. Vorteil: Mit einem ISDN-Anschluss kann man z.B. zwischen zwei Gesprächen hin und her springen oder Anklopfen. Außerdem wird auf dem Display schon während des Klingelns die Nummer des Anrufers angezeigt.

Deutsches Telefonmuseum:

Wer sich für die Technik des Telefonierens seit dem "Fräulein vom Amt" bis heute interessiert, sollte einmal einen Abstecher zum Deutschen Telefonmuseum in Morbach/Hunsrück einplanen. (s. Informationsquellen.)
Die frei zugänglichen Geräte, 1300 an der Zahl, regen den Besucher zum Anfassen und Begreifen, aber auch zum Erinnern und Nachdenken an.
Besonderen Wert wird auf die Kombination der jeweiligen Apparate mit den zeitlich zugehörigen Vermittlungseinrichtungen gelegt, an die viele der ausgestellten Exponate funktionsfähig angeschlossen sind.
Highlight: Das erste Bildtelefon aus dem Jahre 1973.
1995 hat das Deutsche Telefonmuseum in Morbach sogar einen Eintrag ins Guinness Buch der Rekorde (Informationsquellen) geschafft.

Plaudern per Päckchen:

Bei der herkömmlichen Telefonie war es so, dass bei Gesprächen im Festnetz immer eine eigene Leitung benötigt wurde. Diese Leitung bleibt auch dann bestehen, wenn diese – z.B. in Gesprächspausen – gar nicht genutzt wird. Dadurch werden riesige Mengen an Übertragungskapazitäten verschenkt.

Das Telefonat der Zukunft wird nicht mehr über eine exklusiv geschaltete Leitung geführt, sondern per "Voice over IP". Das heißt soviel wie: "Stimme über das Internet".

Dazu wird die Sprache zunächst wie üblich von analoge in digitale Signale verwandelt. Anders als bei der herkömmlichen Telefonie werden überflüssige Signale eliminiert. Der Rest in Pakete gebündelt und per Internet übertragen. Ähnlich wie bei Emails. Damit die Pakete auch beim Empfänger ankommen, werden sie mit einer Adresse versehen. So können sich viele Pakete die Datenautobahn teilen. Das entlastet die Leitungen. Am Ziel werden die Pakete wieder zusammen gesetzt und als Sprache über den Hörer ausgegeben.

Voraussetzung für Internet-Telephonie ist zunächst eine schnelle digitale Datenverbindung, also mindestens DSL bzw. DSL 2000.

Im elegantesten Fall lässt sich mit dem vorhandenen Festnetztelefon via Internet telefonieren. Frei nach dem Motto: Aus Alt mach Neu.
Dazu wird das Telefon über einen Adapter und einen Router (Bezugsquellen) an das DSL-Modem angeschlossen.
Der Adapter macht aus einem analogen Telefon ein digitales. Mit Hilfe des Routers kann auch während eines Internet-Telefonats im PC gesurft werden.

Ideal ist eine Internet-Telefonbox (FRITZ!Box), die Adapter, Router und Modem vereint.
Wer also weiterhin mit seinem Lieblingstelefon telefonieren möchte, ist mit dieser Lösung am Besten bedient.

Ein spezielles Internet-Telefon (Bezugsquellen) ist Analog-Telefon und Adapter in einem. Hier benötigt man lediglich Router und Modem. Bei einigen Modellen muss man auch nicht auf eine schnurlose Verbindung verzichten.

Neueste Geräte (FRITZ!Fon) integrieren gleichzeitig Telefon, Adapter, Router und Modem. Zum Surfen im Internet wird daran auch der PC angeschlossen.

Internet-Handys auf Wireless-Basis (WLAN) finden über öffentliche Hotspots den Weg ins Internet. Neben Problemen bei der Reichweite sind vor allem die hohen Anschaffungskosten (ab 150 €) noch nicht angemessen.

Eine ganz andere Methode ist Internet-Telefonie per Computer, auch als "Software-Telefonie" bezeichnet. Denn außer einem PC bzw. Laptop mit DSL-Zugang und Soundkarte, benötigt man lediglich eine Telefon-Software, z.B. vom Anbieter "Skype". Diese lässt sich kostenlos unter www.skype.com herunter laden.

Zum "Skypen", wie es neudeutsch heißt, erhält jeder Teilnehmer eine persönliche Internet-Telefon-Nummer oder einen Benutzernamen. Damit kann man dann ortsunabhängig und weltweit telefonieren. Selbstverständlich auch ins Fest- und Handynetz.
Wie das geht? Einfach Gesprächsteilnehmer auswählen und auf das grüne Hörersymbol klicken. Kommuniziert wird per integriertem Lautsprecher und Mikrofon oder über ein Headset. Hier haben sich die Produkte von Logitech bewährt.

TechniSat hat das preiswerte TechniFon entwickelt. Es wird einfach per USB an den PC angeschlossen. Dank integrierter Soundkarte und Wähltastatur wird "Skypen" zum reinen Vergnügen.

Fazit: Telefonieren via PC eignet sich vor allem für denjenigen, der oft online ist. Natürlich muss der PC ständig laufen, was aber auch Vorteile hat, z.B. bei der Video-Telefonie.
Dazu müssen beide Teilnehmer einfach eine kleine Web-Kamera (Logitech) am Bildschirm befestigen. So kann man seinen Gesprächspartner am anderen Ende der Welt sehen.

Der TechniTipp:

Zum Schluss wie immer mein persönlicher TechniTipp: Um den Festnetzanschluss jetzt gleich zu kündigen, ist es sicher noch zu früh. Das Internet-Telefon-Netz ist noch vergleichsweise unsicher und störanfällig. Auch die Sprachqualität lässt zur Zeit noch zu wünschen übrig und erreicht nur Mobilfunkqualität. Sicher nicht unwichtig: Die Notrufnummern 110 und 112 sind per Internet nicht erreichbar.

"Telefonieren für 0 Cent", wie es oft heißt, können nur Nutzer desselben Anbieters. Für Telefonate ins Fest- und Handynetz zahlt man drauf. Nicht zu vergessen: Es kommen noch Grund- und DSL-Gebühren hinzu.
Quasselstrippen sind in jedem Fall mit einer Flatrate bzw. Komplettpaketen am besten bedient.
Mein Tipp: Vorerst zweigleisig telefonieren. Man kommt in den Genuss von Preisvorteilen und kann zur Not immer noch auf das gute alte Festnetz ausweichen.

Text, Idee & Experimente: Horst Minge

Selbst gewählte Profilbilder sind schlecht

Selbst gewählte Profilbilder sind schlecht

Fremde Vorschläge machen den besseren Eindruck

Bilder-Pool: Die richtige Wahl ist schwer (Foto: David White)
Bilder-Pool: Die richtige Wahl ist schwer (Foto: David White)

Sydney (pte003/18.04.2017/06:10) –

Egal, ob Dating-Plattform, Karriere-Netzwerk oder einfach Facebook – das
Profilbild ist online ein Schlüssel zu einem guten Ersteindruck. Damit
dieser möglichst gut ausfällt, sollte man sein Profilbild besser nicht
selbst wählen, wie eine aktuelle Studie von Forschern der University of
New South Wales http://unsw.edu.au zeigt. Im Experiment haben von Fremden ausgewählte Profilbilder bei Betrachtern nämlich eher positive Assoziationen geweckt.

Richtige Idee, suboptimale Wahl

102 Studenten haben im Rahmen der Studie einerseits für
sich selbst, andererseits für einen zufälligen anderen Teilnehmer aus
Sätzen von zwölf Fotos Profilbilder für soziale Netzwerke, Dating-Sites
sowie Karriere-Netzwerke ausgewählt. "Unsere Ergebnisse haben gezeigt,
dass die Leute wissen, wie sie Profilbilder für den jeweiligen
Netzwerkkontext wählen, um einen guten ersten Eindruck zu machen", meint
nun Studienleiter David White. Denn für Dating-Seiten haben die
Teilnehmer attraktiver wirkende, für Karriere-Netzwerke eher Kompetenz
ausstrahlende Profilbilder gewählt.

Die richtige Grundidee alleine freilich bedeutet noch
keine optimale Wahl – und eben an der scheitern viele Nutzer. "Die Leute
treffen anscheinend schlechte Entscheidungen, wenn sie vorteilhafte
Profilbilder von sich selbst wählen", meint White. Denn als die Forscher
die Profilbilder Fremden online gezeigt haben, waren es eher die von
Fremden ausgesuchten Bilder, die wirklich punkten konnten. Die
Online-Betrachter haben diese stärker mit positiven Eigenschaften wie
Vertrauenswürdigkeit oder Kompetenz assoziiert als jene Profilbilder,
die teilnehmende Studenten für sich selbst gewählt hatten.

Problem in allen Lebenslagen

Das Nutzer für sich selbst nur passende, aber nicht die
besten Profilbilder aus einer Auswahl finden, kann im Online-Zeitalter
weitreichende Folgen haben. Immerhin kann der Eindruck, den ein
Profilbild erweckt, Vieles beeinflussen: von einfachen
Freundschaftsanfragen bis hin zur Entscheidung, ob jemand einen Job
bekommt. Es sei also weitere Arbeit nötig, um zu klären, "warum die
Leute eine begrenzte Fähigkeit zur Wahl der vorteilhaftesten Bilder
ihrer selbst zu haben scheinen", so White.

Cyber City soll professionelle Hacker trainieren

Netzwerke staatlicher Einrichtungen sollen besser geschützt werden
 
Hacker: CyberCity bereitet auf Hacker-Angriffe vor (Foto: flickr.com/devdsp)

New Jersey/Berlin (pte028/29.11.2012/13:55) – Das Sans Institute http://sans.org hat eine Miniatur-"Cyber City" entwickelt, die staatlich beauftragte Hacker ab Dezember auf verschiedene Missionen schicken soll, um Angriffe auf die virtuelle Infrastruktur abzuwehren. Bestehend aus einer Bank, einem Krankenhaus sowie einem Stromnetz und einem Zugsystem, bildet das System eine Stadt. Die winzigen Gebäude sind auf einer Gesamtfläche von nur 1,8 Meter komprimiert. Sie simulieren die reale Welt, um den professionellen Hackern die Konsequenzen solcher Cyber-Angriffe demonstrieren zu können.

Krisenmanagement wichtig

"Grundsätzlich können gute Cyber-Attacken erst Wochen nach ihrer Durchführung detektiert werden und machen sich nur geringfügig bemerkbar. Daher hat man meist keinen geeigneten Ansatzpunkt, um dementsprechendes Krisenmanagement einzuleiten. Die einzigen Eingriffe, auf die man erfolgreich reagieren kann sind jene, die erhebliche Störungen – wie zum Beispiel einen Zusammenbruch der Börse – auslösen und somit hohe Wellen schlagen", sagt Sandro Gaycken von der Freien Universität Berlin http://inf.fu-berlin.de gegenüber pressetext.

Laut Ed Skoudis, Gründer von Counter Hack http://counterhack.net , wurden über 18 Missionen erstellt, welche die Teilnehmer dazu anregen, Strategien zu entwickeln, um Computer-Attacken zu vereiteln, die in der realen Umgebung erheblichen Schaden anrichten würden. Ein besseres Verständnis für die Schwachstellen einer Stadt kann heutzutage entscheidend sein, da Cyber-Angriffe von anderen Staaten an Häufigkeit und Raffinesse zunehmen. Durchschnittlich haben die Missionen eine Dauer zwischen einigen Stunden und ein paar Tagen.

Cyber City wappnet für Real-Angriff

Die Computernetzwerke verschiedener Finanzunternehmen, Produktionsbetriebe und der gesamten Infrastruktur sind schon seit Jahren von den Cyber-Angriffen fremder Länder betroffen. Mithilfe der praktischen Ausbildung hoffen die Experten, die Cyber-Krieger mit den Fähigkeiten auszustatten, die notwendig sind, um online Attacken erfolgreich zu bekämpfen und die Kontrolle über die virtuelle Welt zurückzuerlangen. Obwohl Cyber City seine Teilnehmer gezielt auf bestimmte Situationen vorbereitet, sind die Möglichkeiten des Modells dennoch limitiert.

| | Achim Lübers | München

Achim Lübers München

Sehr geehrter Herr Pütz, meine Familie und ich haben Sie im Oktober mit Ihrer hervorragenden Experimente-Show in Pfaffenhofen erleben dürfen. Hätte man zu meiner Schulzeit (Jahrgang: 1938) Naturwissenschaften derart lebendig vermitteln können, hätte ich vermutlich einen technischen Beruf erlernt. So ist es „nur“ der Mediziner geworden.
Hoffe, Sie mal wieder im Raum München erleben zu dürfen.
Hochachtungsvoll Achim Lübers