Archiv der Kategorie: Computer, TV, Medien

Datensicherheit: Mehr Privatsphäre auf dem Smartphone

(KIT) – Privatsphäre auf dem Smartphone ist möglich – das beweisen die „Privacy Friendly Apps“ für Android: Die Forschungsgruppe SECUSO am Karlsruher Institut für Technologie (KIT) hat gemeinsam mit Studierenden mehr als 30 verschiedene Apps für Android entwickelt, die nur die für die Funktionalität erforderlichen Berechtigungen anfordern und keine Tracking-Mechanismen enthalten. Für diese „Privacy Friendly Apps“ hat SECUSO nun den 2022 erstmals verliehenen „Digital Autonomy Award“ vom Kompetenzzentrum Digital Autonomy Hub erhalten, das vom Bundesministerium für Bildung und Forschung gefördert wird.

Wir alle füttern unsere Smartphones täglich mit vielen Daten: Wir führen Gespräche in Wort, Text und Bild, speichern Notizen, Fotos und Videos, planen Termine und verwalten Kontakte. Der Zugriff auf diese teilweise sensiblen Daten ist über sogenannte Berechtigungen geregelt. Beispielsweise benötigt jede App, die auf die Kamera zugreift, die entsprechende Berechtigung. Viele Apps verlangen jedoch bereits bei der Installation oder in anderen Kontexten Berechtigungen, die ihnen den Zugriff auf private Smartphone-Daten ermöglichen, obwohl dies für die Funktionalität der Apps nicht erforderlich ist. So gibt es Wetter-Apps oder QR-Code-Scanner, die Zugriff auf das Adressbuch oder auf private Fotos fordern. Zudem enthalten viele Apps sogenannte Tracker, die laufend Daten erfassen, das Verhalten der Nutzerinnen und Nutzer analysieren und Profile von Personen anlegen, ohne dass diese es mitbekommen. Die gesammelten Daten lassen sich für gezielte Werbung nutzen, können aber auch von Hackerinnen und Hackern gestohlen werden.

Studierende sind maßgeblich an der Entwicklung der Apps beteiligt

Mehr Privatsphäre ermöglichen die von der Forschungsgruppe SECUSO (Security – Usability – Society) des KIT entwickelten „Privacy Friendly Apps“, kurz PFAs. Die Forschungsgruppe unter Leitung von Professorin Melanie Volkamer gehört zum Institut für Angewandte Informatik und Formale Beschreibungsverfahren des KIT. An der Entwicklung der für Android-Smartphones geeigneten PFAs waren und sind Studierende maßgeblich beteiligt „Dies ermöglicht den Studierenden im Rahmen von Programmierpraktika oder Abschlussarbeiten einen guten Einstieg in die Security- und Privacy- Aspekte bei der Android-App-Entwicklung“, sagt Volkamer. „Eine Herausforderung liegt darin, die Entwicklung der Apps mit der universitären Lehre zu verbinden. Auch Studierende ohne einschlägige Vorerfahrung sollen sich daran beteiligen können.“

Die PFAs zeichnen sich dadurch aus, dass sie nur die für ihre Funktionalität erforderlichen Berechtigungen anfordern, keine Tracking-Mechanismen enthalten und damit keine Nutzungsdaten sammeln. „Die erhobenen Daten werden lediglich lokal auf dem Smartphone gespeichert“, erklärt Christopher Beckmann, wissenschaftlicher Mitarbeiter in der Forschungsgruppe SECUSO und verantwortlich für das Privacy Friendly Apps Lab. „Nur dann werden klar definierte Daten an Drittanbieter übertragen, wenn dies für die Funktionalität unbedingt erforderlich ist.“ Der Quellcode jeder PFA ist auf der Plattform GitHub öffentlich einsehbar.

Apps reichen vom Schrittzähler bis zum Passwortgenerator

Derzeit gibt es mehr als 30 PFAs in den Bereichen Tools, Fitness und Gesundheit, Spiele sowie Sicherheit, unter anderem mit Taschenlampe und To-do-Liste, Schrittzähler und Aktivpause, Sudoku und Kopfrechentrainer, Passwortgenerator und WiFi-Manager. Für die „Privacy Friendly Apps“ erhält SECUSO den 2022 erstmals verliehenen „Digital Autonomy Award“. Die Auszeichnung vergibt das Kompetenzzentrum Digital Autonomy Hub – Technik souverän nutzen, das ein interdisziplinäres Netzwerk von 43 Instituten und Organisationen koordiniert, vom Bundesministerium für Bildung und Forschung im Forschungsprogramm „Miteinander durch Innovation“ gefördert und von der Gesellschaft für Informatik e.V. und AlgorithmWatch umgesetzt wird.

 

 

EU-Kommission will ihr eigenes Internet aus dem Weltall aufbauen

(FAZ) – Als nach der Flutkatastrophe im Ahrtal im Juli vielerorts die Internetverbindungen ausfielen, war Elon Musk zur Stelle. In wenigen Tagen baute sein Unternehmen Starlink drei Dutzend Stationen auf, mit denen sich die Menschen per Satellit mit dem Internet verbinden konnten. Für Musk war das die perfekte Werbung. 20 bis 30 Milliarden Dollar will er in sein satellitenbasiertes Internet stecken.

Ein Netz von bis zu 50.000 Satelliten könnte irgendwann das Internet bis in die entlegensten Winkel der Welt bringen. Schon jetzt kreisen 2000 Starlink-Satelliten im erdnahen Orbit. Auch Jeff Bezos’ Amazon investiert Milliarden in das Konkurrenzprojekt „Kuiper“. Russland und China haben eigene Projekte für Breitband aus dem All angekündigt.

6 Milliarden Euro

Da darf die Europäische Union auf keinen Fall zurückstehen. Davon ist zumindest die EU-Kommission und allen voran der französische Binnenmarktkommissar Thierry Breton überzeugt. Knapp 6 Milliarden Euro, davon 2,4 Milliarden aus dem EU-Budget, will die Kommission in den Aufbau eines eigenen satellitenbasierten Internets investieren. Damit will sie den „weißen Flecken“, die es bei der auch für den Mittelstand wichtigen Internetversorgung selbst in reichen EU-Staaten wie Deutschland auf dem Land noch gibt, ein Ende bereiten.

Das ist aber nicht alles. „Wir wollen ein Back-up für unsere Infrastruktur schaffen und unsere Unabhängigkeit von Dritten und die Cyber-Sicherheit steigern“, sagt Breton. Die eigene Satelliteninfrastruktur soll die sichere Kommunikation etwa durch Quantenverschlüsselung ermöglichen und damit auch für Regierungen und das Militär zusätzlichen Nutzen bringen.

Außerdem ist die „Initiative für sicheres Internet“ genau wie das eben erst vorgelegte „Chip-Gesetz“ Industriepolitik. „Als paneuropäisches Projekt wird sie unseren vielen Start-ups und Europa als Ganzem ermöglichen, an der Spitze der technologischen Innovation zu stehen“, sagt Breton. Die EU soll nicht wieder von Amerikanern und Chinesen abgehängt werden. All das ist eng mit der französischen Regierung abgestimmt.

Die nutzt die EU-Ratspräsidentschaft, die sie seit Januar wieder für ein halbes Jahr innehat, traditionell dafür, für eine stärkere EU-Weltraumpolitik zu werben. An diesem Mittwoch hat sie zum Weltraumgipfel nach Toulouse geladen. Dabei geht es auch um die Interessen der französischen Weltraumindustrie. So warnt die Europaabgeordnete Angelika Niebler (CSU) be­reits: „Von dem Projekt darf nicht nur die französische Großindustrie profitieren, sondern auch kleine und mittlere Unternehmen und Start-ups.“

Um auf die 6 Milliarden Euro zu kommen, soll das Geld aus dem EU-Budget durch Mittel der Mitgliedstaaten und privates Geld aufgestockt werden. Wie viele Satelliten die EU am Ende in den Orbit schießen will, ist noch unklar. Anders als die amerikanischen Projekte will die Kommission aber auch nur Europa abdecken. Weil das auf denselben Längengraden liegende Afrika so gleich weitgehend problemlos mitversorgt werden kann, verkauft die Kommission es zugleich als Teil ihrer globalen Infrastrukturpolitik. Vor allem soll es schnell gehen. Die Kommission will schon im kommenden Jahr mit dem „Ausrollen“ des Projekts beginnen. Die ersten Angebote und Tests der Quantenverschlüsselung im Orbit sollen 2025 starten. 2028 dann soll die europäische Antwort auf das satellitenbasierte Internet aus den Vereinigten Staaten und China stehen.

Das ist ehrgeizig. Das gesteht die Kommission durchaus zu. Ehrgeizig sei milde ausgedrückt, heißt es in der Branche. Auch der kommerzielle Nutzen sei fragwürdig. Das Projekt klinge nach dem verzweifelten Versuch, überall dabei sein zu wollen. „Wir laufen Gefahr, viel dummes Geld auszugeben, nur um unser Ego zu befriedigen“, sagt Sven Sünberg, der mit der Media Broad­cast Satellite GmbH die für das satellitenbasierte Internet nötigen Bodenstationen betreibt. Zumal das Geld nur einmal ausgegeben werden könne und anderswo fehle. „Überhaupt ist europäische Industrie viel besser als viele denken.“

Das britische Projekt Oneweb, an dem der französische Konzern Eutelsat beteiligt ist, etwa hat erst vor wenigen Tagen 34 Satelliten ins All geschickt, die für das satellitenbasierte Internet genutzt werden sollen. Insgesamt sind es damit schon mehr als 400. Auch bei den Vorprodukten gehören die Europäer zu den Vorreitern. So spielen zwei deutsche Unternehmen, Tesat und Mynaric, eine Schlüsselrolle bei der zukunftsträchtigen Übertragung riesiger Datenmengen zwischen Satelliten per Laserstrahl.

Gut findet die Initiative Daniel Voelsen von der Stiftung Wissenschaft und Politik. Die globale Infrastruktur des Internets erfahre durch die satellitenbasierten Lösungen eine massiven Wandel und stoße in ganz neue Dimensionen vor. „Wenn die EU sich da nicht engagiert, droht sie ein weiteres Mal in die Abhängigkeit von den USA und China zu rutschen“, warnt er – ganz im Sinne Bretons.

Es drohe eine weitere Konzentration wirtschaftlicher Macht und damit ein bisher unbekanntes Maß poli­tischer Kontrolle über die globalen Kommunikationsnetze. Eine Satellitenkonstellation unter Kontrolle der EU könne dem entgegenwirken und zudem einen wichtigen Beitrag zur Sicherheit der Regierungskommunikation leisten. Wie beim Satellitenprogramm Galileo gehe es auch darum, Expertise in Europa und damit die politische Handlungsfähigkeit zu erhalten. Im Übrigen profitierten auch US-Unternehmen von Staatshilfen. Starlink etwa werde aus dem Geld, das Musk für Space-X erhalte, unterstützt.

Europa im digitalen Abstieg

Den folgenden Beitrag möchte ich Ihnen nicht vorenthalten, weil er leider den Nagel auf den Kopf trifft. Vor 1956 bis 1959 habe ich an der staatlichen Kölner Nicolaus-August-Otto-Ingenieurschule mein Ingenieur-Diplom als Nachrichtentechniker erworben. Seit 63 Jahren beobachte ich mit zunehmendem Entsetzen die deutsche Kommunikationspolitik, die mittlerweile die gesamte IT- und Übertragungstechnik beinhaltet. Der vorliegende Kommentar kommt von der Deutschen Telekom. Vielleicht erinnern sich nur noch wenige daran, dass die gesamte Nachrichten-Technik in der ehemaligen ‚Post‘ beheimatet wer. In den 60er/70er Jahren geriet dieses Gebilde ins Wanken, mein persönlicher Eindruck war, dass das viel mit Korruption zu tun hatte. Von Anfang an beherrschte Siemens als Monopolist die deutsche Kommunikations-Technik. Ich habe noch Telefon-Netze berechnen müssen, deren wichtigster Bestandteil zunächst der Heb-Dreh-Wähler war, aber dann entwickelte Siemens den Dreh-Wähler , der nicht mehr die Verbindungen rauf und runter vermittelte, sondern bereits digital gesteuert in einer Ebene, und zwar 100Positionen. Dann kam die Halbleiter-Technik, doch zu aller letzt entschied sich die Post, diese Funktionen auf Basis von Mikroprozessoren zu erfüllen.

In den USA wurde gezeigt, dass das auch ganz anders geht. Aber Siemens bestimmte in Deutschland die Richtung. Durch die EU wurde eine notwendige Öffnung über Deutschland hinaus initiiert. Die Post geriet immer mehr ins Hintertreffen. Nichtsdestotrotz setzte man immer noch auf armdicke Kabel mit hunderten von dünnen Kupferleitungen, obwohl es schon wesentlich zukunftsträchtigere Methoden gab, z. B. das sogenannte Koaxial-Kabel, welches besonders von dem Bundespostminister Christian Schwarz-Schilling eingeführt wurde, das erst sein Lieblingskind, das sogenannte Kabelfernsehen, vorantrieb. Öfters habe ich mit ihm diskutiert, denn ich war zu dieser Zeit der 1. Vorsitzende der Vereinigung der Deutschen Wissenschaftsjournalisten, der Wissenschaftspressekonferenz WPK.org. Damals zeichnete sich schon ab, dass Glasfaserkabel wesentlich effektiver große Datenmengen, die z. B. durch Übertragung von Fernsehen, übertragen konnten. Ich warf ihm vor, aus Deutschland aus durchsichtigen Gründen ein Kupferbergwerk zu machen, denn er hatte einen bestimmten Grund: Seine Familie besaß eine große Bleibatterie-Fabrik mit Namen Sonnenschein. Diese mittelgroßen Blei-Akkus wurden beim Einsatz der Koaxial-Kabel alle fünf bis zehn Kilometer benutzt, um die notwendigen Verstärker zur Verfügung zu stellen. Bei Glasfaser war das nicht nötig. Schon damals hätte man das, was heute mit großem Investitions-Aufwand nachgeholt wird, preisgünstig haben können.

Aber dann kam noch ein großer Sündenfall: Als die Frequenzen für die drahtlose Kommunikation der Zukunft, also für unsere Handys, verteilt werden sollten, hat der Finanzminister zugeschlagen. Mittlerweile war die Post aufgeteilt in Brief- und Paket-Post und in die Telekom. Letztere war für die Versteigerung dieser Frequenzen verantwortlich, nachdem sie sich als Aktiengesellschaft privatisiert wurde. Derjenige, der allerdings diese Volksaktien erwarb, hatte auf lange Sicht mit Zitronen gehandelt. Ein Boss mit Namen Sommer musste mit ansehen, dass der Kurswert innerhalb kürzester Zeit von über 100 Euro pro Aktie auf unter 10  Euro abstürzte. Der Deutsche Staat hat zwar mit diesen Versteigerungen Milliarden Euro eingenommen. Auch dies war eine Milchmädchen-Rechnung, denn dieses Geld fehlte beim Aufbau effizienter Netze. Irgendwie mussten sich die Firmen, die die Rechte erworben hatten, das Geld von ihren Kunden, also uns Bürgern, wieder zurück holen.

Auch heute noch ist Deutschland – obwohl markwirtschaftlich aufgeteilt – am teuersten in ganz Europa, was die Kosten für drahtlose Breitband-Kommunikation anbelangt, also wenn wir per Handy, Tablet oder gar Fernsehen Programme empfangen wollen.

Der Fehler wurde wieder gemacht, als jetzt das sogenannte 5G-Netz in Betrieb ging. Dieses benötigt viel mehr Minisender und trotz aller Auflagen und Bekundungen steht Deutschland in Europa ganz hinten an. Vielleicht ist das mit einer der Gründe dafür, dass Deutschland zum Entwicklungsland der Digitalisierung mutierte.

Nur ein persönliches Beispiel: Mein Sohn, der Professor in Frankreich ist, hat für mich ein Smartphone gekauft, mit allem Drum und dran, also auch mit 5G. Der monatliche Betrag dafür liegt weit unter den deutschen Preisen. Trotzdem, während ich in Deutschland einen Vertrag habe, die mir monatlich 5 Gigabit Datenvolume gibt, zahle ich in Frankreich 60 Gigabit. Also leiste ich mir den Luxus, mit dem französischen in ganz Europa ohne Grenzen kostenlos zu telefonieren und meine Daten abzurufen und überall einen Hotspot mit dem Handy einzurichten. Das Datenvolumen reicht dafür bei weitem aus. Der große Vorteil, das Smartphone sucht sich stets den Provider, der das stärkste Signal liefert, überall in Europa.

Ich wollte nur einige Aspekte darstellen, warum Deutschland so schlecht im Verhältnis zu allen anderen Ländern im Nachteil liegt, und dass diese Kleinstaaterei auch Europa insgesamt in der Entwicklung beeinflusst.

Lesen Sie dazu den sehr interessanten Auszug aus ‚Morning Briefing‘ von Gabor Steingart

(Morning Briefing) – Erfolgreiche Wirtschaftsführer liefern nicht nur gute Ergebnisse für ihre Aktionäre, sondern besitzen immer auch einen Röntgenblick – mit dem sie die Welt der Politik durchdringen. Sie beherrschen das, was Max Weber „die geschulte Rücksichtslosigkeit des Blickes in die Realitäten des Lebens“ nannte.

Wenn Telekom-Chef Tim Höttges mit eben jener geschulten Rücksichtslosigkeit auf die europäischen Realitäten schaut, dann erkennt er einen Kontinent im Abstieg – allen Deklarationen der Politiker zum Trotz.

Der heute 59-Jährige, der im Alter von 37 Jahren zur Telekom stieß, kennt die Versprechungen vom vereinten Europa, von der Schicksalsgemeinschaft, der Werteunion, dem Binnenmarkt. Und er kommt zu der kühlen Erkenntnis, dass nichts davon auf ihn und die Telekommunikationsindustrie zutrifft.

Das Europa, in dem er und seine Firma navigieren, ist regulatorisch zerklüftet und zuweilen regelrecht zerfressen vom Egoismus der Nationalstaaten. Die Politiker sagen „wir“ und meinen sich. Sonntags fordern sie die beschleunigte Digitalisierung, um sie montags bis freitags zu blockieren. Das Ergebnis ist eine Situation, bei der ausgerechnet Europas Schlüsselindustrie weiter zurückfällt:

  • 5G bedeutet die schnellste mobile Datenübertragung, die es derzeit gibt. Aber nur für 62 Prozent der europäischen Bevölkerung steht dieser Standard wenigstens theoretisch zur Verfügung. In den USA sind es rund 93 Prozent und in Südkorea 94 Prozent. Das bedeutet: Die Digitalisierung – mit allen davon abhängigen Geschäftsmodellen – verläuft bei uns im Schneckentempo. Europa bildet weltweit das Schlusslicht.
  • Die Gesamtheit der europäischen Telekommunikationsfirmen investierte 2018 rund 55 Prozent ihrer Vorsteuer-Gewinne – und bringt es dennoch nur auf eine pro-Kopf-Investition der europäischen Bevölkerung von 95 Euro. Die amerikanischen Telekommunikationsunternehmen investieren keine 40 Prozent ihrer Gewinne und schaffen damit eine pro-Kopf-Investition von über 210 Euro. Das heißt: Europas Firmen gehen in die Vollen und fallen trotzdem weiter zurück.
  • Weil die europäischen Staaten ihre Telefonfirmen als nationale Heiligtümer betrachten, herrscht in Europa auch im Zeitalter der digitalen Vernetzung und Globalisierung die Kleinstaaterei. 447 Millionen Einwohner werden von mehr als 100 Mobilfunkbetreibern bedient. In Amerika werden gut 330 Millionen Einwohner von drei nationalen Mobilfunkbetreibern versorgt. Das bedeutet, dass in Europa das Geld der Telefonkunden für kostspielige Konzernzentralen und bürokratische Doppel-, Dreifach- und Zehnfach-Strukturen ausgegeben werden muss.
  • Die Investoren an den internationalen Kapitalmärkten sind zu der brutalen Erkenntnis gelangt, dass dieses Spiel für Europa nicht zu gewinnen ist. Die Börsengeschichte der europäischen Telekommunikationsfirmen ist daher eine Geschichte des Niedergangs. 57 Prozent Wertverlust allein in den Jahren zwischen 2010 und 2020. In Amerika legte im gleichen Zeitraum die Börsenkapitalisierung der Telcos um 213 Prozent zu.

Fazit: Im Bereich der Telekommunikation ist die Politik außen europäisch, aber innen hohl. Realität und Rhetorik sind den Politikern außer Sichtweite geraten. Zu viele von ihnen pflegen nicht den Diskurs, sondern das Selbstgespräch.

Bild schürt Verschwörungstheorien zu Corona – Beschwerden den Deutschen Presserats

Presserat prüft Sammelbeschwerde mehrerer Wissenschaftler gegen BILD

Der Deutsche Presserat prüft aktuell eine Sammelbeschwerde mehrerer Wissenschaftler gegen BILD und BILD.DE. Der Presserat bestätigt damit entsprechende Medienberichte.

Die Redaktion hatte am 4. Dezember drei namentlich genannte und im Bild gezeigte Wissenschaftler als „Lockdown-Macher“ bezeichnet. Gegen den Beitrag und besonders gegen dessen Überschrift hatte die Humboldt-Universität nach eigenen Angaben Beschwerde beim Deutschen Presserat eingereicht.

„Insgesamt liegen uns dazu 84 Beschwerden vor“, bestätigte Sonja Volkmann-Schluck, Referentin für Öffentlichkeitsarbeit beim Deutschen Presserat. „Die Beschwerdeführer kritisieren, es werde der falsche Eindruck erweckt, dass Wissenschaftler Corona-Maßnahmen beschließen, für die aber die Politik verantwortlich sei. Dies schüre Verschwörungstheorien und sei zudem ein Aufruf zur Hetze gegen Wissenschaftler.“

Der Deutsche Presserat prüft jetzt, ob er ein Verfahren gegen BILD und BILD.DE einleitet. Dabei geht es um die Frage, ob die Redaktion ihrer Sorgfaltspflicht nach Ziffer 2 des Pressekodex nachgekommen ist bzw. ob die Berichterstattung dem Wahrhaftigkeitsgebot nach Ziffer 1 des Pressekodex entspricht.

Der Deutsche Presserat ist die Freiwillige Selbstkontrolle der Printmedien und deren Online-Auftritte in Deutschland. Anhand von Beschwerden überprüft er die Einhaltung ethischer Regeln im Journalismus, die im Pressekodex festgehalten sind.

Mobiles Internet in Deutschland extrem teuer – ein Ländervergleich

Diese Rechnung kann ich persönlich bestätigen. Mein Sohn, Professor für Biochemie in Straßburg für deutsch-französische Studien zahlt  29,00 € pro Monat inkl. MwSt für den Internet-Zugang. Darin enthalten sind: 60 Gigabyte Datenvolumen pro Monat und weitere Faszinitäten, d. h. kostenloses Telefonieren in der gesamten EU. Ich persönlich zahle bei der Telekom durchschnittlich 55,00 € + MwSt. Dabei verfüge ich nur über ein Datenvolumen von 5 Gigabyte pro Monat. Das halte ich für einen Skandal, der mit dafür verantwortlich ist, dass Deutschland in Sachen Digitalisierung ein Entwicklungsland ist. Daran beteiligt ist auch der Staat bzw. die Bundesregierung, die Milliarden Euro eingenommen hat, als sie die Frequenzen versteigerte. Für 5G-Geschwindigkeiten, dem Mobilstandart der fünften Generation, mussten die mobilen Provider noch einmal Milliarden Euro zahlen.  Diese Kosten werden natürlich auf den Verbraucher übertragen. Da stimmt doch etwas nicht mit der Weitsicht. Hinzu kommt, dass ich für meinen Festnetz-Anschluss gebeutelt werde. Die Datenrate war über das normale Telefonkabel so gering, dass ich einen sogenannten Hybrid-Anschluss benötige. Doch der bricht von Zeit zu Zeit zusammen. Da man den Fehler zunächst bei sich selbst vermutet, geht da ganz viel Zeit drauf. Zusätzlich zahle ich dafür noch einmal durchschnittlich 40,00 €.

Leider bin ich da nicht der Einzige und deshalb sind die hohen Kosten ein Grund für die Rückständigkeit Deutschlands in Sachen Digitalisierung – was übrigens die Bundesregierung regelmäßig bedauert. Gespannt bin ich, was aus dem Versprechen wird, dass im nächsten Jahr überall ein schneller Internet-Zugang garantiert wird. Asche auf das Haupt der verantwortlichen Politiker.

Jean Pütz

Hier der Vergleich nur für Europa

(pte) – Mobiles Internet in Deutschland bleibt im Ländervergleich überdurchschnittlich teuer. Zu diesem Fazit kommt der Verbraucherzentrale Bundesverband (vzbv) in seiner aktuellen Auswertung der Preisstrukturen . Zwar sinken die Preise in Deutschland wie auch in Europa, doch schneidet das Ausland oft verbraucherfreundlicher ab. Deutschland bleibt kontinuierlich auf Platz eins oder zwei der teuersten Länder für mobiles Internet.

Polen 83 Cent, Deutschland 3,35 Euro

Der VZBV-Auswertung nach haben deutsche Verbraucher 2019 im Schnitt etwa drei Mal so viel für mobiles Internet gezahlt wie Endkunden in den besonders günstigen europäischen Ländern. Dies zeigt sich anhand der durchschnittlichen Kosten für ein Gigabyte mobiles Datenvolumen bei reinen Datentarifen, die in den europäischen Ländern stark variieren. Zum Beispiel zahlten 2019 Verbraucher in Polen 0,83 Euro für ein Gigabyte mobiles Datenvolumen, während in Deutschland der Preis dafür bei 3,35 Euro lag.

Dabei ist mobiles Datenvolumen die Grundlage für eine app-basierte digitale Infrastruktur. Entsprechend der voranschreitenden Digitalisierung wird auch immer mehr mobiles Datenvolumen benötigt. Verbrauchten die Menschen 2019 deutschlandweit noch 2,76 Mrd. Gigabyte, so stieg die Nutzung 2020 bereits auf 3,97 Mrd. Gigabyte, so der „Jahresbericht 2020 – Märkte im digitalen Wandel“ der Bundesnetzagentur

Auch das noch, lebende Zellen aus dem 3D-Drucker

(prd) – Dank der Kombination eines 2-Photonen 3D-Druckers mit einem innovativen, Hydrogel-basierten Bio-Material ist es jetzt erstmals möglich, 3D-Strukturen, die lebende Zellen enthalten, direkt zu drucken – und zwar sowohl im meso- als auch nanoskaligen Bereich. Der von der UpNano GmbH (Wien) entwickelte NanoOne Bio ist ein Drucker, der auf der erfolgreichen NanoOne-Linie von Laser-powered 2Photonen 3D-Druckern basiert, die Strukturen über 12 Größenordnungen drucken können. Das neue Hydrogel wurde gemeinsam mit Xpect INX (Ghent, Belgien) entwickelt – einem Spin-Off Projekt, das sich auf die Entwicklung von biokompatiblen Materialien für die 3D-Druck-Industrie spezialisiert hat. Es ist das einzige kommerziell erhältliche Druckmaterial, das die Einbettung lebender Zellen direkt von der Kulturplatte in hochpräzise 3D-gedruckte Strukturen für biologische Anwendungen erlaubt.

Zweidimensionale Zellkulturen waren für viele Jahrzehnte der Standard in der pharmazeutischen, präklinischen sowie der biomedizinischen Forschung im Allgemeinen.
Es mehrten sich allerdings die Hinweise, dass diese Modelle die zelluläre Interaktion in lebenden Systemen auf dem 3D-Level nur schwach abbilden. Dies ist eine der Ursachen dafür, dass die Entwicklung von Medikamenten, die auf 2D-Systemen basiert, zu irreführenden Ergebnissen führt, was sich in Millionen an Kosten für ergebnislose F&E niederschlägt. Bisher scheiterte der Nachbau komplexer und hochpräziser 3D-Strukturen mitsamt eingebetteter lebender Zellen an der mangelnden Verfügbarkeit von geeigneten Materialien und Drucksystemen. Dies hat sich nun geändert: dank der gemeinsamen Entwicklung des neuen Hydrogel-basierten Bio-Materials durch Xpect INX und UpNano in Kombination mit dem neuen Druckermodell NanoOne Bio.

MASCHINEN & MATERIALIEN
“Das Kombinieren der Kompetenzen von UpNano in der Entwicklung von 3D-Druck-Geräten und von Xpect INX in der Formulierung von innovativen Materialien für den 3D-Druck führten rasch zum Erfolg”, kommentiert Peter Gruber, Head of Technology und Co-Gründer der UpNano. “Wir haben X Hydrobio INX© U200, ein hoch biokompatibles Hydrogel, gemeinsam entwickelt und konnten gleichzeitig eine 2Photonen 3D-Druck-Maschine, die den weitesten Bereich an druckbaren Dimensionen auf dem Markt besitzt, anbieten.” X Hydrobio INX© U200 ist ein wasserlösliches Hydrogel, das den Transfer von Zellkulturen aus 2D-Kulturplatten in komplexe 3D-Strukturen ermöglicht. “Das Gelatine-basierte X Hydrobio INX© U200 wurde speziell für die Einkapselung von verschiedenen Zelltypen entwickelt und erlaubt daher die Erzeugung von komplexen 3D-Mikrogeweben”, sagt Jasper Van Hoorick, Projektleitung bei Xpect INX. “Das Hydrogel ahmt die natürliche zelluläre Umgebung nach und ist biologisch abbaubar, wodurch es den Zellen ermöglicht, das Material graduell durch neu geformtes Gewebe zu ersetzen.” Das Gel löst die Probleme, die bei Standard-Nährmedien, wo die Zellen auf 2D-Art inkubiert werden, auftreten. Nachfolgend kann das Hydrogel, das die lebenden Zellen enthält, direkt in den NanoOne Bio – einen von UpNano entwickelten hoch präzisen 2Photonen 3D-Drucker – eingebracht werden. Umfangreiche Untersuchungen zeigten, dass der 780 nm Rotlicht-Laser des NanoOne Bio die lebenden Zellen nicht schädigt, auch nicht bei der außergewöhnlich hohen Laserstärke, die alle NanoOne-Drucker verwenden. Tatsächlich ermöglicht die Verwendung einer so hohen Laserstärke, die in UpNanos 2-Photon 3D-Drucksystemen einzigartig ist, den Einsatz von Optiken, die die schnelle Produktion von cm-großen Strukturen mit außergewöhnlich hoher Präzision bis hin in den Nanobereich erlauben.

BOOST FÜR BIOMEDIZIN
Die Kombination des X Hydrobio INX© U200 mit dem NanoOne Bio eröffnet vollkommen neue Möglichkeiten in der biomedizinischen Forschung & Entwicklung, sowohl für den industriellen als auch für den akademischen Bereich. Prof. James J. Yoo vom Wake Forest Institute for Regenerative Medicine (USA) hat dieses enorme Potenzial erkannt und sich entschieden, UpNano für zukünftige Entwicklungen zu beraten. Der renommierte Experte für Gewebe-Engineering und Biofabrikation tritt mit April 2021 in den Beirat des Unternehmens ein und wird die kontinuierliche Weiterentwicklung von neuen Anwendungen für die biomedizinische F&E begleiten.

Die Produktion von “Labs-on-Chip” wird nun nicht nur mit einer beispiellosen Präzision, sondern auch direkt mit lebenden Zellen möglich – was dadurch einerseits Zeit spart und andererseits die Aussagekraft der Ergebnisse verbessert. Oberflächenstrukturen, die natürlichen Geweben ähneln (biomimetische Strukturen), können nun in der Weise geschaffen werden, dass sie eine nahezu natürliche Interaktion zwischen den lebenden Zellen und ihrer Wachstumsumgebung ermöglichen. “Zellen, die auf einer 2D-Kulturplatte in einem Standard-Nährmedium wachsen, sind weit entfernt von ihrer natürlichen physischen Umgebung und unterliegen einem Mangel an Interaktion mit den umgebenden Zellen, der bei lebenden Zellen unter natürlichen Bedingungen in alle Richtungen hin stattfindet”, erklärt Denise Mandt, Head of Marketing und Business Development sowie Co-Gründerin von UpNano. Aus der biomedizinischen F&E ist bekannt, dass ein fehlender 3D-Zell-zu-Zell-Kontakt einen negativen Einfluss auf die Interpretation von Ergebnissen aus Zellmodellen für humane Anwendungen hat.

Der NanoOne Bio wird in Kombination mit dem neu entwickelten X Hydrobio INX© U200-Kit diesen Ansatz signifikant verändern. Pharmazeutische Unternehmen und Forschungseinrichtungen werden in der Lage sein, Zellmodelle zu entwickeln, die den natürlichen Wachstumsbedingungen im menschlichen Körper ähneln. Tatsächlich erlaubt der NanoOne Bio die Erzeugung von Oberflächenstrukturen mit höchster Präzision und/oder die Entwicklung von komplexen 3D-Gerüsten im cm-Bereich, die eingebettete Zellen enthalten. Dank des speziellen optischen Aufbaus, optimierten Scan-Algorithmen und der unternehmenseigenen adaptiven Auflösungstechnologie, bietet das NanoOne-System auch signifikant schnellere Produktionszeiten als andere Systeme – all dies Vorteile, die von Kunden im industriellen und im akademischen Sektor erkannt wurden. Die Erweiterung des Produktangebotes auch für Kunden aus dem biomedizinischen Forschungsbereich ist bereits mit großem Interesse aufgenommen worden.

Über UpNano (Stand April 2021)
Im September 2018 als Spin-Out der TU Wien gegründet, ist die UpNano ein in Wien ansässiges Hightech-Unternehmen mit Fokus auf Entwicklung, Herstellung und Kommerzialisierung von hochauflösenden 3D Druck-Systemen, die auf 2 Photonen-Polymerisation basieren. Mit ihrem ersten kommerziellen Produkt, dem NanoOne-Drucksystem, können Mikrobauteile mit Strukturdetails ≥170 nm Auflösung gedruckt werden. Aufgrund des sehr schnellen Druckprozesses ist auch die Herstellung von Teilen bis zur Größe von mehreren Zentimetern realisierbar.

Über Xpect INX
Xpect INX ist ein Spin-Off-Projekt der Universität Ghent und konzentriert sich auf die Entwicklung von Biomaterialien für 3D-Bioprinting Applikationen. Auf der Basis jahrelanger Erfahrung in der Entwicklung von Bio-Tinte offeriert und entwickelt Xpect INX eine Reihe von sofort einsetzbaren (Bio)Tinten für verschiedene 3D-Druck_Technologien an, inklusive 2PP, DLP und deposition-basierten 3D-Druck.

Der Presserat: Instanz für Beschwerden über populistische Entgleisungen der Presse

Wenn es den Presserat nicht gäbe, müsste er schleunigst eingerichtet werden. Gerade in der Zeit, in der FakeNews nicht nur über die Neuen Medien Verbreitung finden, ist eine demokratische Korrekturinstanz außerordentlich wichtig. In Zukunft werde ich hier auf meiner Homepage regelmäßig die Interventionen des Presserates posten.

Jean Pütz

(Presserat) – Der Deutsche Presserat verzeichnet so viele Beschwerden wie noch nie: 4.085 Personen wandten sich 2020 an die Freiwillige Selbstkontrolle der Print- und Onlinemedien, fast doppelt so viele wie im Jahr zuvor mit 2.175 Beschwerden.

Verantwortlich für die Steigerung waren u.a. Massenbeschwerden, etwa zu Artikeln über die Kindstötungen in Solingen oder zur Polizeikolumne in der taz. 53-mal erteilte der Presserat eine öffentliche Rüge, ebenfalls deutlich öfter als im Vorjahr mit 34 Rügen.

„Gerade in unsicheren Zeiten wünschen sich Leserinnen und Leser eine Berichterstattung, der sie vertrauen können“, so der Sprecher des Presserats Sascha Borowski. „Die vielen Anfragen zu Corona-Berichten zeigen, dass der Pressekodex und die Freiwillige Selbstkontrolle durch den Presserat hier eine wichtige Rolle spielen.“

Über die Corona-Berichterstattung in Print- und Onlinemedien beschwerten sich 581 Leserinnen und Leser. Die meisten von ihnen hielten den Redaktionen falsche Tatsachenbehauptungen oder unzureichende Recherche vor. Von den 321 bereits geprüften Fällen wurden vier gerügt. „Ansonsten haben sich die betroffenen Redaktionen beim Top-Thema Corona mit großer Mehrheit an ethische Grundsätze gehalten“, so Borowski.

Insgesamt am häufigsten gerügt wurden 2020 Verstöße gegen den Opferschutz sowie Fälle von Schleichwerbung und mangelnder Kennzeichnung von Anzeigen. „Redaktionen sollten im Interesse der eigenen Glaubwürdigkeit redaktionelle Inhalte und Werbung deutlich trennen“, so Borowski.

Angeblich: Deutsche wollen angeblich ab 2025 auf Fernsehen verzichten

(pte) – Im Jahr 2025 werden nur noch 52 Prozent der deutschen Verbraucher klassisches Fernsehen nutzen. Schon jetzt schauen nur noch 79 Prozent herkömmliches TV, im Jahr 2018 waren es noch 83 Prozent. Dagegen ist der Anteil der Bundesbürger, die Streaming-Dienste wie Netflix verwenden, in den vergangenen zwei Jahren von 34 Prozent auf 56 Prozent gestiegen, zeigt eine Umfrage der dänischen Marktforschungsfirma AudienceProject.

„Fernsehen steht unter Druck“
„Klassisches Fernsehen steht zweifellos unter Druck, allerdings hat sich sein Niedergang in diesem Jahr etwas verlangsamt. Jedoch sind Werbungen für viele Zuschauer zu häufig und nicht relevant genug, außerdem haben sie vor, in Zukunft mehr zu streamen. Das klassische Format wird es deswegen im kommenden Jahr schwer haben“, heißt es von AudienceProject.

Die Umfrage hat nicht nur in Deutschland stattgefunden, sondern auch in den USA, Großbritannien, Dänemark, Schweden, Norwegen und Finnland. Außer in Finnland ist klassisches Fernsehen in allen untersuchten Staaten auf dem absteigenden Ast. In Deutschland schauen die meisten Menschen (72 Prozent) hauptsächlich TV, um Nachrichten zu sehen.

Amazon schließt zu Netflix auf
Ein großes Problem von altmodischem Fernsehen sind repetitive Werbungen. Drei Viertel der deutschen Befragten haben die gleichen Anzeigen schon zu oft gesehen. Ein Viertel sieht die Clips auch als für sie wenig relevant. Jetzt schon benutzen 64 Prozent neben dem Fernseher einen anderen Bildschirm. 37 Prozent streamen 2020 mehr als zuvor.

Insgesamt 15 Prozent der Deutschen sind reine Streaming-Seher. Jedoch benutzen mehr als die Hälfte dafür noch ihren Fernseher. Der beliebteste Streaming-Dienst ist Netflix (70 Prozent). Jedoch schließt der Konkurrent Amazon Prime Video allmählich an, 65 Prozent der Deutschen haben dort ein Abonnement.

Mikroprozessor-Chips werden immer leistungsfähiger – Mit einer Einführung von Jean Pütz

Meine erste von mir 1972 moderierte Sendereihe lautete ‚Einführung in die Elektronik‘ (13 Folgen). Zwei Jahre später folgte die Sendereihe ‚Einführung in die Digitaltechnik (ebenfalls 13 Folgen) mit Seminaren, begleitet vom VDI. Etwa 800.000 verkaufte Bücher bewiesen die Akzeptanz. Aber die Halbleiter-Technik ging mit rasanten Schritten weiter. Es erschienen die ersten Mikroprozessoren mit mittlerweile schon mehr als 1000 Transistorfunktionen auf einen Chip. Die Folge war, dass ich bereits 1978 im ersten Programm der ARD als Autor eine Sendung produzieren und moderieren durfte mit dem Titel: ‚Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik‘. Daraufhin bekam ich den ersten Preis für Wissenschaftsjournalisten, den sogenannten Batelle-Preis verliehen, dotiert mit 10.000 DM. Vor allen Dingen ging es darum, Hartware zu ersetzen durch Software. Ich war also eng mit dem Thema verbunden, hätte aber nie geglaubt, dass es irgendwann einmal möglich werden würde, auf einem kleinen Siliziumplättchen – nicht größer als ein Daumennagel – mehr als eine Milliarde Transistorfunktionen unterzubringen und so zu vernetzen, dass ein ganzer Computer untergebracht werden konnte. Früher hätte man dazu mehrere Räume – vollbepackt mit Elektronik – benötigt.

Alles dies sind Voraussetzungen mittlerweile für eine sogenannte ‚Künstliche Intelligenz‘ – aber besser ausgedrückt mit maschinelles Lernen – möglich wurde. Das heißt, ein solch kleines Computersystem kann nicht nur das vollführen, was die Software ihm vorschreibt, sondern ist in der Lage zu lernen – aus Fehlern, aber auch aus Erfolgen. Doch wer von uns Bürgern weiß noch, worauf z. B. ein System wie das Smartphone aufbaut. Fünf amerikanische Konzerne haben daher eine Art Weltmonopol geschaffen, dass die Utopie von George Orwell, der das in seinem Buch 1984 als Warnung beschrieben hat, irgendwann einmal möglich wird.

Umso schlimmer ist es, dass wenige Menschen nur noch an diesem Prozess beteiligt sind. Einer, der für diese rasante Entwicklung mitverantwortlich ist, ist Steve Jobs, der Gründer von Apple, einer der kreativsten Menschen, die je geboren wurden.

Nur so nebenbei bemerkt: Er musste sich selbst der Natur beugen und starb an Krebs.

Wir haben eine Art technischen Turmbau zu Babel gebaut, der es ermöglicht, mit Unvernunft bequem zu leben, aber ohne Vernunft wird dieser Turmbau zu Babel wie in der Bibel zusammenbrechen. Das sind Gedanken, die mich in der letzten Zeit sehr stark beschäftigen, nehmen Sie es mir bitte nicht übel

Jean Pütz

(XING) – Die Apple-Revolution: Kampfansage aus Cupertino – wie der M1-Chip den PC-Markt umkrempeln wird

Apple macht sich mit einem eigenen Computer-Chip unabhängig. Die Präsentation der ersten drei Mac-Modelle mit „Apple Silicon“ läutet das Ende der Intel-Ära bei Apple ein. Das könnte sich auf den gesamten PC-Markt auswirken.

Bei Apple beginnt ein neues Zeitalter: 15 Jahre lang hat der Konzern seine Macintosh-Computer mit den Chips von Intel gebaut. Künftig gehen Apple und Intel aber getrennte Wege. Der iPhone-Konzern hat nun die ersten drei Mac-Modelle mit Chips aus eigener Entwicklung vorgestellt.

Apple verspricht, dass die Computer dadurch deutlich schneller und auch stromsparender arbeiten. Mit dem Umstieg kann der Konzern zudem erstmals seine Macs auf derselben Software-Plattform wie seine iPhones und iPads betreiben. „Dies ist ein historischer Tag für den Mac“, sagte Apple-Chef Tim Cook.

M1 – kein einfacher Mikroprozessor
Der hauseigene Chip mit der Bezeichnung M1 ist nicht nur ein einfacher Mikroprozessor, sondern ein komplexes „System on a Chip“. In ihm stecken 16 Milliarden Transistoren. Der Hauptprozessor besteht aus acht Kernen, vier davon erledigen Hochleistungsanforderungen, die anderen vier kommen stromsparend ins Spiel, wenn leichtere Aufgaben erledigt werden müssen.

Dazu kommen ein leistungsfähiger Grafikchip sowie der geheimnisumwitterte Sicherheitschip „Secure Enclave“. Und das gesamte M1-System kann auf einen gemeinsamen Arbeitsspeicher zugreifen.

Dies ist ein historischer Tag für den Mac
Cook ist aber auch klar, dass die Kunden einen Computer nicht vorrangig wegen einer neuen Chip-Architektur auswählen. Daher standen bei der Videopräsentation aus dem Apple-Hauptquartier ganz praktische Dinge im Vordergrund.

Akkulaufzeit fast verdoppelt
So betonte Apple, dass sich die Akkulaufzeit fast verdoppeln werde. Apps würden viel schneller als bisher starten, und auch anspruchsvolle Programme liefen flüssiger, versprach Software-Chef Craig Federighi. Wie beim iPhone soll ein spezieller Bereich zum Beispiel die Bildbearbeitung mit maschinellem Lernen verbessern.

Apple hat seine ersten Mac-Computer mit Chips aus eigener Entwicklung statt Intel-Prozessoren vorgestellt.

Apple stattete mit dem M1-Chip unter anderen das populärste Mac-Modell aus, das Macbook Air. Es kommt nun ohne einen Lüfter aus. Dank des sparsameren Chips halte die Batterie 15 Stunden Surfen im Web und 18 Stunden Videowiedergabe stand. Das Macbook Air ist der populärste Apple-Computer.

Außerdem bekommen auch das leistungsstärkere Macbook Pro mit 13-Zoll-Display und der Tischrechner Mac Mini den neuen Apple-Prozessor. Beim Macbook Pro spricht Apple von 17 Stunden Surfzeit und 20 Stunden Videowiedergabe. Beim Mac Mini und dem Macbook Pro behält Apple zunächst auch Modelle mit Intel-Chips im Angebot – das Macbook Air gibt es beim Konzern dagegen nur noch mit dem M1. Äußerlich sehen die Geräte aus wie bisher.

Das Ende der Intel-Vorherrschaft?
Apple bricht mit dem Umstieg aus der eingefahrenen Spur der PC-Branche aus, die bisher von Intel-Prozessoren dominiert wurde. Die M1-Chips basieren auf der Architektur des Chipdesigners ARM, mit der auch die iPhones und iPads laufen. Damit können die Entwickler auch iPhone-Apps auf die Macs bringen.

Ursprünglich auf Intel-Prozessoren zugeschnittene Mac-Programme, die noch nicht für die Apple-Chips angepasst wurden, sollen unterdessen in Echtzeit „übersetzt“ werden. Dabei gebe es keine Leistungseinschränkungen, betont Apple. Weiterhin mit Intel-Chips ausgestattet bleiben vorläufig die iMac-Modelle und der Profi-Rechner Mac Pro.

Neben dem neuen Betriebssystem macOS Big Sur und Apple-eigenen Apps wie der Videobearbeitungssoftware Final Cut Pro werden kurzfristig auch Programme von Drittherstellern die neuen Möglichkeiten des M1-Systems direkt ausnutzen, darunter Fotobearbeitungssoftware von Adobe und Computer-Spiele.

Umstieg kommt wenig überraschend
Der Umstieg kündigte sich bereits seit einiger Zeit an. Auf iPhone und iPad war es Apple gelungen, durch hauseigene Chipentwicklung viel Leistung in kleines Format zu packen. Beim Mac musste der Konzern dagegen wiederholt auf neue Prozessoren von Intel warten. Bei der Ankündigung des Umstiegs im Juni hieß es, er solle binnen zwei Jahren alle Modelle erfassen.

Für die Macs ist es der dritte Wechsel der Chip-Plattform nach dem Übergang von Motorola zu IBMs PowerPC Anfang der 1990er Jahre und zu Intel im Jahr 2005.

Die Frage ist nun, ob Apples Beispiel in der Branche Schule machen könnte, wenn die M1-Macs ihren Nutzern einen spürbaren Vorteil gegenüber Computern anderer Hersteller mit Intel-Chips bieten können. Unter anderem Microsoft und Samsung haben bereits Laptops mit Chips auf Basis der ARM-Architektur im Angebot, sie blieben bisher aber eher Nischenmodelle. Neuer Schub könnte von dem chinesischen Technologiekonzern Huawei ausgehen. Wegen der von US-Präsident Donald Trump verhängten Sanktionen versuchen die Chinesen ohnehin, eine eigene Chipproduktion aufzubauen.