Archiv der Kategorie: Computer, TV, Medien

Mobiles Internet in Deutschland extrem teuer – ein Ländervergleich

Diese Rechnung kann ich persönlich bestätigen. Mein Sohn, Professor für Biochemie in Straßburg für deutsch-französische Studien zahlt  29,00 € pro Monat inkl. MwSt für den Internet-Zugang. Darin enthalten sind: 60 Gigabyte Datenvolumen pro Monat und weitere Faszinitäten, d. h. kostenloses Telefonieren in der gesamten EU. Ich persönlich zahle bei der Telekom durchschnittlich 55,00 € + MwSt. Dabei verfüge ich nur über ein Datenvolumen von 5 Gigabyte pro Monat. Das halte ich für einen Skandal, der mit dafür verantwortlich ist, dass Deutschland in Sachen Digitalisierung ein Entwicklungsland ist. Daran beteiligt ist auch der Staat bzw. die Bundesregierung, die Milliarden Euro eingenommen hat, als sie die Frequenzen versteigerte. Für 5G-Geschwindigkeiten, dem Mobilstandart der fünften Generation, mussten die mobilen Provider noch einmal Milliarden Euro zahlen.  Diese Kosten werden natürlich auf den Verbraucher übertragen. Da stimmt doch etwas nicht mit der Weitsicht. Hinzu kommt, dass ich für meinen Festnetz-Anschluss gebeutelt werde. Die Datenrate war über das normale Telefonkabel so gering, dass ich einen sogenannten Hybrid-Anschluss benötige. Doch der bricht von Zeit zu Zeit zusammen. Da man den Fehler zunächst bei sich selbst vermutet, geht da ganz viel Zeit drauf. Zusätzlich zahle ich dafür noch einmal durchschnittlich 40,00 €.

Leider bin ich da nicht der Einzige und deshalb sind die hohen Kosten ein Grund für die Rückständigkeit Deutschlands in Sachen Digitalisierung – was übrigens die Bundesregierung regelmäßig bedauert. Gespannt bin ich, was aus dem Versprechen wird, dass im nächsten Jahr überall ein schneller Internet-Zugang garantiert wird. Asche auf das Haupt der verantwortlichen Politiker.

Jean Pütz

Hier der Vergleich nur für Europa

(pte) – Mobiles Internet in Deutschland bleibt im Ländervergleich überdurchschnittlich teuer. Zu diesem Fazit kommt der Verbraucherzentrale Bundesverband (vzbv) in seiner aktuellen Auswertung der Preisstrukturen . Zwar sinken die Preise in Deutschland wie auch in Europa, doch schneidet das Ausland oft verbraucherfreundlicher ab. Deutschland bleibt kontinuierlich auf Platz eins oder zwei der teuersten Länder für mobiles Internet.

Polen 83 Cent, Deutschland 3,35 Euro

Der VZBV-Auswertung nach haben deutsche Verbraucher 2019 im Schnitt etwa drei Mal so viel für mobiles Internet gezahlt wie Endkunden in den besonders günstigen europäischen Ländern. Dies zeigt sich anhand der durchschnittlichen Kosten für ein Gigabyte mobiles Datenvolumen bei reinen Datentarifen, die in den europäischen Ländern stark variieren. Zum Beispiel zahlten 2019 Verbraucher in Polen 0,83 Euro für ein Gigabyte mobiles Datenvolumen, während in Deutschland der Preis dafür bei 3,35 Euro lag.

Dabei ist mobiles Datenvolumen die Grundlage für eine app-basierte digitale Infrastruktur. Entsprechend der voranschreitenden Digitalisierung wird auch immer mehr mobiles Datenvolumen benötigt. Verbrauchten die Menschen 2019 deutschlandweit noch 2,76 Mrd. Gigabyte, so stieg die Nutzung 2020 bereits auf 3,97 Mrd. Gigabyte, so der „Jahresbericht 2020 – Märkte im digitalen Wandel“ der Bundesnetzagentur

Auch das noch, lebende Zellen aus dem 3D-Drucker

(prd) – Dank der Kombination eines 2-Photonen 3D-Druckers mit einem innovativen, Hydrogel-basierten Bio-Material ist es jetzt erstmals möglich, 3D-Strukturen, die lebende Zellen enthalten, direkt zu drucken – und zwar sowohl im meso- als auch nanoskaligen Bereich. Der von der UpNano GmbH (Wien) entwickelte NanoOne Bio ist ein Drucker, der auf der erfolgreichen NanoOne-Linie von Laser-powered 2Photonen 3D-Druckern basiert, die Strukturen über 12 Größenordnungen drucken können. Das neue Hydrogel wurde gemeinsam mit Xpect INX (Ghent, Belgien) entwickelt – einem Spin-Off Projekt, das sich auf die Entwicklung von biokompatiblen Materialien für die 3D-Druck-Industrie spezialisiert hat. Es ist das einzige kommerziell erhältliche Druckmaterial, das die Einbettung lebender Zellen direkt von der Kulturplatte in hochpräzise 3D-gedruckte Strukturen für biologische Anwendungen erlaubt.

Zweidimensionale Zellkulturen waren für viele Jahrzehnte der Standard in der pharmazeutischen, präklinischen sowie der biomedizinischen Forschung im Allgemeinen.
Es mehrten sich allerdings die Hinweise, dass diese Modelle die zelluläre Interaktion in lebenden Systemen auf dem 3D-Level nur schwach abbilden. Dies ist eine der Ursachen dafür, dass die Entwicklung von Medikamenten, die auf 2D-Systemen basiert, zu irreführenden Ergebnissen führt, was sich in Millionen an Kosten für ergebnislose F&E niederschlägt. Bisher scheiterte der Nachbau komplexer und hochpräziser 3D-Strukturen mitsamt eingebetteter lebender Zellen an der mangelnden Verfügbarkeit von geeigneten Materialien und Drucksystemen. Dies hat sich nun geändert: dank der gemeinsamen Entwicklung des neuen Hydrogel-basierten Bio-Materials durch Xpect INX und UpNano in Kombination mit dem neuen Druckermodell NanoOne Bio.

MASCHINEN & MATERIALIEN
“Das Kombinieren der Kompetenzen von UpNano in der Entwicklung von 3D-Druck-Geräten und von Xpect INX in der Formulierung von innovativen Materialien für den 3D-Druck führten rasch zum Erfolg”, kommentiert Peter Gruber, Head of Technology und Co-Gründer der UpNano. “Wir haben X Hydrobio INX© U200, ein hoch biokompatibles Hydrogel, gemeinsam entwickelt und konnten gleichzeitig eine 2Photonen 3D-Druck-Maschine, die den weitesten Bereich an druckbaren Dimensionen auf dem Markt besitzt, anbieten.” X Hydrobio INX© U200 ist ein wasserlösliches Hydrogel, das den Transfer von Zellkulturen aus 2D-Kulturplatten in komplexe 3D-Strukturen ermöglicht. “Das Gelatine-basierte X Hydrobio INX© U200 wurde speziell für die Einkapselung von verschiedenen Zelltypen entwickelt und erlaubt daher die Erzeugung von komplexen 3D-Mikrogeweben”, sagt Jasper Van Hoorick, Projektleitung bei Xpect INX. “Das Hydrogel ahmt die natürliche zelluläre Umgebung nach und ist biologisch abbaubar, wodurch es den Zellen ermöglicht, das Material graduell durch neu geformtes Gewebe zu ersetzen.” Das Gel löst die Probleme, die bei Standard-Nährmedien, wo die Zellen auf 2D-Art inkubiert werden, auftreten. Nachfolgend kann das Hydrogel, das die lebenden Zellen enthält, direkt in den NanoOne Bio – einen von UpNano entwickelten hoch präzisen 2Photonen 3D-Drucker – eingebracht werden. Umfangreiche Untersuchungen zeigten, dass der 780 nm Rotlicht-Laser des NanoOne Bio die lebenden Zellen nicht schädigt, auch nicht bei der außergewöhnlich hohen Laserstärke, die alle NanoOne-Drucker verwenden. Tatsächlich ermöglicht die Verwendung einer so hohen Laserstärke, die in UpNanos 2-Photon 3D-Drucksystemen einzigartig ist, den Einsatz von Optiken, die die schnelle Produktion von cm-großen Strukturen mit außergewöhnlich hoher Präzision bis hin in den Nanobereich erlauben.

BOOST FÜR BIOMEDIZIN
Die Kombination des X Hydrobio INX© U200 mit dem NanoOne Bio eröffnet vollkommen neue Möglichkeiten in der biomedizinischen Forschung & Entwicklung, sowohl für den industriellen als auch für den akademischen Bereich. Prof. James J. Yoo vom Wake Forest Institute for Regenerative Medicine (USA) hat dieses enorme Potenzial erkannt und sich entschieden, UpNano für zukünftige Entwicklungen zu beraten. Der renommierte Experte für Gewebe-Engineering und Biofabrikation tritt mit April 2021 in den Beirat des Unternehmens ein und wird die kontinuierliche Weiterentwicklung von neuen Anwendungen für die biomedizinische F&E begleiten.

Die Produktion von “Labs-on-Chip” wird nun nicht nur mit einer beispiellosen Präzision, sondern auch direkt mit lebenden Zellen möglich – was dadurch einerseits Zeit spart und andererseits die Aussagekraft der Ergebnisse verbessert. Oberflächenstrukturen, die natürlichen Geweben ähneln (biomimetische Strukturen), können nun in der Weise geschaffen werden, dass sie eine nahezu natürliche Interaktion zwischen den lebenden Zellen und ihrer Wachstumsumgebung ermöglichen. “Zellen, die auf einer 2D-Kulturplatte in einem Standard-Nährmedium wachsen, sind weit entfernt von ihrer natürlichen physischen Umgebung und unterliegen einem Mangel an Interaktion mit den umgebenden Zellen, der bei lebenden Zellen unter natürlichen Bedingungen in alle Richtungen hin stattfindet”, erklärt Denise Mandt, Head of Marketing und Business Development sowie Co-Gründerin von UpNano. Aus der biomedizinischen F&E ist bekannt, dass ein fehlender 3D-Zell-zu-Zell-Kontakt einen negativen Einfluss auf die Interpretation von Ergebnissen aus Zellmodellen für humane Anwendungen hat.

Der NanoOne Bio wird in Kombination mit dem neu entwickelten X Hydrobio INX© U200-Kit diesen Ansatz signifikant verändern. Pharmazeutische Unternehmen und Forschungseinrichtungen werden in der Lage sein, Zellmodelle zu entwickeln, die den natürlichen Wachstumsbedingungen im menschlichen Körper ähneln. Tatsächlich erlaubt der NanoOne Bio die Erzeugung von Oberflächenstrukturen mit höchster Präzision und/oder die Entwicklung von komplexen 3D-Gerüsten im cm-Bereich, die eingebettete Zellen enthalten. Dank des speziellen optischen Aufbaus, optimierten Scan-Algorithmen und der unternehmenseigenen adaptiven Auflösungstechnologie, bietet das NanoOne-System auch signifikant schnellere Produktionszeiten als andere Systeme – all dies Vorteile, die von Kunden im industriellen und im akademischen Sektor erkannt wurden. Die Erweiterung des Produktangebotes auch für Kunden aus dem biomedizinischen Forschungsbereich ist bereits mit großem Interesse aufgenommen worden.

Über UpNano (Stand April 2021)
Im September 2018 als Spin-Out der TU Wien gegründet, ist die UpNano ein in Wien ansässiges Hightech-Unternehmen mit Fokus auf Entwicklung, Herstellung und Kommerzialisierung von hochauflösenden 3D Druck-Systemen, die auf 2 Photonen-Polymerisation basieren. Mit ihrem ersten kommerziellen Produkt, dem NanoOne-Drucksystem, können Mikrobauteile mit Strukturdetails ≥170 nm Auflösung gedruckt werden. Aufgrund des sehr schnellen Druckprozesses ist auch die Herstellung von Teilen bis zur Größe von mehreren Zentimetern realisierbar.

Über Xpect INX
Xpect INX ist ein Spin-Off-Projekt der Universität Ghent und konzentriert sich auf die Entwicklung von Biomaterialien für 3D-Bioprinting Applikationen. Auf der Basis jahrelanger Erfahrung in der Entwicklung von Bio-Tinte offeriert und entwickelt Xpect INX eine Reihe von sofort einsetzbaren (Bio)Tinten für verschiedene 3D-Druck_Technologien an, inklusive 2PP, DLP und deposition-basierten 3D-Druck.

Der Presserat: Instanz für Beschwerden über populistische Entgleisungen der Presse

Wenn es den Presserat nicht gäbe, müsste er schleunigst eingerichtet werden. Gerade in der Zeit, in der FakeNews nicht nur über die Neuen Medien Verbreitung finden, ist eine demokratische Korrekturinstanz außerordentlich wichtig. In Zukunft werde ich hier auf meiner Homepage regelmäßig die Interventionen des Presserates posten.

Jean Pütz

(Presserat) – Der Deutsche Presserat verzeichnet so viele Beschwerden wie noch nie: 4.085 Personen wandten sich 2020 an die Freiwillige Selbstkontrolle der Print- und Onlinemedien, fast doppelt so viele wie im Jahr zuvor mit 2.175 Beschwerden.

Verantwortlich für die Steigerung waren u.a. Massenbeschwerden, etwa zu Artikeln über die Kindstötungen in Solingen oder zur Polizeikolumne in der taz. 53-mal erteilte der Presserat eine öffentliche Rüge, ebenfalls deutlich öfter als im Vorjahr mit 34 Rügen.

„Gerade in unsicheren Zeiten wünschen sich Leserinnen und Leser eine Berichterstattung, der sie vertrauen können“, so der Sprecher des Presserats Sascha Borowski. „Die vielen Anfragen zu Corona-Berichten zeigen, dass der Pressekodex und die Freiwillige Selbstkontrolle durch den Presserat hier eine wichtige Rolle spielen.“

Über die Corona-Berichterstattung in Print- und Onlinemedien beschwerten sich 581 Leserinnen und Leser. Die meisten von ihnen hielten den Redaktionen falsche Tatsachenbehauptungen oder unzureichende Recherche vor. Von den 321 bereits geprüften Fällen wurden vier gerügt. „Ansonsten haben sich die betroffenen Redaktionen beim Top-Thema Corona mit großer Mehrheit an ethische Grundsätze gehalten“, so Borowski.

Insgesamt am häufigsten gerügt wurden 2020 Verstöße gegen den Opferschutz sowie Fälle von Schleichwerbung und mangelnder Kennzeichnung von Anzeigen. „Redaktionen sollten im Interesse der eigenen Glaubwürdigkeit redaktionelle Inhalte und Werbung deutlich trennen“, so Borowski.

Angeblich: Deutsche wollen angeblich ab 2025 auf Fernsehen verzichten

(pte) – Im Jahr 2025 werden nur noch 52 Prozent der deutschen Verbraucher klassisches Fernsehen nutzen. Schon jetzt schauen nur noch 79 Prozent herkömmliches TV, im Jahr 2018 waren es noch 83 Prozent. Dagegen ist der Anteil der Bundesbürger, die Streaming-Dienste wie Netflix verwenden, in den vergangenen zwei Jahren von 34 Prozent auf 56 Prozent gestiegen, zeigt eine Umfrage der dänischen Marktforschungsfirma AudienceProject.

„Fernsehen steht unter Druck“
„Klassisches Fernsehen steht zweifellos unter Druck, allerdings hat sich sein Niedergang in diesem Jahr etwas verlangsamt. Jedoch sind Werbungen für viele Zuschauer zu häufig und nicht relevant genug, außerdem haben sie vor, in Zukunft mehr zu streamen. Das klassische Format wird es deswegen im kommenden Jahr schwer haben“, heißt es von AudienceProject.

Die Umfrage hat nicht nur in Deutschland stattgefunden, sondern auch in den USA, Großbritannien, Dänemark, Schweden, Norwegen und Finnland. Außer in Finnland ist klassisches Fernsehen in allen untersuchten Staaten auf dem absteigenden Ast. In Deutschland schauen die meisten Menschen (72 Prozent) hauptsächlich TV, um Nachrichten zu sehen.

Amazon schließt zu Netflix auf
Ein großes Problem von altmodischem Fernsehen sind repetitive Werbungen. Drei Viertel der deutschen Befragten haben die gleichen Anzeigen schon zu oft gesehen. Ein Viertel sieht die Clips auch als für sie wenig relevant. Jetzt schon benutzen 64 Prozent neben dem Fernseher einen anderen Bildschirm. 37 Prozent streamen 2020 mehr als zuvor.

Insgesamt 15 Prozent der Deutschen sind reine Streaming-Seher. Jedoch benutzen mehr als die Hälfte dafür noch ihren Fernseher. Der beliebteste Streaming-Dienst ist Netflix (70 Prozent). Jedoch schließt der Konkurrent Amazon Prime Video allmählich an, 65 Prozent der Deutschen haben dort ein Abonnement.

Mikroprozessor-Chips werden immer leistungsfähiger – Mit einer Einführung von Jean Pütz

Meine erste von mir 1972 moderierte Sendereihe lautete ‚Einführung in die Elektronik‘ (13 Folgen). Zwei Jahre später folgte die Sendereihe ‚Einführung in die Digitaltechnik (ebenfalls 13 Folgen) mit Seminaren, begleitet vom VDI. Etwa 800.000 verkaufte Bücher bewiesen die Akzeptanz. Aber die Halbleiter-Technik ging mit rasanten Schritten weiter. Es erschienen die ersten Mikroprozessoren mit mittlerweile schon mehr als 1000 Transistorfunktionen auf einen Chip. Die Folge war, dass ich bereits 1978 im ersten Programm der ARD als Autor eine Sendung produzieren und moderieren durfte mit dem Titel: ‚Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik‘. Daraufhin bekam ich den ersten Preis für Wissenschaftsjournalisten, den sogenannten Batelle-Preis verliehen, dotiert mit 10.000 DM. Vor allen Dingen ging es darum, Hartware zu ersetzen durch Software. Ich war also eng mit dem Thema verbunden, hätte aber nie geglaubt, dass es irgendwann einmal möglich werden würde, auf einem kleinen Siliziumplättchen – nicht größer als ein Daumennagel – mehr als eine Milliarde Transistorfunktionen unterzubringen und so zu vernetzen, dass ein ganzer Computer untergebracht werden konnte. Früher hätte man dazu mehrere Räume – vollbepackt mit Elektronik – benötigt.

Alles dies sind Voraussetzungen mittlerweile für eine sogenannte ‚Künstliche Intelligenz‘ – aber besser ausgedrückt mit maschinelles Lernen – möglich wurde. Das heißt, ein solch kleines Computersystem kann nicht nur das vollführen, was die Software ihm vorschreibt, sondern ist in der Lage zu lernen – aus Fehlern, aber auch aus Erfolgen. Doch wer von uns Bürgern weiß noch, worauf z. B. ein System wie das Smartphone aufbaut. Fünf amerikanische Konzerne haben daher eine Art Weltmonopol geschaffen, dass die Utopie von George Orwell, der das in seinem Buch 1984 als Warnung beschrieben hat, irgendwann einmal möglich wird.

Umso schlimmer ist es, dass wenige Menschen nur noch an diesem Prozess beteiligt sind. Einer, der für diese rasante Entwicklung mitverantwortlich ist, ist Steve Jobs, der Gründer von Apple, einer der kreativsten Menschen, die je geboren wurden.

Nur so nebenbei bemerkt: Er musste sich selbst der Natur beugen und starb an Krebs.

Wir haben eine Art technischen Turmbau zu Babel gebaut, der es ermöglicht, mit Unvernunft bequem zu leben, aber ohne Vernunft wird dieser Turmbau zu Babel wie in der Bibel zusammenbrechen. Das sind Gedanken, die mich in der letzten Zeit sehr stark beschäftigen, nehmen Sie es mir bitte nicht übel

Jean Pütz

(XING) – Die Apple-Revolution: Kampfansage aus Cupertino – wie der M1-Chip den PC-Markt umkrempeln wird

Apple macht sich mit einem eigenen Computer-Chip unabhängig. Die Präsentation der ersten drei Mac-Modelle mit „Apple Silicon“ läutet das Ende der Intel-Ära bei Apple ein. Das könnte sich auf den gesamten PC-Markt auswirken.

Bei Apple beginnt ein neues Zeitalter: 15 Jahre lang hat der Konzern seine Macintosh-Computer mit den Chips von Intel gebaut. Künftig gehen Apple und Intel aber getrennte Wege. Der iPhone-Konzern hat nun die ersten drei Mac-Modelle mit Chips aus eigener Entwicklung vorgestellt.

Apple verspricht, dass die Computer dadurch deutlich schneller und auch stromsparender arbeiten. Mit dem Umstieg kann der Konzern zudem erstmals seine Macs auf derselben Software-Plattform wie seine iPhones und iPads betreiben. „Dies ist ein historischer Tag für den Mac“, sagte Apple-Chef Tim Cook.

M1 – kein einfacher Mikroprozessor
Der hauseigene Chip mit der Bezeichnung M1 ist nicht nur ein einfacher Mikroprozessor, sondern ein komplexes „System on a Chip“. In ihm stecken 16 Milliarden Transistoren. Der Hauptprozessor besteht aus acht Kernen, vier davon erledigen Hochleistungsanforderungen, die anderen vier kommen stromsparend ins Spiel, wenn leichtere Aufgaben erledigt werden müssen.

Dazu kommen ein leistungsfähiger Grafikchip sowie der geheimnisumwitterte Sicherheitschip „Secure Enclave“. Und das gesamte M1-System kann auf einen gemeinsamen Arbeitsspeicher zugreifen.

Dies ist ein historischer Tag für den Mac
Cook ist aber auch klar, dass die Kunden einen Computer nicht vorrangig wegen einer neuen Chip-Architektur auswählen. Daher standen bei der Videopräsentation aus dem Apple-Hauptquartier ganz praktische Dinge im Vordergrund.

Akkulaufzeit fast verdoppelt
So betonte Apple, dass sich die Akkulaufzeit fast verdoppeln werde. Apps würden viel schneller als bisher starten, und auch anspruchsvolle Programme liefen flüssiger, versprach Software-Chef Craig Federighi. Wie beim iPhone soll ein spezieller Bereich zum Beispiel die Bildbearbeitung mit maschinellem Lernen verbessern.

Apple hat seine ersten Mac-Computer mit Chips aus eigener Entwicklung statt Intel-Prozessoren vorgestellt.

Apple stattete mit dem M1-Chip unter anderen das populärste Mac-Modell aus, das Macbook Air. Es kommt nun ohne einen Lüfter aus. Dank des sparsameren Chips halte die Batterie 15 Stunden Surfen im Web und 18 Stunden Videowiedergabe stand. Das Macbook Air ist der populärste Apple-Computer.

Außerdem bekommen auch das leistungsstärkere Macbook Pro mit 13-Zoll-Display und der Tischrechner Mac Mini den neuen Apple-Prozessor. Beim Macbook Pro spricht Apple von 17 Stunden Surfzeit und 20 Stunden Videowiedergabe. Beim Mac Mini und dem Macbook Pro behält Apple zunächst auch Modelle mit Intel-Chips im Angebot – das Macbook Air gibt es beim Konzern dagegen nur noch mit dem M1. Äußerlich sehen die Geräte aus wie bisher.

Das Ende der Intel-Vorherrschaft?
Apple bricht mit dem Umstieg aus der eingefahrenen Spur der PC-Branche aus, die bisher von Intel-Prozessoren dominiert wurde. Die M1-Chips basieren auf der Architektur des Chipdesigners ARM, mit der auch die iPhones und iPads laufen. Damit können die Entwickler auch iPhone-Apps auf die Macs bringen.

Ursprünglich auf Intel-Prozessoren zugeschnittene Mac-Programme, die noch nicht für die Apple-Chips angepasst wurden, sollen unterdessen in Echtzeit „übersetzt“ werden. Dabei gebe es keine Leistungseinschränkungen, betont Apple. Weiterhin mit Intel-Chips ausgestattet bleiben vorläufig die iMac-Modelle und der Profi-Rechner Mac Pro.

Neben dem neuen Betriebssystem macOS Big Sur und Apple-eigenen Apps wie der Videobearbeitungssoftware Final Cut Pro werden kurzfristig auch Programme von Drittherstellern die neuen Möglichkeiten des M1-Systems direkt ausnutzen, darunter Fotobearbeitungssoftware von Adobe und Computer-Spiele.

Umstieg kommt wenig überraschend
Der Umstieg kündigte sich bereits seit einiger Zeit an. Auf iPhone und iPad war es Apple gelungen, durch hauseigene Chipentwicklung viel Leistung in kleines Format zu packen. Beim Mac musste der Konzern dagegen wiederholt auf neue Prozessoren von Intel warten. Bei der Ankündigung des Umstiegs im Juni hieß es, er solle binnen zwei Jahren alle Modelle erfassen.

Für die Macs ist es der dritte Wechsel der Chip-Plattform nach dem Übergang von Motorola zu IBMs PowerPC Anfang der 1990er Jahre und zu Intel im Jahr 2005.

Die Frage ist nun, ob Apples Beispiel in der Branche Schule machen könnte, wenn die M1-Macs ihren Nutzern einen spürbaren Vorteil gegenüber Computern anderer Hersteller mit Intel-Chips bieten können. Unter anderem Microsoft und Samsung haben bereits Laptops mit Chips auf Basis der ARM-Architektur im Angebot, sie blieben bisher aber eher Nischenmodelle. Neuer Schub könnte von dem chinesischen Technologiekonzern Huawei ausgehen. Wegen der von US-Präsident Donald Trump verhängten Sanktionen versuchen die Chinesen ohnehin, eine eigene Chipproduktion aufzubauen.

Den Bayern ins Gästebuch: Bergvölker ticken anders

(Universität Krems) – Menschen in den Bergen sind weniger verträglich, eher introvertiert und weniger gewissenhaft – aber gleichzeitig emotional stabiler und offener für neue Erfahrungen wenngleich diese Effekte sehr klein waren aber stabil. Das zeigt eine internationale Studie, die über 3 Millionen Datensätzen aus den USA nutzte. Mit diesen gelang es, Persönlichkeitsmerkmale in den Zusammenhang zur Geländeform am Lebensmittelpunkt der beteiligten Personen zu stellen. Als wesentlicher Einflussfaktor wurde das soziokulturelle Umfeld der Bergregionen identifiziert. Die Karl Landsteiner Privatuniversität Krems gemeinsam mit der University of Cambridge initiierten diese Studie, an der Kollegen aus den USA und Australien beteiligt waren. Publiziert wurde diese nun in Nature Human Behaviour.

In den Bergen lebt es sich nicht nur anders, sondern es leben dort auch Menschen mit einer leicht anderen Ausprägung wichtiger Persönlichkeitsmerkmale. Das untersuchte nun eine Studie österreichischer, britischer, amerikanischer und australischer Wissenschafter, die 3.387.014 Datensätze aus den USA analysierten. Mit im Team: Prof. Stefan Stieger vom Department Psychologie und Psychodynamik der Karl Landsteiner Privatuniversität Krems (KL Krems), der als Experte für die statistische Analyse von großen Datensätzen gilt.

GRENZERFAHRUNG
Berge sind Grenzregionen und werden oftmals später besiedelt als andere Gebiete. Dabei stellen sie ersten Besiedlungen extreme Hindernisse entgegen und fordern besondere Persönlichkeiten, diese zu meistern. “In unserer Studie fragten wir nun, ob es auch heute Spuren dieser Pionierpersönlichkeiten in den dort lebenden Menschen gibt – und wenn ja, warum?“, erläutert Prof. Stieger den Hintergrund der nun in Nature Human Behaviour veröffentlichen Studie. „Sind es die Berge selbst oder die speziellen soziokulturellen Gegebenheiten, die dort das Individuum prägen?“

Die Antwort auf beide Fragen fiel erstaunlich eindeutig aus. Menschen in den Bergregionen der USA sind im Vergleich zu Personen aus flacheren Regionen weniger verträglich, tendieren dazu, eher introvertiert zu sein und sind weniger gewissenhaft; gleichzeitig sind sie aber emotional stabiler und offener für neue Erfahrungen. Dabei sind die Unterschiede zwar nur sehr gering, jedoch stabil. „Wir konnten sogar eine kontinuierliche Verschiebung der Persönlichkeitsmerkmale mit zunehmend bergigen Gelände erkennen“, erläutert Prof. Stieger. Die weitere Analyse zeigte dann auch, dass der Gesellschaftseinfluss bzw. der des soziokulturellen Umfelds auf fast all diese Merkmale stärker ist als der Einfluss durch die physische Präsenz der Berge. Die höhere emotionale Stabilität und die Offenheit für neue Erfahrungen scheint zum größten Teil soziokulturell beeinflusst zu sein d.h. lokale Traditionen und soziale Normen spielen hier eine größere Rolle als der direkte Einfluss der Topographie.

DATENBERGE
Grundlage der Studie waren über drei Millionen Datensätze der University of California und der University of Texas. Diese enthielten individuell bereitgestellte Persönlichkeitsdaten von US-Einwohnern, die ihre Zustimmung zur Nutzung der Daten gaben. Insgesamt kamen diese aus 37.227 verschiedenen Ortschaften, die anhand ihrer Postleitzahlen mit topografischen Daten zur „Bergigkeit“ der Umgebung in Zusammenhang gestellt werden konnten.

Das Nutzen dieses US-Datensatzes erlaubte auch eine neue Herangehensweise, um den Einfluss der physischen Bergpräsenz von dem des soziokulturellen Umfelds zu trennen. Dazu Prof. Stieger: „Die Frage, ob das Leben in den Bergen mit seinen speziellen Anforderungen über die Zeit bestimmte Persönlichkeitsmerkmale hervorbringt oder aber Menschen mit besonderen Merkmalen anzieht, die dann dort Siedlungen gründen und Gesellschaften prägen, ist eine intensiv und lang diskutierte. Unsere Daten leisten hier einen wichtigen Beitrag zu Klärung.“ Dazu muss man berücksichtigen, dass die USA sowohl im Osten als auch Westen hohe Gebirgszüge aufweisen. Doch aufgrund der speziellen und späten (modernen) Besiedlungsgeschichte der USA zog nur der Westen als raues, ungezähmtes „Frontier-Gebiet“ Menschen an, die spezielle Persönlichkeitsmerkmale aufwiesen. Wären es die Berge, die die Persönlichkeiten prägen, so sollte es keine Unterschiede dieser Prägung zwischen Osten und Westen geben – wenn aber das soziokulturelle Umfeld einen Einfluss hat, dann schon. Genau das konnte nun auch in der Studie gezeigt werden. „Tatsächlich konnten wir für emotionale Stabilität sogar zeigen,“ erläutert Prof. Stieger weiter, „dass die rein physische Präsenz der Berge diese zwar mindert, der soziokulturelle Effekt auf diesen Parameter aber so groß ist, dass er den „Berg-Effekt“ bei weitem aufwiegt und Personen in Bergregionen insgesamt emotional stabiler sind.“

Die Studie zeigt insgesamt die Bedeutung einer geografisch orientierten Psychologie und soziokultureller Studien, um die komplexen Wechselwirkungen zwischen Menschen und ihrer Umgebung zu verstehen. Sie steht damit exemplarisch für die Forschung an der KL Krems, die immer auch den Erkenntnisgewinn für den Menschen in Fokus hat.

Corona-Kommunkation: Verständlichkeit lässt sehr zu wünschen übrig

(Uni Hohenheim) – Uni Hohenheim und Partner in Österreich ermitteln deutliche Defizite bei Pressemitteilungen und Homepages mit Antworten auf häufig gestellte Fragen (FAQs).

Lange Sätze, Schachtelsätze, Wortungetüme und nicht erklärte Fachbegriffe erschweren den Bürgerinnen und Bürgern die Aufnahme von Informationen zur Corona-Pandemie. Das ist das Ergebnis einer gemeinsamen Studie von Kommunikationswissenschaftlern der Universität Hohenheim in Stuttgart und des österreichischen Beratungsunternehmens clavis. Sie haben insgesamt 512 Pressemitteilungen der Bundesregierungen sowie 3.541 FAQ-Antworten der deutschen Bundesregierung und der Landesregierungen für die Monate März und April 2020 analysiert.

„In Krisenzeiten suchen Menschen Informationen und Orientierung. Regierungen sollten beides liefern. Und zwar in einer auch für Laien verständlichen Form. Informationen zur Corona-Pandemie und zu den staatlichen Schutzmaßnahmen sollten besonders verständlich sein. Sie sind es aber nicht“, meint der Kommunikationswissenschaftler Prof. Dr. Frank Brettschneider von der Universität Hohenheim.

Mit Hilfe einer Analyse-Software fahnden die Wissenschaftler unter anderem nach überlangen Sätzen, Fachbegriffen und zusammengesetzten Wörtern. Anhand solcher Merkmale bilden sie den „Hohenheimer Verständlichkeitsindex“ (HIX). Er reicht von 0 (schwer verständlich) bis 20 (leicht verständlich).

Die deutsche Bundesregierung kommuniziert relativ unverständlich über Corona
Die Pressemitteilungen der deutschen Bundesministerien sind im Schnitt relativ unverständlich (HIX= 7,1). Etwas verständlicher sind die FAQ-Antworten der Ministerien (HIX= 8,8). In beiden Fällen werde es den Lesern schwer gemacht, die Informationen aufzunehmen. „Die Verständlichkeit sollte deutlich größer sein. Anzustreben wäre ein Wert von 14“, sagt Prof. Dr. Frank Brettschneider.

Bei den Pressemitteilungen schneidet das Finanzministerium am besten ab (HIX= 10,0). Die letzten Plätze belegen das Verkehrsministerium und das Justizministerium (HIX jeweils unter 5,0).

Bei den FAQ-Antworten schneidet das Auswärtige Amt am besten ab (HIX= 15,6), auf Platz 2 folgt das Gesundheitsministerium (HIX= 12,3). Die beiden letzten Plätze belegen das Arbeitsministerium (HIX= 5,8) und das Wirtschaftsministerium (HIX= 6,0).

Etwas verständlicher sind die FAQ-Antworten der Landesregierungen in Deutschland (HIX= 9,2). Allerdings reicht die Bandbreite von 6,9 (Sachsen-Anhalt) bis 10,8 (Berlin).


Die deutsche Bundesregierung kommuniziert etwas unverständlicher als die österreichische Bundesregierung
Die Pressemitteilungen der österreichischen Bundesministerien sind im Schnitt verständlicher (HIX= 8,4) als die Pressemitteilungen der deutschen Bundesministerien (HIX= 7,1).

Am besten schneiden in Österreich das Gesundheitsministerium (HIX= 9,8) und das Justizministerium (HIX= 9,5) ab. Den letzten Platz belegt das Ministerium für Landwirtschaft, Regionen und Tourismus (HIX= 4,9).

Für Österreich gilt das Gleiche wie für Deutschland: Die Verständlichkeit sollte deutlich größer sein. „Die Bundesregierung hat vieles richtig gemacht in diesen schwierigen Zeiten“, sagt Ulrich Müller, Geschäftsführer der clavis Kommunikationsberatung. Dennoch könne man immer besser werden und aus der Erfahrung lernen.

„Eines der wichtigsten Ziele der Krisenkommunikation ist es, im unsicheren Umfeld Orientierung für alle Beteiligten zu schaffen. Verständliche Kommunikation, Offenheit und Transparenz ersparen oft Kritik danach“, so Müller.

Wenn Menschen das Warum und Wozu verstehen, dann würden sie auch einschränkende Maßnahmen mittragen. Wenn sie hingegen Parteipolitik in der Kommunikation spüren, führe das zu einer Abwehrhaltung.

„In Österreich haben wir gesehen, wie schnell die Regierung von steigenden Zustimmungswerten profitiert hat – aber auch, wie rasch sie wieder an Zustimmung verloren hat.“, sagt Müller.

Thematisch sind in Österreich die Pressemitteilungen zum Themenbereich „Kita, Schule und Uni“ (HIX= 6,7) am unverständlichsten. In Deutschland gilt dies für die Pressemitteilungen im Bereich „Soziales und Alltag“ (HIX= 6,7).

Verstöße gegen Verständlichkeits-Regeln
Die häufigsten Verstöße gegen Verständlichkeits-Regeln sind bei allen untersuchten Text-Arten gleich: Fremdwörter und Fachwörter (die nicht erklärt werden), zusammengesetzte Wörter, lange „Monster- und Bandwurmsätze“.

„Schachtelsätze mit 40 bis 50 Wörtern sind keine Seltenheit“, sagt Kerstin Keller von der Universität Hohenheim. „Dabei gilt: Ein Gedanke, ein Satz“. Oft fänden sich aber vier oder fünf Gedanken in einem Satz, was die Aufnahme der Informationen erschwere. Allerdings: „Die FAQ-Antworten weisen im Vergleich zu den Pressemitteilungen in der Regel kürzere Sätze sowie weniger Schachtelsätze auf“, stellt Kerstin Keller fest.

Neben den langen Sätzen stellen zahlreiche Fremd- und Fachwörter vor allem für Leser ohne Vorwissen eine große Verständlichkeitshürde dar: „Corona Matching Fazilität“, „Retail Hack“, „E-Card-Foto-Registrierungs-Stellen“, „Helpline“, „Recovery effort“, „Distance learning“, „Repatriierungen“, „respiratorische Erreger“, „asymptomatische Infektion“.

Einen ähnlichen Effekt haben Wortzusammensetzungen. Einfache Begriffe würden so zu „Wortungetümen“: „Allgemeinverbindlicherklärungen“, „COVID-19-Krankenhausentlastungsgesetz“, „Bundesfreiwilligendienstleistende“, „Heeresunteroffiziersakademie“, „Gebärdensprachdolmetscherinnen“, „Wohnungseigentümergemeinschafts-Verwalter“, „Betriebstättenbegründungsfristen“.


Der „Fluch des Wissens“
„Unverständlichkeit hat viele Gründe“, sagt Prof. Dr. Brettschneider. „Zeitdruck, Gewöhnung an abstraktes Verwaltungsdeutsch, vor allem aber das eigene Fachwissen von Experten.“

Diesen sei meist gar nicht bewusst, dass die Mehrheit der Bürger ihren Fachjargon nicht verstehe. „Wir nennen das den ‚Fluch des Wissens’“, so der Kommunikationswissenschaftler. Es gebe aber auch Texte, in denen Fachbegriffe beim ersten Auftreten erläutert werden.

HINTERGRUND: Hohenheimer Verständlichkeits-Analysen
Das Fachgebiet für Kommunikationswissenschaft, insbesondere Kommunikationstheorie, an der Universität Hohenheim untersucht seit 15 Jahren die formale Verständlichkeit zahlreicher Texte: Wahlprogramme, Medienberichterstattung, Kunden-Kommunikation von Unternehmen, Verwaltungs- und Regierungskommunikation, Vorstandsreden von DAX-Unternehmen.

Möglich werden diese Analysen durch die Verständlichkeits-Software „TextLab“. Die Software wurde von der H&H CommunicationLab GmbH in Ulm und von der Universität Hohenheim entwickelt. Sie berechnet verschiedene Lesbarkeitsformeln sowie Text­faktoren, die für die Verständlichkeit relevant sind (z. B. Satzlängen, Wortlängen, Schachtelsätze). Daraus ergibt sich der „Hohenheimer Verständlichkeitsindex“. Er bildet die Verständlichkeit von Texten auf einer Skala von 0 (schwer verständlich) bis 20 (leicht verständlich) ab. Zum Vergleich: Doktorarbeiten in Politikwissenschaft haben eine durchschnittliche Verständlichkeit von 4,3 Punkten. Hörfunk-Nachrichten kommen im Schnitt auf 16,4 Punkte, Politik-Beiträge überregionaler Zeitungen wie der Frankfurter Allgemeinen Zeitung, der Welt oder der Süddeutschen Zeitung auf Werte zwischen 11 und 14.

Neues Material fungiert als effizienter Frequenz-Vervielfacher

(HZDR) – Höhere Frequenzen gleich schnellerer Datentransfer und leistungsfähigere Prozessoren. Diese Formel prägt seit Jahren die IT-Branche. Technisch jedoch ist es alles andere als einfach, Taktraten und Funkfrequenzen immer weiter zu steigern. Neue Materialien könnten diese Probleme lösen. Ein vielversprechendes Ergebnis haben nun Experimente am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) geliefert: Ein internationales Forscherteam konnte ein neuartiges Material dazu bringen, die Frequenz eines Terahertz-Strahlungsblitzes um das Siebenfache zu erhöhen: Ein erster Schritt für mögliche Anwendungen in der zukünftigen Informationstechnologie, wie die Gruppe im Fachmagazin Nature Communications (DOI: 10.1038/s41467-020-16133-8) berichtet.

Wenn Smartphones Daten empfangen und Computerchips Rechnungen ausführen, ist das immer mit elektrischen Wechselfeldern verbunden, die Elektronen auf klar definierte Reisen schicken. Dabei gilt: Je höher die Frequenzen dieser Felder, umso schneller können die Elektronen ihre Arbeit verrichten und umso größere Datenübertragungsraten und Prozessorgeschwindigkeiten sind möglich. Aktuell bildet hier der Terahertz-Bereich eine Art Schallmauer – weshalb Forscher in aller Welt verstehen wollen, wie Terahertz-Felder mit neuartigen Materialien interagieren. „Mit der Terahertz-Anlage TELBE besitzt das HZDR eine herausragende Quelle, mit der sich diese Wechselwirkungen detailliert untersuchen und dadurch vielversprechende Materialien identifizieren lassen“, schätzt Jan-Christoph Deinert vom HZDR-Institut für Strahlenphysik ein. „Ein möglicher Kandidat könnte zum Beispiel Cadmiumarsenid sein.“

Gemeinsam mit Forschern aus Dresden, Köln und Shanghai hat der Physiker diese Verbindung untersucht. Cadmiumarsenid (Cd3As2) gehört zur Gruppe der sogenannten dreidimensionalen Dirac-Materialien. In diesen können die Elektronen sehr schnell und effizient sowohl miteinander als auch mit schnell schwingenden elektrischen Wechselfeldern interagieren. „Besonders interessiert hat uns, ob Cadmiumarsenid auch Terahertz-Strahlung bei höheren Frequenzen aussendet“, erläutert TELBE-Beamline-Wissenschaftler Sergey Kovalev. „Dies haben wir bereits sehr erfolgreich im Graphen beobachtet, einem zweidimensionalen Dirac-Material.“ Die Forscher vermuteten, dass die dreidimensionale elektronische Struktur von Cadmiumarsenid hilft, eine hohe Effizienz bei dieser Umwandlung zu erreichen.

Um dies zu prüfen, fertigten die Fachleute mit einem Spezialverfahren hauchdünne und hochreine Plättchen aus Cadmiumarsenid. Diese Materialproben beschossen sie mit starken Terahertz-Pulsen aus der TELBE-Anlage. Detektoren hinter der Rückseite des Plättchens erfassten, wie das Cadmiumarsenid auf die Strahlungspulse reagierte. Das Resultat: „Wir konnten zeigen, dass Cadmiumarsenid als sehr effizienter Frequenz-Vervielfacher fungiert und diese Effizienz vor allem auch bei den sehr starken Terahertz-Pulsen, die bei TELBE erzeugt werden können, nicht verliert“, berichtet der ehemalige HZDR-Forscher Zhe Wang, der mittlerweile an der Universität Köln arbeitet. Mit dem Experiment gelang eine Premiere: Erstmals zeigte sich das Phänomen der Terahertz-Frequenzvervielfachung bis zur siebten Harmonischen bei dieser noch jungen Materialklasse.

Elektronen nicht ganz im Takt
Neben dem experimentellen Nachweis lieferte das Team außerdem zusammen mit Forschern des Max-Planck-Instituts für Physik komplexer Systeme eine detaillierte theoretische Beschreibung des Geschehens: Die Terahertz-Pulse, die auf das Cadmiumarsenid treffen, bringen ein starkes elektrisches Feld mit sich. „Dieses Feld beschleunigt die freien Elektronen im Material“, beschreibt Deinert. „Als würde man eine Platte sehr schnell hin und her kippen und dadurch eine riesige Zahl kleiner Stahlkugeln ins Rollen bringen, die auf der Platte liegen.“

Die Elektronen im Cadmiumarsenid antworten auf die Beschleunigung, indem sie elektromagnetische Strahlung abgeben. Das Entscheidende: Dabei folgen sie nicht exakt dem Taktstock des Terahertz-Feldes, sondern schwingen auf komplizierteren Bahnen – eine Folge der ungewöhnlichen elektronischen Struktur des Materials. Deswegen senden die Elektronen neue Terahertz-Pulse mit ungeraden ganzzahlig Vielfachen der ursprünglichen Frequenz ab – ein nichtlinearer Effekt ähnlich wie bei einem Piano: Spielt man auf der Klaviatur den Kammerton a, lässt das Instrument nicht nur den Grundton erklingen, sondern ein reiches Spektrum an Obertönen, den Harmonischen.

Für die Welt nach 5G
Perspektivisch verspricht das Phänomen zahlreiche Anwendungen, etwa in der drahtlosen Kommunikation. Hier geht der Trend zu immer höheren Funkfrequenzen: Auf denen lassen sich deutlich mehr Daten übermitteln als auf den heute verwendeten Kanälen. Derzeit implementiert die Branche den 5G-Standard. Bauteile aus Dirac-Materialien könnten eines Tages noch höhere Frequenzen nutzen – und damit noch mehr Bandbreite als 5G ermöglichen. Auch für den Computer der Zukunft scheint die neue Materialklasse interessant: Bauelemente auf Dirac-Basis könnten im Prinzip höhere Taktraten ermöglichen als die heutigen siliziumbasierten Technologien.

Doch erst einmal gilt es, die Grundlagen weiter zu erkunden. „Unser Forschungsergebnis war nur der erste Schritt“, betont Zhe Wang. „Bevor wir an konkrete Anwendungen denken können, müssen wir die Effizienz der neuen Materialien noch steigern.“ Dazu wollen die Fachleute herausfinden, inwieweit sich die Frequenzvervielfachung durch Anlegen eines elektrischen Stroms gezielt steuern lässt. Und sie wollen ihre Proben dotieren, also mit Fremdatomen spicken – in der Hoffnung, die nichtlineare Frequenzkonversion dadurch zu optimieren.

 

Die Corona-Lügen

(Die Zeit) – Verschwörungstheorien tragen per se den Kern des Surrealen in sich, oft sind sie zynisch, fast immer ohne Substanz. Aber die Gerüchte, die zum Coronavirus in diesen Tagen kursieren, sind mehr als das. Sie träufeln Gift in eine Debatte, die bereits von Angst geprägt ist. Auffällig ist, dass sie nicht nur anonym verbreitet werden, sondern offen, auch von Prominenten, denen ein Millionenpublikum zuhört.

Sean Hannity etwa raunte in seiner Radiosendung, „die Angst-Kampagne zu Corona durch den Tiefen Staat“ werde „in die Geschichte als eine der größten Schwindeleien zur Manipulation der Wirtschaft und zur Unterdrückung von Widersprüchen“ eingehen, das habe er von einem Wissenschaftler gehört. Hannity ist ein Vertrauter von Donald Trump, er moderiert neben einer Radiosendung auch eine Fernsehshow auf Fox.

Und David Clarke, einst Sheriff von Milwaukee County, tönte auf Twitter: „Keine einzige Medien-Redaktion hat George Soros’ Verwicklung in die Grippe-Panik hinterfragt. Er ist IRGENDWIE daran beteiligt.“ Clarke, ebenfalls Trump-Unterstützer, folgen 917.000 Follower; sein Tweet mit der antisemitischen Anspielung auf den ungarisch-amerikanischen Milliardär Soros machte die Runde durchs globale Dorf.

Selten zuvor war eine kühle Unterscheidung von News und Fake-News, von Fakten und Gerüchten so wichtig wie in diesen Tagen, in denen die Welt ihre größte nicht militärische Krise seit dem Ende des Zweiten Weltkriegs erlebt. Und nur selten zuvor hat sich so klar gezeigt, was Journalismus von sozialen Medien unterscheidet. Journalismus ist eben nicht das ungeprüfte Weiterverbreiten des jüngsten Gerüchts. Journalismus ist Überprüfung, Verifikation, Einordnung. Journalismus beginnt dort, wo die Hannitys und die Clarkes dieser Welt enden.

In diesen Tagen strahlt eine Form des Journalismus ganz besonders: die des Wissenschaftsjournalismus. Ähnlich wie sich die Politik von den Empfehlungen der Virologen leiten lässt, folgen Journalisten seit vielen Wochen den Fakten der Wissenschaft, schreiben sie fort, räumen Fehler ein und korrigieren sie. Journalismus in Zeiten von Corona ist ein Tasten, bedeutet weniger Gewissheiten und mehr Fragen, weniger Meinungen und mehr Erklärungen.

Als die Verschwörungstheorie zu kursieren begann, das Virus sei im Oktober 2019 bei einer Pandemie-Übung der Gates-Stiftung, des Weltwirtschaftsforums und des Johns Hopkins Center for Health Security freigesetzt worden, ließ sich das schnell aufklären: Die Übung fand in New York statt und war nur eine Simulation. Viele Wissenschaftsjournalisten sind selbst Naturwissenschaftler und verfolgen den akademischen Diskurs und derartige Übungen seit Jahren.

Bedeutet dieser Schwerpunkt auf wissenschaftlichem Journalismus, der mit einer temporären Entpolitisierung der Welt einhergeht, dass Redaktionen auf ihre Rolle als gesellschaftliche Kontrollinstanz verzichten müssen? Nein, das wäre ein Fehler. Journalismus darf sich nie anschmiegen, auch in Krisen braucht eine funktionierende Demokratie Stimmen, die das Handeln der Regierenden hinterfragen. Warum beispielsweise wurden Reisende aus den Corona-Zentren Italien, Iran und China an deutschen Flughäfen wochenlang nicht kontrolliert? Derartige Fragen dürfen nicht nur gestellt werden, sie müssen es. Und wenn, wie in China und Israel, Regierungen die Überwachung ihrer Bürger exerzieren, indem sie die Kontrolle jedes Einzelnen mittels des Smartphones zur Pflicht erheben: Dann müssen Journalisten im Zweifel die Bürgerrechte verteidigen. Sie müssen auf den feinen Unterschied zwischen einem starken, funktionsfähigen und einem übermächtigen Staat hinweisen.

Reporterinnen und Reporter der Online- und Printausgaben der ZEIT sind seit dem Ausbruch des Coronavirus in aller Welt unterwegs. Aber sie sind nicht überall dort, wo sie gerne wären – zum Beispiel nicht in Wuhan, dort, wo das Unheil seinen Anfang nahm. Noch immer ist Wuhan weitgehend Sperrzone, und noch immer versucht die chinesische Regierung, freie, unkontrollierte Interviews, etwa mit Ärzten, zu zensieren. Ähnlich wie in anderen internationalen Konflikten ist die Wahrheit auch in dieser Gesundheitskrise ein rares Gut. Und nicht nur Trumps Anhänger machen mit dem Virus Politik, auch die Chinesen tun das.

Es könnte doch „die US-Armee gewesen sein, die die Epidemie nach Wuhan gebracht hat“, behauptete der chinesische Diplomat Zhao Lijian per Twitter und forderte von den USA: „Legt eure Daten offen! Die Vereinigten Staaten schulden uns eine Erklärung!“

Zhao Lijians Anschuldigung ist ein Beispiel dafür, dass Verschwörungstheorien auch vor staatlichen Stellen nicht haltmachen. Und eine Erinnerung daran, welchen Wert eine freie Presse gerade in Krisen wie dieser besitzt.

Holger Stark

Deutschland schläft digital weiter, Schulen haben das Nachsehen

(Der Tagesspiegel) – Von den fünf Milliarden Euro aus dem Digitalpakt sind bisher erst 20 Millionen bewilligt. In einigen Bundesländern ist noch gar kein Vorhaben beauftragt.

Jahrelang haben Kommunen und Länder auf den Digitalpakt gewartet, der ihre Schulen und deren IT-Ausstattung fit für die Zukunft machen soll. Doch offenbar haben nicht alle die Zeit gründlich genutzt, um sich auf den Tag vorzubereiten, an dem sie die Mittel aus dem fünf Milliarden schweren Pakt endlich abrufen können.

Sieben Monate, nachdem der Pakt in Kraft getreten ist, gibt es einige Länder, in denen bislang kein einziger Antrag bewilligt worden ist.

Und auch dort, wo es zügig vorangeht, stoßen Kommunen und Schulträger teilweise auf Schwierigkeiten – weil das Geld nicht ausreicht, um die Schulen so gut auszurüsten, wie es eigentlich nötig wäre. Das ergibt eine Abfrage von Tagesspiegel Background Digitalisierung & KI bei allen Bundesländern.

Vier Länder haben aus dem Digitalpakt kein Vorhaben bewilligt
Demnach haben Hessen, Schleswig-Holstein, Sachsen-Anhalt, Thüringen und das Saarland bisher noch kein einziges Vorhaben bewilligt – auch wenn Anträge in den meisten dieser Länder inzwischen durchaus vorliegen und teilweise in Kürze auch grünes Licht erhalten sollen, wie zum Beispiel Schleswig-Holstein meldet.

Keine Antwort auf die Anfrage, für deren Antwort die jeweiligen Kultusministerien zwei Wochen Zeit hatten, gab es aus Mecklenburg-Vorpommern.

Schnell geht es beim Digitalpakt in Sachsen
Besonders schnell handelten dagegen die Sachsen. Den ersten Förderbescheid überreichte Kultus-Staatssekretär Herbert Wolff bereits im vergangenen August: und zwar eine Bewilligung über 3,6 Millionen Euro für den Landkreis Zwickau, der damit hauptsächlich das W-Lan in seinen Schulen verbessern will.

Sachsen scheint überhaupt insgesamt am weitesten zu sein: 18 Anträge mit einem Volumen von 8,4 Millionen Euro wurden bis Ende 2019 freigegeben.

Berlin hat 492.000 Euro freigegeben
Neun weitere Länder haben bereits Anträge bewilligt. Vergleichsweise viel Geld hat auch Hamburg schon verplant: Die Hansestadt hat Maßnahmen für 34 Schulen in Höhe von sieben Millionen Euro beauftragt, hier geht es vor allem um die W-Lan-Ausstattung.

Bei über einer Millionen Euro liegen ebenso Baden-Württemberg und Niedersachsen. Berlin hat 492.000 Euro freigegeben, davon profitieren 44 Schulen. Erste Förderbescheide überreicht hat zudem Bayern, nennt dazu aber keine Summen.

Bundesweit sind damit bislang nur insgesamt 20 Millionen Euro der fünf Milliarden Euro bewilligt, die zur Verfügung stehen. Der Pakt läuft bis zum Jahr 2024.

Lange wurde im Vorfeld zwischen Bund und Ländern gerungen, was mit den Mitteln überhaupt finanziert werden darf. Soll nur die IT-Infrastruktur verbessert werden, also zum Beispiel die W-Lan-Ausleuchtung, wie ursprünglich geplant? Das hätte die Schulen benachteiligt, die bereits gut angebunden sind.

Laptops, Interaktive Tafeln, Wlan – die Bedarfe sind vielfältig
Daher dürfen solche Einrichtungen jetzt auch Endgeräte wie Laptops oder Tablets anschaffen. Einige der jetzt angeschobenen Vorhaben zeigen, dass die Bedarfe tatsächlich vielfältig sind:

  • Die Schulen in NRW investieren zunächst vor allem in die Vernetzung des Schulgebäudes und die W-Lan-Netze, hier handelt es sich um elf freigegebene Anträge.
  • Die erste in Bayern geförderte Kommune, Karlstadt, beschafft digitale Tafelsysteme, Tablet-Klassensätze, aber auch Audiosysteme für Hörgeschädigte.
  • In Bremen, wo die Netz-Abdeckung nach Auskunft der Senatsverwaltung bereits gut ist, wurden zunächst vor allem Präsentationsmedien – etwa interaktive Tafeln – und Arbeitsgeräte wie Tablets und Laptops geordert.
  • Die 44 Berliner Schulen wiederum, die jetzt in der Hauptstadt als Erste gefördert werden, bauen ihre pädagogischen Schulserver aus.
  • Laptops und Activeboards (auch das sind interaktive Tafeln) beschafften fünf Grundschulen aus Helmstedt, die in Niedersachsen zu den ersten unterstützten Einrichtungen gehören.

Woran liegt es, dass in einigen Ländern schon Geld fließt oder zumindest zahlreiche Anträge bewilligt sind, während in anderen Anträge erst langsam eintrudeln? Schon als es um die Förderrichtlinie ging – die Voraussetzung, um Mittel vergeben zu können – reagierten einige Länder unmittelbar, während andere trödelten.

In Sachsen trat die Förderrichtlinie Mitte Mai in Kraft, in Bayern Ende Juli, in Brandenburg Anfang August, in Hessen dagegen erst Anfang Dezember. Um Schulen erste, schnelle Anschaffungen zu ermöglichen, richtete Bremen als einziges Land sogar ein „Initialbudget“ ein. Aus diesem konnten Grundschulen je 5000 Euro, Oberschulen je 10.000 Euro und Gymnasien je 15.000 Euro abrufen.

Schulen sind unterschiedlich gut auf den Digitalpakt vorbereitet
Überhaupt scheinen die Schulen unterschiedlich gut auf den Digitalpakt vorbereitet zu sein. Schulen, die von den Mitteln profitieren wollen, müssen zunächst ein Medienkonzept einreichen. „Die Technik folgt der Pädagogik“, hatte bereits die ehemalige Bundesbildungsministerin Johanna Wanka (CDU) als Devise vorgegeben.

In Bayern hatten laut Auskunft des Ministeriums alle Schulen im Juli 2019 ein solches Konzept aufgestellt – während in Baden-Württemberg aktuell noch immer solche Entwicklungspläne eingereicht werden.

In Bayern mussten die Schulen auch schon bis zum vergangenen Juli ihre Ausstattungsbedarfe aufstellen. Sachsen-Anhalt dagegen berichtet, Schulträger würden sich aktuell „in der Phase der Bestandsaufnahme“ befinden. Dieser „Erstaufwand“ gestalte sich gerade bei größeren Schulträgern mit vielen Schulen als „sehr hoch und zeitaufwendig“. Das Land wolle gründlich prüfen, um Fehlinvestitionen zu vermeiden.

Dass die Länder oft keinen Überblick über die IT-Ausstattung ihrer Schulen haben, wurde bereits im vergangenen Jahr kritisiert.

Heruntergerechnet auf jede Schule bleibt nicht so viel Geld
Nun klingen fünf Milliarden Euro für den Digitalpakt erst mal wie eine enorme Summe – heruntergerechnet auf die 40.000 Schulen in Deutschland sind es aber mal gerade 120.000 Euro, die pro Einrichtung übrig bleiben. Die Bundesländer haben praktisch durchgehend einen Verteilschlüssel für ihre Kommunen und Schulträger aufgestellt, damit diese mit festen Summen planen können, auch in Berlin.

Die Digitalisierung der Schulen – lesen Sie zum Thema auch:

  • Robotik für Anfänger: Kaum flächendeckende IT-Fortbildungen für Lehrkräfte
  • Bundesweite Schul-Cloud: Unterwegs ins digitale Klassenzimmer
  • Digitaler Unterricht: „Eigentlich müsste man bei den Lernarragements anfangen“
  • Digitale Bildung „besorgniserregend“: Jeder dritte Schüler kann mal gerade E-Mails öffnen

In einigen Kommunen hat schon das große Rechnen begonnen, inwieweit sich der Pakt für sie eigentlich lohnt. Dass auf sie viele Extrakosten zukommen, zeigt das Beispiel der Stadt Zwickau.

Ein Problem: Die Kosten für die Wartung fehlen
Dort kalkulierte das Amt für Familie, Schule und Soziales im Dezember, dass „für eine vollständige und optimale Umsetzung des Digitalpaktes“ zusätzlich hohe Summen nötig sind: nämlich fast 600.000 Euro, ungefähr ein Fünftel der Mittel, mit denen die Stadt aus dem Digitalpakt rechnen kann.

Denn die Festbeträge, die in den Förderrichtlinien für den Pakt etwa für Server, Endgeräte oder interaktive Tafeln vorgesehen sind, „entsprechen leider nur bedingt der aktuellen Marktsituation“, heißt es in einer Vorlage, die dem Tagesspiegel vorliegt.

Nochmal mehr als 600.000 Euro jährlich könnten später für die Wartung und Fachkräfte für den IT-Support dazukommen – was ebenfalls nicht durch den Pakt abgedeckt ist. Auch aus Schulen in anderen Bundesländern ist zu hören, es sei ein großes Problem, dass die Wartung nicht mit abgerechnet werden dürfe.

Der Bundestag wird übrigens erst am 15. März eine erste Übersicht über die Umsetzung des Digitalpaktes erhalten. Dann will die Bundesregierung dem Haushaltsausschuss darüber berichten, wie aus der Antwort des BMBF auf eine Kleine Anfrage der FDP-Fraktion hervorgeht. Dieser kann man auch entnehmen, dass der Bund bislang keinen Überblick über die Aktivitäten der Länder hat, obwohl er ja der Hauptgeldgeber ist.

„Der Bund darf zahlen, steht aber bei der Umsetzung des Digitalpakt unbeteiligt am Spielfeldrand“
Für Katja Suding, die stellvertretende FDP-Fraktionsvorsitzende, ist das nicht hinnehmbar. „Der Bund darf zahlen, steht aber bei der Umsetzung des Digitalpaktes unbeteiligt am Spielfeldrand“, kritisiert Suding.

Die Länder seien vielfach nicht einmal verpflichtet, ihm über die Verwendung der Bundesmittel Bericht zu erstatten. „Wir brauchen daher dringend eine weitergehende Modernisierung des Bildungsföderalismus und mehr Verantwortung für den Bund in der Bildung“, erklärte Suding dem Tagesspiegel.

Tilmann Warnecke Miriam Schröder