Archiv der Kategorie: Computer, TV, Medien

Mikroprozessor-Chips werden immer leistungsfähiger – Mit einer Einführung von Jean Pütz

Meine erste von mir 1972 moderierte Sendereihe lautete ‚Einführung in die Elektronik‘ (13 Folgen). Zwei Jahre später folgte die Sendereihe ‚Einführung in die Digitaltechnik (ebenfalls 13 Folgen) mit Seminaren, begleitet vom VDI. Etwa 800.000 verkaufte Bücher bewiesen die Akzeptanz. Aber die Halbleiter-Technik ging mit rasanten Schritten weiter. Es erschienen die ersten Mikroprozessoren mit mittlerweile schon mehr als 1000 Transistorfunktionen auf einen Chip. Die Folge war, dass ich bereits 1978 im ersten Programm der ARD als Autor eine Sendung produzieren und moderieren durfte mit dem Titel: ‚Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik‘. Daraufhin bekam ich den ersten Preis für Wissenschaftsjournalisten, den sogenannten Batelle-Preis verliehen, dotiert mit 10.000 DM. Vor allen Dingen ging es darum, Hartware zu ersetzen durch Software. Ich war also eng mit dem Thema verbunden, hätte aber nie geglaubt, dass es irgendwann einmal möglich werden würde, auf einem kleinen Siliziumplättchen – nicht größer als ein Daumennagel – mehr als eine Milliarde Transistorfunktionen unterzubringen und so zu vernetzen, dass ein ganzer Computer untergebracht werden konnte. Früher hätte man dazu mehrere Räume – vollbepackt mit Elektronik – benötigt.

Alles dies sind Voraussetzungen mittlerweile für eine sogenannte ‚Künstliche Intelligenz‘ – aber besser ausgedrückt mit maschinelles Lernen – möglich wurde. Das heißt, ein solch kleines Computersystem kann nicht nur das vollführen, was die Software ihm vorschreibt, sondern ist in der Lage zu lernen – aus Fehlern, aber auch aus Erfolgen. Doch wer von uns Bürgern weiß noch, worauf z. B. ein System wie das Smartphone aufbaut. Fünf amerikanische Konzerne haben daher eine Art Weltmonopol geschaffen, dass die Utopie von George Orwell, der das in seinem Buch 1984 als Warnung beschrieben hat, irgendwann einmal möglich wird.

Umso schlimmer ist es, dass wenige Menschen nur noch an diesem Prozess beteiligt sind. Einer, der für diese rasante Entwicklung mitverantwortlich ist, ist Steve Jobs, der Gründer von Apple, einer der kreativsten Menschen, die je geboren wurden.

Nur so nebenbei bemerkt: Er musste sich selbst der Natur beugen und starb an Krebs.

Wir haben eine Art technischen Turmbau zu Babel gebaut, der es ermöglicht, mit Unvernunft bequem zu leben, aber ohne Vernunft wird dieser Turmbau zu Babel wie in der Bibel zusammenbrechen. Das sind Gedanken, die mich in der letzten Zeit sehr stark beschäftigen, nehmen Sie es mir bitte nicht übel

Jean Pütz

(XING) – Die Apple-Revolution: Kampfansage aus Cupertino – wie der M1-Chip den PC-Markt umkrempeln wird

Apple macht sich mit einem eigenen Computer-Chip unabhängig. Die Präsentation der ersten drei Mac-Modelle mit „Apple Silicon“ läutet das Ende der Intel-Ära bei Apple ein. Das könnte sich auf den gesamten PC-Markt auswirken.

Bei Apple beginnt ein neues Zeitalter: 15 Jahre lang hat der Konzern seine Macintosh-Computer mit den Chips von Intel gebaut. Künftig gehen Apple und Intel aber getrennte Wege. Der iPhone-Konzern hat nun die ersten drei Mac-Modelle mit Chips aus eigener Entwicklung vorgestellt.

Apple verspricht, dass die Computer dadurch deutlich schneller und auch stromsparender arbeiten. Mit dem Umstieg kann der Konzern zudem erstmals seine Macs auf derselben Software-Plattform wie seine iPhones und iPads betreiben. „Dies ist ein historischer Tag für den Mac“, sagte Apple-Chef Tim Cook.

M1 – kein einfacher Mikroprozessor
Der hauseigene Chip mit der Bezeichnung M1 ist nicht nur ein einfacher Mikroprozessor, sondern ein komplexes „System on a Chip“. In ihm stecken 16 Milliarden Transistoren. Der Hauptprozessor besteht aus acht Kernen, vier davon erledigen Hochleistungsanforderungen, die anderen vier kommen stromsparend ins Spiel, wenn leichtere Aufgaben erledigt werden müssen.

Dazu kommen ein leistungsfähiger Grafikchip sowie der geheimnisumwitterte Sicherheitschip „Secure Enclave“. Und das gesamte M1-System kann auf einen gemeinsamen Arbeitsspeicher zugreifen.

Dies ist ein historischer Tag für den Mac
Cook ist aber auch klar, dass die Kunden einen Computer nicht vorrangig wegen einer neuen Chip-Architektur auswählen. Daher standen bei der Videopräsentation aus dem Apple-Hauptquartier ganz praktische Dinge im Vordergrund.

Akkulaufzeit fast verdoppelt
So betonte Apple, dass sich die Akkulaufzeit fast verdoppeln werde. Apps würden viel schneller als bisher starten, und auch anspruchsvolle Programme liefen flüssiger, versprach Software-Chef Craig Federighi. Wie beim iPhone soll ein spezieller Bereich zum Beispiel die Bildbearbeitung mit maschinellem Lernen verbessern.

Apple hat seine ersten Mac-Computer mit Chips aus eigener Entwicklung statt Intel-Prozessoren vorgestellt.

Apple stattete mit dem M1-Chip unter anderen das populärste Mac-Modell aus, das Macbook Air. Es kommt nun ohne einen Lüfter aus. Dank des sparsameren Chips halte die Batterie 15 Stunden Surfen im Web und 18 Stunden Videowiedergabe stand. Das Macbook Air ist der populärste Apple-Computer.

Außerdem bekommen auch das leistungsstärkere Macbook Pro mit 13-Zoll-Display und der Tischrechner Mac Mini den neuen Apple-Prozessor. Beim Macbook Pro spricht Apple von 17 Stunden Surfzeit und 20 Stunden Videowiedergabe. Beim Mac Mini und dem Macbook Pro behält Apple zunächst auch Modelle mit Intel-Chips im Angebot – das Macbook Air gibt es beim Konzern dagegen nur noch mit dem M1. Äußerlich sehen die Geräte aus wie bisher.

Das Ende der Intel-Vorherrschaft?
Apple bricht mit dem Umstieg aus der eingefahrenen Spur der PC-Branche aus, die bisher von Intel-Prozessoren dominiert wurde. Die M1-Chips basieren auf der Architektur des Chipdesigners ARM, mit der auch die iPhones und iPads laufen. Damit können die Entwickler auch iPhone-Apps auf die Macs bringen.

Ursprünglich auf Intel-Prozessoren zugeschnittene Mac-Programme, die noch nicht für die Apple-Chips angepasst wurden, sollen unterdessen in Echtzeit „übersetzt“ werden. Dabei gebe es keine Leistungseinschränkungen, betont Apple. Weiterhin mit Intel-Chips ausgestattet bleiben vorläufig die iMac-Modelle und der Profi-Rechner Mac Pro.

Neben dem neuen Betriebssystem macOS Big Sur und Apple-eigenen Apps wie der Videobearbeitungssoftware Final Cut Pro werden kurzfristig auch Programme von Drittherstellern die neuen Möglichkeiten des M1-Systems direkt ausnutzen, darunter Fotobearbeitungssoftware von Adobe und Computer-Spiele.

Umstieg kommt wenig überraschend
Der Umstieg kündigte sich bereits seit einiger Zeit an. Auf iPhone und iPad war es Apple gelungen, durch hauseigene Chipentwicklung viel Leistung in kleines Format zu packen. Beim Mac musste der Konzern dagegen wiederholt auf neue Prozessoren von Intel warten. Bei der Ankündigung des Umstiegs im Juni hieß es, er solle binnen zwei Jahren alle Modelle erfassen.

Für die Macs ist es der dritte Wechsel der Chip-Plattform nach dem Übergang von Motorola zu IBMs PowerPC Anfang der 1990er Jahre und zu Intel im Jahr 2005.

Die Frage ist nun, ob Apples Beispiel in der Branche Schule machen könnte, wenn die M1-Macs ihren Nutzern einen spürbaren Vorteil gegenüber Computern anderer Hersteller mit Intel-Chips bieten können. Unter anderem Microsoft und Samsung haben bereits Laptops mit Chips auf Basis der ARM-Architektur im Angebot, sie blieben bisher aber eher Nischenmodelle. Neuer Schub könnte von dem chinesischen Technologiekonzern Huawei ausgehen. Wegen der von US-Präsident Donald Trump verhängten Sanktionen versuchen die Chinesen ohnehin, eine eigene Chipproduktion aufzubauen.

Den Bayern ins Gästebuch: Bergvölker ticken anders

(Universität Krems) – Menschen in den Bergen sind weniger verträglich, eher introvertiert und weniger gewissenhaft – aber gleichzeitig emotional stabiler und offener für neue Erfahrungen wenngleich diese Effekte sehr klein waren aber stabil. Das zeigt eine internationale Studie, die über 3 Millionen Datensätzen aus den USA nutzte. Mit diesen gelang es, Persönlichkeitsmerkmale in den Zusammenhang zur Geländeform am Lebensmittelpunkt der beteiligten Personen zu stellen. Als wesentlicher Einflussfaktor wurde das soziokulturelle Umfeld der Bergregionen identifiziert. Die Karl Landsteiner Privatuniversität Krems gemeinsam mit der University of Cambridge initiierten diese Studie, an der Kollegen aus den USA und Australien beteiligt waren. Publiziert wurde diese nun in Nature Human Behaviour.

In den Bergen lebt es sich nicht nur anders, sondern es leben dort auch Menschen mit einer leicht anderen Ausprägung wichtiger Persönlichkeitsmerkmale. Das untersuchte nun eine Studie österreichischer, britischer, amerikanischer und australischer Wissenschafter, die 3.387.014 Datensätze aus den USA analysierten. Mit im Team: Prof. Stefan Stieger vom Department Psychologie und Psychodynamik der Karl Landsteiner Privatuniversität Krems (KL Krems), der als Experte für die statistische Analyse von großen Datensätzen gilt.

GRENZERFAHRUNG
Berge sind Grenzregionen und werden oftmals später besiedelt als andere Gebiete. Dabei stellen sie ersten Besiedlungen extreme Hindernisse entgegen und fordern besondere Persönlichkeiten, diese zu meistern. “In unserer Studie fragten wir nun, ob es auch heute Spuren dieser Pionierpersönlichkeiten in den dort lebenden Menschen gibt – und wenn ja, warum?“, erläutert Prof. Stieger den Hintergrund der nun in Nature Human Behaviour veröffentlichen Studie. „Sind es die Berge selbst oder die speziellen soziokulturellen Gegebenheiten, die dort das Individuum prägen?“

Die Antwort auf beide Fragen fiel erstaunlich eindeutig aus. Menschen in den Bergregionen der USA sind im Vergleich zu Personen aus flacheren Regionen weniger verträglich, tendieren dazu, eher introvertiert zu sein und sind weniger gewissenhaft; gleichzeitig sind sie aber emotional stabiler und offener für neue Erfahrungen. Dabei sind die Unterschiede zwar nur sehr gering, jedoch stabil. „Wir konnten sogar eine kontinuierliche Verschiebung der Persönlichkeitsmerkmale mit zunehmend bergigen Gelände erkennen“, erläutert Prof. Stieger. Die weitere Analyse zeigte dann auch, dass der Gesellschaftseinfluss bzw. der des soziokulturellen Umfelds auf fast all diese Merkmale stärker ist als der Einfluss durch die physische Präsenz der Berge. Die höhere emotionale Stabilität und die Offenheit für neue Erfahrungen scheint zum größten Teil soziokulturell beeinflusst zu sein d.h. lokale Traditionen und soziale Normen spielen hier eine größere Rolle als der direkte Einfluss der Topographie.

DATENBERGE
Grundlage der Studie waren über drei Millionen Datensätze der University of California und der University of Texas. Diese enthielten individuell bereitgestellte Persönlichkeitsdaten von US-Einwohnern, die ihre Zustimmung zur Nutzung der Daten gaben. Insgesamt kamen diese aus 37.227 verschiedenen Ortschaften, die anhand ihrer Postleitzahlen mit topografischen Daten zur „Bergigkeit“ der Umgebung in Zusammenhang gestellt werden konnten.

Das Nutzen dieses US-Datensatzes erlaubte auch eine neue Herangehensweise, um den Einfluss der physischen Bergpräsenz von dem des soziokulturellen Umfelds zu trennen. Dazu Prof. Stieger: „Die Frage, ob das Leben in den Bergen mit seinen speziellen Anforderungen über die Zeit bestimmte Persönlichkeitsmerkmale hervorbringt oder aber Menschen mit besonderen Merkmalen anzieht, die dann dort Siedlungen gründen und Gesellschaften prägen, ist eine intensiv und lang diskutierte. Unsere Daten leisten hier einen wichtigen Beitrag zu Klärung.“ Dazu muss man berücksichtigen, dass die USA sowohl im Osten als auch Westen hohe Gebirgszüge aufweisen. Doch aufgrund der speziellen und späten (modernen) Besiedlungsgeschichte der USA zog nur der Westen als raues, ungezähmtes „Frontier-Gebiet“ Menschen an, die spezielle Persönlichkeitsmerkmale aufwiesen. Wären es die Berge, die die Persönlichkeiten prägen, so sollte es keine Unterschiede dieser Prägung zwischen Osten und Westen geben – wenn aber das soziokulturelle Umfeld einen Einfluss hat, dann schon. Genau das konnte nun auch in der Studie gezeigt werden. „Tatsächlich konnten wir für emotionale Stabilität sogar zeigen,“ erläutert Prof. Stieger weiter, „dass die rein physische Präsenz der Berge diese zwar mindert, der soziokulturelle Effekt auf diesen Parameter aber so groß ist, dass er den „Berg-Effekt“ bei weitem aufwiegt und Personen in Bergregionen insgesamt emotional stabiler sind.“

Die Studie zeigt insgesamt die Bedeutung einer geografisch orientierten Psychologie und soziokultureller Studien, um die komplexen Wechselwirkungen zwischen Menschen und ihrer Umgebung zu verstehen. Sie steht damit exemplarisch für die Forschung an der KL Krems, die immer auch den Erkenntnisgewinn für den Menschen in Fokus hat.

Corona-Kommunkation: Verständlichkeit lässt sehr zu wünschen übrig

(Uni Hohenheim) – Uni Hohenheim und Partner in Österreich ermitteln deutliche Defizite bei Pressemitteilungen und Homepages mit Antworten auf häufig gestellte Fragen (FAQs).

Lange Sätze, Schachtelsätze, Wortungetüme und nicht erklärte Fachbegriffe erschweren den Bürgerinnen und Bürgern die Aufnahme von Informationen zur Corona-Pandemie. Das ist das Ergebnis einer gemeinsamen Studie von Kommunikationswissenschaftlern der Universität Hohenheim in Stuttgart und des österreichischen Beratungsunternehmens clavis. Sie haben insgesamt 512 Pressemitteilungen der Bundesregierungen sowie 3.541 FAQ-Antworten der deutschen Bundesregierung und der Landesregierungen für die Monate März und April 2020 analysiert.

„In Krisenzeiten suchen Menschen Informationen und Orientierung. Regierungen sollten beides liefern. Und zwar in einer auch für Laien verständlichen Form. Informationen zur Corona-Pandemie und zu den staatlichen Schutzmaßnahmen sollten besonders verständlich sein. Sie sind es aber nicht“, meint der Kommunikationswissenschaftler Prof. Dr. Frank Brettschneider von der Universität Hohenheim.

Mit Hilfe einer Analyse-Software fahnden die Wissenschaftler unter anderem nach überlangen Sätzen, Fachbegriffen und zusammengesetzten Wörtern. Anhand solcher Merkmale bilden sie den „Hohenheimer Verständlichkeitsindex“ (HIX). Er reicht von 0 (schwer verständlich) bis 20 (leicht verständlich).

Die deutsche Bundesregierung kommuniziert relativ unverständlich über Corona
Die Pressemitteilungen der deutschen Bundesministerien sind im Schnitt relativ unverständlich (HIX= 7,1). Etwas verständlicher sind die FAQ-Antworten der Ministerien (HIX= 8,8). In beiden Fällen werde es den Lesern schwer gemacht, die Informationen aufzunehmen. „Die Verständlichkeit sollte deutlich größer sein. Anzustreben wäre ein Wert von 14“, sagt Prof. Dr. Frank Brettschneider.

Bei den Pressemitteilungen schneidet das Finanzministerium am besten ab (HIX= 10,0). Die letzten Plätze belegen das Verkehrsministerium und das Justizministerium (HIX jeweils unter 5,0).

Bei den FAQ-Antworten schneidet das Auswärtige Amt am besten ab (HIX= 15,6), auf Platz 2 folgt das Gesundheitsministerium (HIX= 12,3). Die beiden letzten Plätze belegen das Arbeitsministerium (HIX= 5,8) und das Wirtschaftsministerium (HIX= 6,0).

Etwas verständlicher sind die FAQ-Antworten der Landesregierungen in Deutschland (HIX= 9,2). Allerdings reicht die Bandbreite von 6,9 (Sachsen-Anhalt) bis 10,8 (Berlin).


Die deutsche Bundesregierung kommuniziert etwas unverständlicher als die österreichische Bundesregierung
Die Pressemitteilungen der österreichischen Bundesministerien sind im Schnitt verständlicher (HIX= 8,4) als die Pressemitteilungen der deutschen Bundesministerien (HIX= 7,1).

Am besten schneiden in Österreich das Gesundheitsministerium (HIX= 9,8) und das Justizministerium (HIX= 9,5) ab. Den letzten Platz belegt das Ministerium für Landwirtschaft, Regionen und Tourismus (HIX= 4,9).

Für Österreich gilt das Gleiche wie für Deutschland: Die Verständlichkeit sollte deutlich größer sein. „Die Bundesregierung hat vieles richtig gemacht in diesen schwierigen Zeiten“, sagt Ulrich Müller, Geschäftsführer der clavis Kommunikationsberatung. Dennoch könne man immer besser werden und aus der Erfahrung lernen.

„Eines der wichtigsten Ziele der Krisenkommunikation ist es, im unsicheren Umfeld Orientierung für alle Beteiligten zu schaffen. Verständliche Kommunikation, Offenheit und Transparenz ersparen oft Kritik danach“, so Müller.

Wenn Menschen das Warum und Wozu verstehen, dann würden sie auch einschränkende Maßnahmen mittragen. Wenn sie hingegen Parteipolitik in der Kommunikation spüren, führe das zu einer Abwehrhaltung.

„In Österreich haben wir gesehen, wie schnell die Regierung von steigenden Zustimmungswerten profitiert hat – aber auch, wie rasch sie wieder an Zustimmung verloren hat.“, sagt Müller.

Thematisch sind in Österreich die Pressemitteilungen zum Themenbereich „Kita, Schule und Uni“ (HIX= 6,7) am unverständlichsten. In Deutschland gilt dies für die Pressemitteilungen im Bereich „Soziales und Alltag“ (HIX= 6,7).

Verstöße gegen Verständlichkeits-Regeln
Die häufigsten Verstöße gegen Verständlichkeits-Regeln sind bei allen untersuchten Text-Arten gleich: Fremdwörter und Fachwörter (die nicht erklärt werden), zusammengesetzte Wörter, lange „Monster- und Bandwurmsätze“.

„Schachtelsätze mit 40 bis 50 Wörtern sind keine Seltenheit“, sagt Kerstin Keller von der Universität Hohenheim. „Dabei gilt: Ein Gedanke, ein Satz“. Oft fänden sich aber vier oder fünf Gedanken in einem Satz, was die Aufnahme der Informationen erschwere. Allerdings: „Die FAQ-Antworten weisen im Vergleich zu den Pressemitteilungen in der Regel kürzere Sätze sowie weniger Schachtelsätze auf“, stellt Kerstin Keller fest.

Neben den langen Sätzen stellen zahlreiche Fremd- und Fachwörter vor allem für Leser ohne Vorwissen eine große Verständlichkeitshürde dar: „Corona Matching Fazilität“, „Retail Hack“, „E-Card-Foto-Registrierungs-Stellen“, „Helpline“, „Recovery effort“, „Distance learning“, „Repatriierungen“, „respiratorische Erreger“, „asymptomatische Infektion“.

Einen ähnlichen Effekt haben Wortzusammensetzungen. Einfache Begriffe würden so zu „Wortungetümen“: „Allgemeinverbindlicherklärungen“, „COVID-19-Krankenhausentlastungsgesetz“, „Bundesfreiwilligendienstleistende“, „Heeresunteroffiziersakademie“, „Gebärdensprachdolmetscherinnen“, „Wohnungseigentümergemeinschafts-Verwalter“, „Betriebstättenbegründungsfristen“.


Der „Fluch des Wissens“
„Unverständlichkeit hat viele Gründe“, sagt Prof. Dr. Brettschneider. „Zeitdruck, Gewöhnung an abstraktes Verwaltungsdeutsch, vor allem aber das eigene Fachwissen von Experten.“

Diesen sei meist gar nicht bewusst, dass die Mehrheit der Bürger ihren Fachjargon nicht verstehe. „Wir nennen das den ‚Fluch des Wissens’“, so der Kommunikationswissenschaftler. Es gebe aber auch Texte, in denen Fachbegriffe beim ersten Auftreten erläutert werden.

HINTERGRUND: Hohenheimer Verständlichkeits-Analysen
Das Fachgebiet für Kommunikationswissenschaft, insbesondere Kommunikationstheorie, an der Universität Hohenheim untersucht seit 15 Jahren die formale Verständlichkeit zahlreicher Texte: Wahlprogramme, Medienberichterstattung, Kunden-Kommunikation von Unternehmen, Verwaltungs- und Regierungskommunikation, Vorstandsreden von DAX-Unternehmen.

Möglich werden diese Analysen durch die Verständlichkeits-Software „TextLab“. Die Software wurde von der H&H CommunicationLab GmbH in Ulm und von der Universität Hohenheim entwickelt. Sie berechnet verschiedene Lesbarkeitsformeln sowie Text­faktoren, die für die Verständlichkeit relevant sind (z. B. Satzlängen, Wortlängen, Schachtelsätze). Daraus ergibt sich der „Hohenheimer Verständlichkeitsindex“. Er bildet die Verständlichkeit von Texten auf einer Skala von 0 (schwer verständlich) bis 20 (leicht verständlich) ab. Zum Vergleich: Doktorarbeiten in Politikwissenschaft haben eine durchschnittliche Verständlichkeit von 4,3 Punkten. Hörfunk-Nachrichten kommen im Schnitt auf 16,4 Punkte, Politik-Beiträge überregionaler Zeitungen wie der Frankfurter Allgemeinen Zeitung, der Welt oder der Süddeutschen Zeitung auf Werte zwischen 11 und 14.

Neues Material fungiert als effizienter Frequenz-Vervielfacher

(HZDR) – Höhere Frequenzen gleich schnellerer Datentransfer und leistungsfähigere Prozessoren. Diese Formel prägt seit Jahren die IT-Branche. Technisch jedoch ist es alles andere als einfach, Taktraten und Funkfrequenzen immer weiter zu steigern. Neue Materialien könnten diese Probleme lösen. Ein vielversprechendes Ergebnis haben nun Experimente am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) geliefert: Ein internationales Forscherteam konnte ein neuartiges Material dazu bringen, die Frequenz eines Terahertz-Strahlungsblitzes um das Siebenfache zu erhöhen: Ein erster Schritt für mögliche Anwendungen in der zukünftigen Informationstechnologie, wie die Gruppe im Fachmagazin Nature Communications (DOI: 10.1038/s41467-020-16133-8) berichtet.

Wenn Smartphones Daten empfangen und Computerchips Rechnungen ausführen, ist das immer mit elektrischen Wechselfeldern verbunden, die Elektronen auf klar definierte Reisen schicken. Dabei gilt: Je höher die Frequenzen dieser Felder, umso schneller können die Elektronen ihre Arbeit verrichten und umso größere Datenübertragungsraten und Prozessorgeschwindigkeiten sind möglich. Aktuell bildet hier der Terahertz-Bereich eine Art Schallmauer – weshalb Forscher in aller Welt verstehen wollen, wie Terahertz-Felder mit neuartigen Materialien interagieren. „Mit der Terahertz-Anlage TELBE besitzt das HZDR eine herausragende Quelle, mit der sich diese Wechselwirkungen detailliert untersuchen und dadurch vielversprechende Materialien identifizieren lassen“, schätzt Jan-Christoph Deinert vom HZDR-Institut für Strahlenphysik ein. „Ein möglicher Kandidat könnte zum Beispiel Cadmiumarsenid sein.“

Gemeinsam mit Forschern aus Dresden, Köln und Shanghai hat der Physiker diese Verbindung untersucht. Cadmiumarsenid (Cd3As2) gehört zur Gruppe der sogenannten dreidimensionalen Dirac-Materialien. In diesen können die Elektronen sehr schnell und effizient sowohl miteinander als auch mit schnell schwingenden elektrischen Wechselfeldern interagieren. „Besonders interessiert hat uns, ob Cadmiumarsenid auch Terahertz-Strahlung bei höheren Frequenzen aussendet“, erläutert TELBE-Beamline-Wissenschaftler Sergey Kovalev. „Dies haben wir bereits sehr erfolgreich im Graphen beobachtet, einem zweidimensionalen Dirac-Material.“ Die Forscher vermuteten, dass die dreidimensionale elektronische Struktur von Cadmiumarsenid hilft, eine hohe Effizienz bei dieser Umwandlung zu erreichen.

Um dies zu prüfen, fertigten die Fachleute mit einem Spezialverfahren hauchdünne und hochreine Plättchen aus Cadmiumarsenid. Diese Materialproben beschossen sie mit starken Terahertz-Pulsen aus der TELBE-Anlage. Detektoren hinter der Rückseite des Plättchens erfassten, wie das Cadmiumarsenid auf die Strahlungspulse reagierte. Das Resultat: „Wir konnten zeigen, dass Cadmiumarsenid als sehr effizienter Frequenz-Vervielfacher fungiert und diese Effizienz vor allem auch bei den sehr starken Terahertz-Pulsen, die bei TELBE erzeugt werden können, nicht verliert“, berichtet der ehemalige HZDR-Forscher Zhe Wang, der mittlerweile an der Universität Köln arbeitet. Mit dem Experiment gelang eine Premiere: Erstmals zeigte sich das Phänomen der Terahertz-Frequenzvervielfachung bis zur siebten Harmonischen bei dieser noch jungen Materialklasse.

Elektronen nicht ganz im Takt
Neben dem experimentellen Nachweis lieferte das Team außerdem zusammen mit Forschern des Max-Planck-Instituts für Physik komplexer Systeme eine detaillierte theoretische Beschreibung des Geschehens: Die Terahertz-Pulse, die auf das Cadmiumarsenid treffen, bringen ein starkes elektrisches Feld mit sich. „Dieses Feld beschleunigt die freien Elektronen im Material“, beschreibt Deinert. „Als würde man eine Platte sehr schnell hin und her kippen und dadurch eine riesige Zahl kleiner Stahlkugeln ins Rollen bringen, die auf der Platte liegen.“

Die Elektronen im Cadmiumarsenid antworten auf die Beschleunigung, indem sie elektromagnetische Strahlung abgeben. Das Entscheidende: Dabei folgen sie nicht exakt dem Taktstock des Terahertz-Feldes, sondern schwingen auf komplizierteren Bahnen – eine Folge der ungewöhnlichen elektronischen Struktur des Materials. Deswegen senden die Elektronen neue Terahertz-Pulse mit ungeraden ganzzahlig Vielfachen der ursprünglichen Frequenz ab – ein nichtlinearer Effekt ähnlich wie bei einem Piano: Spielt man auf der Klaviatur den Kammerton a, lässt das Instrument nicht nur den Grundton erklingen, sondern ein reiches Spektrum an Obertönen, den Harmonischen.

Für die Welt nach 5G
Perspektivisch verspricht das Phänomen zahlreiche Anwendungen, etwa in der drahtlosen Kommunikation. Hier geht der Trend zu immer höheren Funkfrequenzen: Auf denen lassen sich deutlich mehr Daten übermitteln als auf den heute verwendeten Kanälen. Derzeit implementiert die Branche den 5G-Standard. Bauteile aus Dirac-Materialien könnten eines Tages noch höhere Frequenzen nutzen – und damit noch mehr Bandbreite als 5G ermöglichen. Auch für den Computer der Zukunft scheint die neue Materialklasse interessant: Bauelemente auf Dirac-Basis könnten im Prinzip höhere Taktraten ermöglichen als die heutigen siliziumbasierten Technologien.

Doch erst einmal gilt es, die Grundlagen weiter zu erkunden. „Unser Forschungsergebnis war nur der erste Schritt“, betont Zhe Wang. „Bevor wir an konkrete Anwendungen denken können, müssen wir die Effizienz der neuen Materialien noch steigern.“ Dazu wollen die Fachleute herausfinden, inwieweit sich die Frequenzvervielfachung durch Anlegen eines elektrischen Stroms gezielt steuern lässt. Und sie wollen ihre Proben dotieren, also mit Fremdatomen spicken – in der Hoffnung, die nichtlineare Frequenzkonversion dadurch zu optimieren.

 

Die Corona-Lügen

(Die Zeit) – Verschwörungstheorien tragen per se den Kern des Surrealen in sich, oft sind sie zynisch, fast immer ohne Substanz. Aber die Gerüchte, die zum Coronavirus in diesen Tagen kursieren, sind mehr als das. Sie träufeln Gift in eine Debatte, die bereits von Angst geprägt ist. Auffällig ist, dass sie nicht nur anonym verbreitet werden, sondern offen, auch von Prominenten, denen ein Millionenpublikum zuhört.

Sean Hannity etwa raunte in seiner Radiosendung, „die Angst-Kampagne zu Corona durch den Tiefen Staat“ werde „in die Geschichte als eine der größten Schwindeleien zur Manipulation der Wirtschaft und zur Unterdrückung von Widersprüchen“ eingehen, das habe er von einem Wissenschaftler gehört. Hannity ist ein Vertrauter von Donald Trump, er moderiert neben einer Radiosendung auch eine Fernsehshow auf Fox.

Und David Clarke, einst Sheriff von Milwaukee County, tönte auf Twitter: „Keine einzige Medien-Redaktion hat George Soros’ Verwicklung in die Grippe-Panik hinterfragt. Er ist IRGENDWIE daran beteiligt.“ Clarke, ebenfalls Trump-Unterstützer, folgen 917.000 Follower; sein Tweet mit der antisemitischen Anspielung auf den ungarisch-amerikanischen Milliardär Soros machte die Runde durchs globale Dorf.

Selten zuvor war eine kühle Unterscheidung von News und Fake-News, von Fakten und Gerüchten so wichtig wie in diesen Tagen, in denen die Welt ihre größte nicht militärische Krise seit dem Ende des Zweiten Weltkriegs erlebt. Und nur selten zuvor hat sich so klar gezeigt, was Journalismus von sozialen Medien unterscheidet. Journalismus ist eben nicht das ungeprüfte Weiterverbreiten des jüngsten Gerüchts. Journalismus ist Überprüfung, Verifikation, Einordnung. Journalismus beginnt dort, wo die Hannitys und die Clarkes dieser Welt enden.

In diesen Tagen strahlt eine Form des Journalismus ganz besonders: die des Wissenschaftsjournalismus. Ähnlich wie sich die Politik von den Empfehlungen der Virologen leiten lässt, folgen Journalisten seit vielen Wochen den Fakten der Wissenschaft, schreiben sie fort, räumen Fehler ein und korrigieren sie. Journalismus in Zeiten von Corona ist ein Tasten, bedeutet weniger Gewissheiten und mehr Fragen, weniger Meinungen und mehr Erklärungen.

Als die Verschwörungstheorie zu kursieren begann, das Virus sei im Oktober 2019 bei einer Pandemie-Übung der Gates-Stiftung, des Weltwirtschaftsforums und des Johns Hopkins Center for Health Security freigesetzt worden, ließ sich das schnell aufklären: Die Übung fand in New York statt und war nur eine Simulation. Viele Wissenschaftsjournalisten sind selbst Naturwissenschaftler und verfolgen den akademischen Diskurs und derartige Übungen seit Jahren.

Bedeutet dieser Schwerpunkt auf wissenschaftlichem Journalismus, der mit einer temporären Entpolitisierung der Welt einhergeht, dass Redaktionen auf ihre Rolle als gesellschaftliche Kontrollinstanz verzichten müssen? Nein, das wäre ein Fehler. Journalismus darf sich nie anschmiegen, auch in Krisen braucht eine funktionierende Demokratie Stimmen, die das Handeln der Regierenden hinterfragen. Warum beispielsweise wurden Reisende aus den Corona-Zentren Italien, Iran und China an deutschen Flughäfen wochenlang nicht kontrolliert? Derartige Fragen dürfen nicht nur gestellt werden, sie müssen es. Und wenn, wie in China und Israel, Regierungen die Überwachung ihrer Bürger exerzieren, indem sie die Kontrolle jedes Einzelnen mittels des Smartphones zur Pflicht erheben: Dann müssen Journalisten im Zweifel die Bürgerrechte verteidigen. Sie müssen auf den feinen Unterschied zwischen einem starken, funktionsfähigen und einem übermächtigen Staat hinweisen.

Reporterinnen und Reporter der Online- und Printausgaben der ZEIT sind seit dem Ausbruch des Coronavirus in aller Welt unterwegs. Aber sie sind nicht überall dort, wo sie gerne wären – zum Beispiel nicht in Wuhan, dort, wo das Unheil seinen Anfang nahm. Noch immer ist Wuhan weitgehend Sperrzone, und noch immer versucht die chinesische Regierung, freie, unkontrollierte Interviews, etwa mit Ärzten, zu zensieren. Ähnlich wie in anderen internationalen Konflikten ist die Wahrheit auch in dieser Gesundheitskrise ein rares Gut. Und nicht nur Trumps Anhänger machen mit dem Virus Politik, auch die Chinesen tun das.

Es könnte doch „die US-Armee gewesen sein, die die Epidemie nach Wuhan gebracht hat“, behauptete der chinesische Diplomat Zhao Lijian per Twitter und forderte von den USA: „Legt eure Daten offen! Die Vereinigten Staaten schulden uns eine Erklärung!“

Zhao Lijians Anschuldigung ist ein Beispiel dafür, dass Verschwörungstheorien auch vor staatlichen Stellen nicht haltmachen. Und eine Erinnerung daran, welchen Wert eine freie Presse gerade in Krisen wie dieser besitzt.

Holger Stark

Deutschland schläft digital weiter, Schulen haben das Nachsehen

(Der Tagesspiegel) – Von den fünf Milliarden Euro aus dem Digitalpakt sind bisher erst 20 Millionen bewilligt. In einigen Bundesländern ist noch gar kein Vorhaben beauftragt.

Jahrelang haben Kommunen und Länder auf den Digitalpakt gewartet, der ihre Schulen und deren IT-Ausstattung fit für die Zukunft machen soll. Doch offenbar haben nicht alle die Zeit gründlich genutzt, um sich auf den Tag vorzubereiten, an dem sie die Mittel aus dem fünf Milliarden schweren Pakt endlich abrufen können.

Sieben Monate, nachdem der Pakt in Kraft getreten ist, gibt es einige Länder, in denen bislang kein einziger Antrag bewilligt worden ist.

Und auch dort, wo es zügig vorangeht, stoßen Kommunen und Schulträger teilweise auf Schwierigkeiten – weil das Geld nicht ausreicht, um die Schulen so gut auszurüsten, wie es eigentlich nötig wäre. Das ergibt eine Abfrage von Tagesspiegel Background Digitalisierung & KI bei allen Bundesländern.

Vier Länder haben aus dem Digitalpakt kein Vorhaben bewilligt
Demnach haben Hessen, Schleswig-Holstein, Sachsen-Anhalt, Thüringen und das Saarland bisher noch kein einziges Vorhaben bewilligt – auch wenn Anträge in den meisten dieser Länder inzwischen durchaus vorliegen und teilweise in Kürze auch grünes Licht erhalten sollen, wie zum Beispiel Schleswig-Holstein meldet.

Keine Antwort auf die Anfrage, für deren Antwort die jeweiligen Kultusministerien zwei Wochen Zeit hatten, gab es aus Mecklenburg-Vorpommern.

Schnell geht es beim Digitalpakt in Sachsen
Besonders schnell handelten dagegen die Sachsen. Den ersten Förderbescheid überreichte Kultus-Staatssekretär Herbert Wolff bereits im vergangenen August: und zwar eine Bewilligung über 3,6 Millionen Euro für den Landkreis Zwickau, der damit hauptsächlich das W-Lan in seinen Schulen verbessern will.

Sachsen scheint überhaupt insgesamt am weitesten zu sein: 18 Anträge mit einem Volumen von 8,4 Millionen Euro wurden bis Ende 2019 freigegeben.

Berlin hat 492.000 Euro freigegeben
Neun weitere Länder haben bereits Anträge bewilligt. Vergleichsweise viel Geld hat auch Hamburg schon verplant: Die Hansestadt hat Maßnahmen für 34 Schulen in Höhe von sieben Millionen Euro beauftragt, hier geht es vor allem um die W-Lan-Ausstattung.

Bei über einer Millionen Euro liegen ebenso Baden-Württemberg und Niedersachsen. Berlin hat 492.000 Euro freigegeben, davon profitieren 44 Schulen. Erste Förderbescheide überreicht hat zudem Bayern, nennt dazu aber keine Summen.

Bundesweit sind damit bislang nur insgesamt 20 Millionen Euro der fünf Milliarden Euro bewilligt, die zur Verfügung stehen. Der Pakt läuft bis zum Jahr 2024.

Lange wurde im Vorfeld zwischen Bund und Ländern gerungen, was mit den Mitteln überhaupt finanziert werden darf. Soll nur die IT-Infrastruktur verbessert werden, also zum Beispiel die W-Lan-Ausleuchtung, wie ursprünglich geplant? Das hätte die Schulen benachteiligt, die bereits gut angebunden sind.

Laptops, Interaktive Tafeln, Wlan – die Bedarfe sind vielfältig
Daher dürfen solche Einrichtungen jetzt auch Endgeräte wie Laptops oder Tablets anschaffen. Einige der jetzt angeschobenen Vorhaben zeigen, dass die Bedarfe tatsächlich vielfältig sind:

  • Die Schulen in NRW investieren zunächst vor allem in die Vernetzung des Schulgebäudes und die W-Lan-Netze, hier handelt es sich um elf freigegebene Anträge.
  • Die erste in Bayern geförderte Kommune, Karlstadt, beschafft digitale Tafelsysteme, Tablet-Klassensätze, aber auch Audiosysteme für Hörgeschädigte.
  • In Bremen, wo die Netz-Abdeckung nach Auskunft der Senatsverwaltung bereits gut ist, wurden zunächst vor allem Präsentationsmedien – etwa interaktive Tafeln – und Arbeitsgeräte wie Tablets und Laptops geordert.
  • Die 44 Berliner Schulen wiederum, die jetzt in der Hauptstadt als Erste gefördert werden, bauen ihre pädagogischen Schulserver aus.
  • Laptops und Activeboards (auch das sind interaktive Tafeln) beschafften fünf Grundschulen aus Helmstedt, die in Niedersachsen zu den ersten unterstützten Einrichtungen gehören.

Woran liegt es, dass in einigen Ländern schon Geld fließt oder zumindest zahlreiche Anträge bewilligt sind, während in anderen Anträge erst langsam eintrudeln? Schon als es um die Förderrichtlinie ging – die Voraussetzung, um Mittel vergeben zu können – reagierten einige Länder unmittelbar, während andere trödelten.

In Sachsen trat die Förderrichtlinie Mitte Mai in Kraft, in Bayern Ende Juli, in Brandenburg Anfang August, in Hessen dagegen erst Anfang Dezember. Um Schulen erste, schnelle Anschaffungen zu ermöglichen, richtete Bremen als einziges Land sogar ein „Initialbudget“ ein. Aus diesem konnten Grundschulen je 5000 Euro, Oberschulen je 10.000 Euro und Gymnasien je 15.000 Euro abrufen.

Schulen sind unterschiedlich gut auf den Digitalpakt vorbereitet
Überhaupt scheinen die Schulen unterschiedlich gut auf den Digitalpakt vorbereitet zu sein. Schulen, die von den Mitteln profitieren wollen, müssen zunächst ein Medienkonzept einreichen. „Die Technik folgt der Pädagogik“, hatte bereits die ehemalige Bundesbildungsministerin Johanna Wanka (CDU) als Devise vorgegeben.

In Bayern hatten laut Auskunft des Ministeriums alle Schulen im Juli 2019 ein solches Konzept aufgestellt – während in Baden-Württemberg aktuell noch immer solche Entwicklungspläne eingereicht werden.

In Bayern mussten die Schulen auch schon bis zum vergangenen Juli ihre Ausstattungsbedarfe aufstellen. Sachsen-Anhalt dagegen berichtet, Schulträger würden sich aktuell „in der Phase der Bestandsaufnahme“ befinden. Dieser „Erstaufwand“ gestalte sich gerade bei größeren Schulträgern mit vielen Schulen als „sehr hoch und zeitaufwendig“. Das Land wolle gründlich prüfen, um Fehlinvestitionen zu vermeiden.

Dass die Länder oft keinen Überblick über die IT-Ausstattung ihrer Schulen haben, wurde bereits im vergangenen Jahr kritisiert.

Heruntergerechnet auf jede Schule bleibt nicht so viel Geld
Nun klingen fünf Milliarden Euro für den Digitalpakt erst mal wie eine enorme Summe – heruntergerechnet auf die 40.000 Schulen in Deutschland sind es aber mal gerade 120.000 Euro, die pro Einrichtung übrig bleiben. Die Bundesländer haben praktisch durchgehend einen Verteilschlüssel für ihre Kommunen und Schulträger aufgestellt, damit diese mit festen Summen planen können, auch in Berlin.

Die Digitalisierung der Schulen – lesen Sie zum Thema auch:

  • Robotik für Anfänger: Kaum flächendeckende IT-Fortbildungen für Lehrkräfte
  • Bundesweite Schul-Cloud: Unterwegs ins digitale Klassenzimmer
  • Digitaler Unterricht: „Eigentlich müsste man bei den Lernarragements anfangen“
  • Digitale Bildung „besorgniserregend“: Jeder dritte Schüler kann mal gerade E-Mails öffnen

In einigen Kommunen hat schon das große Rechnen begonnen, inwieweit sich der Pakt für sie eigentlich lohnt. Dass auf sie viele Extrakosten zukommen, zeigt das Beispiel der Stadt Zwickau.

Ein Problem: Die Kosten für die Wartung fehlen
Dort kalkulierte das Amt für Familie, Schule und Soziales im Dezember, dass „für eine vollständige und optimale Umsetzung des Digitalpaktes“ zusätzlich hohe Summen nötig sind: nämlich fast 600.000 Euro, ungefähr ein Fünftel der Mittel, mit denen die Stadt aus dem Digitalpakt rechnen kann.

Denn die Festbeträge, die in den Förderrichtlinien für den Pakt etwa für Server, Endgeräte oder interaktive Tafeln vorgesehen sind, „entsprechen leider nur bedingt der aktuellen Marktsituation“, heißt es in einer Vorlage, die dem Tagesspiegel vorliegt.

Nochmal mehr als 600.000 Euro jährlich könnten später für die Wartung und Fachkräfte für den IT-Support dazukommen – was ebenfalls nicht durch den Pakt abgedeckt ist. Auch aus Schulen in anderen Bundesländern ist zu hören, es sei ein großes Problem, dass die Wartung nicht mit abgerechnet werden dürfe.

Der Bundestag wird übrigens erst am 15. März eine erste Übersicht über die Umsetzung des Digitalpaktes erhalten. Dann will die Bundesregierung dem Haushaltsausschuss darüber berichten, wie aus der Antwort des BMBF auf eine Kleine Anfrage der FDP-Fraktion hervorgeht. Dieser kann man auch entnehmen, dass der Bund bislang keinen Überblick über die Aktivitäten der Länder hat, obwohl er ja der Hauptgeldgeber ist.

„Der Bund darf zahlen, steht aber bei der Umsetzung des Digitalpakt unbeteiligt am Spielfeldrand“
Für Katja Suding, die stellvertretende FDP-Fraktionsvorsitzende, ist das nicht hinnehmbar. „Der Bund darf zahlen, steht aber bei der Umsetzung des Digitalpaktes unbeteiligt am Spielfeldrand“, kritisiert Suding.

Die Länder seien vielfach nicht einmal verpflichtet, ihm über die Verwendung der Bundesmittel Bericht zu erstatten. „Wir brauchen daher dringend eine weitergehende Modernisierung des Bildungsföderalismus und mehr Verantwortung für den Bund in der Bildung“, erklärte Suding dem Tagesspiegel.

Tilmann Warnecke Miriam Schröder

Beethovens Unvollendete wird durch KI vollendet

(dpa) – Mit Hilfe künstlicher Intelligenz soll Ludwig van Beethovens unvollendete 10. Sinfonie vollendet werden. Ein internationales Team aus Musikwissenschaftlern und Komponisten, dem Pianisten Robert Levin und Computer-Experten arbeite an dem Projekt, berichtet die «Frankfurter Allgemeine Sonntagszeitung» (FAS).

Ein Sprecher der Deutschen Telekom, die das Vorhaben initiiert hat, bestätigte das Vorhaben am Sonntag auf dpa-Anfrage.

Die Sinfonie soll demnach am 28. April vom Beethoven-Orchester in Bonn uraufgeführt werden. Im kommenden Jahr wird der 250. Geburtstag des berühmten Komponisten (1770-1827) groß gefeiert. Von der 10. Sinfonie, die Beethoven nicht mehr vollenden konnte, sind nur einige handschriftliche Skizzen und Notizen erhalten.

Dem FAS-Bericht zufolge wollen die Wissenschaftler einen Algorithmus so trainieren, dass er die vielen fehlenden Passagen Beethoven-gemäß ergänzt. Was dabei herauskomme, wisse keiner der Beteiligten. «Der Algorithmus ist unberechenbar, er überrascht uns jeden Tag aufs Neue», sagte Projektkoordinator Matthias Röder, Direktor des Karajan Instituts (Salzburg), der Zeitung. «Er ist wie ein kleines Kind, das die Welt Beethovens erkundet.»

Schon häufiger gab es Versuche, Computerprogramme komponieren zu lassen. Dazu zählt die «Fertigstellung» der berühmten unvollendeten 8. Sinfonie in h-Moll von Franz Schubert (1797-1828). Der chinesische Smartphone-Hersteller Huawei setzte das Projekt um, Uraufführung war im Februar 2019 in London.

90 Jahre TELI und wer Jean Pütz den Psychiater ersetzt …

(TELI) – Die Jubiläumsveranstaltung am 6. November 2019 ist eine gute Gelegenheit, um darüber zu spekulieren, wie die TELI auch in Zukunft mithelfen kann, die öffentlichen Debatten noch intensiver zu bereichern, die nach Wegen aus perfekten Problemen suchen. Perfekte Probleme sind solche, die schlimmer werden, wenn man sie zu lösen versucht.

Die enorme Technikaffinität der Gesellschaft wird überschattet, vielleicht sogar untergraben von Geschäftsmodellen und politischen Praktiken, die den Nutzen von Technik vielfach fragwürdig, ja sogar gefährlich erscheinen lassen. Es sind diese wirtschaftlichen Verwertungszwänge, die den Nährboden für Mythen, Verschwörungstheorien und sogar Lügen bilden.

Genau da sieht die TELI ihre Aufgabe, den Menschen zu helfen, über selbst gezogene Horizonte weit hinauszudenken und die Möglichkeiten von Technik, aber auch die Grenzen ihrer Verwertung aufzuzeigen.

Einst wurde die TELI als Gesprächsraum für Technikjournalisten und Pressesprecher von damals besonders innovativen Unternehmen gegründet. Doch seitdem hat sich die TELI zu einer populären Dialogplattform entwickelt, deren Mitglieder auch eigenständig wissenschaftliche und technische Fakten in Medien und der Öffentlichkeit verbreiten. Sie verliert dabei nie die kritische Würdigung neuer Entwicklungen aus den Augen. Das ist eine Rolle, die sie sich bereits vor Jahrzehnten zugedacht hat, lange vor theoretischen Überlegungen zu Technikfolgenabschätzungen (https://www.teli.de/die-teli/ziele/).

Konsequenterweise sind die Mitglieder der TELI inzwischen keineswegs nur Journalisten, Pressesprecher und Kommunikatoren, sondern auch aktive Forscher und kritische, interessierte Laien. Geschuldet ist diese Öffnung natürlich auch den dramatischen Wandlungen in der Medienwelt und in der Forschungslandschaft.

Die vier Protagonisten auf dem Podium der TELI-Jubiläumsveranstaltung am 6. November 2019 sind in den gesellschaftlichen Debatten über Wissenschaft, Forschung und Technik halb so lange aktiv, wie die TELI jetzt alt ist. Sie erfuhren, wie es dazu kam, dass die Welt mit Klimawandel, Umweltverschmutzung, steigender Armut und unbehandelten Krankheiten aus dem Ruder lief – obwohl das Wissen seit vielen Jahrzehnten allgemein bekannt und weit verbreitet ist. Aus dieser Erfahrung heraus können sie vielleicht aber auch Wege aufzeichnen, komplexe Probleme zu lösen, wobei es für komplexe Probleme eben auch keine einfachen Lösungen gibt.

Kommen Sie also zum Empfang aus Anlass des 90-jährigen Bestehens der TELI am 6. November 2019, lassen Sie sich inspirieren und lernen Sie anregende Menschen kennen – und feiern Sie mit

Jean Pütz, das prominenteste TELI Mitglied, blickt uns im aktuellen Stern aus seinem Gartenstrandkorb entgegen. Genau so, wie wir ihn 30 Jahre lang in der WDR-Hobbythek kennengelernt haben, mit Einstein-Zottelkopf und markantem Schnauzer.

Der heute 82-Jährige, mit dessen Kult-Sendung  („Ich hab da mal was vorbereitet“) viele von uns wissenschaftlich-technisch sozialisiert worden sind, ist wie eh und je umtriebig wie kein Anderer.

Im Stern (#30/2019) steht er zu seinem lebenslangen Credo, authentisch zu bleiben – und in seinem Kölschen Sing-Sang seine laute Stimme gegen Öko-Missstände zu erheben. Den Diesel hält er für den effizientesten Verbrennungsmotor seit Erfindung der Dampfmaschine und viel nachhaltiger als Elektroantriebe mit der ressourcen-fressenden Akku-Technik. Die Grünen zeiht er des Wunschdenkens und einer katastrophalen Politik.

Der meinungsfreudige Mann ist einer der großen wissenschaftlich-technologischen Influencer in diesem Lande. Sein Facebook Konto, dem er täglich drei Stunden Arbeit mit neuen Debattenbeiträgen widmet, hat 40.000 Follower. „Facebook erspart mir den Psychiater“, sagt er im Stern-Interview. Wenn er die Widersprüche der Politik in sich hineinfräße, hätte er ein Problem. „Nee nee, dat muss raus!“

Seine tragende Rolle sieht er als Hofnarr. Immerhin habe er „die närrische Reifeprüfung bestanden“. „Hofnarren waren hochintelligent und befugt, dem Souverän die Leviten zu lesen. Das mache ich.“

„Dran bleiben!“, lieber Jean Pütz, rufen Ihnen die TELIaner zu. Wir brauchen mehr von Ihrem Kaliber!

Wolfgang Goede

Ein Bericht über Quantencomputer – Mit kritischem Leserbrief von Mathematiker Prof. Dr. Ulrich Trottenberg

Anders als im Leitartikel „Digitales Wettrüsten von Andrian Kreyevom vom 25.10.2019″ unterstellt, gibt es allein in Deutschland sicher Tausende von Wissenschaftlern, die über die quantenphysikalischen Prinzipien des Quantencomputing gut informiert sind, u. a.  alle Physiker, Mathematiker und Informatiker, die sich mit dem Gebiet der Quantenmechanik systematisch beschäftigt haben oder beschäftigen. Und es trifft gerade nicht zu, dass sich die beiden für Quantencomputer fundamentalen Quantenphänomene, die Superposition und die Verschränkung, der menschlichen Logik entziehen, wie der Autor es formuliert. Diese Phänomene mögen sich der Anschauung und der Intuition (der meisten Menschen) entziehen; sie lassen sich aber mathematisch, und genau das heißt ja mit menschlicher Logik präzise erfassen. Es ist schade, dass ein so prominent platzierter Artikel in der SZ die quantenphysikalischen Zusammenhänge eher verdunkelt als erhellt.
Prof. Dr. Ulrich Trottenberg
Fraunhofer-Institut für Algorithmen und
Wissenschaftliches Rechnen (SCAI)
Institutsleiter (emeritus)
Schloss Birlinghoven
D-53754 Sankt Augustin

Ein Superdatenspeicher für Europa ?

(BMWi) – Wenn Sie sich für dieses Thema ausführlich interessieren wollen, empfehle ich Ihnen folgenden Artikel. Es ist sozusagen eine Darstellung der Probleme, die entstehen, wenn Europa sich nicht unabhängig macht von amerikanischen oder chinesischen Cloud-Anbietern und wie die Probleme gelöst werden können.
Ihr Jean Pütz

Wir, Vertreter der deutschen Bundesregierung, Wirtschaft und Wissenschaft, streben eine leistungs- und wettbewerbsfähige, sichere und vertrauenswürdige Dateninfrastruktur für Europa an. Dazu haben wir unter dem vorläufigen Projektnamen GAIA-X die Grundlagen für den Aufbau einer vernetzten, offenen Dateninfrastruktur auf Basis europäischer Werte erarbeitet. Das Projekt dient dem Ziel,

1. die technische und wirtschaftliche Konzeption einer solchen Infrastruktur zu konkretisieren,
2. auf dieser Basis ein gemeinsames Ökosystem von Anwendern und Anbietern aus Organisationen der öffentlichen
Verwaltung, des Gesundheitswesens, Unternehmen und wissenschaftlichen Einrichtungen zu schaffen
3.sowie unterstützende Rahmenbedingungen und Strukturen zu etablieren.
Wir verstehen das „Projekt GAIA-X“ als Wiege eines offenen digitalen Ökosystems, in dem Daten sicher und vertrauensvoll verfügbar gemacht, zusammengeführt und geteilt werden können. Unser Ziel ist es, gemeinsam mit weiteren europäischen Ländern für Europa, seine Staaten, seine Unternehmen und seine Bürgerinnen und Bürger die nächste Generation einer vernetzten Dateninfrastruktur zu schaffen, die den höchsten Ansprüchen an digitale Souveränität genügt und Innovationen fördert.
Ausgehend von den europäischen Werten orientieren wir uns an diesen Leitprinzipien:
1. Europäischer Datenschutz
2. Offenheit und Transparenz
3. Authentizität und Vertrauen
4. Souveränität und Selbstbestimmtheit
5. Freier Marktzugang und europäische Wertschöpfung
6. Modularität und Interoperabilität
7. Nutzerfreundlichkeit

Wirtschaft, Wissenschaft und Politik sind entschlossen, gemeinsam die Voraussetzungen für eine zukunftsorientierte und innovative Datenökonomie in Deutschland und Europa zu schaffen. Wirtschaft und Gesellschaft erwarten zu
Recht, dass die digitale Infrastruktur ein hohes Maß an Sicherheit und Verfügbarkeit aufweist.

Unter Dateninfrastruktur verstehen wir eine vernetzte technische Infrastruktur aus Komponenten und Diensten, die den Zugang zu Daten sowie deren Speicherung, Austausch und Nutzung gemäß vordefinierten Regeln ermöglicht. Unter einem
digitalen Ökosystem verstehen wir das Netzwerk aus Entwicklern, Anbietern und
Anwendern digitaler Produkte und Services in Verbindung mit Transparenz, breitem Zugang und vitalem Austausch. Es stellt somit eine entscheidende Grundlage für europäisches Wachstum, digitale Innovationen und neue Geschäftsmodelle dar.
Wir setzen auf bewährte Stärken Europas. Dazu zählen unter anderem die Vielfalt der Angebote sowie starke mittelständische und dezentrale Strukturen. Auf diese Weise verknüpfen wir die zahlreichen über Europa verteilten Investitionen in digitale Technologien und lassen sie stärkere Wirkung entfalten.

Das „Projekt GAIA-X“ sieht die Vernetzung dezentraler Infrastrukturdienste, insb. Cloud- und Edge-Instanzen, zu einem homogenen, nutzerfreundlichen System vor. Die daraus entstehende vernetzte Form der Dateninfrastruktur stärkt sowohl die digitale Souveränität der Nachfrager von Cloud-Dienstleistungen als auch die Skalierungsfähigkeit und Wettbewerbsposition europäischer Cloud-Anbieter.
Das Lösungskonzept von GAIA-X beruht auf zentralen technischen Anforderungen an eine Architektur einer vernetzten, offenen Dateninfrastruktur:
1. Datensouveränität im Sinne einer vollständigen Kontrolle über gespeicherte und verarbeitete Daten sowie die unabhängige Entscheidung darüber, wer darauf zugreifen darf.
2. Einsatz nachvollziehbar sicherer, offener Technologien, u.a. durch Einsatz von Open Source Grundsätzen, in einem offenen Ökosystem.
3. Dezentrale bzw. verteilte Datenverarbeitung über Multi-Edge, Multi-Cloud oder Edge-to-Cloud Verarbeitung für die Gewinnung von Verbundvorteilen.
4. Interoperabilität sowohl hinsichtlich technischer und semantischer Standards als auch im Sinne einer Interkonektivität auf Netzwerk-, Daten- und Dienstebene zwischen Edge- oder Cloudinstanzen.
5. Unabhängige und automatisierbare Zertifizierung und Kontrahierung eines Teilnehmers am GAIA-X-Ökosystem bzgl. der Einhaltung des GAIA-X-Regelwerkes hinsichtlich IT-Sicherheit, Datensouveränität, Service Levels und Rahmenverträgen.
6. Bereitstellung zentraler Dienste, die das Ökosystem für einen sicheren und anwendungsfreundlichen Betrieb benötigt (z.B. Authentifizierung).
7.Selbstbeschreibende GAIA-X-Knoten zur Förderung der Transparenz, aber auch zur Schaffung neuer Geschäfts- und Anwendungsmodelle teilnehmerübergreifend (z.B. Daten- oder Dienstvermittlung).Die Offenheit für nationale und europäische Initiativen mit ähnlicher Zielrichtung gibt dem Projekt ein entscheidendes Momentum für eine gemeinsame europäische Lösung. Aufbauend auf existierenden Lösungen und deren
Weiterentwicklung wollen wir aus Europa heraus wettbewerbsfähige Angebote für die Welt entwickeln.

Die Mitwirkung steht auch Marktteilnehmern außerhalb Europas offen, die unsere Ziele der Datensouveränität und Datenverfügbarkeit teilen.
Die vernetzte Dateninfrastruktur ist auf die Bedürfnisse sowohl der Anbieter als auch der Anwender zugeschnitten:
Sie stärkt die Transparenz und Sichtbarkeit auf Anbieterseite, treibt Innovationen im Bereich der Datenökonomie voran, umfasst ein klares Bekenntnis zur Interoperabilität der Angebote und verknüpft Unternehmen jeder Größe vom Industriekonzern über Mittelständler bis hin zu Start-ups.
Zur Umsetzung der vernetzten Dateninfrastruktur erachten wir eine zentrale, europäisch getragene Organisation für notwendig. Sie soll aus wirtschaftlicher, organisatorischer und technischer Sicht die Basis für eine vernetzte Dateninfrastruktur sein. Ihre Aufgabe wird sein, eine Referenzarchitektur zu entwickeln, Standards zu definieren sowie Kriterien für Zertifizierungen und Gütesiegel vorzugeben. Sie soll ein neutraler Mittler und Kern des europäischen Ökosystems sein.

Wir ermöglichen mit diesem Konzept einer vernetzten Dateninfrastruktur, dass sich Europa mit einem vitalen Ökosystem in der Datenökonomie entfalten kann. Wir streben ein Ökosystem an, das Wirtschaft, Wissenschaft, Staat und Gesellschaft gleichermaßen Souveränität und Nutzen bietet.