Archiv der Kategorie: Computer, TV, Medien

App erlaubt Totalüberwachung ! Mit einem Vorwort von Jean Pütz

Der Roman 1984 von George Orwell  beschrieb die Möglichkeit der perfekten Überwachung des Individuums in der Zukunft. Ich war Redaktionsleiter für Naturwissenschaft und Technik in diesem Jahr 1984 im WDR-Fernsehen.
Aus der damaligen Sicht schien uns das als Utopie ohne realen Bezug. Das sich anbahnende Internet war nur für Wissenschaftler und Geheimdienste zugänglich. Bekanntermaßen änderte sich das rasant. Anfangs gewannen wir dem sehr viel Positives ab, ermöglichte es doch – wie niemals zuvor – an jeden Bürger ganz individuell alle möglichen  Nachrichten zukommen zu lassen.   Wir glaubten, das würde der Demokratie enorm nützen.

Aber das Gegenteil ist der Fall. Eine psychologische Tatsache hatten wir übersehen, die sogenannte ‚selektive Wahrnehmung‘. Der Bürger – sprich das Individuum – wählt aus der enormen Fülle von Informationen nur das heraus, was in sein beschränktes Gehirn hinein passt. Dadurch können sich Fakenews, also falsche und bewusst manipulierte Nachrichten, verbreiten wie niemals zuvor.  Wer hätte gedacht, dass das in eine Art postfaktisches Zeitalter mündet. Es ist nicht nur die Ära Trump, die das brutal ausnutzt, sondern mittlerweile bringt es die gesamte demokratische Welt in die Bredouille. Es ist der Nährboden für die Populisten, leider nutzen das auch schon viele Volksparteien, um ihre Anhänger hinter sich zu scharen oder neue Anhänger zu gewinnen. Datenschutzgesetze können dem leider nicht Einhalt gebieten.

Aber nicht nur das, in China wird mittlerweile die Vision von George Orwell zum Alltag, jeder überwacht jeden, bekommt Minus- oder Pluspunkte und der Einbruch in die Privatsphäre durch Apps, die scheinbar das Leben erleichtern, ist dort Realität.

Aber auch in den westlichen Demokratien nehmen die Möglichkeiten des privaten Abhörens immer mehr Raum ein, z. B. Alexa von Amazon oder Google home machen es möglich

Mit welchen Tricks z. B. die Chinesen ihre Bürger gleichschalten, darüber der folgende Artikel

Ihr Jean Pütz

(pte) – Die von der Kommunistischen Partei Chinas Anfang dieses Jahres gestartete App „Study the Great Nation“ („Lerne über die große Nation“) spioniert mehr als 100 Mio. Android-User aus. Laut einem Bericht des deutschen Cybersecurity-Unternehmens Cure53 erlaubt die Anwendung der chinesischen Regierung den kompletten Zugang zu den Smartphones der Nutzer.

Sogar Zugriff auf Handy-Lampe
Die App kann auf Fotos und Videos zugreifen und über die Front-Cam auch selbst Aktivitäten der User mitschneiden, den Standort des Nutzers ermitteln, Telefonnummern wählen und die Liste der Kontakte sowie die Internetaktivitäten sehen. „Die App hat auch Einsicht in Informationen von 960 weiteren Apps und kann sogar selbständig auf das WLAN der User und sogar die Taschenlampe des Smartphones zugreifen“, heißt es in dem Bericht. Cure53 fand all diese Überewachungsfunktionen im Code von „Study the Great Nation“ verborgen.

Die App erklärt Nutzern anhand von Artikeln und Videos die Ideologie und Aktivitäten von Staatspräsident Xi Jinping. Sie bietet auch ein Quiz über die gelernten Informationen an, bei dem die besten Spieler auf einer Liste erscheinen. Jedoch hat sich herausgestellt, dass es sich dabei nicht bloß um ein Propaganda-Tool handelt, sondern um ein Instrument der totalen Überwachung. Mit über 100 Mio. Downloads hat die App eine sehr hohe Reichweite.

Chinesische Regierung dementiert
Laut der „Washington Post“ ist Study the Great Nation auch für iOS-Systeme erhältlich. Cure53 hat von dieser Version der App allerdings noch keine Analyse gemacht. Apple zufolge kann hier aber kein „Super-User“ auf die Anwendung zugreifen. Die chinesische Regierung widerspricht dem Bericht und behauptet, es gäbe keine Überwachung über die App.

Elektrische Energie für das Internet der Dinge – Mit einer Vorbemerkung von Jean Pütz

Gestatten Sie mir eine kurze Vorbemerkung.

Offenbar steht das Internet der Dinge kurz vor der Realisierung. Es scheint auch manchem Bürger das Leben erleichtern zu wollen, aber das ist auch die Gefahr, denn die Nebenwirkungen und Risiken werden selten bedacht.

Ich bin bekanntlich kein Technologie-Verweigerer, gebe aber zu bedenken, dass über die Verknüpfung mit dem Internet immer mehr private Daten preis gegeben werden die unsere individuelle Freiheit auf längere Sicht beeinträchtigen. Die gut meinenden Datenschutzgesetze können auf einfachste Weise ausgehebelt werden, nicht nur durch kriminelle Machenschaften.

Ihr Jean Pütz

(pte) – Schwedische und chinesische Wissenschaftler haben organische Solarzellen entwickelt, die normales Umgebungslicht in Innenräumen in Elektrizität verwandeln. Die Leistung, die dabei erzeugt wird, ist zwar relativ gering. Immerhin soll sie aber ausreichen, um den Energiehunger von Millionen von Produkten zu stillen, die künftig im Internet of Things (IoT) zuhause, im Büro oder im Supermarkt betrieben werden, so die Forscher.

Nachfrage steigt kontinuierlich
„Mit der Ausbreitung des IoT werden wir bald Millionen vernetzte Produkte sowohl in öffentlichen Orten als auch bei uns zuhause haben“, erklären Feng Gao, Senior Lecturer in der Division of Biomolecular and Organic Electronics der Linköping University, und Jianhui Hou, Professor am Institut für Chemie der Chinese Academy of Sciences  . Viele davon werden mit Sensoren ausgestattet sein, die etwa die Feuchtigkeit, Temperatur oder bestimmte Partikelkonzentrationen messen. „Deshalb wird die Nachfrage nach kleinen und günstigen erneuerbaren Energiequellen rapide ansteigen“, sind die Experten überzeugt.

Genau hier will das internationale Team aus Schweden und China mit seiner Entwicklung ansetzen. „Diese Arbeit lässt Großes hoffen, wenn es um den Einsatz von organischen Solarzellen in unserem täglichen Alltagsleben und die Versorgung von IoT-Geräten geht“, stellt Gao klar. Im Moment stecke die Technologie für Indoor-Anwendungen allerdings noch eher in ihren Kinderschuhen. „Wir sind zuversichtlich, dass sich die Effizienz von organischen Solarzellen, die bei Umgebungslicht funktionieren, in den kommenden Jahren noch weiter steigern lässt“, so Hou.

Über ein Volt Stromspannung
Organische Solarzellen basieren auf der Verwendung eines sogenannten Donator-Akzeptor-Systems. Dieses lässt sich durch geschickte Kombination verschiedener Halbleiter flexibel feintunen, um Lichtstrahlen mit bestimmten Wellenlängen einzufangen. Das Team hat einen neuen Mix aus Donator- und Akzeptor-Materialien entwickelt, der sich als aktive Beschichtung von organischen Solarzellen nutzen lässt und exakt jene Lichtwellen absorbieren kann, die beispielsweise im heimischen Wohnzimmer zu finden sind.

Zu Testzwecken haben die Wissenschaftler zwei Varianten ihrer Indoor-Solarzellen im Labor hergestellt: eine mit einem Durchmesser von einem Quadratzentimeter und eine mit vier Quadratzentimetern. Die kleinere wurde Umgebungslicht mit einer Stärke von 1.000 Lux ausgesetzt und konnte 26,1 Prozent der Energie in Elektrizität umwandeln. Dabei erzielte sie eine Stromspannung von über einem Volt, die mehr als 1.000 Stunden anhielt. Die größere Solarzelle schaffte es immerhin auf eine Energieeffizienz von 23 Prozent.

Überwachung mittels KI nimmt weltweit zu – Mit einem Statement von Jean Pütz

Liebe Besucher meiner Homepage !

Wie im Artikel dargestellt, ist die KI-Überwachung nicht nur ein Problem in autoritären Staaten. Leider machen immer mehr Demokratien davon Gebrauch. Das soll allen Menschen, die individuelle Rechte als Grundbestandteil unserer freien aber engagierten Lebensart eine Warnung sein. Das Punkte-System in ‚Plus‘ und ‚Minus‘, selbst bei geringsten Verhaltensanomalitäten sollte uns alle wachrütteln.

Auch in Deutschland entwickeln sich immer mehr solche Tendenzen, die schleichend damit beginnen, Verbote in unseren Alltag zu verordnen. Sogar Abmahn-Organisationen, die sich ‚Umwelthilfe‘ nennen und als Ziel den Umweltschutz vorgeben. Sie animieren Gerichte, für jeden Verstoß im Namen des Gesetzes Sanktionen auszuüben, die in individuelle Überwachung münden. Schon heute existiert die Technologie,  jedes Auto mit Nummernschild zu fotografieren und in der Datenbank festzuhalten. In Parkhäusern wird das heute schon angewandt.  Aber auch Verbote wie die Ächtung des Verbrennungsmotors, lechzen nach Kontrolle – und vieles andere mehr.

Leider ist auch vielen Volksparteien diese unmerkliche Tendenz zur Überwachung des Einzelnen nicht bewusst. Es entstehen immer mehr Gesetze die das fördern. Keiner merkt, dass durch die Einschränkung individueller Freiheit auch ein großes Stück Kreativität verloren geht.

Das ist ein Meinungsartikel – Sie können sich ihre eigene Meinung selbst gestalten.

Ihr Jean Pütz

(pte027/19.09.2019/13:30) – Die Überwachung von Menschen mithilfe Künstlicher Intelligenz (KI), etwa durch automatische Gesichtserkennung, nimmt weltweit zu. Das stellt die Carnegie-Stiftung für internationalen Frieden fest. Führend sei in diesem Bereich China, doch immer mehr Staaten folgten diesem Beispiel. Derzeit nutzen 75 Länder KI zur Überwachung der Bürger, darunter längst nicht nur mehr autokratisch regierte Staaten, sondern auch jene wie die USA und Frankreich, so die Forscher.

Illegal und oft sogar gefährlich
Den Experten nach sind chinesische Unternehmen technologisch führend im Bereich der Überwachung durch KI, angeführt von Huawei und Hikvision. Dazu gesellen sich das japanische Unternehmen NEC sowie die US-Firmen IBM, Palantir und Cisco. Der Report nennt eine breite Palette von KI-Werkzeugen zur Überwachung. Er unterscheidet allerdings nicht zwischen Maßnahmen, die der öffentlichen Sicherheit dienen, und solchen, die illegal oder gar gefährlich sind, etwa das Ausspionieren von politischen Gegnern.

„Ich hoffe, dass die Menschen härtere Fragen dazu stellen, wie und wozu diese Technologie genutzt wird und welche Auswirkungen sie hat“, sagt Steven Feldstein, Mitglied der Stiftung und Professor an der Boise State University . Viele Projekte, die Feldstein anspricht, stehen in Zusammenhang mit dem Konzept der Smart City. Städte installieren Kameras, Sensoren und andere internetgebundene Geräte, um Informationen über das Geschehen in der Stadt zu sammeln. Huawei ist hier führend. Die gesammelten Daten lassen sich nutzen, um die Verkehrsführung zu optimieren und Energie zu sparen. Die Systeme würden allerdings zunehmend zur Überwachung und zur Verbesserung der Sicherheit genutzt.

Einsatz von KI beschleunigt sich
Feldstein zeigt sich erstaunt, wie viele Staaten in Europa und anderswo die Einführung von KI-Systemen beschleunigen. Dazu gehören ihm zufolge neben der Gesichtserkennung automatische Grenzkontrollen und Algorithmen, mit denen sich voraussagen lässt, wo und wann Verbrechen geschehen. „Ich dachte, China und sein geografisches Umfeld sowie die Staaten am Golf seien die wichtigsten Nutzer“, so Feldstein. Dabei nutzt inzwischen bereits auch mehr als die Hälfte aller demokratischen Staaten derartige KI-Werkzeuge.

 

Künstliche Intelligenz vs. digitalisierte Medizin

(DGE) – Der Blogbeitrag vom 20./21. August 2019 über „Künstliche Intelligenz (KI) vs. Natürliche Intelligenz“ von Klaus Ehrenberger wurde in meinem Umfeld vielfach diskutiert. Ich wurde gebeten, einige Punkte aus dem Beitrag, die nicht für alle sofort verständlich waren, näher erläutern zu lassen und darf hier zunächst die Antwort von Klaus Ehrenberger  wiedergeben, dann einem Kommentar von mir.

Antwort:

1. Energieverbrauch der Informationsverarbeitung
– Das Gehirn ist ein Energiefresser. Circa 2% der Körpermasse verbrauchen fast 20% der aufgewendeten Körperenergie.
– Im Vergleich dazu ist der Stromverbrauch für Betrieb und Kühlung aller elektronischen Rechner viel größer. Er ist sogar so riesig, dass er Einzug in die aktuelle Klima-Debatte gehalten hat.

2. Informationsverarbeitung des Gehirns
1965 publizierte Nelson Kiang (1) die überraschende Tatsache, dass identische akustische Reize in den zugehörigen Nervenfasern jeweils leicht unterschiedliche Signalfolgen auslösen. Vor 25 Jahren hat unser kleines neurophysiologisches Arbeitsteam nach eingehenden eigenen Untersuchungen versucht, die Sinnhaftigkeit dieser eigenartigen Kodierungsstrategie modellhaft darzustellen (2). (Im Supermarkt etwa ist der auf die Artikel aufgeklebte Barcode die „Kodierungsstrategie“). Immerhin wurde unser Modell bis heute nicht widerlegt. Ein paar Jahre später konnten wir darauf hinweisen, dass das Phänomen der stochastischen Resonanz (= Signalverstärkung durch “inneres Rauschen“), erstmals beschrieben bei Krebsen, auch bei Warmblütern zur Anwendung kommt: die Erregung des zentralnervösen Rauschens verstärkt schwache Signale zu überschwelligen Erregungen.

3. Digital – analoge Signal- und damit Informationsübersetzer
sind Bildschirme, Lautsprecher, I-phones, 3D Brillen, virtuelle Laserprojektionen und was es sonst noch alles gibt.

4. EDV-gesteuerte künstliche Intelligenz ist im Alltag sehr nützlich
und erledigt zahlreiche repetitive Aufgaben. Künstliche Intelligenz ist ein wertvolles Hilfsmittel für den Menschen, aber kein Ersatz für das menschliche Gehirn. Die Künstliche Intelligenz ist ein Arbeitsinstrument und keine reale Welt. Wenn jemand die digitale Welt als reale Welt ansieht, so ist das ein Irrtum, der gefährlich werden kann. Zu glauben, dass die digitale die analoge Welt unnötig machen wird, ist nicht zutreffend. Niemand braucht Angst zu haben, dass der Mensch mit seiner (natürlichen, analogen) Intelligenz in Zukunft unnötig sein wird.

5. Analoge Computer
Die zentralnervöse Informationsverarbeitung ist noch viel zu wenig verstanden, um elektronisch erfolgreich simuliert werden zu können.

Kommentar

Die „Digitalisierte Medizin“ und die „Künstliche Intelligenz“ sind seit Jahren auf unseren  Kongressen ein wichtiges Thema, so auch auf dem diesjährigen Internistenkongress  in Wiesbaden 2019. Gerd Hasenfuß, der Tagungspräsident des Deutschen Internistenkongresses 2016 schrieb in seiner Kongresseinladung (4): „Apple, Google und die sozialen Netzwerke haben den Gesundheitsmarkt entdeckt und werden weitreichenden Einfluss auf die Medizin nehmen. Wir Ärzte müssen die digitale Medizin mitgestalten, um das große Potenzial dieser Entwicklung aus fachlicher Sicht für den Patienten nutzbar zu machen und Schaden durch fehlendes medizinisches Sachwissen zu verhindern“.

Im Buch „App vom Arzt. Bessere Medizin durch digitale Medizin“ stellen Jens Spahn, Markus Müschenich und Jörg F. Debatin, die digitale Medizin aus der Sicht des Gesundheitsmarktes dar (5). Sie schlagen vor, dass ein Patient statt einen, wie sie es nennen, „offline Arzt“ in ihrer Region zu konsultieren,  sich besser einen hervorragenden Spezialisten für diese Erkrankung wenden sollten, der online ist,  etwa auch in Australien. Und „Dr. Watson“, der Großcomputer von IBM, würde auch bei Diagnose und Therapie helfen. Für die so wichtige Empathie freilich sei der Mensch besser geeignet als ein Computer. Da wird jeder Arzt zustimmen. Abschließend in ihrem Buch fragen sie aber, „ob dieser Mensch ein Arzt sein muss. Wer weiss, was Krankenschwestern,  Krankenpfleger,  Seelsorger heute bereits leisten, wird diesen sicherlich zutrauen, auch hier die Wünsche eines Patienten zu erfüllen“. Der Referent, der dieses Buch zu referieren bekam, beendete seine Rezension mit dem Satz: „Bleiben dann nur noch „Dr. Watson“, virtuelle Ärzte und für die Empathie Assistenzpersonen und Seelsorger ? Schöne Neue Welt !“ (6).

Der Großcomputer „Watson“ von IBM, der sich zum Beispiel in der Quizsendung  „Jeopardy!“  zwei menschlichen Gegnern als hoch überlegen erwiesen hatte, wird aber in letzter Zeit wegen falscher Therapievorschläge heftig kritisiert. So sei im Jahre 2018 ein onkologischer Patient unter einer von Watson vorgeschlagenen Therapie zu Tode gekommen. Bei der Behandlung von Tumorerkrankungen sei er bisher keine echte Hilfe (7). Im medizinischen online-Dienst „Stat“ sei im Juli 2018 zu lesen gewesen, dass Watson ungesunde und falsche Therapieempfehlungen für Krebspatienten gegeben habe. Nach anfänglich großen Erwartungen ist die Enttäuschung im medizinischen Bereich umso größer (8). Die KI-Software biete keinen Mehrwert gegenüber Diagnosen von Krebsspezialisten. Viele onkologischen Programme an großen Institutionen wurden inzwischen eingestellt. Auch in der Klinikverwaltung mit Digitalisierung von Patientenakten und Arztbriefen wurde die Zusammenarbeit mit Watson vom Universitätsklinikum Gießen und Marburg wieder beendet, da sich das System als auch im Betrieb sehr teuer und „deutlich weniger intelligent als erhofft“ erwiesen habe (7). Hier erinnert sich der Referent an seine Assistentenzeit in den 1960er Jahren an der II. Medizinischen Universitätsklinik Wien, als der Klinikvorstand Professor Karl Fellinger seine Klinik – vor einem halben Jahrhundert! –  „digitalisieren“ wollte, und einen Großrechner, ich meine es war ein IBM 604 anschaffte, für den ein gekühltes kleines Haus gebaut wurde. Bei den Visiten hatten die Schwestern die Therapieangaben auf Lochkarten zu übertragen. Nach Auswertung über große Datentrommeln kamen die Anweisungen für die diagnostischen Maßnahmen und die Medikationspläne ausgedruckt zurück auf die Stationen. Dieses Verfahren wurde bald, nach etwa einem halben Jahr wieder eingestellt, da es mehr Arbeit machte als das herkömmliche Verfahren  und keineswegs fehlerfrei war.

Eine gewisse Analogie einer „KI-Medizin“ mag man in den selbstfahrenden Autos sehen, obwohl hier die Probleme vergleichweise wohl einfacher sind als auf dem weiten, oft sehr komplexen Feld der Medizin, insbesondere der personalisierten, der „precision medicine“. Gerade in der Präzisionsmedizin war „Dr. Watson“ trotz Versuchen kaum weitergekommen.

Es ist aber zu hoffen, dass die Entwicklung in der Digitalisierten Medizin fortschreitet und immer bessere Ergebnisse liefert. Wir Ärzte werden uns in heute kaum vorstellbaren Maße mit ihr auseinanderzusetzen haben. Der Mensch mit seiner natürlichen, analogen  Intelligenz aber wird gewiß nicht durch die künstliche, digitale Intelligenz völlig zu ersetzen sein.

Klaus Ehrenberger, Helmut Schatz

3D-Drucker stellt nun fertige Elektronik her

(pte) – Forscher des Massachusetts Institute of Technology (MIT) haben eine Tinte entwickelt, die in einem Arbeitsgang Geräte mit interner Elektronik produziert. Flugzeugflügel, die aus diesem Material gedruckt werden, könnten durch Lichtemission direkt anzeigen, wenn sich feine, aber dennoch gefährliche Risse bilden.

Geräte „reden“ mit der Umwelt
Die Tinte besteht aus Fasern mit einer komplexen inneren elektronischen Struktur. Umhüllt ist sie von Kunststoff. Beim Drucken bilden die elektronischen Strukturen optoelektronische Schaltkreise. Diese können nicht nur Licht erzeugen, sondern auch ihre Umwelt erkennen, mit ihr kommunizieren oder Energie speichern.

Gabriel Loke, Doktorand bei den Professoren John Joannopoulos und Yoel Fink, beschreibt das Verfahren in einem Beitrag der Fachzeitschrift „Nature Communications“. Loke hat einen 3D-Drucker mit einer speziellen Düse ausgestattet. Der Kunststoff, den er verwendet hat, schmilzt bei einer deutlich niedrigeren Temperatur als das im Normalfall genutzte Material. Aus diesem Grund wird die interne Elektronik beim Druck nicht zerstört.

Halbleiter und Drähte im Inneren
Das Innere der Tinte enthält feinste Drähte, die als Stromleiter fungieren, Halbleiter, die unterschiedliche Funktionen erfüllen, und Isolatoren aus Kunststoff, die Kurzschlüsse verhindern. Zur Demonstration druckte Loke den Flügel eines Modellflugzeugs. Die hierfür verwendete Tinte enthält acht unterschiedliche Materialien, die auch andere Funktionen ermöglichen könnten, außer Licht zu emittieren und zu detektieren.

„Bisher gibt es keinen 3D-Drucker, der Kunststoff, Metall und Halbleiter abscheiden kann“, sagt Loke. Denn für jedes Material benötige man eine andere Technik. Das neue Verfahren sei schnell und ermögliche, wie es beim 3D-Druck üblich ist, nahezu beliebig geformte Bauteile. Der produzierte Flügel ist spektakulär, aber in der Praxis kaum umsetzbar. Die Forscher denken auch eher an die Herstellung biomedizinischer Implantate. Auf ihnen könnten nach einer Verletzung neue Körperzellen wachsen. Gleichzeitig würden sie den Regenerationsvorgang überwachen und Wachstumsfehler drahtlos melden.

Navi nach Schleiereulen-Vorbild gebaut

(pte) – Die Schleiereule orientiert sich mithilfe von Geräuschen. Möglich machen das spezielle Nervenstrukturen in ihrem Gehirn, die ermitteln, aus welcher Richtung Schall kommt. Eben diese Strukturen haben Forschern der Pennsylvania State University (Penn State) nun technisch nachgeahmt. Der Machbarkeitsnachweis soll die Tür zu neuen Navigations- und Ortungsgeräten aufstoßen, die bei Verwendung modernster 2D-Materialien sehr energieeffizient sein könten.

Orientierungshilfe Zeitversetzung
„Eulen können auf ein oder zwei Grad genau ermitteln, aus welcher Richtung ein Geräusch kommt“, sagt Saptarshi Das, Penn-State-Professor für Ingenieurswissenschaften und Mechanik. Dass die Vögel das so viel besser können als Menschen, liegt an speziellen Strukturen im Gehirn, die sich zunutze machen, dass ein Geräusch die beiden Ohren etwas zeitversetzt erreicht, wenn die Eule nicht genau in Richtung der Quelle sieht. Ein Gitter aus Nerven mit zwei unterschiedlich langen Enden ermittelt hierzu, wie groß diese Differenz ist. Sie gibt Aufschluss darüber, aus welcher Richtung das Geräusch kam.

Das und sein Team habe eben dieses Prinzip mithilfe einer Anordnung sogenannter Split-Gate-Transistoren aus Molybdänsulfid nachgeahmt. Diese Transistoren registrieren ein Signal nur, wenn es auf beiden Seiten des Gates gleich ist. Entsprechen die Eingangssignale dem leicht zeitversetzten Eintreffen eines Geräusches bei zwei Ohren, reagiert also nur jener Transistor, der praktisch der richtigen Längendifferenz von Nerven im Eulengehirn entspricht. Damit diese Verarbeitung klappt, müssen die eintreffenden Signale vorher verlangsamt werden – was ebenfalls dem Vorbild Eule ähnelt.

Besser als die natürliche Kopie
„Die Genauigkeit des biomimetischen Geräts kann die Schleiereule um Größenordnungen übertreffen“, so die Forscher in „Nature Commnications“. Dabei ist der aktuelle Chip nur ein Machbarkeitsnachweis. Mit 2D-Materilien könnte die Zahl der Transistoren und damit die Genauigkeit weiter gesteigert werden. Zudem wäre das energieeffizienter, was für potenzielle Anwendungen ebenfalls von Vorteil ist. Zudem liefert der aktuelle nur eine Richtung, aus der ein Geräusch kommt, kann aber nicht beurteilen, in welcher Höhe sich die Quelle befindet. Das zufolge spiegle sich diese in der Schallintensität wider. Das Team arbeite an diesem Aspekt des Problems, da erst dann wirklich 3D-Navigation oder Ortung möglich werden.

Das wünschen sich Deutsche Bürger von der Künstlichen Intelligenz

(Gesellschaft für Informatik) – Im Wissenschaftsjahr 2019 – Künstliche Intelligenz des Bundesministeriums für Bildung und Forschung hat die Gesellschaft für Informatik e.V. die Deutschen in einer repräsentativen Allensbach-Umfrage gefragt, welche SciFi-KIs sie sich im Alltag wünschen.

Berlin, 5 Juli 2019 – Sie lassen Sprachassistenten wie Siri, Cortana und Alexa blass aussehen und selbst modernste Service-Roboter haben keine Chance gegen sie: Fiktionale Maschinen in Film und Fernsehen besitzen oftmals übermenschliche Intelligenz und Stärke. Anlässlich des Wissenschaftsjahres 2019 – Künstliche Intelligenz (KI) des Bundesministeriums für Bildung und Forschung hat das Allensbach-Institut für die Gesellschaft für Informatik e.V. (GI) erhoben, welche fiktionalen KIs der Populärkultur sich die deutsche Bevölkerung im Alltag wünschen. Die Umfrage ist Teil des Projektes „#KI50: Künstliche Intelligenz – gestern, heute, morgen“, mit dem die GI in Anlehnung an ihr 50-jähriges Bestehen dazu anregt, über die deutsche KI-Geschichte zu reflektieren, einen Blick nach vorne zu werfen und das Thema einer breiten Öffentlichkeit besser zugänglich zu machen.

Deutsche wünschen sich R2-D2 und K.I.T.T. im Alltag
Sprechende Autos, superstarke Roboter oder kluge Stimmen aus dem Lautsprecher – die Science-Fiction-Popkultur (SciFi) ist voll von intelligenten Maschinen mit unterschiedlichsten Fähigkeiten. Wenn man die deutsche Bevölkerung fragt, welche KI sie sich im Alltag als Assistentin oder Gehilfen wünscht, landet R2-D2 aus Star Wars auf dem ersten Platz. Ein Sechstel (15 %) der Deutschen wünscht sich den lustig piepsenden Droiden im Alltag. Das sprechende und selbstfahrende Auto K.I.T.T. aus der TV-Serie Knight Rider landet mit 13 % auf dem zweiten Platz. Commander Data, den übermenschlich schlauen Roboter aus Star Trek, wünschen sich etwa ein Zehntel der Deutschen (8 %). Bei der Umfrage konnten die Befragten aus insgesamt 15 Science-Fiction-Maschinen mit Künstlicher Intelligenz wählen.

KI kann schon heute Lebens- und Arbeitswelt enorm bereichern
Prof. Dr. Ingo Timm und PD Dr. Matthias Klusch, Sprecher des Fachbereichs „Künstliche Intelligenz“ der Gesellschaft für Informatik sind jedoch überzeugt, KI-Systemen wie Commander Data, K.I.T.T. und Co bleiben noch lange Science Fiction: „Künstliche Intelligenz kann schon heute unsere Lebens- und Arbeitswelt enorm bereichern. Doch sind wir von intelligenten Maschinen mit umfassenden menschlichen Fähigkeiten, wie wir sie aus vielen Science -Fiction-Filmen kennen noch weit entfernt. Heutige KI-Systeme können lediglich einzelne klar abgegrenzte Probleme sehr gut oder sogar viel besser als Menschen lösen.“

Das Thema KI muss breit diskutiert werden
Doch auch, wenn es noch dauert bis komplexe Maschinen-Assistenten vielseitig einsetzbar sind, ist es nach Aussage der Experten wichtig, sich schon heute intensiv und verantwortungsvoll mit diesen Technologien zu beschäftigen: „Wir müssen uns vor Augen führen: KI-Systeme sind nur so gut wie wir sie gestalten können und wollen. Damit sie allen Menschen nutzen und nicht nur einigen wenigen, ist es wichtig, über das Thema KI und Verantwortung in einer breiten Öffentlichkeit transparent und verständlich zu diskutieren. Darüber hinaus gilt es, Menschen mit KI-Kompetenzen auszubilden und sie an der Entwicklung der KI-Zukunft zu beteiligen“, so Timm und Klusch.

Wissenschaftsjahr 2019 – Künstliche Intelligenz
Systeme und Anwendungen, die auf Künstlicher Intelligenz basieren, sind schon heute vielfach Bestandteil unseres Lebens: Industrieroboter, die schwere oder eintönige Arbeiten übernehmen oder smarte Computer, die in kurzer Zeit riesige Datenmengen verarbeiten können – und damit für Wissenschaft und Forschung unverzichtbar sind. Ganz abgesehen von virtuellen Assistenzsystemen, die zu unseren alltäglichen Begleitern geworden sind. Welche Chancen gehen damit einher? Und welchen Herausforderungen müssen wir uns stellen? Welche Auswirkungen hat diese Entwicklung auf unser gesellschaftliches Miteinander? Im Wissenschaftsjahr 2019 sind Bürgerinnen und Bürger aufgerufen, im Dialog mit Wissenschaft und Forschung Antworten auf diese und weitere Fragen zu finden.
Frithjof Nagel

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum. 2019 feiert die GI ihr 50-jähriges Gründungsjubiläum. Seit 1969 vertritt sie die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik.

Prekäre Bedingungen gefährden IT-Standort Deutschland

(Gesellschaft für Informatik e.V.) – Mit der Stellungnahme zur „Lage und Zukunft des wissenschaftlichen Nachwuchses“ weist der Beirat des Wissenschaftlichen Nachwuchses in der Gesellschaft für Informatik (GI-WiN) auf die prekäre Lage vieler Nachwuchstalente im akademischen Mittelbau hin. Zunehmende finanzielle und strukturelle Defizite in der deutschen Hochschullandschaft würden die Informatik-Forschung vieler Promovierenden und Postdoktoranden zu einem Kraftakt machen, so Dr. Jens-Martin Loebel, Dr. Kerstin Lenk, Dr. Mario Gleirscher und Prof. Dr. Simon Nestler, die die Stellungnahme gemeinsam verfasst haben.

Dr. Kerstin Lenk, stellvertretende Sprecherin des Beirats sieht in dieser Vernachlässigung des wissenschaftlichen Mittelbaus durch die Politik eine massive Gefahr für den Wissenschafts- und Innovationsstandort Deutschland: „Die vielen Promovierenden und Postdoktoranden sind das Rückgrat der deutschen Informatikforschung. Doch prekäre Beschäftigungsverhältnisse, unzureichende Vereinbarkeit von Beruf und Familie oder mangelndes Qualitätsmanagement machen den Hochschulstandort Deutschland für viele herausragende IT-Talente zunehmend unattraktiv. Wenn wir bei wegweisenden Zukunftsthemen wie Künstlicher Intelligenz, autonomen Fahren oder Data Science international konkurrenzfähig bleiben wollen, dann müssen wir die Verhältnisse unter denen der wissenschaftliche Nachwuchs heute arbeitet nachhaltig aufwerten.“

Um die Abwanderung herausragender IT-Talente (Brain Drain) an deutschen Hochschulen mittelfristig zu verlangsamen und langfristig zu stoppen schlägt der Beirat insgesamt acht konkrete Maßnahmen vor: Hierzu zählen:

  • 1. die Trennung von Betreuung und Begutachtung sowie die externe unabhängige Begutachtung von Dissertationen,
  • 2. der flächendeckende Einsatz von Promotionskomitees mit unabhängigen Mitgliedern und der Dokumentation deren Arbeit zur Qualitätssicherung,
  • 3. die klare Definition der Rolle von Betreuern sowie die Unterstützung von Promovierenden/Postdoktoranden bei der zukünftigen beruflichen Orientierung und den Schutz der körperlichen und psychischen Gesundheit,
  • 4. die Beseitigung von negativen Einflüssen der vertraglichen Rahmenbedingungen auf das Betreuungsverhältnis,
  • 5. den Nachweis pädagogischer Weiterbildungen in der Betreuung vor Antritt einer Tenure-Track-Stelle und/oder einer Professur.

Der Beirat fordert darüber hinaus administrative und organisatorische Maßnahmen zur Strukturierung und Schaffung weiterer Karrierewege für den wissenschaftlichen Nachwuchs. Hierzu zählen:

  • 6. die Abschaffung des WissZeitVG (Gesetz über befristete Arbeitsverträge in der Wissenschaft),
  • 7. die Schaffung von Dienstvereinbarungen, nach Vorbild der Viadrina. Dazu gehören u.a., dass Erstverträge mit dem wissenschaftlichen Nachwuchs über mindestens drei Jahre geschlossen werden. Die Arbeitszeit muss mindestens 50% betragen, wobei angestellte Promovierende und Postdoktoranden mindestens 40 % der Arbeitszeit für ihre eigenen Qualifikationsarbeiten zur Verfügung haben müssen. Familienpolitische Komponenten wie die Verlängerung des Arbeitsverhältnisses um zwei Jahre je Kind müssen berücksichtigt werden.
  • 8. die Schaffung von unbefristeten Positionen in oder nach der Postdoktoranden-Phase zum Beispiel in der Lehre oder reine Forschungsstellen nach dem Vorbild des angelsächsischen Systems.

Über die Gesellschaft für Informatik e.V.
Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum. 2019 feiert die GI ihr 50-jähriges Gründungsjubiläum. Seit 1969 vertritt sie die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik.

Künstliche Intelligenz, Maschinelles Lernen und Data Science

(Universität Saarland) Sie bereiten komplexes Datenmaterial auf, analysieren es mit Verfahren der Statistik und der Künstlichen Intelligenz, um daraus bisher unbekannte Trends und Fakten zu berechnen. Solche Spezialistinnen und Spezialisten sind nicht nur auf dem Arbeitsmarkt sehr umworben. Schon jetzt bleiben tausende gut bezahlter Stellen unbesetzt. Die Universität des Saarlandes führt daher zum kommenden Wintersemester den Bachelor- und Masterstudiengang „Data Science and Artificial Intelligence“ ein. Darin lehren renommierte Expertinnen und Experten aus den Forschungsinstituten des „Saarland Informatics Campus“ anwendungsnah die Verfahren der Gebiete Data Science, Künstliche Intelligenz, Maschinelles Lernen und Big Data.

Ab dem kommenden Wintersemester wird die Fachrichtung Informatik der Universität des Saarlandes den auf sechs Semester angelegten Bachelor-Studiengang „Data Science and Artificial Intelligence“ anbieten. Ab August bis Ende September könnten sich Studierende einschreiben. Bewerbungsfrist für den internationalen Master ist der 15. Juni. Es können aber auch Bewerbungen danach akzeptiert werden.

„Künstliche Intelligenz kommt inzwischen überall zum Einsatz, beim Online-Shopping, beim Autonomen Fahren und in der medizinischen Datenanalyse“, erklärt Jens Dittrich, Informatikprofessor und Leiter der Gruppe „Big Data Analytics“ an der Universität des Saarlandes. Besonders beim automatisierten Übersetzen sehe man, so Dittrich, welche Fortschritte die Künstliche Intelligenz in den letzten Jahren gemacht habe. Das gelte auch für die sogenannte Datenwissenschaft (Data Science). Da die Datenberge inzwischen in jeder Branche wachsen (Big Data), ist sie in den Vordergrund gerückt. Denn der Schwerpunkt der „Data Science“ liegt nicht nur auf den Daten selbst, sondern auch auf der Art und Weise, wie sie verarbeitet und mit Hilfe von Methoden der Künstlichen Intelligenz und des Maschinellen Lernens aufbereitet und ausgewertet werden.

„Im neuen Studiengang lernen die Studierenden, wie man Probleme so analysiert, dass man sie mit Verfahren aus den Gebieten Artificial Intelligence und Data Science automatisiert lösen kann“, erklärt Dittrich und führt weiter aus: „Damit sie die Verfahren wirklich als Werkzeuge verwenden und nicht nur als theoretische Konstrukte begreifen, arbeiten sie schon früh an Problemen aus der Praxis.“ Dazu habe man bereits Vereinbarungen für Anwendungsfächer mit anderen Fachrichtungen wie der Computerlinguistik, Physik, den Materialwissenschaften, der Chemie, der Psychologie und der Biologie abgeschlossen. Weitere sind geplant.

Dittrich hat den neuen Studiengang mit einer Gruppe von Expertinnen und Experten aus den benachbarten Informatikinstituten und der Computerlinguistik konzipiert. Sechs weltweit renommierte Forschungseinrichtungen, darunter das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das CISPA-Helmholtz-Zentrum für Informationssicherheit und die beiden Max-Planck-Institute für Informatik und Softwaresysteme, gehören zum „Saarland Informatics Campus“, auf dem mehr als 800 Wissenschaftlerinnen und Wissenschaftler arbeiten. Für Dittrich ist gerade dieses Umfeld das Alleinstellungsmerkmal, das den neuen Studiengang aus den anderen Angeboten in Deutschland herausragen lässt. Zudem zeichne sich die Fachrichtung Informatik seit Jahren in der Lehre aus. „Die Studierenden geben uns im bundesweiten CHE-Ranking regelmäßig Spitzennoten“, so Dittrich.

Über die Zeit nach ihrem Abschluss müssen sich die Absolventinnen und Absolventen des Studienganges keine Sorgen machen. „Es fehlen einfach Fachkräfte, die wissen, wie man diese Probleme wirklich löst“, sagt Dittrich. Der Stifterverband für die deutsche Wissenschaft berechnete den Bedarf an Datenanalyseprofis auf Basis der Stellenangebote einer großen Online-Jobbörse und kam zu dem Ergebnis, dass im vergangenen Jahr in Deutschland rund 10.000 Spezialistinnen und Spezialisten auf diesem Gebiet gesucht wurden. Für eine weitere Studie befragte der Verband mehr als 600 Großkonzerne, mittlere und kleine Unternehmen sowie Start-ups. Nach Einschätzung der befragten Unternehmen werden bis zum Jahr 2023 rund 455.000 Experten in Deutschland zum Thema komplexe Datenanalyse benötigt.

Im Studiengang „Data Science and Artificial Intelligence“ lehren neben den Professorinnen und Professoren der Fachrichtung Informatik sowie der Fachrichtung Sprachwissenschaft und Sprachtechnologie der Universität des Saarlandes auch Wissenschaftler vom Helmholtz-Zentrum für Informationssicherheit (CISPA), dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), dem Zentrum für Bioinformatik Saar, vom Max-Planck-Institut für Informatik und vom Max-Planck-Institut für Software-Systeme.

Hintergrund: Saarland Informatics Campus
800 Wissenschaftlerinnen und Wissenschaftler und 1900 Studierende aus mehr als 80 Nationen machen den Saarland Informatics Campus (SIC) an der Universität des Saarlandes zu einem der führenden Standorte für Informatik in Deutschland und Europa. Sechs weltweit angesehene Forschungsinstitute, drei eng zusammenarbeitende Fachbereiche und 16 Studiengänge decken das gesamte Themenspektrum der Informatik ab.

Digitalisierung in der Lehrerbildung

(KIT) Hochqualifizierte Lehrerinnen und Lehrer sind ein Garant für den Erfolg des deutschen Bildungssystems. Bund und Länder haben deshalb die „Qualitätsoffensive Lehrerbildung“ ins Leben gerufen, die unter anderem die Digitalisierung in der Lehrerbildung fördert. Die Gemeinsame Wissenschaftskonferenz schlägt nun den Antrag des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“ zur Förderung vor. Das KIT wird damit aufgefordert, seinen Vollantrag einzureichen, mit dem ab 2020 bis zu 2,5 Millionen Euro für vier Projektjahre eingeworben werden können.

„Das KIT legt als technisch ausgerichtete Universität seinen Schwerpunkt in der Lehrkräfteausbildung auf die MINT-Fächer“, erklärt Professor Alexander Wanner, Vizepräsident des KIT für Lehre und akademische Angelegenheiten. „Verbunden mit der einzigartigen Sonderstellung als Forschungsuniversität in der Helmholtz-Gemeinschaft werden am KIT in den MINT-Fachwissenschaften bereits vielfältige innovative Projekte zur Digitalisierung realisiert. Darauf baut das Projekt digiMINT auf.“

Mithilfe der vorhandenen fachwissenschaftlichen Expertise entwickelt, erprobt und evaluiert das KIT in den MINT-Fächern digitale Lernkontexte für Lehrerinnen und Lehrer und bereitet sie für den Transfer in die Schulpraxis vor. Im Rahmen von digiMINT soll dies in den Fächern Mathematik, Informatik, Naturwissenschaften und Technik sowie den Bildungswissenschaften erfolgen.

In vier Projektphasen wird das Vorhaben digiMINT am KIT implementiert. In der ersten Projektphase werden reale und virtuelle Lernumgebungen (sogenannte Makerspaces) am KIT eingerichtet. Sie bilden die Basis für die Entwicklung von Lernkontexten für Lehrerinnen und Lehrer in den einzelnen Fächern. Auf Grundlage der baden-württembergischen gymnasialen Bildungspläne in den MINT-Fächern werden in der zweiten Phase passende Lernkontexte mit hoher schulpraktischer Relevanz entwickelt. Die dritte Projektphase dient dazu, die neu entwickelten Lerneinheiten mit Schülerinnen und Schülern zu erproben, zu evaluieren und gegebenenfalls anzupassen. Im Rahmen der vierten Projektphase werden die Innovationen im Bereich digiMINT nachhaltig in das Lehrangebot am KIT implementiert und zugleich für den Transfer auf andere universitäre sowie schulische Standorte vorbereitet.

Das Auswahlgremium der Gemeinsamen Wissenschaftskonferenz GWK hat in einem wissenschaftsgeleiteten Verfahren 43 Projekte für eine Förderung von insgesamt bis zu 79 Millionen Euro bis zum Ende des Jahres 2023 empfohlen. 26 der ausgewählten Projekte widmen sich dem Themenschwerpunkt „Digitalisierung in der Lehrerbildung“, darunter auch das Projekt des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“, und 13 Projekte dem Bereich „Lehrerbildung für die beruflichen Schulen“. 4 Projekte setzen vor allem an der Schnittstelle dieser Bereiche an.

Das 18-köpfige Auswahlgremium setzt sich aus Expertinnen und Experten aus Wissenschaft, Studierendenschaft und der schulpraktischen Professionalisierung sowie Vertreterinnen und Vertretern des Bundes und der Länder zusammen. In die Beratungen gingen zudem externe Gutachten von renommierten Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein.