Archiv der Kategorie: Computer, TV, Medien

Künstliche Intelligenz in Zukunft auch für Bauern nützlich

(pte) – IT-Gigant IBM wird seine Plattform „Watson Decision Platform for Agriculture“ global ausweiten, um durch Künstliche Intelligenz (KI) Entscheidungsprozesse von Bauern weltweit zu erleichtern. Dafür verwendet IBM Daten aus dem Internet der Dinge, um präzise Ratschläge zu Planung, Ernte oder Schädlingsbekämpfung zu geben.

Mehr Daten „ernten“
„Die Digitalisierung der Landwirtschaft fängt bei der Produktion an und geht über Verwaltung und Betriebsführung bis hin zur Vermarktung. Zum Beispiel werden Agrarroboter mit ihrer Kamera Unkrautpflanzen erkennen und entsprechende Maßnahmen zum Pflanzenschutz durchführen“, sagt Martin Hirt, Referent für Digitalisierung in der Landwirtschaft bei der Landwirtschaftskammer Österreich, gegenüber pressetext. Damit eine Maschine solche Dinge erkennen kann, müsse man zuerst Testdaten generieren – zum Beispiel, indem man möglichst viele Blätter fotografiert. So könne man Bauern auf Basis von kürzlichen Ereignissen vor Gefahren in Bezug auf die Ernte warnen.

Für Wetterdaten zieht IBM sein Tochterunternehmen The Weather Company heran. Die Modelle von IBM beziehen sich auf verschiedene Agrarproduke wie Mais, Weizen, Baumwolle oder Soja. Sie sollen in Afrika, den USA, Kanada, Südamerika, Europa und Australien Verwendung finden. Laut Kristen Lauria, General Manager von Weather Solutions bei IBM, „ernten“ moderne Landwirte durch den Einsatz von Drohnen und Sensoren nicht nur Nahrungsmittel, sondern auch Daten. Diese seien bisher zu wenig verwendet worden. Das sei durch die Watson Decision Platform for Agriculture möglich. Die Plattform sammelt die Daten und analysiert so Muster in der Landwirtschaft. So können präzise und in der Praxis bewährte Maßnahmen gesetzt werden, um eine möglichst ertragreiche Ernte einzufahren.

Ernährung für die Zukunft
Laut Hirt können Landwirte durch die Digitalisierung präziser vorgehen, beispielsweise können sie prophylaktisch Maßnahmen gegen Schädlingsauftreten anwenden oder an genau der richtigen Stelle die richtige Menge an Dünger aussetzen. Letzteres wird teilflächenspezifische Bewirtschaftung genannt. „Bauern sehen so, was die Anforderungen für eine bestimmte Fläche sind. Diese Daten können aus unterschiedlichen Quellen stammen, dem Wetter, dem Boden oder aus historischen Aufzeichnungen“, meint der Digitalisierungsexperte.

IBM zufolge muss die Landwirtschaft präziser und ertragreicher werden, um in Zukunft die Welt ernähren zu können. Im Jahr 2050 werde es zwei Mrd. Menschen mehr geben, jedoch nicht mehr fruchtbaren Boden. Die Kombination aus präzisen Wetterdaten und KI sei dafür die Lösung. Hirt warnt allerdings vor zu viel Optimismus. Es müsse bei der Digitalisierung der Landwirtschaft noch viel geforscht werden, um gerade beim Thema KI gute Ergebnisse zu bekommen. „Abgesehen davon, wird es eine Herausforderung, die vielen, neuen Technologien für kleinstrukturierte, familienbetriebene Landwirtschaften nutzbar zu machen“, resümiert Hirt.

Künstliche Intelligenz – wo bleiben die Gefühle ?

Ein Gespräch mit dem britischen Schriftsteller Ian McEwan

Wir sehnen uns nach künstlichen Menschen. Muss man sich bei Siri bedanken? Was hat der Brexit mit KI zu tun und darf ein Algorithmus moralische Entscheidungen treffen? Eine Begegnung in London mit Ian McEwan, dessen neuer Roman nächste Woche erscheint.

Ihr Erzähler Charlie schafft sich einen künstlichen Menschen an, „als Gefährten, intellektuellen Sparringspartner, als Freund und Faktotum“. Er heißt Adam, wie der erste Mensch, und mit Charlie und dessen Freundin Miranda entsteht eine Dreierbeziehung. Im Zentrum des Romans steht die Frage, ob Androiden emotionale Intelligenz besitzen könnten, ob Maschinen zu Gefühlen fähig sind.

Was hat Sie daran interessiert?
Ich bin schon immer an Neurowissenschaft interessiert gewesen und an dem, was man das „Leib-Seele-Problem“ nennt, also der Frage, ob eine Maschine denken kann. Das hat den Mathematiker und Kryptologen Alan Turing bereits in den dreißiger Jahren beschäftigt. Turing sagte in den vierziger Jahren, man sei nur zehn Jahre entfernt von einer denkenden Maschine. Inzwischen wissen wir, wie kompliziert das Gehirn ist. Trotzdem sind in den letzten zehn Jahren große Fortschritte gemacht worden. Man braucht nur an die künstliche Intelligenz des Smartphones zu denken oder die jüngsten Flugzeugunglücke, die mit den Versagen von Künstlicher Intelligenz zu tun hatten, um zu sehen, wie die Technologie in unser Leben eindringt. Neulich habe ich meine Frau dabei ertappt, wie sie sich bei Siri bedankte.

Sie legen ausgerechnet Adam einige der nachdenklichsten Beobachtungen über die Maschinenintelligenz und das Wesen der Menschen in den Mund …
Adam hat mir rhetorisch aus einigen wichtigen Patschen geholfen, weil Charlie nicht besonders gebildet ist und sich zum Beispiel, anders als Adam, bei Shakespeare nicht gut auskennt. Mich fasziniert die menschliche Interaktion mit einer Maschine, die man in einem Moment nur als Computer wahrnimmt und im nächsten als Menschen behandelt. Und ich suchte einen anderen Ansatz als „Frankenstein“, den überragenden Text der Moderne über den künstlichen Menschen. Frankensteins Monster wird zum Mörder. Er ist zur Metapher geworden für die Gefahren der Technologie. Mich beschäftigt die Möglichkeit, dass wir eine menschenähnliche Maschine herstellen, der wir unsere besten Eigenschaften überlassen. Denn wir wissen, wie wir gut sein können, aber es gelingt uns oft nicht, gut zu sein.

Adam ist hochmoralisch ?
Intelligenten Maschinen werden wichtige moralische Fragen übertragen. Wir entwickeln Autos, die autonom auf unseren Straßen fahren. Wir diskutieren, wie sich fahrerlose Autos für bestimmte Unfallszenarien programmieren lassen. Die Zeitschrift „Nature“ berichtete unlängst über eine Studie, in der es um das sogenannte „Trolley-Problem“ ging: Wer soll den Unfall überleben, wenn die Bremsen versagen und das Auto auf einen Pfeiler zurast? Der Fahrer, indem er ausweicht, dabei aber ein Kind überfährt? Würde es einen Unterschied machen, wenn es einen alten Menschen träfe? In der Studie haben bestimmte Ländergruppen unterschiedliche moralische Präferenzen geäußert. Das wirft Fragen über universale Werte auf. Ich wollte mit meinem Roman den Konflikt dramatisieren, in den wir uns mit der Künstlichen Intelligenz unweigerlich bringen. Die Sehnsucht nach der Herstellung künstlicher Menschen sitzt offenbar tief in uns. Davon handelte schon der Prometheus-Mythos oder die Argonauten-Sage. Im Grunde ist Talos, der Steine auf Iasons Schiff schleudert, ein Roboter. Man könnte auch die Geschichte von Adam und Eva als Prototyp der Herstellung einer künstlich intelligenten Maschine betrachten, die Gott bereits mit einigen Mängeln versehen hat, bloß dass ich das, was für Gott Mängel sind, als Tugend bezeichnen würde. Evas Neugier ist eine der größten Eigenschaften der menschlichen Natur und die Grundlage für alles Wissen.

Der Roman ist am Anfang der Thatcher-Ära angesiedelt, Sie verändern aber den Verlauf der Ereignisse und streuen kontrafaktische Details ein. Margaret Thatcher verliert den Falkland-Krieg, der linke Labour-Politiker Tony Benn wird Premierminister und verspricht den Brexit. Es gibt bereits elektrische Autos und Textnachrichten …
Es ist ein Spiel mit der Zeit, das mit Turing beginnt. Ich wollte ihn unbedingt in meinem Roman haben, ohne dass er eine lebensverlängernde Zauberpille nimmt oder Selbstmord begeht. Ich denke oft darüber nach, wie leicht unser jetziger Technologie- und Wissensstand viel später oder früher hätte erreicht werden können, wie im Falle der Keimtheorie. Sie wäre bereits im siebzehnten Jahrhundert möglich gewesen. Der Stand der Dinge scheint mir auf jedem Gebiet eine kontingente Angelegenheit zu sein. In der Falkland-Krise hätte die Einsatztruppe auch scheitern können, wenn Argentinien die in Frankreich bestellten Exocet-Raketen erhalten hätte. Die Folgen wären dramatisch gewesen für uns wie für Argentinien. Präsident Galtieri wäre geblieben, noch mehr Menschen wären verschwunden, Thatcher hätte untergehen können. Das fragile Wesen der zufallsabhängigen Gegenwart fasziniert mich. Die Fiktion erlaubt es, zu entscheiden, wie alles ausgeht. Ich wollte weder weit in die Zukunft greifen, in der Adam leben würde, noch war ich auf die Gegenwart erpicht. Deswegen habe ich eine etwas schmuddelige, veränderte Vergangenheit gewählt. Mich fasziniert, wie die Maschinen in unser Leben treten und so leicht angenommen werden.

Sie scheinen auffallend interessiert zu sein an körperlichen Funktionen ?
Ich will nicht schockieren, aber mir ist es wichtig, die Totalität des Daseins zu beschreiben. Und körperliche Funktionen sind relevant im Zusammenhang mit dem künstlichen Gehirn. Philosophen pflegten früher über das „Gehirn im Tank“ zu sprechen. In den letzten dreißig Jahren haben wir aus der Neurowissenschaft gelernt, dass wir vor allem verkörpertes Bewusstsein sind. Wir sind eben kein Hirn im Tank, sondern Hirn im Körper. Wir verbringen unser Leben in einem Körper, der tyrannisch sein kann – und eine langsame Enttäuschung, um einen anderen Begriff für das Altern zu verwenden.

In „Maschinen wie ich“ befassen Sie sich mit dem Konflikt zwischen Technik und der Unberechenbarkeit des Menschen.
Was Adam betrifft, hängt für mich der Erfolg oder Misserfolg des Romans davon ab, dass es mir gelingt, aus ihm eine Figur zu machen, bei der die Leser Charlies schwankenden Zweifel teilen, ob er ein Computerspiel spielt oder es mit einer wirklichen Person zu tun hat.

Dabei stellt sich die Frage, ob man sich des Mordes an einem Roboter schuldig machen kann ?
Mein Turing ist überzeugt – und ich hoffe, der Leser ist auch halbwegs überzeugt –, dass Adam ein fühlendes Wesen ist. Ich würde im Sinne des kategorischen Imperativs argumentieren, dass man das Bewusstsein eines anderen Wesens nicht besitzen kann, selbst wenn man es gekauft hat.

Als Schriftsteller sind Sie selbst auch Schöpfer ?
Mir war beim Schreiben ständig bewusst, dass ich als Adams Erfinder auch sein Erbauer bin, aber natürlich auch der von Charlie und Miranda.

Politik spielt in Ihren Romanen eine wichtige Rolle. In „Maschinen wie ich“ spielen Sie auf den Brexit an. Ihre Beschreibung von Thatcher lässt an Theresa May denken, und Tony Benns Labour Party gleicht der von Jeremy Corbyn. Werden Sie je einen Brexit-Roman schreiben?
Ich habe die Parallelen nicht forciert, aber sie sind mir beim Schreiben aufgefallen. Wenn ich einen Brexit-Roman schreiben würde, müsste ich einen Brexiteer in den Mittelpunkt stellen, weil ich den Brexit verabscheue und mich in dieses Denken hineinversetzen müsste, um es zu verstehen. Noch bin ich weit davon entfernt, aber ich denke viel darüber nach. Und das findet meist irgendwann Niederschlag in meinen Romanen. Jetzt stehen wir noch in der Mitte des Prozesses. Jeder Tag bringt eine neue Entwicklung und jede Woche falsche Höhepunkte. Meistens kommt alles nicht so schlimm, wie es die Pessimisten voraussagen. Der Brexit wird trostlos und nicht einfach sein, aber das Leben geht weiter. Wir werden eine sehr missgelaunte und eine politisch wie kulturell zerklüftete Nation sein.

Liegt in der Einstellung der Brexit-Befürworter, dass man als Weltbürger nirgendwo zu Hause ist, nicht das Hauptproblem?
Den Brexit-Anhängern hat man Zauberstaub in die Augen gestreut. Sie sind belogen und von der politischen Klasse herablassend behandelt worden. Viele Versprechen haben sich jetzt schon als wertlos erwiesen. In gewisser Hinsicht bin ich froh über das Schlamassel. Es besteht vielleicht eine kleine Möglichkeit zu einem Rückzieher. Ich kann da nicht unparteiisch sein.

Sie beziehen sich gern auf den Satz von Henry James, wonach es die große Aufgabe des Romans sei, „interessant zu sein“. Wollen Sie mit Ihren Büchern zur Diskussion beitragen?
Ich weiß nicht, welchen Beitrag „Maschinen wie ich“ leisten wird. In gewisser Hinsicht geht es um Fragen, die seit zwei- bis dreitausend Jahren diskutiert werden, sei es in der Mythologie oder in technologischer Hinsicht. Grundsätzlich darf die Literatur das Lustprinzip nicht aus den Augen verlieren, nicht beim Lesen und auch nicht beim Schreiben. Schriftsteller müssen sich zur Freude an ihrer Arbeit bekennen. Um zeitgenössische Fragen in Angriff zu nehmen, sollte man lieber einen Zeitungsessay schreiben. Ich werde oft dazu aufgefordert, möchte aber die Arbeit an meinem jeweiligen Roman nicht unterbrechen.

Wie fühlt es sich an, Gegenstand zahlreicher Doktorarbeiten zu sein?
Bis vor zwanzig Jahren waren die Akademiker ganz in den Fängen des französischen Strukturalismus. Inzwischen hat sich das beruhigt. Ich habe unlängst in Caen einer internationalen Konferenz über mein Werk beigewohnt. Am letzten Tag habe ich mir acht Präsentationen angehört. Ich fand sie witzig und brillant, vor allem eine über Hotels im Werk von Ian McEwan. Darauf wäre ich nie gekommen. Ich saß in einer Ecke dabei und dachte, so muss es sein, wenn man tot ist.

Als läse man den eigenen Nachruf.
Ja. Als die Universität Texas mein Archiv erwarb, ging es mir ähnlich. Im Foyer waren Vitrinen aufgestellt mit einer Auswahl meiner Dokumente, darunter einem Brief, den ich meinen Söhnen aus Neuseeland schrieb, als sie noch klein waren. Ich hatte für sie ein Bild von der Erde gezeichnet – mit der Sonne, einem Bett und mir lesend, um zu veranschaulichen, dass bei mir Tag war, wenn bei ihnen Nacht war und umgekehrt. Einen derart persönlichen Gegenstand aus meinem Leben in einer Vitrine zu sehen war eine Art Nachtodeserfahrung. Ein höchst seltsames Gefühl.

Das Gespräch führte Gina Thomas.

Schwund bei Ihren gespeicherten Daten absehbar

(pte004/16.05.2019/06:15) – Daten im Internet bestehen nicht ewig. Die gespeicherten Inhalte von Nutzern gehen früher oder später verloren. Einem Bericht von „The Conversation“ zufolge sind momentan rund 15 Zettabyte an Daten im Umlauf und wächst in einem Ausmaß von 70 Terabyte pro Sekunde. Doch Inhalte gehen auch konstant offline und können nicht mehr wiederhergestellt werden.

Speichermedien mit Ablaufdatum
Und auch technische Probleme kommen hinzu. Magnetische Speichermedien wie Festplatten halten nur drei bis fünf Jahre. Die darauf vorhandenen Daten müssen immer wieder kopiert werden. Dabei stellt sich auch die Frage, welche Daten es wert sind, erhalten zu werden. Ein weiteres Problem ist veraltete Software. Wenn Daten beispielsweise in den 1980er-Jahren auf Software wie WordPerfect oder WordStar gespeichert wurden, kann es in Zukunft sehr schwer sein, sie zu lesen, vor allem wenn die Software nicht mehr unterstützt wird oder die Entwicklerfirmen nicht mehr im Geschäft sind.

Es gibt viele Organisationen, die versuchen, möglichst viele Daten am Leben zu halten. Ein Start-up namens „The Internet Archive“  macht beispielsweise Fotos von größeren Seiten wie der der „New York Times“ oder Facebook, jedoch erfasst sie damit nur etwa 0,0003 Prozent aller Daten im Internet. Die Kosten für die Erhaltung von Daten sind auf lange Sicht ebenfalls hoch. Sie werden laut „The Conversation“ über einen Zeitraum von zehn Jahren auf etwa 2.500 Dollar pro Terabyte eingeschätzt. Ob für diese Kosten aufgekommen wird, hängt vom Wert der Daten ab. Persönliche Inhalte könnten demnach verloren gehen.

Myspace fehlen 50 Mio. Dateien
Ein besonderes Beispiel für den Datenverlust an den Zahn der Zeit ist die Plattform Myspace. Im Jahr 2008 noch das größte soziale Netzwerk, hat die Seite bis heute viele Mitglieder eingebüßt und wechselte bereits dreimal den Besitzer. Anfang des Jahres 2019 stellte sich heraus, dass auf Myspace 50 Mio. Dateien, die zwischen 2003 und 2015 hochgeladen wurden, inzwischen verloren gingen.

Wie reagiert unsere Jugend auf Social-Media?

Universitäten Oxford und Hohenheim analysieren achtjährige Langzeitstudie auf Wechselwirkung zwischen Social Media-Nutzung und persönlicher Zufriedenheit

Es ist die weltweit umfangreichste Langzeitbefragung, die die University of Oxford und die Universität Hohenheim in Stuttgart mit komplexer Statistik untersuchten. Ergebnis: die persönliche Social Media-Nutzung und die persönliche Lebenszufriedenheit von Teenagern beeinflussen sich in nur kaum messbaren Größenordnungen. Ihre Ergebnisse veröffentlichten die Forscherinnen und Forscher in der heutigen Ausgabe der Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Bisherige Studien über den Zusammenhang zwischen Social Media-Konsum und Lebensglück kämpfen meist mit einem Makel: Mal sind es geringe Teilnehmerzahlen, mal sehr einfache Auswertungen und oft handelt es sich nur um Momentaufnahmen durch wenige Befragungen in einem relativ kurzen Zeitraum.
Anders der Datenpool, den die Universität Hohenheim dank Kooperation mit der University of Oxford nun untersuchen konnte. Die Daten stammen aus der achtjährigen Langzeitstudie „Understanding Society“.
In dieser Auswertung dabei: Dr. Tobias Dienlin vom Fachgebiet Medienpsychologie der Universität Hohenheim. Erst- und Drittautor sind Amy Orben und Prof. Dr. Andrew Przybylski von der University of Oxford.

Angaben von 5.492 Teenagern aus achtjährigem Befragungszeitraum
Für ihre Veröffentlichung werteten sie die Angaben von 5.492 Teenagern aus. Bis zu acht Jahre lang hatten diese regelmäßig angegeben, wie viele Stunden sie an einem normalen Schultag mit Social Media verbrachten und wie hoch ihre gegenwärtige Lebenszufriedenheit sei.
Die Anzahl der Stunden markierten sie auf einer fünfstufigen Skala zwischen 0 bis 7 und mehr Stunden. Ihre Lebenszufriedenheit markierten sie auf einer Skala von Smileys mit sieben Stufen. Dabei unterschieden sie verschiedene Bereiche wie die Zufriedenheit mit Freundschaften, Aussehen oder familiärer Situation.
Die Befragungen fanden acht Mal mit einem Abstand von jeweils einem Jahr statt. Die erste Befragungswelle der „Understandig Society-Studie“ begann im Jahr 2009. Die Befragungen halten bis heute an.

Einfluss auf veränderte Lebenszufriedenheit liegt bei weniger als einem Prozent
„Wenn man leichte Tendenzen sucht, lässt sich sagen, dass wir eine ganz schwache Wechselwirkung zwischen Social Media Konsum und Lebenszufriedenheit gefunden haben. Nimmt der Social Media Konsum zu, reduziert sich die Lebenszufriedenheit geringfügig. Gleichzeitig steigt bei sinkender Lebenszufriedenheit auch in ganz leichtem Maße der Social Media Konsum. Die Effekte scheinen dabei für Mädchen etwas ausgeprägter zu sein als für Jungen.“
Die Effekte seien jedoch minimal: „In Zahlen ausgedrückt lassen sich Veränderungen in der Lebenszufriedenheit nur zu weniger als einem Prozent auf den Social-Media-Konsum zurückführen“, so Dr. Dienlin. Um das Ergebnis einzuordnen: Die Häufigkeit, mit der Jugendliche und Eltern das Abendessen teilten, habe einen etwa gleich großen Einfluss auf die Lebenszufriedenheit.
„Bislang wird die aktuelle Debatte meist durch Studien mit geringer Aussagekraft bestimmt. Die Studie ist deshalb ein wichtiger Schritt, um Technikfolgen für das Wohlergehen von Heranwachsenden zu bestimmten“, so die Bewertung von Prof. Dr. Andrew Przybylski, Director of Research am Oxford Internet Institute.
Gleichzeitig könne die Auswertung von Befragungen nur ein erster Schritt sein, betont Amy Orben, Doktorandin und College Lecturer am University of Oxford. Um die detaillierten Auswirkungen der Sozialen Medien auf Teenager zu verstehen, sei es nötig, Zugriff auf die Daten der Social Media-Anbieter zu erhalten.
Es sei deshalb dringend an der Zeit, den notwendigen politischen, ethischen und wissenschaftlichen Rahmen für solche Untersuchungen zu schaffen, so das Credo der Kooperation.

Veröffentlichung und Methodik
Das vollständige brief paper “Social media’s enduring effect on adolescent life satisfaction” erschien am 6. Mai 2019 in Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Für ihre Auswertung nutzten die Universitäten Oxford und Hohenheim die Methode der sog. Random Intercept Cross-Lagged Panel Model. Dabei wird untersucht, inwiefern Zu- oder Abnahme einer der beiden Variablen in Zusammenhang steht mit der Zu- oder Abnahme der anderen Variable – über einen Zeitraum von jeweils einem Jahr. Die Methode gilt aktuell als die bestgeeignete, um einen besseren Eindruck über den kausalen Zusammenhang der Variablen zu erhalten.

UNIVERSITÄT HOHENHEIM, Klebs

Fortschritt bei Quantencomputer

Auf quantenmechanischen Prinzipien basierende Computer können bestimmte Aufgaben besonders effizient lösen. Ihre Informationsträger – die Qubits – verfügen nicht nur über die Werte „0“ und „1“, sondern auch über Zustände dazwischen. Einen solchen Zustand aufrechtzuerhalten, ist allerdings schwierig. Wissenschaftlerinnen und Wissenschaftler am Karlsruher Institut für Technologie (KIT) haben nun granulares Aluminium, kurz grAl, für Quantenschaltungen eingesetzt und gezeigt, dass dieses supraleitende Material großes Potenzial besitzt, die bisherigen Grenzen der Quantencomputer zu überwinden. Die Forscher berichten in der Zeitschrift Nature Materials. (DOI: 10.1038/s41563-019-0350-3)

Quantencomputer gelten als die Rechner der Zukunft. Sie können große Datenmengen unter bestimmten Voraussetzungen schneller verarbeiten als ihre klassischen Pendants. Während klassische Computer einen Rechenschritt nach dem anderen ausführen, nehmen Quantencomputer viele Rechenschritte parallel vor. Informationsträger des Quantencomputers ist das Quantenbit, kurz Qubit. Bei Qubits gibt es nicht nur die Informationen „0“ und „1“, sondern auch Werte dazwischen, die über die quantenmechanische Überlagerung von Zuständen realisiert werden, das ist das sogenannte Superpositionsprinzip. Ihre Verarbeitung geschieht nach quantenmechanischen Prinzipien wie beispielsweise der Verschränkung, die selbst für räumlich weit voneinander getrennte Teilchen eine Wechselbeziehung ohne zeitliche Verzögerung ermöglicht.

„Die Herstellung von Qubits, die klein genug sind und sich schnell genug schalten lassen, um Quantenkalkulationen auszuführen, stellt eine enorme Herausforderung dar“, erklärt der Physiker Dr. Ioan Pop, Leiter der Forschungsgruppe Kinetic Inductance Quantum Systems am Physikalischen Institut (PHI) und am Institut für Nanotechnologie (INT) des KIT. Als vielversprechende Option gelten supraleitende Schaltungen. Supraleiter sind Materialien, die bei extrem niedrigen Temperaturen keinen elektrischen Widerstand aufweisen und daher elektrischen Strom verlustfrei leiten. Dies ist entscheidend, um den Quantenzustand der Qubits zu erhalten und sie effizient miteinander zu verbinden. So arbeiten große Unternehmen wie IBM, Intel, Microsoft und Google bereits daran, supraleitende Quantenprozessoren hochzuskalieren.

Eine wesentliche Schwierigkeit besteht allerdings darin, den Quantenzustand aufrechtzuerhalten. Wechselwirkungen mit der Umgebung können zum Zerfall des Quantenzustands führen, der sogenannten Dekohärenz. Je mehr Qubits verwendet werden, desto schwieriger ist es, die Kohärenz zu bewahren. Forscherinnen und Forscher am PHI, am INT und am Institut für Prozessdatenverarbeitung und Elektronik (IPE) des KIT sowie an der Nationalen Universität für Forschung und Technologie MISIS in Moskau haben nun erstmals granulares Aluminium als supraleitendes Material für Quantenschaltungen mit hoher Kohärenz eingesetzt. Wie das Team in der Zeitschrift Nature Materials berichtet, hat es ein sogenanntes Fluxonium-Qubit mit granularem Aluminium hergestellt, mit einer Kohärenzzeit von bis zu 30 Mikrosekunden – das ist die Zeit, in der sich ein Qubit in einem Zustand zwischen „0“ und „1“ befinden kann. Obwohl die gemessene Zeit sehr kurz erscheint, können innerhalb dieser Zeitspanne mehr als tausend logische Operationen durchgeführt werden. „Unsere Ergebnisse zeigen, dass granulares Aluminium eine neue Klasse von komplexen Qubit-Designs erschließen und dazu beitragen kann, die derzeitigen Grenzen der Quanteninformationsverarbeitung zu überwinden“, erklärt Ioan Pop.

Originalpublikation:

Lukas Grünhaupt, Martin Spiecker, Daria Gusenkova

C-Prozessor aus lebenden Bausteinen

Welterster Bio-Dual-Core-Prozessor entwickelt

(pte015/16.04.2019/10:30) – Forscher der ETH Zürich (ETH) http://ethz.ch haben einen Weg gefunden, einen zentralen Prozessor aus biologischen Bauteilen zu konstruieren, der flexibel und vielseitig programmierbar ist. Der Clou: Die neue Bio-CPU beruht auf einem modifizierten Crispr/Cas-System und kann beliebig viele Eingaben in Form von RNA-Molekülen (sogenannter Leit-RNA) verarbeiten. Am Ende stand ein biologischer Dual-Core-Prozessor mit zwei Rechnerkernen in einer Zelle.

Cas9-Protein als Kern

Den Kern des Prozessors stellt eine Variante des Cas9-Proteins dar. Die CPU reguliert als Antwort auf die Eingabe durch Leit-RNA-Sequenzen die Aktivität eines bestimmten Gens, sodass das zugehörige Protein hergestellt wird. Damit konnten die Schweizer Wissenschaftler in menschlichen Zellen skalierbare Schaltnetze programmieren, welche wie digitale Halbaddierer aus zwei Eingängen und zwei Ausgängen bestehen und zwei einstellige Binärzahlen addieren können.

Die Forscher sind bei ihrer Arbeit im Labor sogar noch einen Schritt weiter gegangen und schufen analog zur digitalen Welt einen biologischen Dual-Core-Prozessor, in dem sie zwei Rechnerkerne in eine Zelle einbauten. Dazu verwendeten sie Crispr/Cas-Einheiten von zwei unterschiedlichen Bakterien. „Damit haben wir den ersten Zellcomputer mit mehr als einem Rechnerkern geschaffen“, unterstreicht Bioingenieurwissenschaftler Martin Fussenegger.

Dieser innovative Biocomputer ist nicht nur extrem klein, sondern im Prinzip auch beliebig skalierbar. „Man stelle sich ein Mikrogewebe mit mehreren Mrd. Zellen vor, und jede davon verfügt über einen Dual-Core-Prozessor. Solche ‚Rechenorgane‘ könnten eine theoretische Rechenkapazität erreichen, welche diejenige eines digitalen Supercomputers bei Weitem übertrifft, und das mit einem Bruchteil der Energie“, sagt Fussenegger.

Vielseitige Nutzbarkeit

Ein solcher Zellcomputer ließe sich laut den Experten dazu nutzen, biologische Signale aus dem Körper wie gewisse Stoffwechselprodukte oder Botenstoffe wahrzunehmen, sie zu verarbeiten und wunschgemäß zu reagieren. Programmiert man die CPU entsprechend, könnten die Zellen zwei verschiedene Biomarker als Eingangssignale wahrnehmen.

Ist nur Biomarker A vorhanden, dann reagiert der Biocomputer mit der Bildung eines diagnostischen Moleküls oder eines Wirkstoffs. Registriert der Zellcomputer nur Biomarker B, dann löst er die Bildung eines anderen Wirkstoffs aus. Sind beide Biomarker vorhanden, dann erzeugt dies eine dritte Reaktion. Angewendet könnte dies in der Medizin, zum Beispiel zur Behandlung von Krebs.

„Wir könnten zudem Rückkopplungen einbauen“, betont der ETH-Professor. Sei beispielsweise Biomarker B über längere Zeit in einer gewissen Konzentration im Körper vorhanden, dann könnte das auf die Bildung von Krebsmetastasen hindeuten und der Biocomputer würde dementsprechend einen Wirkstoff bilden, der speziell diese bekämpft.

Wie beeinflusst Künstliche Intelligenz unsere Zukunft? Mit einer Anmerkung von Jean Pütz

Zehn Kollegen der WPK-die Wissenschaftsjournalisten waren von dem EU-Parlament nach Brüssel eingeladen. Ich war als Delegierter dabei.

Die Funktion des europäischen Parlaments wird leider völlig unterschätzt, aber sie ist die einzige Instanz, die die EU-Commission überwacht und kontrolliert. Das Parlament bzw. der Ausschuß Wissenschaft, Forschung und Technologie bestimmt die Richtung, welche Unterstützung  die einzelnen europäischen Staaten für diese Aufgabe erhalten. Immerhin sind es insgesamt über 100 Milliarden Euro, die gerecht über die verschiedenen Wissenschafts-Zweige und -Projekte verteilt werden sollen. In diesem Zusammenhang haben wir von der WPK ein längeres Gespräch mit dem Berichterstatter dieses Ausschusses, Dr. Christian Ehler, ein ins EU-Parlament gewählter Abgeordneter aus Brandenburg, führen können. Wir warn beeindruckt ob der Qualifikation und seiner Fähigkeit, Gesamtzusammenhänge zu bewerten. Allerdings klagte er ebenso wie wir Wissenschaaftsjournalisten über das geringe Interesse der Öffentlichkeit und der Medien für den Bereich Wissenschaft und Forschung. Wörtlich sagte er uns, wenn er eine Pressekonferenz veranstalte, kämen ganz wenige Journalisten, während die politischen Pressekonferenzen aus allen Nähten platzten. Das ist eingentlich unverständlich wenn man bedenkt, dass das entscheidend die Zukunft und Konkurrenzfähigkeit Europas betrifft. Wer interessiert sich schon für den Quantencomputer der Zukunft oder die Künstliche Intelligenz und ihren Einfluss auf unseren Alltag. Solche Entwicklungen halte ich für gefährlich, insbesondere die Gefahr besteht, dass die Wissenschaft sich auf Grund der Komplexität zu einer Paralellgesellschaft entwickelt. Dr. Christian Ehler hält dagegen, ebenso wie wir Wissenschaftsjournalisten.

Der Kollege Dieter Beste, ebenso wie ich ehemals im Vorstand der WPK, hat sich durch den folgenden Beitrag davon inspirieren lassen, sich über die Ethik, die in Verbindung mit der Künsstlichen Intelligenz entwickelt werden muss.
Jean Pütz

Wie vertrauenswürdig ist Künstliche Intelligenz?
Autor:Dieter Beste

Die EU-Kommission möchte in einer internationalen Übereinkunft erreichen, dass bei Entwicklung und Anwendung der Künstlichen Intelligenz (KI) der Mensch im Mittelpunkt steht. Eine Expertengruppe legte dazu Anfang April ethische Leitlinien vor.

Künstliche Intelligenz verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen wäre: „Unsere Gehirne sind zu langsam und bei den anstehenden Datenmengen hoffnungslos überfordert“, konstatiert der Philosoph Klaus Mainzer in „Künstliche Intelligenz – Wann übernehmen die Maschinen?“ – und fragt dort auf Seite 245: „Aber wie sicher sind KI-Algorithmen?“ Werden wir Menschen auch künftig dem Anspruch gerecht, Herr unseres Tuns zu sein – oder werden wir kapitulieren und die Verantwortung für unser Leben an Maschinen delegieren?

Künstliche Intelligenz (KI) ist ein internationales Zukunftsthema in Forschung und Technik, Wirtschaft und Gesellschaft. Aber Forschung und technische Innovation der KI reichen nicht aus. KI‐Technologie wird unsere Lebens‑ und Arbeitswelt …

 

Als eine dem europäischen Wertekanon gemäße Antwort auf derartige Fragen verstehen sich die ethischen Leitlinien, die jetzt eine unabhängige europäische Expertengruppe für vertrauenswürdige künstliche Intelligenz (KI) in Brüssel vorgelegt hat. Demnach muss eine KI, der wir vertrauen dürfen, die folgenden sieben Anforderungen erfüllen:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen. Keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
  • Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
  • Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  • Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
  • Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und Barrierefreiheit gewährleisten.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Gut gebrüllt, Löwe, möchte man kommentieren – wie weiter? Wie diesen Leitsätzen Lebenskraft und internationale Wirksamkeit einhauchen? In diesem Sommer noch will die Kommission eine Pilotphase einleiten, in die sie ein breites Spektrum von Interessengruppen einbinden möchte. Ab sofort ist es Unternehmen, öffentlichen Verwaltungen und Organisationen möglich, der Europäischen KI-Allianz beizutreten; sie werden benachrichtigt, wenn das Pilotprojekt startet. Zudem, so der Plan, sollen die Mitglieder der KI-Expertengruppe helfen, die ethischen Leitlinien in den Mitgliedstaaten bekannt zu machen und zu erläutern.

Der Plan der EU-Kommission, mit der Diskussion ethischer Leitlinien die weitere Entwicklung der KI in Europa im Konsens anzugehen, ist Teil der KI-Strategie, die vor rund einem Jahr veröffentlicht wurde. Damit verfolgt die Kommission das Ziel, die öffentlichen und privaten Investitionen für Künstliche Intelligenz im Laufe des nächsten Jahrzehnts auf mindestens 20 Mrd. Euro jährlich zu steigern, mehr Daten bereitzustellen und Talente zu fördern. Angesichts des Machtkampfs zwischen China und den USA um die Technologieführerschaft in der Welt und den dort in KI investierten Summen hat Europa keinen leichten Stand. Die zur Zeit von der Kommission für KI von 2021 bis 2027 vorgesehenen jährlichen Mittel in Höhe rund 1 Mrd. Euro wirken im Vergleich ein wenig wie der Tropfen auf dem heißen Stein – das weiß auch Juha Heikkilä, Referatsleiter Robotik und Künstliche Intelligenz in der Generaldirektion Kommunikationsnetze, Inhalte und Technologien.

Andererseits, so Heikkilä gegenüber Journalisten der Wissenschafts-Pressekonferenz (wpk) in Brüssel, könnte gerade der von Europa eingeschlagene „dritte Weg“ für viele in der Welt attraktiv sein, die nicht dem „marktbasierten“ Entwicklungsweg der Amerikaner und nicht dem „auf Kontrolle ausgerichteten“ chinesischen KI-Weg folgen möchten. Man suche die Zusammenarbeit mit gleichgesinnten Partnern wie Japan, Kanada oder Singapur. In die Pilotphase würden auch Unternehmen aus anderen Ländern und internationale Organisationen einbezogen. Und ja, Unternehmen verlangten auch nach Richtlinien, um Planungssicherheit zu haben.

Die Rasanz, mit der Künstliche Intelligenz inzwischen in unser privates und berufliches Leben eindringt und alles verändert, wäre noch vor wenigen Jahren unvorstellbar gewesen. Was wird morgen sein, wenn die KI weiterhin an Tempo aufgenommen haben wird? Gut möglich, dass eine breit angelegte gesellschaftliche Diskussion anhand der ethischen Leitlinien der EU tatsächlich ein Wettbewerbsvorteil Europas ist. Denn folgt man dem Philosophen Klaus Mainzer, dürfe Ethik „keinesfalls als Innovationsbremse missverstanden“ werden. („Künstliche Intelligenz – Wann übernehmen die Maschinen?“, Seite 278)

 

Daten unter Wasser problemlos übertragbar

US-Forscher entwickeln neuartige Spezialantenne für Kommunikation mit extrem langen Wellen

Menlo Park (pte002/15.04.2019/06:05) – Ein Mobilfunkgerät, das die Kommunikation unter Wasser und mit Partnern in großen Tiefen ermöglicht, wird derzeit am SLAC National Accelerator Laboratory http://slac.stanford.edu entwickelt. Das Forschungszentrum gehört zum US-Energieministerium. Das Gerät ist so klein, dass es in die Hemdtasche passt. Es emittiert extrem niederfrequente elektromagnetische Wellen (VLF) mit Wellenlängen von bis zu hunderten Kilometern. Diese kommen überall durch, selbst durch Felsen, an denen die heute genutzten Wellenlängen hängenbleiben.

Antennengröße geschrumpft

Derartige Wellen lassen sich bereits erzeugen, doch die benötigte Sendeantenne ist extrem groß. Die Antenne, die die US-Forscher entwickelt haben, ist dagegen nur zehn Zentimeter lang. Geräte, die damit ausgestattet sind, könnten bei Rettungseinsätzen und bei Kampfhandlungen die Verständigung erleichtern. „Unser Gerät ist 100 Mal effektiver als bisher genutzte kompakte VLF-Geräte“, sagt Projektleiter Mark Kemp. „Außerdem kann es Daten weitaus schneller übertragen.“

Die Radiosignale, die heute für die mobile Datenübertragung genutzt werden, funktionieren nur über relativ kurze Entfernungen. VLF-basierte Daten benötigen eigentlich Antennen, die der Größe der Wellenlänge entsprechen, sich also über quadratkilometergroße Flächen erstrecken. Es gibt auch fahrbare Antennen für diesen Bereich, doch sie sind weitaus ineffizienter. Außerdem begrenzt die geringe Bandbreite die Übertragungsrate.

Piezoelektrischen Effekt ausgenutzt

Den Forschern ist es gelungen, das Gewicht der Antenne auf wenige Pfund zu reduzieren – durch Ausnutzung des piezoelektrischen Effekts von Lithium-Niobat. Es reagiert auf Druck mit elektrischem Puls. Umgekehrt gerät es in Schwingungen, wenn ein elektrischer Wechselstrom angelegt wird. Diese Schwingungen werden in einen oszillierenden elektrischen Strom umgewandelt, dessen Energie gewissermaßen huckepack auf den VLF-Wellen in alle Himmelsrichtungen reitet und von kompatiblen Geräten aufgefangen werden kann.

Es gelang den kalifornischen Wissenschaftlern auch, die Bandbreite zu vergrößern. Sie können im jetzigen Entwicklungsstand 100 Bit pro Sekunde übermitteln. „Das reicht schon, um einen einfachen Text zu übermitteln“, verdeutlicht Kemp abschließend.

Digitalisierung als Motor für Nachhaltigkeit

Bundesumweltministerin Svenja Schulze und Bundesforschungsministerin Anja Karliczek haben heute das neue Hauptgutachten des Wissenschaftlichen Beirats Globale Umweltveränderungen (WBGU) „Unsere gemeinsame digitale Zukunft“ entgegengenommen. Darin analysiert das Beratergremium der Bundesregierung die Zusammenhänge zwischen Digitalisierung und Nachhaltigkeit und entwickelt Handlungs- und Forschungsempfehlungen. Zentrale Forderung des WBGU ist es, den digitalen Wandel so zu gestalten, dass er als Hebel und Unterstützung für Nachhaltigkeit dient. Die Bundesministerinnen Schulze und Karliczek begrüßen das Gutachten als wichtigen Beitrag zur Debatte über die Chancen und Risiken der Digitalisierung für die nachhaltige Entwicklung.

Bundesforschungsministerin Anja Karliczek: „Die Digitalisierung bietet große Chancen für die nachhaltige Entwicklung und den Klimaschutz. Forschung und Innovationen auf diesem Gebiet sind ein zentraler Schlüssel und wichtiger Impuls- und Ideengeber für den Schutz unserer Umwelt und des Klimas. Wir werden die Förderung dieser Themen in den nächsten Jahren intensiv fortsetzen. Deutschland wird davon nicht zuletzt ökonomisch profitieren. Fortschrittliche Umwelttechnologien werden weltweit in den nächsten Jahren immer gefragter sein. Generell müssen Ökologie und Ökonomie noch stärker miteinander versöhnt werden. Auch die Bildung ist ein wichtiger Faktor für eine nachhaltige Entwicklung. Mit guten Bildungsangeboten wie „Bildung für nachhaltige Entwicklung“ können wir die Grundlagen schaffen für ein umweltbewusstes Leben und Handeln von Kindesbeinen an.“

Bundesumweltministerin Svenja Schulze: „Digitalisierung ist kein Selbstzweck – sie sollte als Motor für mehr Nachhaltigkeit dienen. Die Digitalisierung birgt ein riesiges Potential für den Umweltschutz. Um dieses auszuschöpfen, braucht sie die richtigen Leitplanken: für den Zugang und den Schutz von Daten, für den Umgang mit und die Entsorgung von Rohstoffen, für das Schließen von Stoffkreisläufen. Das WBGU-Hauptgutachten gibt hierfür wichtige Anregungen. Ich werde das Bundesumweltministerium zum Treiber einer nachhaltigen Gestaltung der Digitalisierung machen: Wir entwickeln derzeit eine umweltpolitische Digitalagenda und ein Förderprogramm für KI-Anwendungen für Umwelt- und Klimaschutz. Außerdem werde ich das Thema Digitalisierung und Nachhaltigkeit zu einem Schwerpunkt unserer deutschen EU-Ratspräsidentschaft im Jahr 2020 machen.“

Das Bundesforschungsministerium fördert seit vielen Jahren die Nachhaltigkeitsforschung, zuletzt mit zwei Milliarden Euro seit 2015. Dabei ist die Digitalisierung ein zentrales Instrument. Zum Beispiel soll bei der Forschungsinitiative zum Erhalt der Artenvielfalt mithilfe digitaler Anwendungen die Biodiversität besser erfasst und auch geschützt werden. Bei den Kopernikus-Projekten für die Energiewende wiederum werden digitale, technologische und wirtschaftliche Lösungen für den Umbau des Energiesystems entwickelt.

Das Bundesumweltministerium ist dieses Jahr Hauptpartner der re:publica 2019, einer Messe zur digitalen Gesellschaft. Diese findet vom 6.-8. Mai 2019 in Berlin statt. Das BMU wird dort ein erstes Eckpunktpapier für eine umweltpolitische Digitalagenda vorstellen und über den gesamten weiteren Verlauf der Messe Feedback und Ideen einsammeln.

Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen wurde 1992 im Vorfeld der Konferenz der Vereinten Nationen über Umwelt und Entwicklung („Erdgipfel von Rio“) von der Bundesregierung als unabhängiges wissenschaftliches Beratergremium eingerichtet. Der WBGU wird gemeinsam von BMBF und BMU betreut und finanziert.

Erweiterte Intelligenz bessere Bezeichnung für KI

Wir führen in Deutschland eine falsche KI-Debatte

Der Begriff KI lädt zu Missverständnissen ein. Denn wir tun so, als stünden sich Mensch und Maschine feindlich gegenüber – das ist ein Irrtum.

Handelsblatt – Intelligente Maschinen sind Teil unseres Lebens. Sie helfen Ärzten bei Krebsdiagnosen und schicken Polizisten auf Verbrecherjagd. Sie suchen für Personalabteilungen geeignete Bewerber aus und schlagen Richtern vor, welche Strafen sie verhängen sollen.

Das ist keine Science-Fiction, sondern Realität. Algorithmen und Künstliche Intelligenzsind viel mehr als Industrie 4.0. Sie umgeben uns und dringen in immer neue, sensible Lebensbereiche vor. Sie analysieren menschliches Verhalten und formen moderne Gesellschaften, indem sie für uns passende Informationen filtern oder Lebenspartner vorschlagen. Wir sollten uns mit ihnen beschäftigen, bevor wir uns an sie gewöhnen.

Künstliche Intelligenz oder kurz KI polarisiert. Die öffentliche Erwartung an die neue Technologie pendelt zwischen euphorischer Hoffnung auf eine bessere Welt und Ängsten vor einem Kontrollverlust des Menschen. Wobei im fortschrittsskeptischen Deutschland letztere Stimmen meist überwiegen.

Ein Teil des Problems ist schon unsere Wortwahl. Der Begriff „Künstliche Intelligenz“ lädt zu Missverständnissen ein. Er suggeriert, dass menschliche und maschinelle Intelligenz quasi dasselbe seien. Und er legt nahe, dass Künstliche Intelligenz die menschliche so ersetzen kann wie ein künstliches Hüftgelenk ein natürliches. Weil Algorithmen im Zweifel eh schneller, zuverlässiger und besser entscheiden als Menschen, werden sie uns verdrängen – so die Angst. Es scheint, als stünden sich Mensch und Maschine feindlich gegenüber.

Wir brauchen einen neuen KI-Begriff

Doch das ist falsch. So präzise Algorithmen analysieren und assistieren: Ohne uns wären sie aufgeschmissen. Menschen müssen die Ziele der Software festlegen und sie auf Fehler kontrollieren. Wir sind kreativ und reflektiert, schmieden intrinsisch motivierte Pläne, haben gesellschaftliche Konventionen, Normen und ethische Prinzipien.

All das sind und haben Maschinen nicht, selbst wenn sie intelligent heißen. Ihre Klugheit ist beschränkt, sie lernen und wirken innerhalb von durch Menschen vorgegebenen Grenzen; über einen eigenen ethischen Kompass verfügen sie nicht. Daraus ergibt sich gegenseitige Abhängigkeit: Maschinen kommen nicht ohne uns aus, aber auch wir würden ohne sie vieles im Datenzeitalter nicht mehr oder nicht so gut bewältigen können.

Deswegen brauchen wir einen neuen Begriff. Erweiterte Intelligenz wäre das bessere Wort. Denn genau darum geht es: um Maschinen, die nur im Zusammenspiel mit Menschen funktionieren und unsere Fähigkeiten punktuell erweitern. Wie das Leitbild Mensch mit Maschine gelingen kann, zeigen die Beispiele Medizin, Polizeiarbeit und Personalauswahl.

Ärzte profitieren schon heute von algorithmisch erweiterten Fähigkeiten. Selbstlernende Software kann oft schneller diagnostizieren, in einigen Fällen auch präziser. Besonders gut wertet sie bildgebende Verfahren wie MRTs und CTs aus, typische Aufgaben eines Radiologen. Denn kaum ein Mensch ist von Natur aus dafür geschaffen, stundenlang in einem abgedunkelten Raum auf einen Computerbildschirm zu starren und Befunde zu analysieren.

Computern gelingt es besser, Tumore zu erkennen. Ärzte macht das aber nicht überflüssig. Denn erst im Zusammenspiel von Arzt und Algorithmus sinkt die Fehlerquote auf ein absolutes Minimum. Zudem erhalten Mediziner so mehr Zeit für die Betreuung der Patienten und die Therapie.

Algorithmen helfen der Polizei

Die Polizei profitiert ebenfalls von der Analyse großer Datenmengen. Muster vergangener Verbrechen helfen ihr, zukünftige Straftaten vorherzusagen und zu bekämpfen. Beim sogenannten Predictive Policing berechnen Algorithmen, in welchen Stadtvierteln oder Straßenzügen beispielsweise Einbrüche zu erwarten sind. Mit diesen Informationen kann die Polizei ihre knappen Ressourcen besser zum Schutz der Bürger einsetzen. Sie ist mit größerer Wahrscheinlichkeit dort, wo sie gebraucht wird, kommt nicht erst zur Aufklärung eines Verbrechens. Erweiterte Intelligenz hilft ihr, wirksame Präventionsarbeit zu leisten.

Auch im Arbeitsmarkt können Maschinen Menschen das Leben leichter machen. Sie unterstützen etwa Personaler dabei, die richtigen Kandidaten für ausgeschriebene Stellen zu finden. Die Vorauswahl übernimmt immer häufiger ein Algorithmus – und kann dabei nicht nur große Mengen an Bewerbungen bewältigen, sondern auch vorurteils- und diskriminierungsfreie Vorschläge machen. Speziell für diesen Zweck entwickelte Computerspiele entdecken sogar informell erworbene Kompetenzen und Qualifikationen, die in keinem Zeugnis stehen und sonst verborgen geblieben wären.

Die finale Entscheidung treffen wiederum die menschlichen Profis. Sie haben dann mehr Zeit für das Gespräch und können so besser einschätzen, ob ein fachlich geeigneter Kandidat auch ins Team passt. Das Zusammenspiel zwischen Mensch und Algorithmus erhöht die Wahrscheinlichkeit, das besser passende Personal zu finden.

Erweiterte Intelligenz ist eine Errungenschaft, keine Gefahr für die Menschheit, wenn wir sicherstellen, wer in der algorithmischen Gesellschaft Ross und wer Reiter ist. Um bei den drei Beispielthemen zu bleiben: Wie stellen wir sicher, dass Ärzte die heute schon existierenden Palliativ-Algorithmen nur bei unheilbar kranken Patienten einsetzen, um die verbleibende Lebenszeit einschätzen und dem Patienten qualvolle Behandlungen ersparen zu können – und nicht, um Gesundheitskosten zu senken?

Was ist zu tun, wenn Predictive-Policing-Systeme die Beamten überproportional häufig in Viertel mit hohem Migrationsanteil schicken und dadurch Diskriminierung verstärken? Oder wie kann sichergestellt werden, dass die Algorithmen den Personalabteilungen großer Tech-Unternehmen nicht nur Männer als passende Kandidaten vorschlagen, weil sie aus der bisherigen Einstellungspraxis der Konzerne gelernt haben? Um solche Fragen beantworten und erweiterte Intelligenz in unseren Dienst stellen zu können, warten mindestens vier große Herausforderungen:

Erstens: Diskurs

Wir brauchen mehr öffentliche Auseinandersetzungen darüber, wo Algorithmen eingesetzt werden und nach welchen Regeln sie funktionieren. Wenn Maschinen über Menschen entscheiden, bedarf es einer politischen Debatte. Dabei dürfen wir in Fällen mit großem Gefahrenpotenzial auch vor Verboten nicht zurückschrecken. Künstliche Intelligenz darf sehr wohl künstlich verdummt werden.

Zweitens: Kontrolle

Entscheidungen von Maschinen müssen für Betroffene leicht nachvollziehbar und anfechtbar sein. Wer sich ungerecht behandelt fühlt, braucht einen menschlichen Ansprechpartner, schnelle und unbürokratische Unterstützung sowie sichere Rechtswege. Wenn Menschen sich algorithmischen Entscheidungen ausgeliefert fühlen, verlieren sie Vertrauen. Deshalb muss die Wirkung von Algorithmen in sensiblen Bereichen wirksam kontrolliert werden, am besten mit europaweit einheitlichen Standards

Drittens: Vielfalt und Wettbewerb

Es gilt, algorithmische Monokulturen zu verhindern. Gebraucht wird ein Rahmen, in dem verschiedene Anbieter für Softwarelösungen erfolgreich konkurrieren können. Nur durch eine Vielfalt an Algorithmen kann gesellschaftliche Pluralität abgebildet und Diskriminierung verhindert werden. Essenziell ist hierfür eine bessere Zugänglichkeit zum Treibstoff der Algorithmen, den Daten. Nur wer über qualitativ hochwertige Daten verfügt, kann es schaffen, ernsthafte Konkurrenz auf dem Markt zu werden.

Viertens: Wissen

Ohne mehr Kompetenz auf allen Ebenen wird es nicht gehen. Bürger sollten bewerten können, wann ein Algorithmus für sie relevant ist. Informatiker und all diejenigen, die Software entwickeln und anwenden, müssen soziale Konsequenzen sowie ethische Aspekte von vornherein mitdenken.

Und wir brauchen einen auch in Sachen KI starken öffentlichen Sektor, der auf der einen Seite klug reguliert, auf der anderen selbst Algorithmen fürs Gemeinwohl einsetzt. Eine staatliche Algorithmen-Agentur würde helfen, die dazu dringend nötige Kompetenz schnell aufzubauen und in der öffentlichen Verwaltung zu verbreiten.

Wir sollten die Chancen der erweiterten Intelligenz nutzen, für eine bessere und fairere Gesellschaft. Das bedarf Mut, um aus der digitalpolitischen Defensive herauszukommen. Es bedarf aber auch eines kritischen Blicks, um die Konsequenzen der intelligenten Maschinen für unseren Alltag angemessen zu reflektieren. Wir Menschen sollten lernen, die Maschinen für uns zu nutzen, wo sie uns nutzen. Nicht mehr, aber auch nicht weniger.