Archiv der Kategorie: Computer, TV, Medien

Das wünschen sich Deutsche Bürger von der Künstlichen Intelligenz

(Gesellschaft für Informatik) – Im Wissenschaftsjahr 2019 – Künstliche Intelligenz des Bundesministeriums für Bildung und Forschung hat die Gesellschaft für Informatik e.V. die Deutschen in einer repräsentativen Allensbach-Umfrage gefragt, welche SciFi-KIs sie sich im Alltag wünschen.

Berlin, 5 Juli 2019 – Sie lassen Sprachassistenten wie Siri, Cortana und Alexa blass aussehen und selbst modernste Service-Roboter haben keine Chance gegen sie: Fiktionale Maschinen in Film und Fernsehen besitzen oftmals übermenschliche Intelligenz und Stärke. Anlässlich des Wissenschaftsjahres 2019 – Künstliche Intelligenz (KI) des Bundesministeriums für Bildung und Forschung hat das Allensbach-Institut für die Gesellschaft für Informatik e.V. (GI) erhoben, welche fiktionalen KIs der Populärkultur sich die deutsche Bevölkerung im Alltag wünschen. Die Umfrage ist Teil des Projektes „#KI50: Künstliche Intelligenz – gestern, heute, morgen“, mit dem die GI in Anlehnung an ihr 50-jähriges Bestehen dazu anregt, über die deutsche KI-Geschichte zu reflektieren, einen Blick nach vorne zu werfen und das Thema einer breiten Öffentlichkeit besser zugänglich zu machen.

Deutsche wünschen sich R2-D2 und K.I.T.T. im Alltag
Sprechende Autos, superstarke Roboter oder kluge Stimmen aus dem Lautsprecher – die Science-Fiction-Popkultur (SciFi) ist voll von intelligenten Maschinen mit unterschiedlichsten Fähigkeiten. Wenn man die deutsche Bevölkerung fragt, welche KI sie sich im Alltag als Assistentin oder Gehilfen wünscht, landet R2-D2 aus Star Wars auf dem ersten Platz. Ein Sechstel (15 %) der Deutschen wünscht sich den lustig piepsenden Droiden im Alltag. Das sprechende und selbstfahrende Auto K.I.T.T. aus der TV-Serie Knight Rider landet mit 13 % auf dem zweiten Platz. Commander Data, den übermenschlich schlauen Roboter aus Star Trek, wünschen sich etwa ein Zehntel der Deutschen (8 %). Bei der Umfrage konnten die Befragten aus insgesamt 15 Science-Fiction-Maschinen mit Künstlicher Intelligenz wählen.

KI kann schon heute Lebens- und Arbeitswelt enorm bereichern
Prof. Dr. Ingo Timm und PD Dr. Matthias Klusch, Sprecher des Fachbereichs „Künstliche Intelligenz“ der Gesellschaft für Informatik sind jedoch überzeugt, KI-Systemen wie Commander Data, K.I.T.T. und Co bleiben noch lange Science Fiction: „Künstliche Intelligenz kann schon heute unsere Lebens- und Arbeitswelt enorm bereichern. Doch sind wir von intelligenten Maschinen mit umfassenden menschlichen Fähigkeiten, wie wir sie aus vielen Science -Fiction-Filmen kennen noch weit entfernt. Heutige KI-Systeme können lediglich einzelne klar abgegrenzte Probleme sehr gut oder sogar viel besser als Menschen lösen.“

Das Thema KI muss breit diskutiert werden
Doch auch, wenn es noch dauert bis komplexe Maschinen-Assistenten vielseitig einsetzbar sind, ist es nach Aussage der Experten wichtig, sich schon heute intensiv und verantwortungsvoll mit diesen Technologien zu beschäftigen: „Wir müssen uns vor Augen führen: KI-Systeme sind nur so gut wie wir sie gestalten können und wollen. Damit sie allen Menschen nutzen und nicht nur einigen wenigen, ist es wichtig, über das Thema KI und Verantwortung in einer breiten Öffentlichkeit transparent und verständlich zu diskutieren. Darüber hinaus gilt es, Menschen mit KI-Kompetenzen auszubilden und sie an der Entwicklung der KI-Zukunft zu beteiligen“, so Timm und Klusch.

Wissenschaftsjahr 2019 – Künstliche Intelligenz
Systeme und Anwendungen, die auf Künstlicher Intelligenz basieren, sind schon heute vielfach Bestandteil unseres Lebens: Industrieroboter, die schwere oder eintönige Arbeiten übernehmen oder smarte Computer, die in kurzer Zeit riesige Datenmengen verarbeiten können – und damit für Wissenschaft und Forschung unverzichtbar sind. Ganz abgesehen von virtuellen Assistenzsystemen, die zu unseren alltäglichen Begleitern geworden sind. Welche Chancen gehen damit einher? Und welchen Herausforderungen müssen wir uns stellen? Welche Auswirkungen hat diese Entwicklung auf unser gesellschaftliches Miteinander? Im Wissenschaftsjahr 2019 sind Bürgerinnen und Bürger aufgerufen, im Dialog mit Wissenschaft und Forschung Antworten auf diese und weitere Fragen zu finden.
Frithjof Nagel

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum. 2019 feiert die GI ihr 50-jähriges Gründungsjubiläum. Seit 1969 vertritt sie die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik.

Prekäre Bedingungen gefährden IT-Standort Deutschland

(Gesellschaft für Informatik e.V.) – Mit der Stellungnahme zur „Lage und Zukunft des wissenschaftlichen Nachwuchses“ weist der Beirat des Wissenschaftlichen Nachwuchses in der Gesellschaft für Informatik (GI-WiN) auf die prekäre Lage vieler Nachwuchstalente im akademischen Mittelbau hin. Zunehmende finanzielle und strukturelle Defizite in der deutschen Hochschullandschaft würden die Informatik-Forschung vieler Promovierenden und Postdoktoranden zu einem Kraftakt machen, so Dr. Jens-Martin Loebel, Dr. Kerstin Lenk, Dr. Mario Gleirscher und Prof. Dr. Simon Nestler, die die Stellungnahme gemeinsam verfasst haben.

Dr. Kerstin Lenk, stellvertretende Sprecherin des Beirats sieht in dieser Vernachlässigung des wissenschaftlichen Mittelbaus durch die Politik eine massive Gefahr für den Wissenschafts- und Innovationsstandort Deutschland: „Die vielen Promovierenden und Postdoktoranden sind das Rückgrat der deutschen Informatikforschung. Doch prekäre Beschäftigungsverhältnisse, unzureichende Vereinbarkeit von Beruf und Familie oder mangelndes Qualitätsmanagement machen den Hochschulstandort Deutschland für viele herausragende IT-Talente zunehmend unattraktiv. Wenn wir bei wegweisenden Zukunftsthemen wie Künstlicher Intelligenz, autonomen Fahren oder Data Science international konkurrenzfähig bleiben wollen, dann müssen wir die Verhältnisse unter denen der wissenschaftliche Nachwuchs heute arbeitet nachhaltig aufwerten.“

Um die Abwanderung herausragender IT-Talente (Brain Drain) an deutschen Hochschulen mittelfristig zu verlangsamen und langfristig zu stoppen schlägt der Beirat insgesamt acht konkrete Maßnahmen vor: Hierzu zählen:

  • 1. die Trennung von Betreuung und Begutachtung sowie die externe unabhängige Begutachtung von Dissertationen,
  • 2. der flächendeckende Einsatz von Promotionskomitees mit unabhängigen Mitgliedern und der Dokumentation deren Arbeit zur Qualitätssicherung,
  • 3. die klare Definition der Rolle von Betreuern sowie die Unterstützung von Promovierenden/Postdoktoranden bei der zukünftigen beruflichen Orientierung und den Schutz der körperlichen und psychischen Gesundheit,
  • 4. die Beseitigung von negativen Einflüssen der vertraglichen Rahmenbedingungen auf das Betreuungsverhältnis,
  • 5. den Nachweis pädagogischer Weiterbildungen in der Betreuung vor Antritt einer Tenure-Track-Stelle und/oder einer Professur.

Der Beirat fordert darüber hinaus administrative und organisatorische Maßnahmen zur Strukturierung und Schaffung weiterer Karrierewege für den wissenschaftlichen Nachwuchs. Hierzu zählen:

  • 6. die Abschaffung des WissZeitVG (Gesetz über befristete Arbeitsverträge in der Wissenschaft),
  • 7. die Schaffung von Dienstvereinbarungen, nach Vorbild der Viadrina. Dazu gehören u.a., dass Erstverträge mit dem wissenschaftlichen Nachwuchs über mindestens drei Jahre geschlossen werden. Die Arbeitszeit muss mindestens 50% betragen, wobei angestellte Promovierende und Postdoktoranden mindestens 40 % der Arbeitszeit für ihre eigenen Qualifikationsarbeiten zur Verfügung haben müssen. Familienpolitische Komponenten wie die Verlängerung des Arbeitsverhältnisses um zwei Jahre je Kind müssen berücksichtigt werden.
  • 8. die Schaffung von unbefristeten Positionen in oder nach der Postdoktoranden-Phase zum Beispiel in der Lehre oder reine Forschungsstellen nach dem Vorbild des angelsächsischen Systems.

Über die Gesellschaft für Informatik e.V.
Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum. 2019 feiert die GI ihr 50-jähriges Gründungsjubiläum. Seit 1969 vertritt sie die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik.

Künstliche Intelligenz, Maschinelles Lernen und Data Science

(Universität Saarland) Sie bereiten komplexes Datenmaterial auf, analysieren es mit Verfahren der Statistik und der Künstlichen Intelligenz, um daraus bisher unbekannte Trends und Fakten zu berechnen. Solche Spezialistinnen und Spezialisten sind nicht nur auf dem Arbeitsmarkt sehr umworben. Schon jetzt bleiben tausende gut bezahlter Stellen unbesetzt. Die Universität des Saarlandes führt daher zum kommenden Wintersemester den Bachelor- und Masterstudiengang „Data Science and Artificial Intelligence“ ein. Darin lehren renommierte Expertinnen und Experten aus den Forschungsinstituten des „Saarland Informatics Campus“ anwendungsnah die Verfahren der Gebiete Data Science, Künstliche Intelligenz, Maschinelles Lernen und Big Data.

Ab dem kommenden Wintersemester wird die Fachrichtung Informatik der Universität des Saarlandes den auf sechs Semester angelegten Bachelor-Studiengang „Data Science and Artificial Intelligence“ anbieten. Ab August bis Ende September könnten sich Studierende einschreiben. Bewerbungsfrist für den internationalen Master ist der 15. Juni. Es können aber auch Bewerbungen danach akzeptiert werden.

„Künstliche Intelligenz kommt inzwischen überall zum Einsatz, beim Online-Shopping, beim Autonomen Fahren und in der medizinischen Datenanalyse“, erklärt Jens Dittrich, Informatikprofessor und Leiter der Gruppe „Big Data Analytics“ an der Universität des Saarlandes. Besonders beim automatisierten Übersetzen sehe man, so Dittrich, welche Fortschritte die Künstliche Intelligenz in den letzten Jahren gemacht habe. Das gelte auch für die sogenannte Datenwissenschaft (Data Science). Da die Datenberge inzwischen in jeder Branche wachsen (Big Data), ist sie in den Vordergrund gerückt. Denn der Schwerpunkt der „Data Science“ liegt nicht nur auf den Daten selbst, sondern auch auf der Art und Weise, wie sie verarbeitet und mit Hilfe von Methoden der Künstlichen Intelligenz und des Maschinellen Lernens aufbereitet und ausgewertet werden.

„Im neuen Studiengang lernen die Studierenden, wie man Probleme so analysiert, dass man sie mit Verfahren aus den Gebieten Artificial Intelligence und Data Science automatisiert lösen kann“, erklärt Dittrich und führt weiter aus: „Damit sie die Verfahren wirklich als Werkzeuge verwenden und nicht nur als theoretische Konstrukte begreifen, arbeiten sie schon früh an Problemen aus der Praxis.“ Dazu habe man bereits Vereinbarungen für Anwendungsfächer mit anderen Fachrichtungen wie der Computerlinguistik, Physik, den Materialwissenschaften, der Chemie, der Psychologie und der Biologie abgeschlossen. Weitere sind geplant.

Dittrich hat den neuen Studiengang mit einer Gruppe von Expertinnen und Experten aus den benachbarten Informatikinstituten und der Computerlinguistik konzipiert. Sechs weltweit renommierte Forschungseinrichtungen, darunter das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das CISPA-Helmholtz-Zentrum für Informationssicherheit und die beiden Max-Planck-Institute für Informatik und Softwaresysteme, gehören zum „Saarland Informatics Campus“, auf dem mehr als 800 Wissenschaftlerinnen und Wissenschaftler arbeiten. Für Dittrich ist gerade dieses Umfeld das Alleinstellungsmerkmal, das den neuen Studiengang aus den anderen Angeboten in Deutschland herausragen lässt. Zudem zeichne sich die Fachrichtung Informatik seit Jahren in der Lehre aus. „Die Studierenden geben uns im bundesweiten CHE-Ranking regelmäßig Spitzennoten“, so Dittrich.

Über die Zeit nach ihrem Abschluss müssen sich die Absolventinnen und Absolventen des Studienganges keine Sorgen machen. „Es fehlen einfach Fachkräfte, die wissen, wie man diese Probleme wirklich löst“, sagt Dittrich. Der Stifterverband für die deutsche Wissenschaft berechnete den Bedarf an Datenanalyseprofis auf Basis der Stellenangebote einer großen Online-Jobbörse und kam zu dem Ergebnis, dass im vergangenen Jahr in Deutschland rund 10.000 Spezialistinnen und Spezialisten auf diesem Gebiet gesucht wurden. Für eine weitere Studie befragte der Verband mehr als 600 Großkonzerne, mittlere und kleine Unternehmen sowie Start-ups. Nach Einschätzung der befragten Unternehmen werden bis zum Jahr 2023 rund 455.000 Experten in Deutschland zum Thema komplexe Datenanalyse benötigt.

Im Studiengang „Data Science and Artificial Intelligence“ lehren neben den Professorinnen und Professoren der Fachrichtung Informatik sowie der Fachrichtung Sprachwissenschaft und Sprachtechnologie der Universität des Saarlandes auch Wissenschaftler vom Helmholtz-Zentrum für Informationssicherheit (CISPA), dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), dem Zentrum für Bioinformatik Saar, vom Max-Planck-Institut für Informatik und vom Max-Planck-Institut für Software-Systeme.

Hintergrund: Saarland Informatics Campus
800 Wissenschaftlerinnen und Wissenschaftler und 1900 Studierende aus mehr als 80 Nationen machen den Saarland Informatics Campus (SIC) an der Universität des Saarlandes zu einem der führenden Standorte für Informatik in Deutschland und Europa. Sechs weltweit angesehene Forschungsinstitute, drei eng zusammenarbeitende Fachbereiche und 16 Studiengänge decken das gesamte Themenspektrum der Informatik ab.

Digitalisierung in der Lehrerbildung

(KIT) Hochqualifizierte Lehrerinnen und Lehrer sind ein Garant für den Erfolg des deutschen Bildungssystems. Bund und Länder haben deshalb die „Qualitätsoffensive Lehrerbildung“ ins Leben gerufen, die unter anderem die Digitalisierung in der Lehrerbildung fördert. Die Gemeinsame Wissenschaftskonferenz schlägt nun den Antrag des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“ zur Förderung vor. Das KIT wird damit aufgefordert, seinen Vollantrag einzureichen, mit dem ab 2020 bis zu 2,5 Millionen Euro für vier Projektjahre eingeworben werden können.

„Das KIT legt als technisch ausgerichtete Universität seinen Schwerpunkt in der Lehrkräfteausbildung auf die MINT-Fächer“, erklärt Professor Alexander Wanner, Vizepräsident des KIT für Lehre und akademische Angelegenheiten. „Verbunden mit der einzigartigen Sonderstellung als Forschungsuniversität in der Helmholtz-Gemeinschaft werden am KIT in den MINT-Fachwissenschaften bereits vielfältige innovative Projekte zur Digitalisierung realisiert. Darauf baut das Projekt digiMINT auf.“

Mithilfe der vorhandenen fachwissenschaftlichen Expertise entwickelt, erprobt und evaluiert das KIT in den MINT-Fächern digitale Lernkontexte für Lehrerinnen und Lehrer und bereitet sie für den Transfer in die Schulpraxis vor. Im Rahmen von digiMINT soll dies in den Fächern Mathematik, Informatik, Naturwissenschaften und Technik sowie den Bildungswissenschaften erfolgen.

In vier Projektphasen wird das Vorhaben digiMINT am KIT implementiert. In der ersten Projektphase werden reale und virtuelle Lernumgebungen (sogenannte Makerspaces) am KIT eingerichtet. Sie bilden die Basis für die Entwicklung von Lernkontexten für Lehrerinnen und Lehrer in den einzelnen Fächern. Auf Grundlage der baden-württembergischen gymnasialen Bildungspläne in den MINT-Fächern werden in der zweiten Phase passende Lernkontexte mit hoher schulpraktischer Relevanz entwickelt. Die dritte Projektphase dient dazu, die neu entwickelten Lerneinheiten mit Schülerinnen und Schülern zu erproben, zu evaluieren und gegebenenfalls anzupassen. Im Rahmen der vierten Projektphase werden die Innovationen im Bereich digiMINT nachhaltig in das Lehrangebot am KIT implementiert und zugleich für den Transfer auf andere universitäre sowie schulische Standorte vorbereitet.

Das Auswahlgremium der Gemeinsamen Wissenschaftskonferenz GWK hat in einem wissenschaftsgeleiteten Verfahren 43 Projekte für eine Förderung von insgesamt bis zu 79 Millionen Euro bis zum Ende des Jahres 2023 empfohlen. 26 der ausgewählten Projekte widmen sich dem Themenschwerpunkt „Digitalisierung in der Lehrerbildung“, darunter auch das Projekt des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“, und 13 Projekte dem Bereich „Lehrerbildung für die beruflichen Schulen“. 4 Projekte setzen vor allem an der Schnittstelle dieser Bereiche an.

Das 18-köpfige Auswahlgremium setzt sich aus Expertinnen und Experten aus Wissenschaft, Studierendenschaft und der schulpraktischen Professionalisierung sowie Vertreterinnen und Vertretern des Bundes und der Länder zusammen. In die Beratungen gingen zudem externe Gutachten von renommierten Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein.

Künstliche Intelligenz in Zukunft auch für Bauern nützlich

(pte) – IT-Gigant IBM wird seine Plattform „Watson Decision Platform for Agriculture“ global ausweiten, um durch Künstliche Intelligenz (KI) Entscheidungsprozesse von Bauern weltweit zu erleichtern. Dafür verwendet IBM Daten aus dem Internet der Dinge, um präzise Ratschläge zu Planung, Ernte oder Schädlingsbekämpfung zu geben.

Mehr Daten „ernten“
„Die Digitalisierung der Landwirtschaft fängt bei der Produktion an und geht über Verwaltung und Betriebsführung bis hin zur Vermarktung. Zum Beispiel werden Agrarroboter mit ihrer Kamera Unkrautpflanzen erkennen und entsprechende Maßnahmen zum Pflanzenschutz durchführen“, sagt Martin Hirt, Referent für Digitalisierung in der Landwirtschaft bei der Landwirtschaftskammer Österreich, gegenüber pressetext. Damit eine Maschine solche Dinge erkennen kann, müsse man zuerst Testdaten generieren – zum Beispiel, indem man möglichst viele Blätter fotografiert. So könne man Bauern auf Basis von kürzlichen Ereignissen vor Gefahren in Bezug auf die Ernte warnen.

Für Wetterdaten zieht IBM sein Tochterunternehmen The Weather Company heran. Die Modelle von IBM beziehen sich auf verschiedene Agrarproduke wie Mais, Weizen, Baumwolle oder Soja. Sie sollen in Afrika, den USA, Kanada, Südamerika, Europa und Australien Verwendung finden. Laut Kristen Lauria, General Manager von Weather Solutions bei IBM, „ernten“ moderne Landwirte durch den Einsatz von Drohnen und Sensoren nicht nur Nahrungsmittel, sondern auch Daten. Diese seien bisher zu wenig verwendet worden. Das sei durch die Watson Decision Platform for Agriculture möglich. Die Plattform sammelt die Daten und analysiert so Muster in der Landwirtschaft. So können präzise und in der Praxis bewährte Maßnahmen gesetzt werden, um eine möglichst ertragreiche Ernte einzufahren.

Ernährung für die Zukunft
Laut Hirt können Landwirte durch die Digitalisierung präziser vorgehen, beispielsweise können sie prophylaktisch Maßnahmen gegen Schädlingsauftreten anwenden oder an genau der richtigen Stelle die richtige Menge an Dünger aussetzen. Letzteres wird teilflächenspezifische Bewirtschaftung genannt. „Bauern sehen so, was die Anforderungen für eine bestimmte Fläche sind. Diese Daten können aus unterschiedlichen Quellen stammen, dem Wetter, dem Boden oder aus historischen Aufzeichnungen“, meint der Digitalisierungsexperte.

IBM zufolge muss die Landwirtschaft präziser und ertragreicher werden, um in Zukunft die Welt ernähren zu können. Im Jahr 2050 werde es zwei Mrd. Menschen mehr geben, jedoch nicht mehr fruchtbaren Boden. Die Kombination aus präzisen Wetterdaten und KI sei dafür die Lösung. Hirt warnt allerdings vor zu viel Optimismus. Es müsse bei der Digitalisierung der Landwirtschaft noch viel geforscht werden, um gerade beim Thema KI gute Ergebnisse zu bekommen. „Abgesehen davon, wird es eine Herausforderung, die vielen, neuen Technologien für kleinstrukturierte, familienbetriebene Landwirtschaften nutzbar zu machen“, resümiert Hirt.

Künstliche Intelligenz – wo bleiben die Gefühle ?

Ein Gespräch mit dem britischen Schriftsteller Ian McEwan

Wir sehnen uns nach künstlichen Menschen. Muss man sich bei Siri bedanken? Was hat der Brexit mit KI zu tun und darf ein Algorithmus moralische Entscheidungen treffen? Eine Begegnung in London mit Ian McEwan, dessen neuer Roman nächste Woche erscheint.

Ihr Erzähler Charlie schafft sich einen künstlichen Menschen an, „als Gefährten, intellektuellen Sparringspartner, als Freund und Faktotum“. Er heißt Adam, wie der erste Mensch, und mit Charlie und dessen Freundin Miranda entsteht eine Dreierbeziehung. Im Zentrum des Romans steht die Frage, ob Androiden emotionale Intelligenz besitzen könnten, ob Maschinen zu Gefühlen fähig sind.

Was hat Sie daran interessiert?
Ich bin schon immer an Neurowissenschaft interessiert gewesen und an dem, was man das „Leib-Seele-Problem“ nennt, also der Frage, ob eine Maschine denken kann. Das hat den Mathematiker und Kryptologen Alan Turing bereits in den dreißiger Jahren beschäftigt. Turing sagte in den vierziger Jahren, man sei nur zehn Jahre entfernt von einer denkenden Maschine. Inzwischen wissen wir, wie kompliziert das Gehirn ist. Trotzdem sind in den letzten zehn Jahren große Fortschritte gemacht worden. Man braucht nur an die künstliche Intelligenz des Smartphones zu denken oder die jüngsten Flugzeugunglücke, die mit den Versagen von Künstlicher Intelligenz zu tun hatten, um zu sehen, wie die Technologie in unser Leben eindringt. Neulich habe ich meine Frau dabei ertappt, wie sie sich bei Siri bedankte.

Sie legen ausgerechnet Adam einige der nachdenklichsten Beobachtungen über die Maschinenintelligenz und das Wesen der Menschen in den Mund …
Adam hat mir rhetorisch aus einigen wichtigen Patschen geholfen, weil Charlie nicht besonders gebildet ist und sich zum Beispiel, anders als Adam, bei Shakespeare nicht gut auskennt. Mich fasziniert die menschliche Interaktion mit einer Maschine, die man in einem Moment nur als Computer wahrnimmt und im nächsten als Menschen behandelt. Und ich suchte einen anderen Ansatz als „Frankenstein“, den überragenden Text der Moderne über den künstlichen Menschen. Frankensteins Monster wird zum Mörder. Er ist zur Metapher geworden für die Gefahren der Technologie. Mich beschäftigt die Möglichkeit, dass wir eine menschenähnliche Maschine herstellen, der wir unsere besten Eigenschaften überlassen. Denn wir wissen, wie wir gut sein können, aber es gelingt uns oft nicht, gut zu sein.

Adam ist hochmoralisch ?
Intelligenten Maschinen werden wichtige moralische Fragen übertragen. Wir entwickeln Autos, die autonom auf unseren Straßen fahren. Wir diskutieren, wie sich fahrerlose Autos für bestimmte Unfallszenarien programmieren lassen. Die Zeitschrift „Nature“ berichtete unlängst über eine Studie, in der es um das sogenannte „Trolley-Problem“ ging: Wer soll den Unfall überleben, wenn die Bremsen versagen und das Auto auf einen Pfeiler zurast? Der Fahrer, indem er ausweicht, dabei aber ein Kind überfährt? Würde es einen Unterschied machen, wenn es einen alten Menschen träfe? In der Studie haben bestimmte Ländergruppen unterschiedliche moralische Präferenzen geäußert. Das wirft Fragen über universale Werte auf. Ich wollte mit meinem Roman den Konflikt dramatisieren, in den wir uns mit der Künstlichen Intelligenz unweigerlich bringen. Die Sehnsucht nach der Herstellung künstlicher Menschen sitzt offenbar tief in uns. Davon handelte schon der Prometheus-Mythos oder die Argonauten-Sage. Im Grunde ist Talos, der Steine auf Iasons Schiff schleudert, ein Roboter. Man könnte auch die Geschichte von Adam und Eva als Prototyp der Herstellung einer künstlich intelligenten Maschine betrachten, die Gott bereits mit einigen Mängeln versehen hat, bloß dass ich das, was für Gott Mängel sind, als Tugend bezeichnen würde. Evas Neugier ist eine der größten Eigenschaften der menschlichen Natur und die Grundlage für alles Wissen.

Der Roman ist am Anfang der Thatcher-Ära angesiedelt, Sie verändern aber den Verlauf der Ereignisse und streuen kontrafaktische Details ein. Margaret Thatcher verliert den Falkland-Krieg, der linke Labour-Politiker Tony Benn wird Premierminister und verspricht den Brexit. Es gibt bereits elektrische Autos und Textnachrichten …
Es ist ein Spiel mit der Zeit, das mit Turing beginnt. Ich wollte ihn unbedingt in meinem Roman haben, ohne dass er eine lebensverlängernde Zauberpille nimmt oder Selbstmord begeht. Ich denke oft darüber nach, wie leicht unser jetziger Technologie- und Wissensstand viel später oder früher hätte erreicht werden können, wie im Falle der Keimtheorie. Sie wäre bereits im siebzehnten Jahrhundert möglich gewesen. Der Stand der Dinge scheint mir auf jedem Gebiet eine kontingente Angelegenheit zu sein. In der Falkland-Krise hätte die Einsatztruppe auch scheitern können, wenn Argentinien die in Frankreich bestellten Exocet-Raketen erhalten hätte. Die Folgen wären dramatisch gewesen für uns wie für Argentinien. Präsident Galtieri wäre geblieben, noch mehr Menschen wären verschwunden, Thatcher hätte untergehen können. Das fragile Wesen der zufallsabhängigen Gegenwart fasziniert mich. Die Fiktion erlaubt es, zu entscheiden, wie alles ausgeht. Ich wollte weder weit in die Zukunft greifen, in der Adam leben würde, noch war ich auf die Gegenwart erpicht. Deswegen habe ich eine etwas schmuddelige, veränderte Vergangenheit gewählt. Mich fasziniert, wie die Maschinen in unser Leben treten und so leicht angenommen werden.

Sie scheinen auffallend interessiert zu sein an körperlichen Funktionen ?
Ich will nicht schockieren, aber mir ist es wichtig, die Totalität des Daseins zu beschreiben. Und körperliche Funktionen sind relevant im Zusammenhang mit dem künstlichen Gehirn. Philosophen pflegten früher über das „Gehirn im Tank“ zu sprechen. In den letzten dreißig Jahren haben wir aus der Neurowissenschaft gelernt, dass wir vor allem verkörpertes Bewusstsein sind. Wir sind eben kein Hirn im Tank, sondern Hirn im Körper. Wir verbringen unser Leben in einem Körper, der tyrannisch sein kann – und eine langsame Enttäuschung, um einen anderen Begriff für das Altern zu verwenden.

In „Maschinen wie ich“ befassen Sie sich mit dem Konflikt zwischen Technik und der Unberechenbarkeit des Menschen.
Was Adam betrifft, hängt für mich der Erfolg oder Misserfolg des Romans davon ab, dass es mir gelingt, aus ihm eine Figur zu machen, bei der die Leser Charlies schwankenden Zweifel teilen, ob er ein Computerspiel spielt oder es mit einer wirklichen Person zu tun hat.

Dabei stellt sich die Frage, ob man sich des Mordes an einem Roboter schuldig machen kann ?
Mein Turing ist überzeugt – und ich hoffe, der Leser ist auch halbwegs überzeugt –, dass Adam ein fühlendes Wesen ist. Ich würde im Sinne des kategorischen Imperativs argumentieren, dass man das Bewusstsein eines anderen Wesens nicht besitzen kann, selbst wenn man es gekauft hat.

Als Schriftsteller sind Sie selbst auch Schöpfer ?
Mir war beim Schreiben ständig bewusst, dass ich als Adams Erfinder auch sein Erbauer bin, aber natürlich auch der von Charlie und Miranda.

Politik spielt in Ihren Romanen eine wichtige Rolle. In „Maschinen wie ich“ spielen Sie auf den Brexit an. Ihre Beschreibung von Thatcher lässt an Theresa May denken, und Tony Benns Labour Party gleicht der von Jeremy Corbyn. Werden Sie je einen Brexit-Roman schreiben?
Ich habe die Parallelen nicht forciert, aber sie sind mir beim Schreiben aufgefallen. Wenn ich einen Brexit-Roman schreiben würde, müsste ich einen Brexiteer in den Mittelpunkt stellen, weil ich den Brexit verabscheue und mich in dieses Denken hineinversetzen müsste, um es zu verstehen. Noch bin ich weit davon entfernt, aber ich denke viel darüber nach. Und das findet meist irgendwann Niederschlag in meinen Romanen. Jetzt stehen wir noch in der Mitte des Prozesses. Jeder Tag bringt eine neue Entwicklung und jede Woche falsche Höhepunkte. Meistens kommt alles nicht so schlimm, wie es die Pessimisten voraussagen. Der Brexit wird trostlos und nicht einfach sein, aber das Leben geht weiter. Wir werden eine sehr missgelaunte und eine politisch wie kulturell zerklüftete Nation sein.

Liegt in der Einstellung der Brexit-Befürworter, dass man als Weltbürger nirgendwo zu Hause ist, nicht das Hauptproblem?
Den Brexit-Anhängern hat man Zauberstaub in die Augen gestreut. Sie sind belogen und von der politischen Klasse herablassend behandelt worden. Viele Versprechen haben sich jetzt schon als wertlos erwiesen. In gewisser Hinsicht bin ich froh über das Schlamassel. Es besteht vielleicht eine kleine Möglichkeit zu einem Rückzieher. Ich kann da nicht unparteiisch sein.

Sie beziehen sich gern auf den Satz von Henry James, wonach es die große Aufgabe des Romans sei, „interessant zu sein“. Wollen Sie mit Ihren Büchern zur Diskussion beitragen?
Ich weiß nicht, welchen Beitrag „Maschinen wie ich“ leisten wird. In gewisser Hinsicht geht es um Fragen, die seit zwei- bis dreitausend Jahren diskutiert werden, sei es in der Mythologie oder in technologischer Hinsicht. Grundsätzlich darf die Literatur das Lustprinzip nicht aus den Augen verlieren, nicht beim Lesen und auch nicht beim Schreiben. Schriftsteller müssen sich zur Freude an ihrer Arbeit bekennen. Um zeitgenössische Fragen in Angriff zu nehmen, sollte man lieber einen Zeitungsessay schreiben. Ich werde oft dazu aufgefordert, möchte aber die Arbeit an meinem jeweiligen Roman nicht unterbrechen.

Wie fühlt es sich an, Gegenstand zahlreicher Doktorarbeiten zu sein?
Bis vor zwanzig Jahren waren die Akademiker ganz in den Fängen des französischen Strukturalismus. Inzwischen hat sich das beruhigt. Ich habe unlängst in Caen einer internationalen Konferenz über mein Werk beigewohnt. Am letzten Tag habe ich mir acht Präsentationen angehört. Ich fand sie witzig und brillant, vor allem eine über Hotels im Werk von Ian McEwan. Darauf wäre ich nie gekommen. Ich saß in einer Ecke dabei und dachte, so muss es sein, wenn man tot ist.

Als läse man den eigenen Nachruf.
Ja. Als die Universität Texas mein Archiv erwarb, ging es mir ähnlich. Im Foyer waren Vitrinen aufgestellt mit einer Auswahl meiner Dokumente, darunter einem Brief, den ich meinen Söhnen aus Neuseeland schrieb, als sie noch klein waren. Ich hatte für sie ein Bild von der Erde gezeichnet – mit der Sonne, einem Bett und mir lesend, um zu veranschaulichen, dass bei mir Tag war, wenn bei ihnen Nacht war und umgekehrt. Einen derart persönlichen Gegenstand aus meinem Leben in einer Vitrine zu sehen war eine Art Nachtodeserfahrung. Ein höchst seltsames Gefühl.

Das Gespräch führte Gina Thomas.

Schwund bei Ihren gespeicherten Daten absehbar

(pte004/16.05.2019/06:15) – Daten im Internet bestehen nicht ewig. Die gespeicherten Inhalte von Nutzern gehen früher oder später verloren. Einem Bericht von „The Conversation“ zufolge sind momentan rund 15 Zettabyte an Daten im Umlauf und wächst in einem Ausmaß von 70 Terabyte pro Sekunde. Doch Inhalte gehen auch konstant offline und können nicht mehr wiederhergestellt werden.

Speichermedien mit Ablaufdatum
Und auch technische Probleme kommen hinzu. Magnetische Speichermedien wie Festplatten halten nur drei bis fünf Jahre. Die darauf vorhandenen Daten müssen immer wieder kopiert werden. Dabei stellt sich auch die Frage, welche Daten es wert sind, erhalten zu werden. Ein weiteres Problem ist veraltete Software. Wenn Daten beispielsweise in den 1980er-Jahren auf Software wie WordPerfect oder WordStar gespeichert wurden, kann es in Zukunft sehr schwer sein, sie zu lesen, vor allem wenn die Software nicht mehr unterstützt wird oder die Entwicklerfirmen nicht mehr im Geschäft sind.

Es gibt viele Organisationen, die versuchen, möglichst viele Daten am Leben zu halten. Ein Start-up namens „The Internet Archive“  macht beispielsweise Fotos von größeren Seiten wie der der „New York Times“ oder Facebook, jedoch erfasst sie damit nur etwa 0,0003 Prozent aller Daten im Internet. Die Kosten für die Erhaltung von Daten sind auf lange Sicht ebenfalls hoch. Sie werden laut „The Conversation“ über einen Zeitraum von zehn Jahren auf etwa 2.500 Dollar pro Terabyte eingeschätzt. Ob für diese Kosten aufgekommen wird, hängt vom Wert der Daten ab. Persönliche Inhalte könnten demnach verloren gehen.

Myspace fehlen 50 Mio. Dateien
Ein besonderes Beispiel für den Datenverlust an den Zahn der Zeit ist die Plattform Myspace. Im Jahr 2008 noch das größte soziale Netzwerk, hat die Seite bis heute viele Mitglieder eingebüßt und wechselte bereits dreimal den Besitzer. Anfang des Jahres 2019 stellte sich heraus, dass auf Myspace 50 Mio. Dateien, die zwischen 2003 und 2015 hochgeladen wurden, inzwischen verloren gingen.

Wie reagiert unsere Jugend auf Social-Media?

Universitäten Oxford und Hohenheim analysieren achtjährige Langzeitstudie auf Wechselwirkung zwischen Social Media-Nutzung und persönlicher Zufriedenheit

Es ist die weltweit umfangreichste Langzeitbefragung, die die University of Oxford und die Universität Hohenheim in Stuttgart mit komplexer Statistik untersuchten. Ergebnis: die persönliche Social Media-Nutzung und die persönliche Lebenszufriedenheit von Teenagern beeinflussen sich in nur kaum messbaren Größenordnungen. Ihre Ergebnisse veröffentlichten die Forscherinnen und Forscher in der heutigen Ausgabe der Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Bisherige Studien über den Zusammenhang zwischen Social Media-Konsum und Lebensglück kämpfen meist mit einem Makel: Mal sind es geringe Teilnehmerzahlen, mal sehr einfache Auswertungen und oft handelt es sich nur um Momentaufnahmen durch wenige Befragungen in einem relativ kurzen Zeitraum.
Anders der Datenpool, den die Universität Hohenheim dank Kooperation mit der University of Oxford nun untersuchen konnte. Die Daten stammen aus der achtjährigen Langzeitstudie „Understanding Society“.
In dieser Auswertung dabei: Dr. Tobias Dienlin vom Fachgebiet Medienpsychologie der Universität Hohenheim. Erst- und Drittautor sind Amy Orben und Prof. Dr. Andrew Przybylski von der University of Oxford.

Angaben von 5.492 Teenagern aus achtjährigem Befragungszeitraum
Für ihre Veröffentlichung werteten sie die Angaben von 5.492 Teenagern aus. Bis zu acht Jahre lang hatten diese regelmäßig angegeben, wie viele Stunden sie an einem normalen Schultag mit Social Media verbrachten und wie hoch ihre gegenwärtige Lebenszufriedenheit sei.
Die Anzahl der Stunden markierten sie auf einer fünfstufigen Skala zwischen 0 bis 7 und mehr Stunden. Ihre Lebenszufriedenheit markierten sie auf einer Skala von Smileys mit sieben Stufen. Dabei unterschieden sie verschiedene Bereiche wie die Zufriedenheit mit Freundschaften, Aussehen oder familiärer Situation.
Die Befragungen fanden acht Mal mit einem Abstand von jeweils einem Jahr statt. Die erste Befragungswelle der „Understandig Society-Studie“ begann im Jahr 2009. Die Befragungen halten bis heute an.

Einfluss auf veränderte Lebenszufriedenheit liegt bei weniger als einem Prozent
„Wenn man leichte Tendenzen sucht, lässt sich sagen, dass wir eine ganz schwache Wechselwirkung zwischen Social Media Konsum und Lebenszufriedenheit gefunden haben. Nimmt der Social Media Konsum zu, reduziert sich die Lebenszufriedenheit geringfügig. Gleichzeitig steigt bei sinkender Lebenszufriedenheit auch in ganz leichtem Maße der Social Media Konsum. Die Effekte scheinen dabei für Mädchen etwas ausgeprägter zu sein als für Jungen.“
Die Effekte seien jedoch minimal: „In Zahlen ausgedrückt lassen sich Veränderungen in der Lebenszufriedenheit nur zu weniger als einem Prozent auf den Social-Media-Konsum zurückführen“, so Dr. Dienlin. Um das Ergebnis einzuordnen: Die Häufigkeit, mit der Jugendliche und Eltern das Abendessen teilten, habe einen etwa gleich großen Einfluss auf die Lebenszufriedenheit.
„Bislang wird die aktuelle Debatte meist durch Studien mit geringer Aussagekraft bestimmt. Die Studie ist deshalb ein wichtiger Schritt, um Technikfolgen für das Wohlergehen von Heranwachsenden zu bestimmten“, so die Bewertung von Prof. Dr. Andrew Przybylski, Director of Research am Oxford Internet Institute.
Gleichzeitig könne die Auswertung von Befragungen nur ein erster Schritt sein, betont Amy Orben, Doktorandin und College Lecturer am University of Oxford. Um die detaillierten Auswirkungen der Sozialen Medien auf Teenager zu verstehen, sei es nötig, Zugriff auf die Daten der Social Media-Anbieter zu erhalten.
Es sei deshalb dringend an der Zeit, den notwendigen politischen, ethischen und wissenschaftlichen Rahmen für solche Untersuchungen zu schaffen, so das Credo der Kooperation.

Veröffentlichung und Methodik
Das vollständige brief paper “Social media’s enduring effect on adolescent life satisfaction” erschien am 6. Mai 2019 in Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Für ihre Auswertung nutzten die Universitäten Oxford und Hohenheim die Methode der sog. Random Intercept Cross-Lagged Panel Model. Dabei wird untersucht, inwiefern Zu- oder Abnahme einer der beiden Variablen in Zusammenhang steht mit der Zu- oder Abnahme der anderen Variable – über einen Zeitraum von jeweils einem Jahr. Die Methode gilt aktuell als die bestgeeignete, um einen besseren Eindruck über den kausalen Zusammenhang der Variablen zu erhalten.

UNIVERSITÄT HOHENHEIM, Klebs

Fortschritt bei Quantencomputer

Auf quantenmechanischen Prinzipien basierende Computer können bestimmte Aufgaben besonders effizient lösen. Ihre Informationsträger – die Qubits – verfügen nicht nur über die Werte „0“ und „1“, sondern auch über Zustände dazwischen. Einen solchen Zustand aufrechtzuerhalten, ist allerdings schwierig. Wissenschaftlerinnen und Wissenschaftler am Karlsruher Institut für Technologie (KIT) haben nun granulares Aluminium, kurz grAl, für Quantenschaltungen eingesetzt und gezeigt, dass dieses supraleitende Material großes Potenzial besitzt, die bisherigen Grenzen der Quantencomputer zu überwinden. Die Forscher berichten in der Zeitschrift Nature Materials. (DOI: 10.1038/s41563-019-0350-3)

Quantencomputer gelten als die Rechner der Zukunft. Sie können große Datenmengen unter bestimmten Voraussetzungen schneller verarbeiten als ihre klassischen Pendants. Während klassische Computer einen Rechenschritt nach dem anderen ausführen, nehmen Quantencomputer viele Rechenschritte parallel vor. Informationsträger des Quantencomputers ist das Quantenbit, kurz Qubit. Bei Qubits gibt es nicht nur die Informationen „0“ und „1“, sondern auch Werte dazwischen, die über die quantenmechanische Überlagerung von Zuständen realisiert werden, das ist das sogenannte Superpositionsprinzip. Ihre Verarbeitung geschieht nach quantenmechanischen Prinzipien wie beispielsweise der Verschränkung, die selbst für räumlich weit voneinander getrennte Teilchen eine Wechselbeziehung ohne zeitliche Verzögerung ermöglicht.

„Die Herstellung von Qubits, die klein genug sind und sich schnell genug schalten lassen, um Quantenkalkulationen auszuführen, stellt eine enorme Herausforderung dar“, erklärt der Physiker Dr. Ioan Pop, Leiter der Forschungsgruppe Kinetic Inductance Quantum Systems am Physikalischen Institut (PHI) und am Institut für Nanotechnologie (INT) des KIT. Als vielversprechende Option gelten supraleitende Schaltungen. Supraleiter sind Materialien, die bei extrem niedrigen Temperaturen keinen elektrischen Widerstand aufweisen und daher elektrischen Strom verlustfrei leiten. Dies ist entscheidend, um den Quantenzustand der Qubits zu erhalten und sie effizient miteinander zu verbinden. So arbeiten große Unternehmen wie IBM, Intel, Microsoft und Google bereits daran, supraleitende Quantenprozessoren hochzuskalieren.

Eine wesentliche Schwierigkeit besteht allerdings darin, den Quantenzustand aufrechtzuerhalten. Wechselwirkungen mit der Umgebung können zum Zerfall des Quantenzustands führen, der sogenannten Dekohärenz. Je mehr Qubits verwendet werden, desto schwieriger ist es, die Kohärenz zu bewahren. Forscherinnen und Forscher am PHI, am INT und am Institut für Prozessdatenverarbeitung und Elektronik (IPE) des KIT sowie an der Nationalen Universität für Forschung und Technologie MISIS in Moskau haben nun erstmals granulares Aluminium als supraleitendes Material für Quantenschaltungen mit hoher Kohärenz eingesetzt. Wie das Team in der Zeitschrift Nature Materials berichtet, hat es ein sogenanntes Fluxonium-Qubit mit granularem Aluminium hergestellt, mit einer Kohärenzzeit von bis zu 30 Mikrosekunden – das ist die Zeit, in der sich ein Qubit in einem Zustand zwischen „0“ und „1“ befinden kann. Obwohl die gemessene Zeit sehr kurz erscheint, können innerhalb dieser Zeitspanne mehr als tausend logische Operationen durchgeführt werden. „Unsere Ergebnisse zeigen, dass granulares Aluminium eine neue Klasse von komplexen Qubit-Designs erschließen und dazu beitragen kann, die derzeitigen Grenzen der Quanteninformationsverarbeitung zu überwinden“, erklärt Ioan Pop.

Originalpublikation:

Lukas Grünhaupt, Martin Spiecker, Daria Gusenkova

C-Prozessor aus lebenden Bausteinen

Welterster Bio-Dual-Core-Prozessor entwickelt

(pte015/16.04.2019/10:30) – Forscher der ETH Zürich (ETH) http://ethz.ch haben einen Weg gefunden, einen zentralen Prozessor aus biologischen Bauteilen zu konstruieren, der flexibel und vielseitig programmierbar ist. Der Clou: Die neue Bio-CPU beruht auf einem modifizierten Crispr/Cas-System und kann beliebig viele Eingaben in Form von RNA-Molekülen (sogenannter Leit-RNA) verarbeiten. Am Ende stand ein biologischer Dual-Core-Prozessor mit zwei Rechnerkernen in einer Zelle.

Cas9-Protein als Kern

Den Kern des Prozessors stellt eine Variante des Cas9-Proteins dar. Die CPU reguliert als Antwort auf die Eingabe durch Leit-RNA-Sequenzen die Aktivität eines bestimmten Gens, sodass das zugehörige Protein hergestellt wird. Damit konnten die Schweizer Wissenschaftler in menschlichen Zellen skalierbare Schaltnetze programmieren, welche wie digitale Halbaddierer aus zwei Eingängen und zwei Ausgängen bestehen und zwei einstellige Binärzahlen addieren können.

Die Forscher sind bei ihrer Arbeit im Labor sogar noch einen Schritt weiter gegangen und schufen analog zur digitalen Welt einen biologischen Dual-Core-Prozessor, in dem sie zwei Rechnerkerne in eine Zelle einbauten. Dazu verwendeten sie Crispr/Cas-Einheiten von zwei unterschiedlichen Bakterien. „Damit haben wir den ersten Zellcomputer mit mehr als einem Rechnerkern geschaffen“, unterstreicht Bioingenieurwissenschaftler Martin Fussenegger.

Dieser innovative Biocomputer ist nicht nur extrem klein, sondern im Prinzip auch beliebig skalierbar. „Man stelle sich ein Mikrogewebe mit mehreren Mrd. Zellen vor, und jede davon verfügt über einen Dual-Core-Prozessor. Solche ‚Rechenorgane‘ könnten eine theoretische Rechenkapazität erreichen, welche diejenige eines digitalen Supercomputers bei Weitem übertrifft, und das mit einem Bruchteil der Energie“, sagt Fussenegger.

Vielseitige Nutzbarkeit

Ein solcher Zellcomputer ließe sich laut den Experten dazu nutzen, biologische Signale aus dem Körper wie gewisse Stoffwechselprodukte oder Botenstoffe wahrzunehmen, sie zu verarbeiten und wunschgemäß zu reagieren. Programmiert man die CPU entsprechend, könnten die Zellen zwei verschiedene Biomarker als Eingangssignale wahrnehmen.

Ist nur Biomarker A vorhanden, dann reagiert der Biocomputer mit der Bildung eines diagnostischen Moleküls oder eines Wirkstoffs. Registriert der Zellcomputer nur Biomarker B, dann löst er die Bildung eines anderen Wirkstoffs aus. Sind beide Biomarker vorhanden, dann erzeugt dies eine dritte Reaktion. Angewendet könnte dies in der Medizin, zum Beispiel zur Behandlung von Krebs.

„Wir könnten zudem Rückkopplungen einbauen“, betont der ETH-Professor. Sei beispielsweise Biomarker B über längere Zeit in einer gewissen Konzentration im Körper vorhanden, dann könnte das auf die Bildung von Krebsmetastasen hindeuten und der Biocomputer würde dementsprechend einen Wirkstoff bilden, der speziell diese bekämpft.