Archiv der Kategorie: Computer, TV, Medien

Digitalisierung in der Lehrerbildung

(KIT) Hochqualifizierte Lehrerinnen und Lehrer sind ein Garant für den Erfolg des deutschen Bildungssystems. Bund und Länder haben deshalb die „Qualitätsoffensive Lehrerbildung“ ins Leben gerufen, die unter anderem die Digitalisierung in der Lehrerbildung fördert. Die Gemeinsame Wissenschaftskonferenz schlägt nun den Antrag des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“ zur Förderung vor. Das KIT wird damit aufgefordert, seinen Vollantrag einzureichen, mit dem ab 2020 bis zu 2,5 Millionen Euro für vier Projektjahre eingeworben werden können.

„Das KIT legt als technisch ausgerichtete Universität seinen Schwerpunkt in der Lehrkräfteausbildung auf die MINT-Fächer“, erklärt Professor Alexander Wanner, Vizepräsident des KIT für Lehre und akademische Angelegenheiten. „Verbunden mit der einzigartigen Sonderstellung als Forschungsuniversität in der Helmholtz-Gemeinschaft werden am KIT in den MINT-Fachwissenschaften bereits vielfältige innovative Projekte zur Digitalisierung realisiert. Darauf baut das Projekt digiMINT auf.“

Mithilfe der vorhandenen fachwissenschaftlichen Expertise entwickelt, erprobt und evaluiert das KIT in den MINT-Fächern digitale Lernkontexte für Lehrerinnen und Lehrer und bereitet sie für den Transfer in die Schulpraxis vor. Im Rahmen von digiMINT soll dies in den Fächern Mathematik, Informatik, Naturwissenschaften und Technik sowie den Bildungswissenschaften erfolgen.

In vier Projektphasen wird das Vorhaben digiMINT am KIT implementiert. In der ersten Projektphase werden reale und virtuelle Lernumgebungen (sogenannte Makerspaces) am KIT eingerichtet. Sie bilden die Basis für die Entwicklung von Lernkontexten für Lehrerinnen und Lehrer in den einzelnen Fächern. Auf Grundlage der baden-württembergischen gymnasialen Bildungspläne in den MINT-Fächern werden in der zweiten Phase passende Lernkontexte mit hoher schulpraktischer Relevanz entwickelt. Die dritte Projektphase dient dazu, die neu entwickelten Lerneinheiten mit Schülerinnen und Schülern zu erproben, zu evaluieren und gegebenenfalls anzupassen. Im Rahmen der vierten Projektphase werden die Innovationen im Bereich digiMINT nachhaltig in das Lehrangebot am KIT implementiert und zugleich für den Transfer auf andere universitäre sowie schulische Standorte vorbereitet.

Das Auswahlgremium der Gemeinsamen Wissenschaftskonferenz GWK hat in einem wissenschaftsgeleiteten Verfahren 43 Projekte für eine Förderung von insgesamt bis zu 79 Millionen Euro bis zum Ende des Jahres 2023 empfohlen. 26 der ausgewählten Projekte widmen sich dem Themenschwerpunkt „Digitalisierung in der Lehrerbildung“, darunter auch das Projekt des KIT „digiMINT: digitalisiertes Lernen in der MINT-Lehrer*innenbildung“, und 13 Projekte dem Bereich „Lehrerbildung für die beruflichen Schulen“. 4 Projekte setzen vor allem an der Schnittstelle dieser Bereiche an.

Das 18-köpfige Auswahlgremium setzt sich aus Expertinnen und Experten aus Wissenschaft, Studierendenschaft und der schulpraktischen Professionalisierung sowie Vertreterinnen und Vertretern des Bundes und der Länder zusammen. In die Beratungen gingen zudem externe Gutachten von renommierten Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein.

Künstliche Intelligenz in Zukunft auch für Bauern nützlich

(pte) – IT-Gigant IBM wird seine Plattform „Watson Decision Platform for Agriculture“ global ausweiten, um durch Künstliche Intelligenz (KI) Entscheidungsprozesse von Bauern weltweit zu erleichtern. Dafür verwendet IBM Daten aus dem Internet der Dinge, um präzise Ratschläge zu Planung, Ernte oder Schädlingsbekämpfung zu geben.

Mehr Daten „ernten“
„Die Digitalisierung der Landwirtschaft fängt bei der Produktion an und geht über Verwaltung und Betriebsführung bis hin zur Vermarktung. Zum Beispiel werden Agrarroboter mit ihrer Kamera Unkrautpflanzen erkennen und entsprechende Maßnahmen zum Pflanzenschutz durchführen“, sagt Martin Hirt, Referent für Digitalisierung in der Landwirtschaft bei der Landwirtschaftskammer Österreich, gegenüber pressetext. Damit eine Maschine solche Dinge erkennen kann, müsse man zuerst Testdaten generieren – zum Beispiel, indem man möglichst viele Blätter fotografiert. So könne man Bauern auf Basis von kürzlichen Ereignissen vor Gefahren in Bezug auf die Ernte warnen.

Für Wetterdaten zieht IBM sein Tochterunternehmen The Weather Company heran. Die Modelle von IBM beziehen sich auf verschiedene Agrarproduke wie Mais, Weizen, Baumwolle oder Soja. Sie sollen in Afrika, den USA, Kanada, Südamerika, Europa und Australien Verwendung finden. Laut Kristen Lauria, General Manager von Weather Solutions bei IBM, „ernten“ moderne Landwirte durch den Einsatz von Drohnen und Sensoren nicht nur Nahrungsmittel, sondern auch Daten. Diese seien bisher zu wenig verwendet worden. Das sei durch die Watson Decision Platform for Agriculture möglich. Die Plattform sammelt die Daten und analysiert so Muster in der Landwirtschaft. So können präzise und in der Praxis bewährte Maßnahmen gesetzt werden, um eine möglichst ertragreiche Ernte einzufahren.

Ernährung für die Zukunft
Laut Hirt können Landwirte durch die Digitalisierung präziser vorgehen, beispielsweise können sie prophylaktisch Maßnahmen gegen Schädlingsauftreten anwenden oder an genau der richtigen Stelle die richtige Menge an Dünger aussetzen. Letzteres wird teilflächenspezifische Bewirtschaftung genannt. „Bauern sehen so, was die Anforderungen für eine bestimmte Fläche sind. Diese Daten können aus unterschiedlichen Quellen stammen, dem Wetter, dem Boden oder aus historischen Aufzeichnungen“, meint der Digitalisierungsexperte.

IBM zufolge muss die Landwirtschaft präziser und ertragreicher werden, um in Zukunft die Welt ernähren zu können. Im Jahr 2050 werde es zwei Mrd. Menschen mehr geben, jedoch nicht mehr fruchtbaren Boden. Die Kombination aus präzisen Wetterdaten und KI sei dafür die Lösung. Hirt warnt allerdings vor zu viel Optimismus. Es müsse bei der Digitalisierung der Landwirtschaft noch viel geforscht werden, um gerade beim Thema KI gute Ergebnisse zu bekommen. „Abgesehen davon, wird es eine Herausforderung, die vielen, neuen Technologien für kleinstrukturierte, familienbetriebene Landwirtschaften nutzbar zu machen“, resümiert Hirt.

Künstliche Intelligenz – wo bleiben die Gefühle ?

Ein Gespräch mit dem britischen Schriftsteller Ian McEwan

Wir sehnen uns nach künstlichen Menschen. Muss man sich bei Siri bedanken? Was hat der Brexit mit KI zu tun und darf ein Algorithmus moralische Entscheidungen treffen? Eine Begegnung in London mit Ian McEwan, dessen neuer Roman nächste Woche erscheint.

Ihr Erzähler Charlie schafft sich einen künstlichen Menschen an, „als Gefährten, intellektuellen Sparringspartner, als Freund und Faktotum“. Er heißt Adam, wie der erste Mensch, und mit Charlie und dessen Freundin Miranda entsteht eine Dreierbeziehung. Im Zentrum des Romans steht die Frage, ob Androiden emotionale Intelligenz besitzen könnten, ob Maschinen zu Gefühlen fähig sind.

Was hat Sie daran interessiert?
Ich bin schon immer an Neurowissenschaft interessiert gewesen und an dem, was man das „Leib-Seele-Problem“ nennt, also der Frage, ob eine Maschine denken kann. Das hat den Mathematiker und Kryptologen Alan Turing bereits in den dreißiger Jahren beschäftigt. Turing sagte in den vierziger Jahren, man sei nur zehn Jahre entfernt von einer denkenden Maschine. Inzwischen wissen wir, wie kompliziert das Gehirn ist. Trotzdem sind in den letzten zehn Jahren große Fortschritte gemacht worden. Man braucht nur an die künstliche Intelligenz des Smartphones zu denken oder die jüngsten Flugzeugunglücke, die mit den Versagen von Künstlicher Intelligenz zu tun hatten, um zu sehen, wie die Technologie in unser Leben eindringt. Neulich habe ich meine Frau dabei ertappt, wie sie sich bei Siri bedankte.

Sie legen ausgerechnet Adam einige der nachdenklichsten Beobachtungen über die Maschinenintelligenz und das Wesen der Menschen in den Mund …
Adam hat mir rhetorisch aus einigen wichtigen Patschen geholfen, weil Charlie nicht besonders gebildet ist und sich zum Beispiel, anders als Adam, bei Shakespeare nicht gut auskennt. Mich fasziniert die menschliche Interaktion mit einer Maschine, die man in einem Moment nur als Computer wahrnimmt und im nächsten als Menschen behandelt. Und ich suchte einen anderen Ansatz als „Frankenstein“, den überragenden Text der Moderne über den künstlichen Menschen. Frankensteins Monster wird zum Mörder. Er ist zur Metapher geworden für die Gefahren der Technologie. Mich beschäftigt die Möglichkeit, dass wir eine menschenähnliche Maschine herstellen, der wir unsere besten Eigenschaften überlassen. Denn wir wissen, wie wir gut sein können, aber es gelingt uns oft nicht, gut zu sein.

Adam ist hochmoralisch ?
Intelligenten Maschinen werden wichtige moralische Fragen übertragen. Wir entwickeln Autos, die autonom auf unseren Straßen fahren. Wir diskutieren, wie sich fahrerlose Autos für bestimmte Unfallszenarien programmieren lassen. Die Zeitschrift „Nature“ berichtete unlängst über eine Studie, in der es um das sogenannte „Trolley-Problem“ ging: Wer soll den Unfall überleben, wenn die Bremsen versagen und das Auto auf einen Pfeiler zurast? Der Fahrer, indem er ausweicht, dabei aber ein Kind überfährt? Würde es einen Unterschied machen, wenn es einen alten Menschen träfe? In der Studie haben bestimmte Ländergruppen unterschiedliche moralische Präferenzen geäußert. Das wirft Fragen über universale Werte auf. Ich wollte mit meinem Roman den Konflikt dramatisieren, in den wir uns mit der Künstlichen Intelligenz unweigerlich bringen. Die Sehnsucht nach der Herstellung künstlicher Menschen sitzt offenbar tief in uns. Davon handelte schon der Prometheus-Mythos oder die Argonauten-Sage. Im Grunde ist Talos, der Steine auf Iasons Schiff schleudert, ein Roboter. Man könnte auch die Geschichte von Adam und Eva als Prototyp der Herstellung einer künstlich intelligenten Maschine betrachten, die Gott bereits mit einigen Mängeln versehen hat, bloß dass ich das, was für Gott Mängel sind, als Tugend bezeichnen würde. Evas Neugier ist eine der größten Eigenschaften der menschlichen Natur und die Grundlage für alles Wissen.

Der Roman ist am Anfang der Thatcher-Ära angesiedelt, Sie verändern aber den Verlauf der Ereignisse und streuen kontrafaktische Details ein. Margaret Thatcher verliert den Falkland-Krieg, der linke Labour-Politiker Tony Benn wird Premierminister und verspricht den Brexit. Es gibt bereits elektrische Autos und Textnachrichten …
Es ist ein Spiel mit der Zeit, das mit Turing beginnt. Ich wollte ihn unbedingt in meinem Roman haben, ohne dass er eine lebensverlängernde Zauberpille nimmt oder Selbstmord begeht. Ich denke oft darüber nach, wie leicht unser jetziger Technologie- und Wissensstand viel später oder früher hätte erreicht werden können, wie im Falle der Keimtheorie. Sie wäre bereits im siebzehnten Jahrhundert möglich gewesen. Der Stand der Dinge scheint mir auf jedem Gebiet eine kontingente Angelegenheit zu sein. In der Falkland-Krise hätte die Einsatztruppe auch scheitern können, wenn Argentinien die in Frankreich bestellten Exocet-Raketen erhalten hätte. Die Folgen wären dramatisch gewesen für uns wie für Argentinien. Präsident Galtieri wäre geblieben, noch mehr Menschen wären verschwunden, Thatcher hätte untergehen können. Das fragile Wesen der zufallsabhängigen Gegenwart fasziniert mich. Die Fiktion erlaubt es, zu entscheiden, wie alles ausgeht. Ich wollte weder weit in die Zukunft greifen, in der Adam leben würde, noch war ich auf die Gegenwart erpicht. Deswegen habe ich eine etwas schmuddelige, veränderte Vergangenheit gewählt. Mich fasziniert, wie die Maschinen in unser Leben treten und so leicht angenommen werden.

Sie scheinen auffallend interessiert zu sein an körperlichen Funktionen ?
Ich will nicht schockieren, aber mir ist es wichtig, die Totalität des Daseins zu beschreiben. Und körperliche Funktionen sind relevant im Zusammenhang mit dem künstlichen Gehirn. Philosophen pflegten früher über das „Gehirn im Tank“ zu sprechen. In den letzten dreißig Jahren haben wir aus der Neurowissenschaft gelernt, dass wir vor allem verkörpertes Bewusstsein sind. Wir sind eben kein Hirn im Tank, sondern Hirn im Körper. Wir verbringen unser Leben in einem Körper, der tyrannisch sein kann – und eine langsame Enttäuschung, um einen anderen Begriff für das Altern zu verwenden.

In „Maschinen wie ich“ befassen Sie sich mit dem Konflikt zwischen Technik und der Unberechenbarkeit des Menschen.
Was Adam betrifft, hängt für mich der Erfolg oder Misserfolg des Romans davon ab, dass es mir gelingt, aus ihm eine Figur zu machen, bei der die Leser Charlies schwankenden Zweifel teilen, ob er ein Computerspiel spielt oder es mit einer wirklichen Person zu tun hat.

Dabei stellt sich die Frage, ob man sich des Mordes an einem Roboter schuldig machen kann ?
Mein Turing ist überzeugt – und ich hoffe, der Leser ist auch halbwegs überzeugt –, dass Adam ein fühlendes Wesen ist. Ich würde im Sinne des kategorischen Imperativs argumentieren, dass man das Bewusstsein eines anderen Wesens nicht besitzen kann, selbst wenn man es gekauft hat.

Als Schriftsteller sind Sie selbst auch Schöpfer ?
Mir war beim Schreiben ständig bewusst, dass ich als Adams Erfinder auch sein Erbauer bin, aber natürlich auch der von Charlie und Miranda.

Politik spielt in Ihren Romanen eine wichtige Rolle. In „Maschinen wie ich“ spielen Sie auf den Brexit an. Ihre Beschreibung von Thatcher lässt an Theresa May denken, und Tony Benns Labour Party gleicht der von Jeremy Corbyn. Werden Sie je einen Brexit-Roman schreiben?
Ich habe die Parallelen nicht forciert, aber sie sind mir beim Schreiben aufgefallen. Wenn ich einen Brexit-Roman schreiben würde, müsste ich einen Brexiteer in den Mittelpunkt stellen, weil ich den Brexit verabscheue und mich in dieses Denken hineinversetzen müsste, um es zu verstehen. Noch bin ich weit davon entfernt, aber ich denke viel darüber nach. Und das findet meist irgendwann Niederschlag in meinen Romanen. Jetzt stehen wir noch in der Mitte des Prozesses. Jeder Tag bringt eine neue Entwicklung und jede Woche falsche Höhepunkte. Meistens kommt alles nicht so schlimm, wie es die Pessimisten voraussagen. Der Brexit wird trostlos und nicht einfach sein, aber das Leben geht weiter. Wir werden eine sehr missgelaunte und eine politisch wie kulturell zerklüftete Nation sein.

Liegt in der Einstellung der Brexit-Befürworter, dass man als Weltbürger nirgendwo zu Hause ist, nicht das Hauptproblem?
Den Brexit-Anhängern hat man Zauberstaub in die Augen gestreut. Sie sind belogen und von der politischen Klasse herablassend behandelt worden. Viele Versprechen haben sich jetzt schon als wertlos erwiesen. In gewisser Hinsicht bin ich froh über das Schlamassel. Es besteht vielleicht eine kleine Möglichkeit zu einem Rückzieher. Ich kann da nicht unparteiisch sein.

Sie beziehen sich gern auf den Satz von Henry James, wonach es die große Aufgabe des Romans sei, „interessant zu sein“. Wollen Sie mit Ihren Büchern zur Diskussion beitragen?
Ich weiß nicht, welchen Beitrag „Maschinen wie ich“ leisten wird. In gewisser Hinsicht geht es um Fragen, die seit zwei- bis dreitausend Jahren diskutiert werden, sei es in der Mythologie oder in technologischer Hinsicht. Grundsätzlich darf die Literatur das Lustprinzip nicht aus den Augen verlieren, nicht beim Lesen und auch nicht beim Schreiben. Schriftsteller müssen sich zur Freude an ihrer Arbeit bekennen. Um zeitgenössische Fragen in Angriff zu nehmen, sollte man lieber einen Zeitungsessay schreiben. Ich werde oft dazu aufgefordert, möchte aber die Arbeit an meinem jeweiligen Roman nicht unterbrechen.

Wie fühlt es sich an, Gegenstand zahlreicher Doktorarbeiten zu sein?
Bis vor zwanzig Jahren waren die Akademiker ganz in den Fängen des französischen Strukturalismus. Inzwischen hat sich das beruhigt. Ich habe unlängst in Caen einer internationalen Konferenz über mein Werk beigewohnt. Am letzten Tag habe ich mir acht Präsentationen angehört. Ich fand sie witzig und brillant, vor allem eine über Hotels im Werk von Ian McEwan. Darauf wäre ich nie gekommen. Ich saß in einer Ecke dabei und dachte, so muss es sein, wenn man tot ist.

Als läse man den eigenen Nachruf.
Ja. Als die Universität Texas mein Archiv erwarb, ging es mir ähnlich. Im Foyer waren Vitrinen aufgestellt mit einer Auswahl meiner Dokumente, darunter einem Brief, den ich meinen Söhnen aus Neuseeland schrieb, als sie noch klein waren. Ich hatte für sie ein Bild von der Erde gezeichnet – mit der Sonne, einem Bett und mir lesend, um zu veranschaulichen, dass bei mir Tag war, wenn bei ihnen Nacht war und umgekehrt. Einen derart persönlichen Gegenstand aus meinem Leben in einer Vitrine zu sehen war eine Art Nachtodeserfahrung. Ein höchst seltsames Gefühl.

Das Gespräch führte Gina Thomas.

Schwund bei Ihren gespeicherten Daten absehbar

(pte004/16.05.2019/06:15) – Daten im Internet bestehen nicht ewig. Die gespeicherten Inhalte von Nutzern gehen früher oder später verloren. Einem Bericht von „The Conversation“ zufolge sind momentan rund 15 Zettabyte an Daten im Umlauf und wächst in einem Ausmaß von 70 Terabyte pro Sekunde. Doch Inhalte gehen auch konstant offline und können nicht mehr wiederhergestellt werden.

Speichermedien mit Ablaufdatum
Und auch technische Probleme kommen hinzu. Magnetische Speichermedien wie Festplatten halten nur drei bis fünf Jahre. Die darauf vorhandenen Daten müssen immer wieder kopiert werden. Dabei stellt sich auch die Frage, welche Daten es wert sind, erhalten zu werden. Ein weiteres Problem ist veraltete Software. Wenn Daten beispielsweise in den 1980er-Jahren auf Software wie WordPerfect oder WordStar gespeichert wurden, kann es in Zukunft sehr schwer sein, sie zu lesen, vor allem wenn die Software nicht mehr unterstützt wird oder die Entwicklerfirmen nicht mehr im Geschäft sind.

Es gibt viele Organisationen, die versuchen, möglichst viele Daten am Leben zu halten. Ein Start-up namens „The Internet Archive“  macht beispielsweise Fotos von größeren Seiten wie der der „New York Times“ oder Facebook, jedoch erfasst sie damit nur etwa 0,0003 Prozent aller Daten im Internet. Die Kosten für die Erhaltung von Daten sind auf lange Sicht ebenfalls hoch. Sie werden laut „The Conversation“ über einen Zeitraum von zehn Jahren auf etwa 2.500 Dollar pro Terabyte eingeschätzt. Ob für diese Kosten aufgekommen wird, hängt vom Wert der Daten ab. Persönliche Inhalte könnten demnach verloren gehen.

Myspace fehlen 50 Mio. Dateien
Ein besonderes Beispiel für den Datenverlust an den Zahn der Zeit ist die Plattform Myspace. Im Jahr 2008 noch das größte soziale Netzwerk, hat die Seite bis heute viele Mitglieder eingebüßt und wechselte bereits dreimal den Besitzer. Anfang des Jahres 2019 stellte sich heraus, dass auf Myspace 50 Mio. Dateien, die zwischen 2003 und 2015 hochgeladen wurden, inzwischen verloren gingen.

Wie reagiert unsere Jugend auf Social-Media?

Universitäten Oxford und Hohenheim analysieren achtjährige Langzeitstudie auf Wechselwirkung zwischen Social Media-Nutzung und persönlicher Zufriedenheit

Es ist die weltweit umfangreichste Langzeitbefragung, die die University of Oxford und die Universität Hohenheim in Stuttgart mit komplexer Statistik untersuchten. Ergebnis: die persönliche Social Media-Nutzung und die persönliche Lebenszufriedenheit von Teenagern beeinflussen sich in nur kaum messbaren Größenordnungen. Ihre Ergebnisse veröffentlichten die Forscherinnen und Forscher in der heutigen Ausgabe der Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Bisherige Studien über den Zusammenhang zwischen Social Media-Konsum und Lebensglück kämpfen meist mit einem Makel: Mal sind es geringe Teilnehmerzahlen, mal sehr einfache Auswertungen und oft handelt es sich nur um Momentaufnahmen durch wenige Befragungen in einem relativ kurzen Zeitraum.
Anders der Datenpool, den die Universität Hohenheim dank Kooperation mit der University of Oxford nun untersuchen konnte. Die Daten stammen aus der achtjährigen Langzeitstudie „Understanding Society“.
In dieser Auswertung dabei: Dr. Tobias Dienlin vom Fachgebiet Medienpsychologie der Universität Hohenheim. Erst- und Drittautor sind Amy Orben und Prof. Dr. Andrew Przybylski von der University of Oxford.

Angaben von 5.492 Teenagern aus achtjährigem Befragungszeitraum
Für ihre Veröffentlichung werteten sie die Angaben von 5.492 Teenagern aus. Bis zu acht Jahre lang hatten diese regelmäßig angegeben, wie viele Stunden sie an einem normalen Schultag mit Social Media verbrachten und wie hoch ihre gegenwärtige Lebenszufriedenheit sei.
Die Anzahl der Stunden markierten sie auf einer fünfstufigen Skala zwischen 0 bis 7 und mehr Stunden. Ihre Lebenszufriedenheit markierten sie auf einer Skala von Smileys mit sieben Stufen. Dabei unterschieden sie verschiedene Bereiche wie die Zufriedenheit mit Freundschaften, Aussehen oder familiärer Situation.
Die Befragungen fanden acht Mal mit einem Abstand von jeweils einem Jahr statt. Die erste Befragungswelle der „Understandig Society-Studie“ begann im Jahr 2009. Die Befragungen halten bis heute an.

Einfluss auf veränderte Lebenszufriedenheit liegt bei weniger als einem Prozent
„Wenn man leichte Tendenzen sucht, lässt sich sagen, dass wir eine ganz schwache Wechselwirkung zwischen Social Media Konsum und Lebenszufriedenheit gefunden haben. Nimmt der Social Media Konsum zu, reduziert sich die Lebenszufriedenheit geringfügig. Gleichzeitig steigt bei sinkender Lebenszufriedenheit auch in ganz leichtem Maße der Social Media Konsum. Die Effekte scheinen dabei für Mädchen etwas ausgeprägter zu sein als für Jungen.“
Die Effekte seien jedoch minimal: „In Zahlen ausgedrückt lassen sich Veränderungen in der Lebenszufriedenheit nur zu weniger als einem Prozent auf den Social-Media-Konsum zurückführen“, so Dr. Dienlin. Um das Ergebnis einzuordnen: Die Häufigkeit, mit der Jugendliche und Eltern das Abendessen teilten, habe einen etwa gleich großen Einfluss auf die Lebenszufriedenheit.
„Bislang wird die aktuelle Debatte meist durch Studien mit geringer Aussagekraft bestimmt. Die Studie ist deshalb ein wichtiger Schritt, um Technikfolgen für das Wohlergehen von Heranwachsenden zu bestimmten“, so die Bewertung von Prof. Dr. Andrew Przybylski, Director of Research am Oxford Internet Institute.
Gleichzeitig könne die Auswertung von Befragungen nur ein erster Schritt sein, betont Amy Orben, Doktorandin und College Lecturer am University of Oxford. Um die detaillierten Auswirkungen der Sozialen Medien auf Teenager zu verstehen, sei es nötig, Zugriff auf die Daten der Social Media-Anbieter zu erhalten.
Es sei deshalb dringend an der Zeit, den notwendigen politischen, ethischen und wissenschaftlichen Rahmen für solche Untersuchungen zu schaffen, so das Credo der Kooperation.

Veröffentlichung und Methodik
Das vollständige brief paper “Social media’s enduring effect on adolescent life satisfaction” erschien am 6. Mai 2019 in Proceedings of the National Academy of Sciences of the United States of America (PNAS).
Für ihre Auswertung nutzten die Universitäten Oxford und Hohenheim die Methode der sog. Random Intercept Cross-Lagged Panel Model. Dabei wird untersucht, inwiefern Zu- oder Abnahme einer der beiden Variablen in Zusammenhang steht mit der Zu- oder Abnahme der anderen Variable – über einen Zeitraum von jeweils einem Jahr. Die Methode gilt aktuell als die bestgeeignete, um einen besseren Eindruck über den kausalen Zusammenhang der Variablen zu erhalten.

UNIVERSITÄT HOHENHEIM, Klebs

Fortschritt bei Quantencomputer

Auf quantenmechanischen Prinzipien basierende Computer können bestimmte Aufgaben besonders effizient lösen. Ihre Informationsträger – die Qubits – verfügen nicht nur über die Werte „0“ und „1“, sondern auch über Zustände dazwischen. Einen solchen Zustand aufrechtzuerhalten, ist allerdings schwierig. Wissenschaftlerinnen und Wissenschaftler am Karlsruher Institut für Technologie (KIT) haben nun granulares Aluminium, kurz grAl, für Quantenschaltungen eingesetzt und gezeigt, dass dieses supraleitende Material großes Potenzial besitzt, die bisherigen Grenzen der Quantencomputer zu überwinden. Die Forscher berichten in der Zeitschrift Nature Materials. (DOI: 10.1038/s41563-019-0350-3)

Quantencomputer gelten als die Rechner der Zukunft. Sie können große Datenmengen unter bestimmten Voraussetzungen schneller verarbeiten als ihre klassischen Pendants. Während klassische Computer einen Rechenschritt nach dem anderen ausführen, nehmen Quantencomputer viele Rechenschritte parallel vor. Informationsträger des Quantencomputers ist das Quantenbit, kurz Qubit. Bei Qubits gibt es nicht nur die Informationen „0“ und „1“, sondern auch Werte dazwischen, die über die quantenmechanische Überlagerung von Zuständen realisiert werden, das ist das sogenannte Superpositionsprinzip. Ihre Verarbeitung geschieht nach quantenmechanischen Prinzipien wie beispielsweise der Verschränkung, die selbst für räumlich weit voneinander getrennte Teilchen eine Wechselbeziehung ohne zeitliche Verzögerung ermöglicht.

„Die Herstellung von Qubits, die klein genug sind und sich schnell genug schalten lassen, um Quantenkalkulationen auszuführen, stellt eine enorme Herausforderung dar“, erklärt der Physiker Dr. Ioan Pop, Leiter der Forschungsgruppe Kinetic Inductance Quantum Systems am Physikalischen Institut (PHI) und am Institut für Nanotechnologie (INT) des KIT. Als vielversprechende Option gelten supraleitende Schaltungen. Supraleiter sind Materialien, die bei extrem niedrigen Temperaturen keinen elektrischen Widerstand aufweisen und daher elektrischen Strom verlustfrei leiten. Dies ist entscheidend, um den Quantenzustand der Qubits zu erhalten und sie effizient miteinander zu verbinden. So arbeiten große Unternehmen wie IBM, Intel, Microsoft und Google bereits daran, supraleitende Quantenprozessoren hochzuskalieren.

Eine wesentliche Schwierigkeit besteht allerdings darin, den Quantenzustand aufrechtzuerhalten. Wechselwirkungen mit der Umgebung können zum Zerfall des Quantenzustands führen, der sogenannten Dekohärenz. Je mehr Qubits verwendet werden, desto schwieriger ist es, die Kohärenz zu bewahren. Forscherinnen und Forscher am PHI, am INT und am Institut für Prozessdatenverarbeitung und Elektronik (IPE) des KIT sowie an der Nationalen Universität für Forschung und Technologie MISIS in Moskau haben nun erstmals granulares Aluminium als supraleitendes Material für Quantenschaltungen mit hoher Kohärenz eingesetzt. Wie das Team in der Zeitschrift Nature Materials berichtet, hat es ein sogenanntes Fluxonium-Qubit mit granularem Aluminium hergestellt, mit einer Kohärenzzeit von bis zu 30 Mikrosekunden – das ist die Zeit, in der sich ein Qubit in einem Zustand zwischen „0“ und „1“ befinden kann. Obwohl die gemessene Zeit sehr kurz erscheint, können innerhalb dieser Zeitspanne mehr als tausend logische Operationen durchgeführt werden. „Unsere Ergebnisse zeigen, dass granulares Aluminium eine neue Klasse von komplexen Qubit-Designs erschließen und dazu beitragen kann, die derzeitigen Grenzen der Quanteninformationsverarbeitung zu überwinden“, erklärt Ioan Pop.

Originalpublikation:

Lukas Grünhaupt, Martin Spiecker, Daria Gusenkova

C-Prozessor aus lebenden Bausteinen

Welterster Bio-Dual-Core-Prozessor entwickelt

(pte015/16.04.2019/10:30) – Forscher der ETH Zürich (ETH) http://ethz.ch haben einen Weg gefunden, einen zentralen Prozessor aus biologischen Bauteilen zu konstruieren, der flexibel und vielseitig programmierbar ist. Der Clou: Die neue Bio-CPU beruht auf einem modifizierten Crispr/Cas-System und kann beliebig viele Eingaben in Form von RNA-Molekülen (sogenannter Leit-RNA) verarbeiten. Am Ende stand ein biologischer Dual-Core-Prozessor mit zwei Rechnerkernen in einer Zelle.

Cas9-Protein als Kern

Den Kern des Prozessors stellt eine Variante des Cas9-Proteins dar. Die CPU reguliert als Antwort auf die Eingabe durch Leit-RNA-Sequenzen die Aktivität eines bestimmten Gens, sodass das zugehörige Protein hergestellt wird. Damit konnten die Schweizer Wissenschaftler in menschlichen Zellen skalierbare Schaltnetze programmieren, welche wie digitale Halbaddierer aus zwei Eingängen und zwei Ausgängen bestehen und zwei einstellige Binärzahlen addieren können.

Die Forscher sind bei ihrer Arbeit im Labor sogar noch einen Schritt weiter gegangen und schufen analog zur digitalen Welt einen biologischen Dual-Core-Prozessor, in dem sie zwei Rechnerkerne in eine Zelle einbauten. Dazu verwendeten sie Crispr/Cas-Einheiten von zwei unterschiedlichen Bakterien. „Damit haben wir den ersten Zellcomputer mit mehr als einem Rechnerkern geschaffen“, unterstreicht Bioingenieurwissenschaftler Martin Fussenegger.

Dieser innovative Biocomputer ist nicht nur extrem klein, sondern im Prinzip auch beliebig skalierbar. „Man stelle sich ein Mikrogewebe mit mehreren Mrd. Zellen vor, und jede davon verfügt über einen Dual-Core-Prozessor. Solche ‚Rechenorgane‘ könnten eine theoretische Rechenkapazität erreichen, welche diejenige eines digitalen Supercomputers bei Weitem übertrifft, und das mit einem Bruchteil der Energie“, sagt Fussenegger.

Vielseitige Nutzbarkeit

Ein solcher Zellcomputer ließe sich laut den Experten dazu nutzen, biologische Signale aus dem Körper wie gewisse Stoffwechselprodukte oder Botenstoffe wahrzunehmen, sie zu verarbeiten und wunschgemäß zu reagieren. Programmiert man die CPU entsprechend, könnten die Zellen zwei verschiedene Biomarker als Eingangssignale wahrnehmen.

Ist nur Biomarker A vorhanden, dann reagiert der Biocomputer mit der Bildung eines diagnostischen Moleküls oder eines Wirkstoffs. Registriert der Zellcomputer nur Biomarker B, dann löst er die Bildung eines anderen Wirkstoffs aus. Sind beide Biomarker vorhanden, dann erzeugt dies eine dritte Reaktion. Angewendet könnte dies in der Medizin, zum Beispiel zur Behandlung von Krebs.

„Wir könnten zudem Rückkopplungen einbauen“, betont der ETH-Professor. Sei beispielsweise Biomarker B über längere Zeit in einer gewissen Konzentration im Körper vorhanden, dann könnte das auf die Bildung von Krebsmetastasen hindeuten und der Biocomputer würde dementsprechend einen Wirkstoff bilden, der speziell diese bekämpft.

Wie beeinflusst Künstliche Intelligenz unsere Zukunft? Mit einer Anmerkung von Jean Pütz

Zehn Kollegen der WPK-die Wissenschaftsjournalisten waren von dem EU-Parlament nach Brüssel eingeladen. Ich war als Delegierter dabei.

Die Funktion des europäischen Parlaments wird leider völlig unterschätzt, aber sie ist die einzige Instanz, die die EU-Commission überwacht und kontrolliert. Das Parlament bzw. der Ausschuß Wissenschaft, Forschung und Technologie bestimmt die Richtung, welche Unterstützung  die einzelnen europäischen Staaten für diese Aufgabe erhalten. Immerhin sind es insgesamt über 100 Milliarden Euro, die gerecht über die verschiedenen Wissenschafts-Zweige und -Projekte verteilt werden sollen. In diesem Zusammenhang haben wir von der WPK ein längeres Gespräch mit dem Berichterstatter dieses Ausschusses, Dr. Christian Ehler, ein ins EU-Parlament gewählter Abgeordneter aus Brandenburg, führen können. Wir warn beeindruckt ob der Qualifikation und seiner Fähigkeit, Gesamtzusammenhänge zu bewerten. Allerdings klagte er ebenso wie wir Wissenschaaftsjournalisten über das geringe Interesse der Öffentlichkeit und der Medien für den Bereich Wissenschaft und Forschung. Wörtlich sagte er uns, wenn er eine Pressekonferenz veranstalte, kämen ganz wenige Journalisten, während die politischen Pressekonferenzen aus allen Nähten platzten. Das ist eingentlich unverständlich wenn man bedenkt, dass das entscheidend die Zukunft und Konkurrenzfähigkeit Europas betrifft. Wer interessiert sich schon für den Quantencomputer der Zukunft oder die Künstliche Intelligenz und ihren Einfluss auf unseren Alltag. Solche Entwicklungen halte ich für gefährlich, insbesondere die Gefahr besteht, dass die Wissenschaft sich auf Grund der Komplexität zu einer Paralellgesellschaft entwickelt. Dr. Christian Ehler hält dagegen, ebenso wie wir Wissenschaftsjournalisten.

Der Kollege Dieter Beste, ebenso wie ich ehemals im Vorstand der WPK, hat sich durch den folgenden Beitrag davon inspirieren lassen, sich über die Ethik, die in Verbindung mit der Künsstlichen Intelligenz entwickelt werden muss.
Jean Pütz

Wie vertrauenswürdig ist Künstliche Intelligenz?
Autor:Dieter Beste

Die EU-Kommission möchte in einer internationalen Übereinkunft erreichen, dass bei Entwicklung und Anwendung der Künstlichen Intelligenz (KI) der Mensch im Mittelpunkt steht. Eine Expertengruppe legte dazu Anfang April ethische Leitlinien vor.

Künstliche Intelligenz verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen wäre: „Unsere Gehirne sind zu langsam und bei den anstehenden Datenmengen hoffnungslos überfordert“, konstatiert der Philosoph Klaus Mainzer in „Künstliche Intelligenz – Wann übernehmen die Maschinen?“ – und fragt dort auf Seite 245: „Aber wie sicher sind KI-Algorithmen?“ Werden wir Menschen auch künftig dem Anspruch gerecht, Herr unseres Tuns zu sein – oder werden wir kapitulieren und die Verantwortung für unser Leben an Maschinen delegieren?

Künstliche Intelligenz (KI) ist ein internationales Zukunftsthema in Forschung und Technik, Wirtschaft und Gesellschaft. Aber Forschung und technische Innovation der KI reichen nicht aus. KI‐Technologie wird unsere Lebens‑ und Arbeitswelt …

 

Als eine dem europäischen Wertekanon gemäße Antwort auf derartige Fragen verstehen sich die ethischen Leitlinien, die jetzt eine unabhängige europäische Expertengruppe für vertrauenswürdige künstliche Intelligenz (KI) in Brüssel vorgelegt hat. Demnach muss eine KI, der wir vertrauen dürfen, die folgenden sieben Anforderungen erfüllen:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen. Keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
  • Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
  • Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  • Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
  • Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und Barrierefreiheit gewährleisten.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Gut gebrüllt, Löwe, möchte man kommentieren – wie weiter? Wie diesen Leitsätzen Lebenskraft und internationale Wirksamkeit einhauchen? In diesem Sommer noch will die Kommission eine Pilotphase einleiten, in die sie ein breites Spektrum von Interessengruppen einbinden möchte. Ab sofort ist es Unternehmen, öffentlichen Verwaltungen und Organisationen möglich, der Europäischen KI-Allianz beizutreten; sie werden benachrichtigt, wenn das Pilotprojekt startet. Zudem, so der Plan, sollen die Mitglieder der KI-Expertengruppe helfen, die ethischen Leitlinien in den Mitgliedstaaten bekannt zu machen und zu erläutern.

Der Plan der EU-Kommission, mit der Diskussion ethischer Leitlinien die weitere Entwicklung der KI in Europa im Konsens anzugehen, ist Teil der KI-Strategie, die vor rund einem Jahr veröffentlicht wurde. Damit verfolgt die Kommission das Ziel, die öffentlichen und privaten Investitionen für Künstliche Intelligenz im Laufe des nächsten Jahrzehnts auf mindestens 20 Mrd. Euro jährlich zu steigern, mehr Daten bereitzustellen und Talente zu fördern. Angesichts des Machtkampfs zwischen China und den USA um die Technologieführerschaft in der Welt und den dort in KI investierten Summen hat Europa keinen leichten Stand. Die zur Zeit von der Kommission für KI von 2021 bis 2027 vorgesehenen jährlichen Mittel in Höhe rund 1 Mrd. Euro wirken im Vergleich ein wenig wie der Tropfen auf dem heißen Stein – das weiß auch Juha Heikkilä, Referatsleiter Robotik und Künstliche Intelligenz in der Generaldirektion Kommunikationsnetze, Inhalte und Technologien.

Andererseits, so Heikkilä gegenüber Journalisten der Wissenschafts-Pressekonferenz (wpk) in Brüssel, könnte gerade der von Europa eingeschlagene „dritte Weg“ für viele in der Welt attraktiv sein, die nicht dem „marktbasierten“ Entwicklungsweg der Amerikaner und nicht dem „auf Kontrolle ausgerichteten“ chinesischen KI-Weg folgen möchten. Man suche die Zusammenarbeit mit gleichgesinnten Partnern wie Japan, Kanada oder Singapur. In die Pilotphase würden auch Unternehmen aus anderen Ländern und internationale Organisationen einbezogen. Und ja, Unternehmen verlangten auch nach Richtlinien, um Planungssicherheit zu haben.

Die Rasanz, mit der Künstliche Intelligenz inzwischen in unser privates und berufliches Leben eindringt und alles verändert, wäre noch vor wenigen Jahren unvorstellbar gewesen. Was wird morgen sein, wenn die KI weiterhin an Tempo aufgenommen haben wird? Gut möglich, dass eine breit angelegte gesellschaftliche Diskussion anhand der ethischen Leitlinien der EU tatsächlich ein Wettbewerbsvorteil Europas ist. Denn folgt man dem Philosophen Klaus Mainzer, dürfe Ethik „keinesfalls als Innovationsbremse missverstanden“ werden. („Künstliche Intelligenz – Wann übernehmen die Maschinen?“, Seite 278)

 

Daten unter Wasser problemlos übertragbar

US-Forscher entwickeln neuartige Spezialantenne für Kommunikation mit extrem langen Wellen

Menlo Park (pte002/15.04.2019/06:05) – Ein Mobilfunkgerät, das die Kommunikation unter Wasser und mit Partnern in großen Tiefen ermöglicht, wird derzeit am SLAC National Accelerator Laboratory http://slac.stanford.edu entwickelt. Das Forschungszentrum gehört zum US-Energieministerium. Das Gerät ist so klein, dass es in die Hemdtasche passt. Es emittiert extrem niederfrequente elektromagnetische Wellen (VLF) mit Wellenlängen von bis zu hunderten Kilometern. Diese kommen überall durch, selbst durch Felsen, an denen die heute genutzten Wellenlängen hängenbleiben.

Antennengröße geschrumpft

Derartige Wellen lassen sich bereits erzeugen, doch die benötigte Sendeantenne ist extrem groß. Die Antenne, die die US-Forscher entwickelt haben, ist dagegen nur zehn Zentimeter lang. Geräte, die damit ausgestattet sind, könnten bei Rettungseinsätzen und bei Kampfhandlungen die Verständigung erleichtern. „Unser Gerät ist 100 Mal effektiver als bisher genutzte kompakte VLF-Geräte“, sagt Projektleiter Mark Kemp. „Außerdem kann es Daten weitaus schneller übertragen.“

Die Radiosignale, die heute für die mobile Datenübertragung genutzt werden, funktionieren nur über relativ kurze Entfernungen. VLF-basierte Daten benötigen eigentlich Antennen, die der Größe der Wellenlänge entsprechen, sich also über quadratkilometergroße Flächen erstrecken. Es gibt auch fahrbare Antennen für diesen Bereich, doch sie sind weitaus ineffizienter. Außerdem begrenzt die geringe Bandbreite die Übertragungsrate.

Piezoelektrischen Effekt ausgenutzt

Den Forschern ist es gelungen, das Gewicht der Antenne auf wenige Pfund zu reduzieren – durch Ausnutzung des piezoelektrischen Effekts von Lithium-Niobat. Es reagiert auf Druck mit elektrischem Puls. Umgekehrt gerät es in Schwingungen, wenn ein elektrischer Wechselstrom angelegt wird. Diese Schwingungen werden in einen oszillierenden elektrischen Strom umgewandelt, dessen Energie gewissermaßen huckepack auf den VLF-Wellen in alle Himmelsrichtungen reitet und von kompatiblen Geräten aufgefangen werden kann.

Es gelang den kalifornischen Wissenschaftlern auch, die Bandbreite zu vergrößern. Sie können im jetzigen Entwicklungsstand 100 Bit pro Sekunde übermitteln. „Das reicht schon, um einen einfachen Text zu übermitteln“, verdeutlicht Kemp abschließend.

Digitalisierung als Motor für Nachhaltigkeit

Bundesumweltministerin Svenja Schulze und Bundesforschungsministerin Anja Karliczek haben heute das neue Hauptgutachten des Wissenschaftlichen Beirats Globale Umweltveränderungen (WBGU) „Unsere gemeinsame digitale Zukunft“ entgegengenommen. Darin analysiert das Beratergremium der Bundesregierung die Zusammenhänge zwischen Digitalisierung und Nachhaltigkeit und entwickelt Handlungs- und Forschungsempfehlungen. Zentrale Forderung des WBGU ist es, den digitalen Wandel so zu gestalten, dass er als Hebel und Unterstützung für Nachhaltigkeit dient. Die Bundesministerinnen Schulze und Karliczek begrüßen das Gutachten als wichtigen Beitrag zur Debatte über die Chancen und Risiken der Digitalisierung für die nachhaltige Entwicklung.

Bundesforschungsministerin Anja Karliczek: „Die Digitalisierung bietet große Chancen für die nachhaltige Entwicklung und den Klimaschutz. Forschung und Innovationen auf diesem Gebiet sind ein zentraler Schlüssel und wichtiger Impuls- und Ideengeber für den Schutz unserer Umwelt und des Klimas. Wir werden die Förderung dieser Themen in den nächsten Jahren intensiv fortsetzen. Deutschland wird davon nicht zuletzt ökonomisch profitieren. Fortschrittliche Umwelttechnologien werden weltweit in den nächsten Jahren immer gefragter sein. Generell müssen Ökologie und Ökonomie noch stärker miteinander versöhnt werden. Auch die Bildung ist ein wichtiger Faktor für eine nachhaltige Entwicklung. Mit guten Bildungsangeboten wie „Bildung für nachhaltige Entwicklung“ können wir die Grundlagen schaffen für ein umweltbewusstes Leben und Handeln von Kindesbeinen an.“

Bundesumweltministerin Svenja Schulze: „Digitalisierung ist kein Selbstzweck – sie sollte als Motor für mehr Nachhaltigkeit dienen. Die Digitalisierung birgt ein riesiges Potential für den Umweltschutz. Um dieses auszuschöpfen, braucht sie die richtigen Leitplanken: für den Zugang und den Schutz von Daten, für den Umgang mit und die Entsorgung von Rohstoffen, für das Schließen von Stoffkreisläufen. Das WBGU-Hauptgutachten gibt hierfür wichtige Anregungen. Ich werde das Bundesumweltministerium zum Treiber einer nachhaltigen Gestaltung der Digitalisierung machen: Wir entwickeln derzeit eine umweltpolitische Digitalagenda und ein Förderprogramm für KI-Anwendungen für Umwelt- und Klimaschutz. Außerdem werde ich das Thema Digitalisierung und Nachhaltigkeit zu einem Schwerpunkt unserer deutschen EU-Ratspräsidentschaft im Jahr 2020 machen.“

Das Bundesforschungsministerium fördert seit vielen Jahren die Nachhaltigkeitsforschung, zuletzt mit zwei Milliarden Euro seit 2015. Dabei ist die Digitalisierung ein zentrales Instrument. Zum Beispiel soll bei der Forschungsinitiative zum Erhalt der Artenvielfalt mithilfe digitaler Anwendungen die Biodiversität besser erfasst und auch geschützt werden. Bei den Kopernikus-Projekten für die Energiewende wiederum werden digitale, technologische und wirtschaftliche Lösungen für den Umbau des Energiesystems entwickelt.

Das Bundesumweltministerium ist dieses Jahr Hauptpartner der re:publica 2019, einer Messe zur digitalen Gesellschaft. Diese findet vom 6.-8. Mai 2019 in Berlin statt. Das BMU wird dort ein erstes Eckpunktpapier für eine umweltpolitische Digitalagenda vorstellen und über den gesamten weiteren Verlauf der Messe Feedback und Ideen einsammeln.

Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen wurde 1992 im Vorfeld der Konferenz der Vereinten Nationen über Umwelt und Entwicklung („Erdgipfel von Rio“) von der Bundesregierung als unabhängiges wissenschaftliches Beratergremium eingerichtet. Der WBGU wird gemeinsam von BMBF und BMU betreut und finanziert.