Archiv der Kategorie: Computer, TV, Medien

MP3-Erfinder des Fraunhofer IIS in die »Consumer Electronics Hall of

In einem Festakt in San Diego, Kalifornien, USA, hat die
amerikanische Consumer Electronics Association Prof. Dieter Seitzer,
Prof. Heinz Gerhäuser, Prof. Karlheinz Brandenburg in ihre Hall of
Fame aufgenommen.

Die drei Wissenschaftler werden damit stellvertretend für das
Fraunhofer-Forscherteam geehrt, das seit den frühen achtziger Jahren
das weltberühmte Audiocodierformat MP3 entwickelt hatte. Die CEA
zeichnet damit alljährlich Pioniere der Unterhaltungselektronik aus,
die mit ihren Erfindungen und ihrem Einsatz einen wesentlichen
Beitrag zu heute nicht mehr wegzudenkenden Produkten geleistet haben.
So finden sich unter anderem prominente Persönlichkeiten wie Ray
Dolby oder die Gründer des Computerunternehmens HP William Hewlett
and David Packard.

Am Dienstag, 16. Oktober, nahmen Seitzer, Gerhäuser und Brandenburg
die Trophäen bei einem feierlichen Empfang von CEA-Präsident Gary
Shapiro entgegegen. Prof. Dieter Seitzer erinnerte aus diesem Anlass
an die Anfangsjahre der Audiocodierung. So seien erste
Signalprozessoren noch von riesigen Ausmaßen gewesen. Bis heute haben
sich das Erlanger Fraunhofer-Institut für Integrierte Schaltungen IIS
und das daraus hervorgegangene Fraunhofer-Institut für Digitale
Medientechnologie IDMT in Ilmenau weltweit einen ausgezeichneten Ruf
im Bereich der Audiocodierung erarbeitet. Prof. Seitzer, Prof.
Gerhäuser und Prof. Brandenburg dankten den Mitarbeitern und allen
beteiligten Forschern und betonten: »Nur durch ausgezeichnete
Teamarbeit war diese Entwicklung zum Welterfolg möglich. Wir freuen
uns und fühlen uns sehr geehrt über die internationale Auszeichnung.«

Weitere Infos und Hintergründe in unserer Pressemeldung vom 28.
März; online unter www.iis.fraunhofer.de/pr/Presse/index.jsp.


Das 1985 gegründete Fraunhofer-Institut für Integrierte Schaltungen
IIS mit dem Hauptsitz in Erlangen und weiteren Standorten in
Nürnberg, Fürth und Dresden ist heute das größte Fraunhofer-
Institut in der Fraunhofer-Gesellschaft. Mit der Entwicklung des
Audiocodierverfahrens MP3 ist das Fraunhofer IIS weltweit bekannt
geworden.
In enger Kooperation mit den Auftraggebern aus der Industrie forschen
und entwickeln die Wissenschaftler auf folgenden Gebieten:
Digitaler Rundfunk, Audio- und Multimediatechnik, digitale
Kinotechnik, Entwurfsautomatisierung, integrierte Schaltungen und
Sensorsysteme, drahtgebundene, drahtlose und optische Netzwerke,
Lokalisierung und Navigation, Hochgeschwindigkeitskameras,
Ultrafeinfokus-Röntgentechnologie, Bildverarbeitung und
Medizintechnik sowie IuK-Technologien für die Logistik-
Dienstleistungswirtschaft.
480 Mitarbeiterinnen und Mitarbeiter arbeiten in der
Vertragsforschung für die Industrie, für Dienstleistungsunternehmen
und öffentliche Einrichtungen. Das Budget von 58 Millionen Euro wird
bis auf eine Grundfinanzierung in Höhe von 20 Prozent aus der
Auftragsforschung finanziert.

Fraunhofer-Institut für Integrierte Schaltungen IIS

Am Wolfsmantel 33
91058 Erlangen

Institutsleitung
Prof. Dr.-Ing. Heinz Gerhäuser
(geschäftsführend)
Prof. Dr.-Ing. Günter Elst

Software erkennt heiße News

Software erkennt heiße News an Wikipedia
Viele gleichzeitige Änderungen zeigen wichtige Ereignisse auf
 
Wikipedia-Bearbeitung: das könnte wichtig sein (Foto: Sarah Stierch, flickr.com)

Hamburg/Brüssel/Washington (pte002/15.04.2013/06:05) – Ein internationales Forscherteam um den deutschen Google-Mitarbeiter Thomas Steiner hat eine Software entwickelt, die anhand von Wikipedia-Einträgen erkennt, was aktuell heiße Nachrichten sind. Dazu beobachtet der in einer Live-Demo vorliegende "Wikipedia Live Monitor" http://bit.ly/wikimonitor die Änderungen, die an Artikeln vorgenommen werden. Denn viele gleichzeitige Bearbeitungen in verschiedenen Sprachversionen sind ein Zeichen, dass es wirklich eine weltbewegende Neuigkeit gibt – wie ein regelrechter Bearbeitungs-Krieg nach dem Tod Michael Jacksons 2009 gezeigt hat.

Nach Angaben von Steiner gegenüber pressetext gibt es verschiedene Ideen, wie die neue Software in Zukunft eingesetzt werden könnte. Die wohl offensichtlichsten sind, Daten für ein News-Ranking heranzuziehen oder die Klassifizierung von Nachrichten zu erleichtern. Aber auch andere Anwendungen wie eine "Storification" von News durch Verbindung von Social Media mit Wikipedia-Inhalten wären denkbar.

Bearbeitung zeigt Aufreger

Die Idee hinter der Software ist eigentlich einfach. Gibt es eine aktuelle Nachricht, die wirklich viele Menschen bewegt, führt das im Informationszeitalter auch dazu, dass es sehr schnell zu vielen Bearbeitungen passender Wikipedia-Einträge kommt. Nach dem Jackson-Tod beispielsweise haben etliche User praktisch gleichzeitig versucht, seinen Wikipedia-Eintrag um Todeszeitpunkt, Umstände des Todes und andere Details zu ergänzen. Die Software beobachtet also die Änderungs-Aktivität bei diversen Sprachversionen der Wikipedia und identifiziert anhand von gleichzeitigen Bearbeitungen äquivalenter Artikel in diversen Sprachen mögliche Kandidaten für heiße News.

Vergangenen Freitag konnte pressetext beobachten, wie schnell das funktioniert, denn da gab es die Auslosung für das Halbfinale der UEFA Champions League. Anhand der vielen Änderungen an Wikipedia-Artikeln zur Fußball-Eliteliga hat der Wikipedia Live Monitor binnen kürzester Zeit auf ein heißes Thema geschlossen. Freilich war hier vorab klar, dass es ein heißes Thema gibt. Interessanter dürfte die Software für unerwartete Ereignisse sein, wobei den Forschern zufolge ein zusätzliches Erfassen von Wikipedia-Klassifizierungen sinnvoll wäre. Denn wird beispielsweise jemand aus der Kategorie "lebende Personen" gestrichen, ist das ein Hinweis auf einen aktuellen Todesfall.

Abschätzen, was wichtig ist

Das System erlaubt dem User schon jetzt, Vorgaben zu machen – beispielsweise, wie viele Bearbeitungen von äquivalenten Artikeln es geben muss und wie viele verschiedene Nutzer die Änderungen vornehmen müssen, ehe das System etwas als "Breaking News"-Kandidaten einstuft. Dabei geht es Steiner zufolge darum, dass einzelne Nutzer sinnvolle Abschätzungen bekommen, was aus ihrer Sicht wichtig genug und somit relevant ist. Gerade mit geplanten Erweiterungen würden sich noch zusätzliche Möglichkeiten eröffnen – beispielsweise, dass ein angebundenes System automatisch mit dem Liveschalten passender Storys auf einen Promi-Storyfall reagiert.

Das ist vorerst aber noch Zukunftsmusik, doch glauben die Entwickler an das Potenzial des quelloffenen Wikipedia Live Monitors, den sie Mitte Mai auf der World Wide Web Conference http://www2013.org näher vorstellen werden. So habe die Software gegenüber dem Ansatz, aktuell wichtige Nachrichten automatisch an Postings auf sozialen Netzwerken zu erkennen, den Vorteil, dass es selten zu "False Positives" – einem Einstufen unwichtiger Nachrichten als große News – kommt. Wirklich Wichtiges werde aber ebenso gut erkannt und das letztlich mit viel weniger Rechenaufwand.

GI begrüßt die KI-Strategie

GI begrüßt die KI-Strategie der Bundesregierung als wichtigen Impuls für die Spitzenforschung

Die Gesellschaft für Informatik e.V. (GI) bewertet die „Strategie
Künstliche Intelligenz“ der Bundesregierung als einen sehr wichtigen und
vielversprechenden ersten Schritt auf dem Weg, Deutschland und Europa
zur KI-Weltspitze zu entwickeln. Gleichwohl schlägt die GI
Konkretisierungen im Zuge der Umsetzung der Strategie vor, insbesondere
bei der interdisziplinären Forschung, bei der Vermeidung militärischer
KI-Forschung und bei der Stärkung des akademischen Mittelbaus.

Deutschland und Europa sollen in Zukunft
führender Standort für Künstliche Intelligenz (KI) werden. Dafür hat die
Bundesregierung auf der Kabinettssitzung in Potsdam eine „Strategie
Künstliche Intelligenz“ beschlossen. Sie will damit einen „Rahmen für
eine ganzheitliche politische Gestaltung der weiteren Entwicklung und
Anwendung Künstlicher Intelligenz in Deutschland“ setzen. Die
Gesellschaft für Informatik e.V. (GI) und der GI-Fachbereich ‚Künstliche
Intelligenz‘ (GI-FBKI) als größte nationale, gemeinnützige
KI-Organisation in Europa begrüßen diese KI-Strategie, sehen allerdings
Konkretisierungsbedarf für deren Umsetzung bei der interdisziplinären
Forschung, bei der Vermeidung militärischer KI-Forschung und bei der
Stärkung des akademischen Mittelbaus in der KI-Forschung.

Prof. Dr. Hannes Federrath, Präsident der GI:
„Die Gesellschaft für Informatik und insbesondere der Fachbereich
‚Künstliche Intelligenz‘ begrüßen die Bestrebung der Bundesregierung
sowohl Forschung und Entwicklung als auch Anwendung von KI in
Deutschland und Europa auf ein weltweit führendes Niveau zu bringen. Wir
unterstützen insbesondere die verantwortungsvolle und am Gemeinwohl
orientierte Entwicklung und Nutzung von KI. Die Strategie hat alle
wesentlichen Vorschläge aufgenommen, die die GI im Rahmen des
Konsultationsprozesses eingebracht hat. Jetzt muss die Bundesregierung
schnell in den Umsetzungsmodus kommen und die aufgezeigten Maßnahmen in
konkretes Regierungshandeln überführen.“

PD Dr. Matthias Klusch, Sprecher des GI-FBKI:
„Wir begrüßen ausdrücklich die Bestrebung der Bundesregierung, die KI in
Forschung, Lehre und praktischer Anwendung unter der Bezeichnung
„Artificial Intelligence (AI) made in Germany“ signifikant zu fördern.
Insbesondere unterstützen wir die Absicht, dass die Förderung auf einer
breiten wissenschaftlichen und technologischen Basis unter
Berücksichtigung bereits in Deutschland bestehender, exzellenter
Kompetenzen in der KI als Ganzes erfolgen soll und nicht auf das
KI-Teilgebiet Maschinelles Lernen beschränkt wird. Neben dem Aufbau von
weiteren Zentren für KI-Spitzenforschung in Deutschland, mit besonderer
Position des Deutschen Forschungszentrums für Künstliche Intelligenz,
ist auch eine breitere Förderung von Hochschulen notwendig, um die
Exzellenz auch in der Breite und durch optimale Ausbildung von
benötigten Fachkräften in der KI zu ermöglichen. 

Eine der zentralen, künftigen
Herausforderungen für die KI-Forschung stellt die Entwicklung von
Methoden für eine geeignete Integration von unterschiedlichen
KI-Technologien dar, wie die formal-logische Inferenz von Wissen,
automatisches Planen oder Lernen mit neuronalen Netzen, das sogenannte
‚Deep Learning‘. Das kann zur Entwicklung von neuen, innovativen
KI-Systemen und Anwendungen führen, die in einer realen Umwelt mit und
für den Menschen sicher und verständlich nachvollziehbar, situativ
optimal lernen, planen und handeln. Dabei sollte sich die KI-Forschung
interdisziplinär auch am notwendigen kritischen, gesellschaftlichen
Diskurs über Risiken und Chancen ihrer Anwendung und wirtschaftlichen
Verwertung in Bereichen wie Industrie und Arbeit 4.0, Gesundheitswesen
und autonomes Fahren, aktiv beteiligen – schon allein um überzogen
optimistischen oder dystopischen Vorstellungen in diesem Kontext
entgegenzuwirken.“

Mehr verantwortungsvolle, interdisziplinäre und keine militärische KI-Forschung 

Die GI begrüßt deshalb ausdrücklich auch die
Pläne der Bundesregierung zu einer verantwortungsvollen und am
Gemeinwohl orientierten Entwicklung und Nutzung von KI und fordert mehr
interdisziplinäre Forschung. 

Prof. Dr. Christina B. Class, Sprecherin des
GI-Fachbereichs ‚Informatik und Gesellschaft‘: „Der zunehmende Einsatz
von KI wird nicht nur die Arbeitswelt und Geschäftsbeziehungen
verändern, sondern die gesamte Gesellschaft. Daher müssen nicht nur die
Sozialpartner, sondern alle betroffenen Gruppen einbezogen werden. Ein
sogenanntes ‚Ethics by, in and for design‘ ist nicht ausreichend, um
allen Fragen zu begegnen. Forschungsförderung muss sich auch auf
interdisziplinäre Fragen beziehen. Die Veränderungen, die auf uns
zukommen, müssen in allen Bereichen bewusst gestaltet werden, um die
Grundwerte unserer freiheitlich demokratischen Grundordnung zu bewahren.
Wir hoffen, dass die Bundesregierung die Strategie um tragfähige
Vorhaben in diesen Fragen ergänzt.“

Die Erforschung von KI-Anwendungsmöglichkeiten
zum Schutz der äußeren Sicherheit und für militärische Zwecke im Rahmen
der Ressortzuständigkeiten sieht die GI äußerst kritisch. So
unterstützt der GI-Fachbereich ‚Künstliche Intelligenz‘ die Initiative
gegen intelligente, autonome Waffensysteme mit Entscheidungsgewalt zur
Tötung von Menschen (https://futureoflife.org/lethal-autonomous-weapons-pledge),
sieht darin auch einen weiteren wichtigen Beitrag zu einem möglichen
Markenkern der „AI made in Germany“ und fordert eine solche
Berücksichtigung in der Konkretisierung der KI-Strategie der
Bundesregierung. 

Notwendiger Ausbau informatischer Bildung zu KI und in der Breite 

Die Bundesregierung will, dass allen
Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult
werden, bis zum Ende ihrer Schullaufbahn „ein umfassender Kanon
digitaler Kompetenzen“ vermittelt wird. Die GI begrüßt diesen Anspruch
ausdrücklich. Damit die allgemeinbildende Schule dem jedoch gerecht
werden kann, braucht es allerdings mehr als den „Digital-Pakt“, der in
erster Linie auf die nötige digitale Infrastruktur abzielt. Der Ausbau
der informatischen Bildung, auch aber nicht nur zu Künstlicher
Intelligenz, in den allgemeinbildenden und den berufsbildenden Schulen
ist einer der wichtigsten Schlüssel für die Zukunftsfähigkeit unseres
Landes, da diese Aufgabe nicht von anderen Fächern nebenbei erfüllt
werden kann.

Prof. Dr. Torsten Brinda, Sprecher des
GI-Fachbereichs ‚Informatik und Ausbildung/ Didaktik der Informatik‘:
„Es ist unerlässlich, dass dabei ein wesentliches Augenmerk auf die
Informatik als Leitwissenschaft der Digitalisierung gerichtet wird, und
dass flächendeckend und verpflichtend alle Schülerinnen und Schüler
entsprechende Kompetenzen erwerben. Das ist in der erforderlichen
inhaltlichen Tiefe in der Breite fächerintegriert nicht möglich – es
erfordert einerseits ein Fach „Informatik“ für alle und andererseits
entsprechende Investitionen in die dafür erforderliche Ausbildung von
Informatik-Lehrkräften. Der Bund muss den Ländern dafür gezielt Anreize
setzen. Nur so können kommende Generationen zu mündigen und
verantwortungsvollen Gestaltern des digitalen und gesellschaftlichen
Wandels ausgebildet werden.“

Wissenschaftlichen Mittelbau in der KI stärken und Brain-Drain vermeiden

Die KI-Strategie sieht vor, ein Programm zur
wissenschaftlichen Nachwuchsförderung und Lehre im Bereich KI
aufzulegen; insbesondere sollen 100 KI-Professuren neu geschaffen
werden. Das ist sehr zu begrüßen! Dabei ist sehr zu hoffen, dass diese
Stellen nicht nur international konkurrenzfähig bestens und permanent
ausgestattet werden, sondern auch inhaltlich die KI als Ganzes exzellent
abdecken können und sich nicht, wie auf dem aktuellen Stellenmarkt
bereits stark tendenziell sichtbar, nur rein auf maschinelles Lernen
oder verwandte Felder wie Data Science beschränken. Ansonsten besteht
das sehr hohe Risiko, dass im internationalen Vergleich unser
wissenschaftlicher Mittelbau in der deutschen KI-Forschung bereits auf
kurze und mittlere Sicht extrem geschwächt wird – und damit auch ein
ansteigendes Abwandern von Fachkräften und Experten in der KI ins
Ausland („Brain-Drain“) einhergeht. Spitzenforschung braucht einen
starken akademischen Mittelbau von Nachwuchswissenschaftlern: Sie sind
das Rückgrat deutscher Spitzenforschung und wesentlicher Erfolgsfaktor
für den Wissenschafts- und insbesondere den Informatik-Standort
Deutschland.

Dr. Kerstin Lenk, Sprecherin des GI-Beirats
für den wissenschaftlichen Nachwuchs: „Gerade im akademischen Mittelbau
sind die Arbeitsverhältnisse oft prekär. Das ist ein generelles Problem.
Um die Abwanderung des hoch qualifizierten wissenschaftlichen
Nachwuchses in die Wirtschaft oder das Ausland kurzfristig zu
verlangsamen und langfristig zu stoppen, sind konkrete Maßnahmen
erforderlich. Befristete Arbeitsverträge, schlechte Arbeitsverhältnisse
und Vergütung machen Wissenschaft für viele Nachwuchstalente zur
unattraktiven Risikokarriere.“

Über die Gesellschaft für Informatik e.V. und den GI-Fachbereich ‚Künstliche Intelligenz‘

Die Gesellschaft für Informatik e.V. (GI) ist
mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte
und wichtigste Fachgesellschaft für Informatik im deutschsprachigen
Raum und vertritt seit 1969 die Interessen der Informatikerinnen und
Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung,
Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven
Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform
und Sprachrohr für alle Disziplinen in der Informatik. Weitere
Informationen finden Sie unter www.gi.de.

Der GI-Fachbereich ‚Künstliche Intelligenz‘
(GI-FBKI) ist Träger der von der GI geförderten wissenschaftlichen
Arbeit auf allen Teilgebieten der Künstlichen Intelligenz. Der
Fachbereich veranstaltet eine jährliche Fachtagung KI, auf der
insbesondere Arbeiten aus seinen aktuell 11 Fachgruppen und
Arbeitskreisen zum Fachgebiet Künstliche Intelligenz vorgestellt werden.
Ferner gibt der Fachbereich die Zeitschrift „Künstliche Intelligenz“ im
Springer Verlag heraus, die neben fachlichen Aufsätzen zur KI auch über
Aktivitäten im Fachbereich berichtet. Der GI-FBKI ist mit über 1.000
Mitgliedern eine der größten und wichtigsten nationalen KI-Verbände in
Europa und Teil der europäischen KI-Dachorganisation EurAI (European
Association for Artificial Intelligence). Weitere Informationen finden
Sie unterwww.kuenstliche-intelligenz.de

Darknet – Hort der Kriminalität oder der Freiheit?

Der Tag der globalen Informationsgesellschaft am
17. Mai (World Telecommunication and Information Society Day, WTISD
2017) zeigt, welchen Stellenwert moderne Informationstechnologien in
unserem Alltag bereits einnehmen. Forscher des Karlsruher Instituts für
Technologie (KIT) arbeiten an vielfältigen Aspekten der Digitalisierung
bis zu deren gesellschaftlichen Auswirkungen etwa von Internet,
Industrie 4.0, Smart Data oder auch Darknet.

Mit dem Begriff „Darknet“ verbinden viele dunkle
Geschäfte mit Drogen, Waffen und anderen illegalen Aktivitäten, die in
den dunklen Ecken des Internets stattfinden. Die Wirklichkeit ist
banaler: „Zunächst einmal bezeichnet der Begriff „Darknet“ lediglich
einen Teil des Internets, bei dem die Identität der Teilnehmer im
Dunkeln bleibt und dessen Inhalte die meisten Suchmaschinen nicht
kennen“, sagt Dr. Roland Bless vom Karlsruher Institut für Technologie.
Dieser Bereich werde auch keineswegs ausschließlich für illegale
Machenschaften genutzt, so der Internet-Experte. Das Darknet sei per se
weder gut noch böse, es verspreche den Nutzern im Wesentlichen eines:
Anonymität.

Das Darknet besteht aus Web-Servern, die über
anonymisierende Netze wie Tor erreichbar sind. Gewöhnliche Webbrowser
wie Firefox, Safari oder Google Chrome können darauf gar nicht erst
zugreifen. So wird verhindert, dass Dritte Informationen über den
Standort beziehungsweise die Identität des Nutzers und seine
Surfgewohnheiten abgreifen. „Das Tor-Netz (torpject.org) bildet als
sogenanntes ‚Overlay-Netz‘ ein eigenes logisches Netz oberhalb der
normalen Internetinfrastruktur und verschleiert durch die Verkettung von
mehreren Tor-Servern (auch „Tor-Knoten“ genannt) von welchem Rechner
oder Smartphone aus auf welche Inhalte zugegriffen wird, ebenso wie den
Server- Standort. Dazu werden die Informationen entsprechend
verschlüsselt, so dass ein Abhören der Kommunikation im Netz keine
Rückschlüsse auf Absender oder Empfänger zulassen“, erklärt Bless.
Betrieben werde das Tor-Netz von Freiwilligen, welche die nötige
Infrastruktur bereitstellen.

Interesse daran, sich anonym im Netz zu bewegen,
haben keineswegs nur Kriminelle, sondern neben gewöhnlichen Nutzern, die
Wert auf Datensparsamkeit legen, insbesondere Journalisten,
Whistleblower oder auch Menschen, die in Ländern mit repressiven
Regierungen leben. In der Türkei etwa nimmt sich die Regierung das Recht
heraus, Webseiten zu sperren, wenn die „nationale Sicherheit“ bedroht
ist. Unlängst hat es nach Sperrungen bei Twitter, Facebook, Youtube,
Whatsapp oder Skype sogar die Internet-Enzyklopädie Wikipedia getroffen.
Das Darknet bietet Nutzern dann die Möglichkeit, trotzdem auf die
Seiten zuzugreifen. „Die Nutzer tauschen sich durch die Anonymität
ungezwungener aus, insofern wird die Meinungsfreiheit dort geschätzt und
Themen diskutiert, die für das normale Web zu risikoreich sind“, sagt
der Informatiker, der am KIT regelmäßig Vorlesungen zu Themen wie „Next
Generation Internet“, „Netzsicherheit“ und „Multimediakommunikation“
hält.

Einen hundertprozentigen Schutz biete aber auch das
Darknet weder Dissidenten noch Gangstern: Denn die ersten
beziehungsweise letzten Tor-Server der Kette haben Kenntnis über
zumindest einen der Teilnehmer. „Staatliche Stellen können daher
versuchen, Tor-Knoten zu unterwandern oder zu kontrollieren“, sagt
Bless. Tor-Knoten werden daher regelmäßig nach ihrer
Vertrauenswürdigkeit beurteilt und verdächtige Knoten aus dem Netz
ausgeschlossen. Andererseits werde es durch die Anonymisierung auch
schwerer, festzustellen, welche Informationen, Angebote oder Dienste
vertrauenswürdig sind, da die Identität der Teilnehmer „im Dunkeln“
bleibt. „Natürlich gibt es auch kriminelle Plattformbetreiber, die
versuchen, Kunden zu prellen und dann beispielsweise Waren, die schon
bezahlt sind, nicht liefern.“ Ähnlich wie bei normalen
Handelsplattformen im Internet, hülfen aber Reputationslisten und
Wiki-Seiten um betrügerische Angebote zu entlarven.

Für weitere Informationen stellt die Pressestelle
des KIT gern den Kontakt zum Experten her. Bitte wenden Sie sich an
Felix Mescoli, Tel.: 0721 608 48120, felix.mescoli@kit.edu oder an das Sekretariat der Pressestelle, Tel.: 0721- 608 47414, E-Mail an presse@kit.edu.

Im Portal „KIT-Experten“ finden Sie weitere Ansprechpartner zu Highlights der KIT-Forschung und tagesaktuellen Themen: www.pkm.kit.edu/kit_experten.php

Freundliche Grüße

Karlsruher Institut für Technologie (KIT)

Kabellose Tastaturen anfällig für Lauschangriffe

Kabellose Tastaturen anfällig für Lauschangriffe

Hacker können eingetippten Text noch in 76 Meter Entfernung mitlesen

Getestet: Tastaturen lieber mit Kabel verwenden (Foto: flickr.com/Dylan)
Getestet: Tastaturen lieber mit Kabel verwenden (Foto: flickr.com/Dylan)

San Francisco (pte003/28.07.2016/06:10) –

Wer zuhause eine kabellose Tastatur verwendet, sollte vielleicht doch
wieder auf ein Modell mit Kabel umsteigen. Wie aus einem Praxistest der
US-Sicherheitsexperten von Bastille Networks http://bastille.net hervorgeht, sind die kabellosen Eingabegeräte nämlich besonders
anfällig für Lauschangriffe von Hackern. So können potenzielle
Cyber-Kriminelle beispielsweise ganz einfach mitlesen, welchen Text
Nutzer dieser Geräte eintippen. Besonders ernüchternd: Diese
Abhörmethode funktioniert völlig problemlos bis zu einer Reichweite von
76 Metern, auch durch Glasscheiben und Wände.

"Wir waren schockiert"

"Wir sind in eine Reihe von Läden gegangen und haben
uns verschiedene kabellose Keyboards gekauft", erklärt Ivan O’Sullivan,
Chief Research Officer bei Bastille Networks, gegenüber "BBC News". Als
er mit seinen Kollegen diese Geräte auf mögliche Sicherheitslücken hin
untersuchen wollte, seien erschreckende Ergebnisse zu Tage gefördert
worden. "Wir waren schockiert als wir sahen, dass gut zwei Drittel davon
ihre Daten vollkommen ungeschützt in Reintext übertragen und keinerlei
Verschlüsselung verwenden", so der Experte.

Trotz der anfänglichen Sicherheitsbedenken, hätte man
nicht mit derlei laxen Sicherheitseinstellungen bei diesen Produkten
gerechnet. "Hacker können auf diese Weise bis auf eine Entfernung von 76
Metern alle ihre Tastenanschläge und eingetippten Texte auslesen. Das
funktioniert auch durch Glas, Wände und Decken", kritisiert O’Sullivan.

Zwölf Produkte betroffen

Laut Bastille Networks sind zwölf unterschiedliche
Produkte verschiedener Hersteller von dem Problem dieser gravierenden
Sicherheitsmängel betroffen. "Keine von diesen Firmen hat seine Kunden
über diese Schwachstellen aufgeklärt oder versucht, diese Lecks in
neueren Produktversion zu schließen", heißt es von dem
Security-Unternehmen. Ausdrücklich gelobt wurden Logitech, Dell und
Lenovo, weil sie in ihren kabellosen Tastaturen bessere technische
Sicherheitsvorkehrungen implementiert hätten.

Doch was sollen Besitzer solcher Geräte von anderen
Herstellern unternehmen, um eine ungewollte Spionage von außen zu
verhindern? Hier empfehlen die Experten von Bastille Networks entweder
den Umstieg auf ein handelsübliches Keyboard mit Kabel. "Oder man nutzt
statt einer Funk- eine Bluetooth-Verbindung, um die Tastatur mit dem
Computer zu verbinden", so O’Sullivan.

Browser-Schlacht tobt in Europa

Browser-Schlacht tobt in Europa
Microsoft bei Betriebssystemen, Google bei Suche führend
 
Safari auf dem iPad: hilft Apple zu Marktanteilen (Foto: flickr.com, Jon Fingas)

Merignac (pte021/21.03.2013/13:55) – Der französische Webanalytik-Spezialist AT Internet http://atinternet.com hat anhand der Januar-Zugriffe auf 17.877 Webseiten analysiert, welche Rolle verschiedene IT-Riesen im europäischen Web wirklich spielen. Den heute, Donnerstag, veröffentlichten Ergebnissen nach tobt inzwischen eine echte Browser-Schlacht zwischen Microsoft, Mozilla, Google und auch Apple. Zwar hat gesamteuropäisch der Internet Explorer (IE) immer noch die Nase vorn, doch ist Chrome inzwischen in manchen Ländern der meistgenutzte Browser. Eher langweilig ist das Rennen bei Betriebssystem sowie der Suche, wo Microsoft bzw. Google unangefochten an der Spitze liegen.

Dreikampf wird Vierkampf

Gegenüber dem Vorjahr hat der Internet Explorer laut AT Internet rund ein Viertel seines Marktanteils in Europa eingebüßt und hält nun bei 30,7 Prozent. Mozillas Firefox ist auf Platz drei abgerutscht, hinter den großen Gewinner Chrome, den mittlerweile fast jeder vierte Europäer nutzt. In Spanien hat der Google-Browser den IE mittlerweile schon vom Thron gestoßen, während Deutschland nach wie vor eine Firefox-Hochburg ist – im Januar 2013 erfolgten hier 40,2 Prozent der Webseiten-Zugriffe mit dem Mozilla-Browser. In Großbritannien spielt sogar Apple eine große Browser-Rolle, mit 29,6 Prozent liegt hier Safari nur knapp hinter dem IE auf Platz zwei.

Apple profitiert dabei klar vom Trend zum mobilen Internet und der Tatsache, dass AT Internet die OS-X- und iOS-Versionen von Safari in seiner Statistik zusammenlegt. Dadurch wird der Browser-Dreikampf zunehmend zum Vierkampf – vor allem am Wochenende, wenn Büro-Computer mit IE-Zwang ausgeschaltet bleiben. Denn dann liegt nicht nur Chrome mit 25,6 Prozent in der gesamteuropäischen Statistik sogar knapp vor dem Microsoft-Browser. Auch Safari trumpft auf, denn an Wochenenden entfällt schon fast jeder fünfte Webseiten-Zugriff auf eine Version des Apple-Browsers. Damit kommt die Nummer vier Firefox etwa so nahe wie dieser dem Spitzenreiter.

Mobile Machtdemonstration

Auch im Bereich der Betriebssysteme, die Webseiten-Besucher nutzen, unterstreicht die AT-Internet-Statistik die wachsende Bedeutung von Smartphones und Tablets. Schon jeder 25. Nutzer in Europa greift unter einem Google-Betriebssystem – also vor allem Android – auf Webseiten zu. Apple-Betriebssysteme bringen es in der Web-Zugriffsstatistik sogar auf 16,2 Prozent. Das ist in wesentlichen Teilen iOS – also iPhones und iPads – zu verdanken, denn OS X hat derzeit nur rund sieben Prozent Marktanteil bei klassischen Computern. Eben diesen verdankt Microsoft, dass es mit 78,4 Prozent Anteil an den Seiten-Zugriffen noch die klare Betriebssystem-Großmacht ist.

Eindeutig ist indes die Situation auf dem europäischen Suchmarkt. Mit über 90 Prozent Anteil ist Google die unangefochtene Nummer eins. Ernsthafte Gegner sind nicht in Sicht, am stärksten scheint noch Microsofts Bing, das in Großbritannien wenigstens die Drei-Prozent-Marke knackt. In Deutschland dagegen liegt Bing mit 1,5 Prozent sogar nur auf Platz drei, knapp hinter der T-Online-Suche. Von nordamerikanischen Verhältnissen, wo Bing und die nunmehr damit betriebene Yahoo-Suche zusammen auf etwa 15 Prozent Marktanteil kommen, kann Microsoft in Europa nur träumen.

Leicht verdauliche Games machen glücklich

Leicht verdauliche Games machen glücklich
Spieler werden entspannter und freundlicher
 

Columbus (pte026/07.06.2011/13:40) – Ob die positiven oder negativen Effekte von Videogames auf ihre Spieler überwiegen, ist nach wie vor umstritten. Gerade im Fall gewaltreicher Ego-Shooter bestimmen häufig Vorurteile und bloße Vermutungen die anhaltende Debatte. Uneinigkeit besteht etwa darin, ob die Titel tatsächlich für mehr Aggression und Gewaltbereitschaft sorgen oder nicht. Bei vergleichsweise harmlosen Games zeigen sich hingegen positive Folgen, wie die School of Communication an der Ohio State University (OSU) http://www.comm.ohio-state.edu feststellt. Sie vermitteln Glücksgefühle und machen ihre Anwender ausgeglichener.

Gute Stimmung

"Die Spieler haben die Wahl", hält OSU-Professor Brad Bushman fest. Obgleich gewaltreiche Games aggressiver machen oder nicht – es gibt auch eine andere Realität. Leicht verdauliche Spiele können ihre Anwender glücklicher und freundlicher machen. Sie haben offenbar einen Entspannungseffekt. Der Großteil an Games, der aus den weltweiten Softwareschmieden kommt, wühlt ihre User allerdings vielmehr auf als sie zu beruhigen. Im direkten Vergleich zwischen entspannenden, neutralen sowie gewaltreichen Anwendungen zeigten erstere deutlich positivere Auswirkungen.

In zwei voneinander unabhängigen Studien haben die Experten an der OSU festgestellt, dass Videospiele mit Entspannungsfaktor Menschen in eine "gute Stimmung" versetzen können und das soziale Verhalten fördern. Ihre Gefühle beschreiben die Gamer dabei etwa mit Glück, Freude und ähnlichen positiven Emotionen. Diese überwiegen im Vergleich mit Spielern gewaltreicher Titel. Das bessere Sozialverhalten anderen gegenüber ist Folge der guten Stimmung, urteilen die Wissenschaftler. Neutralere und harmlosere Videospiele bewerten die User dabei als ebenso unterhaltsam und amüsant wie gewaltreiche Games.

Matte macht iPad-Tastatur fühlbar

Kickstarter-Projekt steht kurz vor der Massenproduktion

Redmond (pte010/19.12.2011/11:55) – Software-Designer Steve Isaac hat eine Möglichkeit entwickelt, die Bildschirmtastatur von Apples http://apple.com iPad mit einer haptischen Erfahrung auszustatten. Dabei bedient er sich einer dünnen, flexiblen Silikonmatte namens "TouchFire" http://touchfire.com , die passgenau über dem Bildschirm liegt. Das Projekt war auf der Crowdfunding-Plattform Kickstarter äußerst erfolgreich und steht kurz vor der Marktreife.

Tasten-Feeling für Touchscreen

Das Prinzip ist simpel: Die Matte wird am Rand des Touch-Displays angelegt und darüber gerollt. Sie liegt passgenau über dem Onscreen-Keyboard auf und bringt dessen Anordnung in eine dreidimensionale, tastbare Form, ohne dabei selbst ungewünschte Klicks am Bildschirm auszulösen.

Der User kann somit die Form der Tasten fühlen und intuitiver auf dem Tablet schreiben. Die einfache Montage und Möglichkeit, TouchFire wieder einzurollen und mitzunehmen, soll das Gadget zu einer Alternative zu externen Bluetooth-Tastaturen machen. Zudem ist es problemlos mit iPad-Hüllen von Drittherstellern kompatibel. Die Matte ist transparent, sodass auch ihre Verwendung mit verschiedenen Tastaturlayouts kein Problem darstellt.

Produktionsstart im März

Überzeugend waren diese Argumente auch für die User des Crowdfunding-Dienstes KickStarter http://kickstarter.com . Isaac hatte sein Projekt dort mit einem Spendenziel von 10.000 Dollar (rund 7.700 Euro) eingestellt. Am Ende des Funding-Runs konnte er sich mit 201.400 Dollar (ca. 155.000 Euro) über das mehr als Zwanzigfache dieses Betrags freuen.

TouchFire richtet sich an Vielschreiber. Vorbestellungen sind auf der Projekthomepage zu einem Preis von 45 Dollar möglich. Die Massenproduktion soll zwischen Ende Februar und Anfang März aufgenommen werden.

Touchscreens der Zukunft dürften auf Aufsätze wie TouchFire vermutlich verzichten können, da sie dem Nutzer erfolgreich verschiedene Oberflächen vorgaukeln können. Schon 2012 könnten die ersten Geräte mit der entsprechenden Technologie ausgerüstet sein

Jean Pütz fordert hypokratischen Wahrheitseid für Journalisten

Jean
Pütz fordert „hippokratischen Eid für Wissenschaftsjournalisten“

VonWolfgang Goede

Der
Erfinder der legendären „Hobbythek“ wurde im Ehrensaal des Deutschen Museums
mit dem Eduard-Rhein-Kulturpreis 2018 ausgezeichnet. Pütz ist TELI-Mitglied.
Eduard Rhein, ein begnadetes Multi-Talent des 20. Jahrhunderts, gehörte
ebenfalls der TELI an. Mit Blick auf die Innovationshöhe der
Preisträgerleistungen, Location und das Festambiente hat der
Wissenschafts-Event fast den Charakter eines Deutschen Nobelpreises.

In
seiner Begrüßung ehrte Wolfgang M. Heckl, Generaldirektor des Deutschen
Museums, den Preisträger als „Ikone der Wissenschaftsvermittlung und des
Wissenschaftsjournalismus“. „Wir alle sind mit Jean Pütz und der Hobbythek
aufgewachsen“, sagte er. Heckl lobte den unterhaltsamen Ton von Pütz und seinen
Fernsehsendungen und schlug eine Brücke zum Deutschen Museum: „Bereits Oscar
von Miller, der Erbauer unseres Museums, wollte Wissen mit Spaß aufbereiten.“

Pütz’
Markenzeichen: Rausche-Schnurrbart

TV-Moderatorin
Nina Ruge führte durch den Festakt mit 150 Ehrengästen aus Wissenschaft,
Technologie und Kultur. Im Interview mit Jean Pütz hatte sie Mühe, den vor
Energie und Redelust überschäumenden Preisträger zu bändigen, der sich selbst
als „Rampensau“ bezeichnet. Mit seinem rauschigen Schnurrbart, so wie er
jahrzehntelang der Nation auf dem Bildschirm entgegengetreten war, ist der Mann
weiterhin ein ebenso vertrauter wie markanter Blickfang.

Pütz
betonte wiederholt die herausragend wichtige Rolle des
Wissenschaftsjournalismus in der Gesellschaft: „Unentbehrlich für die
Demokratie in Zeiten von Postfaktisch und Fake News1“, ließ sich der
Fernsehjournalist und Moderator im Festprogramm zitieren. Bad News in Good News
umzuwidmen, wie es im Reaktionsalltag so häufig geschehe, sei ein Irrweg, rief
er in den Saal. Stattdessen: „Journalisten müssen über den Tellerrand
hinausblicken, den Politikern die Leviten lesen, Zivilcourage zeigen.“ Als
Beispiel für seine Kritik nannte er die Dieseldebatte und „die Verteufelung des
effizientesten aller Motoren mit schwachsinnigen Grenzwerten“.

Pütz‘
Credo #1: Bürger beteiligen an der Wissenschaft!

Insbesondere
Journalisten seien der Wahrheit verpflichtet, verlangte der
Eduard-Rhein-Preisträger. „Indem wir nur das schreiben, was wir auch begriffen
haben“, präzisierte er und setzte seiner Forderung das i-Tüpfelchen auf: „Wir brauchen
einen hippokratischen Eid für Wissenschaftsjournalisten!“

Seine
Kultsendung Hobbythek, 350mal gesendet in 30 Jahren, nannte Pütz „ein
trojanisches Steckenpferd“. Mit Alltagsbeispielen aus Wissenschaft und Technik,
demonstriert mit unterhaltsamen Experimenten, wollte er Lust auf Wissenschaft
machen und zum Selbermachen animieren. Dies mit der demokratischen Überzeugung,
dass Wissenschaft Herrschaftswissen bleibe, „wenn der Mensch nicht beteiligt
wird, damit er verstehen kann“. Dabei dürften viele erkennen, dass „sie
schlauer sind, als sie bisher dachten“.

Pütz’
Credo #2: Naturwissenschaftliche Bildung – Grundlage der Demokratie!

„Ich
stinke gegen das Postfaktische bereits seit 15 Jahren an“, erklärte Pütz, in
Anspielung auf US-Präsident Trump. Und mit Bezug auf unsere moderne
technologiegetriebene Zivilisation: „Wenn wir dem Turmbau zu Babel nicht mit
Vernunft beikommen, stürzt er zusammen.“ Naturwissenschaftliche Bildung und
Logik seien die Grundlage der Demokratie. Sonst müsse man alles glauben, was
einem vorgesetzt werde, und werde anfällig für Demagogie.

Die
Laudatio auf Jean Pütz hielt Norbert Lossau, Ressortleiter Wissenschaft bei der
Welt-Gruppe. Er umriss des Preisträgers journalistisches Lebenswerk mit
insgesamt 3000 TV-Sendungen über Wissenschaft und Technik, dazu 80
populärwissenschaftliche Bücher mit einer Auflage von mehr als sechs Millionen.
Lossau verwies auch auf Pütz‘ Verdienste um die Wissenschaftspressekonferenz
WPK als Mitgründer und dreizehn Jahre lang als Vorsitzender. Derzeit toure er
mit der Pütz-Munter-Show durchs Land und begeistere Groß und Klein mit seinen
Experimenten. Bei Facebook sei er ein Medienereignis mit 35.000 Followern2.

Rhein:
Erfinder und ein großer Blattmacher

Jean
Pütz ist gelernter Ingenieur mit wissenschaftlich-technischem Durchblick,
leidenschaftlicher Journalist und unermüdlicher Aufklärer, mit
scharf-analytischem Blick auf die Probleme im Grenzgebiet von Wissenschaft und
Gesellschaft. Mit seinen mittlerweile 82 Jahren, mit denen er gerne ein wenig
kokettiert, versprüht er die Energie einer ganzen Redaktionsmannschaft. Seit
langem ist er auch ein treues Mitglied der TELI, der weltältesten Organisation
von Technik- und Wissenschaftsjournalisten, die ihm auf diesem Wege ganz
herzlich zum mit 10.000 Euro dotierten Eduard-Rhein-Kulturpreis gratuliert.

Mitglied
der 1929 in Berlin gegründeten TELI war auch Eduard Rhein, der 1936 aufgenommen
worden war3. Erfinder und Journalist, Künstler und Schriftsteller,
ein begnadetes Multi-Talent. Als Begründer der Hörzu mit Auflagenspitzen von
4,5 Millionen gehört er zusammen mit Henri Nannen, Rudolf Augstein und Axel
Springer zu den großen Blattmachern der Bundesrepublik.

Stiftungspreisträger:
Zuse, Maddox, Fest, Berners-Lee

Mit
technischer Raffinesse verdoppelte er die Abspieldauer der Langspielplatte und
machte damit ein Vermögen, mit dem er die Eduard-Rhein-Stiftung ins Leben rief4.
Mit einem Kapital von zehn Millionen Euro gilt sie als größte europäische
Stiftung für Informationstechnologie.

Seit
1979 vergibt sie Preise an bedeutende IT-Pioniere, darunter Konrad Zuse (1995),
den WWW Schöpfer Tim Berners-Lee (1998), MP3-Erfinder Karl-Heinz Brandenburg
(2015, der auch dem 2018-Festakt beiwohnte). Zu den Kulturpeisträgern gehören
außer Pütz der Tagesthemen-Moderator Joachim Friedrichs (1987 Sonderpreis),
TV-Quizmaster Hans-Joachim Kuhlenkampff (1989), Nature-Chefredakteur Sir John
Maddox (1997), der Publizist Joachim Fest (1999), Sendung-mit-der-Maus-Erfinder
Armin Maiwald (2002), Wikipedia-Begründer Jimmy D. Wales (2010). Der
Preisstifter starb 1993 im Alter von 93 Jahren, bis zuletzt prominent im
öffentlichen Leben stehend.

Perspektive:
Junge Wilde am Start

Den
Technologiepreis 2018 erhielt der Inder Rajiv Laroia für seine Verdienste um
die Fortentwicklung des Mobilfunks in der vierten Generation. Mit dem
Stiftungs-Jugendpreis wurden im Rahmen von Jugend forscht Lukas Ruf und Mai
Saito ausgezeichnet für die „Don’t Spy – Sichere Kommunikation im Team“
Software; außerdem Jonas Wanke und Yorick Zeschke für ein akustisches
Navigationssystem. Letzterer, 15 Jahre jung und sehbehindert, überzeugte mit
beeindruckender technischer Detailkenntnis und starker öffentlicher Präsenz.

Wege in den Wissenschaftsjournalismus

Wege in den Wissenschaftsjournalismus

Artikel vom 21.03.2014

Die mediale Aufbereitung komplexer wissenschaftlicher Themen gewinnt zunehmend an Bedeutung. Wie aber wird man Wissenschaftsjournalist? Wege in den Wissenschaftsjournalismus diskutierte eine Gesprächsrunde zwischen Mitgliedern der Wissenschafts-Pressekonferenz (WPK) und Journalismus-Studierenden der Hochschule Darmstadt bei der Schader-Stiftung.
Gesprächsrunde „Wege in den Wissenschaftsjournalismus“

Die Beziehung zwischen Wissenschaft und journalistischer Praxis ist nicht einfach, aber dennoch durchaus synergiefähig. Dies zeigt sich beispielsweise seit nunmehr 28 Jahren in der Arbeit der Wissenschafts-Pressekonferenz (WPK), die sich dem Dialog zwischen Wissenschaft, Politik und Gesellschaft widmet und das Ziel verfolgt, die Qualität im Wissenschaftsjournalismus zu fördern und dabei dessen Unabhängigkeit zu wahren. Eine Plattform für diesen Dialog bot am 21. März 2014 das Schader-Forum in Darmstadt an. Hier trafen Teilnehmende einer WPK-Exkursion nach Darmstadt mit Studierenden des Studienganges Wissenschaftsjournalismus der Hochschule Darmstadt zusammen.

Wie verändert sich das Klima? Welche Energiequellen stehen in welchem Maße zur Verfügung? Wie sind genveränderte Lebensmittel zu beurteilen? Auf dem Wissenschaftsjournalisten lastet die Verantwortung der Vermittlung dieser drängenden Fragen. Er fungiert als Übersetzer und Darsteller wissenschaftlicher Erkenntnisse für das Publikum. Dazu beinhaltet das Studium an der Hochschule Darmstadt unter anderem eine naturwissenschaftliche Grundausbildung, die ihre Schwerpunkte auf die Bereiche Chemie, Biotechnologie, Humanbiologie sowie Physik setzt. Daneben wird gesellschaftswissenschaftliches Basiswissen gelehrt, das welches –nach Meinung der Gesprächsrunde– einen wichtigen Bestandteil des Studiums darstellt und nicht aus dem Wissenschaftsbegriff ausgeklammert werden kann.

Unter dem Titel „Wege in den Wissenschaftsjournalismus“ wurde die Frage danach aufgeworfen, ob und in wieweit Wissenschaftsjournalismus überhaupt in einer universitären Laufbahn erlernbar wäre. Welche Kenntnisse sind für den späteren Beruf vermittelbar und wo sind Grenzen der Lehre? Beschränkungen finden sich vor allem im Hinblick auf die Tiefe der wissenschaftlichen Kenntnisse. Im Rahmen des Studiums kann zwar lediglich ein mehr oder weniger umfangreiches Basiswissen vermittelt werden, aber der Umgang mit diesem breit aufgestellten Wissen und die Fähigkeit, sich schnell in komplexe Sachverhalte einarbeiten zu können, wurden in der Gesprächsrunde als Schlüsselqualifikationen herausgestellt.

Die Gesprächsrunde eröffnete sowohl den bereits etablierten Journalisten, als auch den Studierenden neue Sichtweisen. Für die Studierenden erwies sich die Möglichkeit des Kontakts, besonders hinsichtlich Fragen nach dem Übergang vom Studium in die berufliche Praxis und den Arbeitsmarkt, als nutzbringend. Der immer wieder betonte Praxisbezug, in Form von Volontariat oder Praktikum, wurde dabei als zielführende Ergänzung zum Studium herausgestellt. Offen Probleme, wie finanzielle Unsicherheiten und die Ungewissheit über Kontinuitäten der Beschäftigung, wurden von den Journalisten als Risiken des Berufs formuliert und diskutiert. Dennoch riefen leidenschaftliche Plädoyers, unter anderem durch Jean Pütz (Wissenschaftsjournalist und Fernsehmoderator), die Studierenden dazu auf, Neugier zu zeigen und interessiert zu bleiben. Dieses Interesse würde ihnen auf ihrem Weg in den Wissenschaftsjournalismus helfen und als wiederkehrende Motivation dienen.