Archiv der Kategorie: Computer, TV, Medien

KI steigert Bedeutung von Digitalkompetenz & kritischem Denken – Mit einer Einführung von Jean Pütz

Diese Presseinformation der Universität Hohenheim gebe ich mit Bedenken weiter. Denn in letzter Zeit wird der KI Eigenschaften zugewiesen als ob sie zu allem fähig sei. Da wird von Digitalkompetenz gesprochen, die demnächst jeder beherrschen müsste.

Aus der Sicht der Forscher ist dieser Wunsch durchaus verständlich. Allerdings möchte ich einige Bedenken anmerken:
Ich bin fest davon on überzeugt, dass die Masse der Menschen völlig überfordert ist und sich eine Art Herrenrasse herausbildet, die nach dem Motto „Big-Brother is Watching you“ eine ungeheure Macht erhält. Die Anwendungen von KI können vieles erleichtern, aber die Nebenwirkungen und Risiken müssen auch berücksichtigt werden, weil eine Gegenbewegung zu erwarten ist.

Wenn die Bürger sich überfordert fühlen, dann haben Verschwörungstheorien die Oberhand gewinnen. Schon heute entfernt sich unsere Demokratie von der Logik und ein engagierter Abgeordneter in den Parlamenten hat mit seiner Vernunft kaum mehr Chancen. Denn auf den Populismus setzende Kollegen laufen ihm den Rang ab. So sehe ich auch die heutige Überhandnahme vor Irrationalität in politischen Entscheidungen und viele Entscheidungen werden wider besseren Wissens geschaffen. Gegen die Mehrheit beruht unsere Demokratie entstehen Gesetze die mit Rationalität nichts mehr zu tun haben. Die Wissenschaft hat einen Turm zu Babel gebaut, mit Einsichten in die früher verborgenen Geheimnisse menschlichen Lebens der Gefahr läuft unbeherrschbar zu werden.

Ihr Jean Pütz

(Uni Hohenheim) – Künstliche Intelligenz (KI) verändert die Bedeutung von grundlegenden menschlichen Kompetenzen  von der Bildung über den Beruf bis hin zum privaten Leben. Zu diesem Ergebnis kommt eine Studie unter Leitung der Universität Hohenheim in Stuttgart. Danach gewinnen methodische Basiskompetenzen wie kritisches Denken und Problemlösungskompetenz stark an Bedeutung. Auch die Digitalkompetenz wird immer wichtiger, während die Relevanz von Fremdsprachenkenntnissen abnimmt. Soziale Basiskompetenzen bleiben weitgehend stabil. Ein Whitepaper fasst die Ergebnisse zusammen und gibt Empfehlungen, wie die Erkenntnisse in Bildungsprogramme und Arbeitsorganisation eingebaut werden können.

Künstliche Intelligenz beeinflusst mittlerweile sämtliche Lebensbereiche, sei es im Beruf, im privaten Umfeld oder auch in der Bildung. Sprachgesteuerte Assistenzsysteme wie Alexa, Siri und Cortana oder Computer Vision zum Entsperren von Smartphones sind nur einige Beispiele, die zu einer immer häufigeren Nutzung von KI-Systemen im Alltag führen. In jüngster Zeit finden zudem sogenannte generative KI-Systeme wie ChatGPT oder GeminiAI immer größere Verbreitung.

„Künstliche Intelligenz zieht in alle Lebensbereiche ein und verändert sie“, so Studienleiter Prof. Dr. Henner Gimpel von der Universität Hohenheim. „Dabei dient Künstliche Intelligenz derzeit vorrangig als unterstützendes Werkzeug“, erklärt der Experte. „Jedoch zeichnet sich ab, dass KI in Zukunft vermehrt Tätigkeiten zu einem großen Teil oder sogar ganz übernehmen wird. Diese neuen Möglichkeiten verändern die erforderlichen Kompetenzen von Menschen, die zunehmend mit KI zu tun haben.“

Wie verändert sich die Bedeutung von Basiskompetenzen im Zeitalter von KI? 

Doch welchen Einfluss hat dies auf die Fähigkeiten der Menschen, den zukünftigen Anforderungen gerecht zu werden? Wie sollten Bildungseinrichtungen, Arbeitgeber:innen und die Gesellschaft insgesamt auf die Veränderungen reagieren? Diesen Fragen sind Forschende vom Fachgebiet Digitales Management an der Universität Hohenheim in Zusammenarbeit mit dem Forschungsinstitut für Informationsmanagement (FIM) und dem Fraunhofer-Institut für Angewandte Informationstechnik (FIT) nachgegangen.

Ihr Augenmerk galt den sogenannten Basiskompetenzen, die oft auch als Schlüsselkompetenzen bezeichnet werden. „Gemeint ist damit eine Kombination aus Fertigkeiten, Wissen und Einstellungen, die zur Erfüllung einer bestimmten Aufgabe oder Aktivität erforderlich sind“, erläutert Dr. Julia Lanzl von der Universität Hohenheim. „Diese Kompetenzen decken alle Lebensbereiche ab und können in vielen verschiedenen Zusammenhängen eingesetzt werden. Gleichzeitig bilden sie die Grundlage für die Entwicklung weiterer spezifischer, kontextbezogener Fähigkeiten.“

„Damit sich Bildungseinrichtungen, Arbeitgeber:innen und Individuen auf die Veränderung einstellen können, müssen sie wissen, wie sich die Bedeutung einzelner Basiskompetenzen durch KI verändern wird“, sagt Frederik Schöttl, Doktorand im Fachgebiet Digitales Management. „Ein gutes Prognose-Tool ist eine sogenannten Delphi-Studie, bei der die Befragten immer wieder mit den Einschätzungen der anderen Teilnehmenden konfrontiert werden und diese bewerten.“ So entstand ein Meinungsbild von 34 Expert:innen aus Wissenschaft und Praxis, die sich entweder innerhalb der Forschung oder dem individuellen Beruf intensiv mit Kompetenzen und/oder KI beschäftigt haben.

Methodische Basiskompetenzen gewinnen an Bedeutung

Demnach werden methodische Basiskompetenzen wie kritisches Denken, Entscheidungskompetenz, analytisches Denken und Problemlösungskompetenz durch die zunehmende Nutzung von KI an Wichtigkeit gewinnen. „KI kann viele Aufgaben automatisieren, aber die Fähigkeit, komplexe Probleme zu lösen und kritisch zu hinterfragen, bleibt eine menschliche Domäne“, analysiert Frederik Schöttl die Studienergebnisse. „Die Menschen müssen in der Lage sein die Ergebnisse von KI-Systemen auf ihre Korrektheit und Glaubwürdigkeit zu prüfen. Aufgrund der ‚Black-Box‘-Natur vieler KI-Systeme und der generativen KI-Technologien wird besonders das kritische Denken immer wichtiger.“

Steigende Relevanz von Digitalkompetenzen, aber Fremdsprachen weniger wichtig

Eine zunehmende Bedeutung zeigt sich auch bei der Digitalkompetenz: „In einer von KI geprägten Welt ist es unerlässlich, digitale Technologien zu verstehen und anzuwenden“, sagt Prof. Dr. Gimpel. „Die Fähigkeit digitale Werkzeuge und Technologien effektiv zu nutzen, wird in nahezu allen Lebensbereichen unerlässlich. Dies könnte bedeuten, dass die Digitalkompetenz in Zukunft spezialisierter und die Fähigkeit zur KI-Nutzung zu einer eigenständigen Kompetenz wird.“

Die Expert:innen in der Studie kommen jedoch auch zu dem Schluss, dass Fremdsprachenkenntnisse an Bedeutung verlieren. „KI-Technologien sind zunehmend in der Lage, Übersetzungen und sprachliche Kommunikation zu übernehmen, wodurch der Bedarf an traditionellen Fremdsprachenkenntnissen sinkt“, so Mike Possin, wissenschaftliche Hilfskraft. „Nichtsdestoweniger ist es aktuell immer noch nötig, das Ergebnis einer KI-generierten Übersetzung zu überprüfen.“

Soziale Basiskompetenzen bleiben weitgehend unbeeinflusst

Soziale Basiskompetenzen wie Fähigkeit zur Empathie, Kommunikation und Zusammenarbeit bleiben weitgehend stabil in ihrer Bedeutung. „Menschliche Interaktionen sind nur in geringem Maße durch KI ersetzbar“, erklärt Dr. Lanzl. „KI kann hier zwar in einigen Aspekte unterstützen, aber echte menschliche Verbindungen und das Verständnis emotionaler und sozialer Kontexte sind zumindest bisher schwer zu automatisieren.“

Eine Ausnahme bilde die Ethik- und Kulturkompetenz: „Sie gewinnt an Relevanz, da die Notwendigkeit steigt moralische Normen und Werte im Umgang mit KI zu hinterfragen und zu überwachen.“

Handlungsempfehlungen

„Die zunehmende Verbreitung von KI erhöht die Relevanz von Basiskompetenzen – dessen sind sich die Expert:innen aus Praxis und Wissenschaft einig, die an unserer Delphi-Studie teilgenommen haben“, fasst Prof. Dr. Gimpel zusammen. „Dies unterstreicht die Notwendigkeit, nicht nur spezifische und kontextbezogene Kompetenzen zu fördern, sondern auch die grundlegenden Basiskompetenzen zu vermitteln, insbesondere im Bildungsbereich.“

Aus Sicht der Forschenden sind daher Bildungseinrichtungen, Arbeitgeber:innen und Politik gefordert, ihre Programme und Strategien anzupassen, um den Herausforderungen des KI-Zeitalters gerecht zu werden: Bildungseinrichtungen sollten in ihren Lehrplänen Basiskompetenzen stärker berücksichtigen und systematisch fördern. Soziale Basiskompetenzen sowie Ethik- und Kulturkompetenzen sind für Arbeitgeber:innen bei der Auswahl und Mitarbeiterentwicklung wichtig. Gleichzeitig sollten Schulungsprogramme einen starken Fokus auf Digitalkompetenzen und kritisches Denken legen, um auf die Zusammenarbeit mit KI-Systemen vorzubereiten.

HINTERGRUND: Delphi-Studie

Eine Delphi-Studie ist eine wissenschaftliche Methode zur Erhebung von Expertenmeinungen zu einem bestimmten Thema. Dabei werden mehrere Runden von (Online-)Befragungen durchgeführt, bei denen die Teilnehmenden zuerst auf Basis ihrer individuellen Expertise Ansichten äußern und dann mit dem anonymisierten Feedback der anderen konfrontiert werden. Ziel ist einen Konsens oder eine Konvergenz der Meinungen zu erreichen oder zumindest die Gründe für die Divergenz zu verstehen.

HINTERGRUND: DeLLFi und ABBA

Die Studie wurde durch zwei Projekte an der Universität Hohenheim ermöglicht, die digitale und analoge Lehre ideal verzahnen wollen:

Ziel von DeLLFi ist, eine kompetenzorientierte, digital unterstützte Lehre als festen Bestandteil der Lehre in Hohenheim zu etablieren. Die acht Maßnahmenpakete des Projektes „Digitalisierung entlang Lehren, Lernen und Forschen integrieren“ werden gefördert von der Stiftung Innovation in der Hochschullehre.

Ziel von ABBA ist es, Wirtschaftswissenschaftler:innen die notwendigen Kompetenzen für die Bewertung und Integration von Technologie in betriebliche Prozesse und Entscheidungen zu vermitteln. Das Projekt „AI for Business | Business for AI“ wird durch das Bundesministerium für Bildung und Forschung und mehrere beteiligte Länder gefördert.

Text: Stuhlemmer

Erstmals möglich: Der exakte Blick ins Molekül

(KIT) – Forschende des Karlsruher Instituts für Technologie (KIT) und der Voxalytic GmbH haben eine neue Methode entwickelt, mit der sich erstmals die chirale Struktur eines Moleküls – die exakte räumliche Anordnung der Atome – direkt durch Kernspinspektroskopie aufklären lässt. Dieser wichtige Schritt für die Entwicklung neuer Medikamente war bisher ein zeitaufwändiges Verfahren. Nun könnte die neue Methode ein Standardwerkzeug für die chemische und pharmazeutische Industrie werden. Die Ergebnisse wurden in der Fachzeitschrift Advanced Materials veröffentlicht. (DOI: 10.1002/adma.202408547).
Die Chiralität eines Moleküls bezieht sich auf seine Grundstruktur: Manche Moleküle, sogenannte Enantiomere, treten paarweise und spiegelbildlich zueinander auf. Sie unterscheiden sich voneinander wie ein linker und rechter Handschuh. Je nachdem, ob die „verdrehte“ Struktur eines Moleküls links- oder rechtshändig ist, hat dies Einfluss auf seine biochemischen und chemischen Reaktionen. Trotz spiegelbildlicher Anordnung unterscheiden sich die Eigenschaften oder funktionieren sogar entgegengesetzt.
Bei Medikamenten kann das fatale Folgen haben: Als 1960 in Deutschland und England Kinder mit körperlichen Missbildungen zur Welt kamen, war die Ursache der Wirkstoff „Contergan“ oder „Thalidomid“. Das Medikament war werdenden Müttern gegen Schwangerschaftsbeschwerden verabreicht worden und wurde daraufhin verboten. Pharmaunternehmen müssen seitdem verpflichtend prüfen, ob sich die oft chiral aufgebauten Wirkstoffe im menschlichen Körper nicht in ihr entgegengesetztes Enantiomer umwandeln.
Methode erleichtert Suche nach Wirkstoffen
Nun ist es einem Team unter Leitung von Professor Jan Korvink, Direktor des Instituts für Mikrostrukturtechnik des KIT, gemeinsam mit der Voxalytic GmbH, einer Ausgründung des KIT und der Universität Freiburg, gelungen, die chirale Molekülstruktur direkt durch Kernspinresonanzspektroskopie, auch NMR-Spektroskopie genannt (NMR steht für engl. nuclear magnetic resonance), zu messen.
Obwohl NMR-Spektroskopie als einzige Methode chemische Strukturen bei Raumtemperatur bis zur atomaren Auflösung aufklären kann, war sie bisher „blind“ für die Chiralität von Molekülen. Um die „Verdrehungen“ eines Moleküls zu messen, wird bisher meist ein optisches Verfahren verwendet, das zwar grundsätzlich den Drehsinn erkennen kann, jedoch nicht bei atomarer Auflösung.
„Wir freuen uns sehr über die Möglichkeit, diese Methode zu einem praktischen Werkzeug für die Industrie zu machen und haben das Konzept patentiert“, sagt Jan Korvink. Damit könne die Chiralitätsaufklärung künftig zum Standardrepertoire der NMR-Analyse gehören, erklärt Dr. Sagar Wadhwa von Voxalytic, der zu diesem Thema promoviert hat. „Dies wird besonders Chemikerinnen und Chemikern die Arbeit erleichtern, die an der Herstellung spezifischer Enantiomere forschen.“ Dr. Dominique Buyens, Biochemikerin und Postdoktorandin am KIT, fügt hinzu: „Wir werden die neue Methode für den Einsatz in der Arzneimittelentwicklung untersuchen, dies könnte die Suche nach Wirkstoffen erheblich beschleunigen.“

Mikroprozessoren revolutionieren die Technik – Mit einer Anmerkung von Jean Pütz

Schon 1978 habe ich in der ARD unter dem Titel „Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik“ diese rasante Entwicklung vorweg genommen. Aber ich hätte mir nicht träumen lassen, dass die Halbleitertechnik auf Basis von Silicium und anderen Materialien so eine Revolution auslösen könnte.

Seinerzeit habe ich mich gewundert, dass ich den Deutschen Journalistenpreis dotiert mit 10.000 DM dafür bekommen habe. Aber offenbar schien das doch gerechtfertigt, wenn ich die heutige Entwicklung sehe. Damals war Deutschland in dieser Technologie führend, aber wie fast immer haben wir uns die Butter vom Brot nehmen lassen.

Lesen Sie dazu die folgende Pressemitteilung des KIT“.

Ihr Jean Pütz

(KIT) – Von Smartphones über Computer bis hin zu Autos: Fast alle modernen Technologien basieren auf leistungsstarken Mikrochips. Die Nachfrage übersteigt die Produktion in Deutschland dabei deutlich. Führende Halbleiterhersteller stammen vor allem aus Asien sowie Nordamerika und versorgen weltweit Produzenten mit den Mikrochips. Um die Produktion in Europa voranzutreiben und Deutschland als Innovationsstandort für Chipdesign weiter zu stärken, hat das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg (MWK) nun die Gründung des virtuellen Karlsruher Chipdesign House (KCH) am Karlsruher Institut für Technologie (KIT) bewilligt. Dieses soll bis 2027 auf dem Campus Süd des KIT aufgebaut werden. Geplant ist außerdem ein neuer Master-Studiengang.
„Die Nachfrage nach leistungsstarken und effizienten Chips für die digitale Transformation nimmt weiterhin zu“, erklärt Professor Mehdi B. Tahoori vom Institut für Technische Informatik des KIT. „Der meiste Umsatz wird dabei von Chip-Giganten außerhalb von Europa gemacht. Insbesondere in der Energiekrise, als wir wegen der Stromkosten unsere Produktion herunterfahren mussten, hat sich die große Abhängigkeit von Importen gezeigt, beispielsweise bei in Asien produzierten Siliziumchips.“
„Es ist dringend notwendig, die Produktion sowie deren Entwicklungsmöglichkeiten in Europa zu fördern, um kritische globale Abhängigkeiten zu reduzieren und die digitale Souveränität Deutschlands und Europas zu sichern“, sagt Professor Oliver Kraft, in Vertretung des Präsidenten. „Das KCH bündelt die Spitzenforschung im Bereich des Chipdesigns. Das KIT ist mit seiner Expertise der richtige Standort dafür.“
 
Neuer Studiengang für zukünftige Fachkräfte
Mit dem geplanten KIT Chipdesign House (KCH) möchte das KIT eine führende Rolle in der Koordination im Chipdesign in Baden-Württemberg und darüber hinaus einnehmen. Im Fokus steht eine umfassende Ausbildung für Fachkräfte im Chipdesign. „Im KCH wollen wir gemeinsam mit Partnern einen interdisziplinären Master-Studiengang im Chipdesign entwickeln“, sagt Professor Jürgen Becker vom Institut für Technik der Informationsverarbeitung des KIT. „Dieser soll neben praxisorientierten Vorlesungen auch Workshops und Veranstaltungen mit Expertinnen und Experten aus der Industrie anbieten, die zukünftige Fach- und Führungskräfte umfassend ausbilden.“
 
Stärkung von Chipdesign-Ökosystem in Deutschland

Zur Stärkung des Halbleiterökosystems in der EU wurde die Verordnung über den Europäischen Chip Act 2023 als Maßnahmenpaket beschlossen. „Der European Chips Act zielt darauf ab, die Halbleiterproduktion und die Entwicklungsmöglichkeiten in Europa zu fördern“, erläutert Becker. „Innerhalb dieses ChipActs wollen wir Kompetenzen und Netzwerke gezielt bündeln und erweitern. Die enge Verzahnung mit der Industrie bildet dabei einen wichtigen Baustein, unter anderem durch den gezielten Ausbau der interdisziplinären Aus- und Weiterbildung in Chipdesign am KIT.“

Elektronischer Turmbau zu Babel?

(Pioneer) – Wenn wir die Gegenwart von allen Geräuschen und Blendeffekten befreien, dann hören und sehen wir klarer. Manchmal bekommen wir die Gegenwart sogar in zwei Worten zu packen, die sich ihrerseits in ein Kürzel pressen und in einer Aktie verdichten lassen.

Diese Aktie ist derzeit Nvidia. Der Chiphersteller steht für das neue Zeitalter der Künstlichen Intelligenz, das in der Geheimsprache von Wirtschaftsführern und Börsianern nur als KI bezeichnet wird.

Das Unternehmen schlägt mit seinen KI-Chips Quartal für Quartal die Erwartungen der Analysten. Die Aktie kletterte bisher auf sagenhafte Höhen. Die Börse bewertet Nvidia inzwischen mit zwei Billionen Dollar. Das entspricht dem Bruttoinlandsprodukt Italiens. Aufklärung tut also not:

Die Firma

Das Tech-Unternehmen Nvidia wurde 1993 von dem taiwanesisch-amerikanischen Elektroingenieur Jensen Huang (61) zusammen mit Chris Malachowsky (64) und Curtis Priem (64) gegründet. Die drei wollten die Rechenleistung von Computern verbessern, besonders bei Videospielen und der Grafikbearbeitung sahen sie großes Wachstumspotenzial. Mit einem Startkapital von 40.000 Dollar wurde Nvidia gegründet.

Heute ist Nvidia Marktführer im Bereich Grafikkarten und Chipsätze und die Börsenbewertung liegt bei gut zwei Billionen Dollar. Hinter Microsoft, Apple und Saudi Aramco steht Nvidia damit auf Platz vier der wertvollsten Unternehmen der Welt. Im Fiskaljahr 2024, das am 31.01.2024 zu Ende ging, erzielte die Firma einen Nettogewinn von 29,7 Milliarden US-Dollar – ein sagenhaftes Plus von 580 Prozent im Vergleich zum Vorjahr.

CEO und Gründer Jensen Huang ist dadurch Milliardär geworden. Er hält rund drei Prozent der Aktien seines Unternehmens, Huangs Vermögen wird von Forbes inzwischen auf über 70 Milliarden Dollar geschätzt.

Der Markt

Ein KI-Modell, auch neuronales Netz genannt, ist im Wesentlichen eine „mathematische Lasagne“, wie Nvidia es nennt, die aus mehreren Schichten linearer Algebra-Gleichungen besteht. Die tausenden winzigen Recheneinheiten einer Grafikkarte arbeiten parallel, um diese „Lasagne“ eines KI-Modells zu zerlegen, sodass eine Künstliche Intelligenz innerhalb weniger Sekunden brauchbare Antworten liefern kann.

Diese Hardware liefert Nvidia mit seinen Chips, die in den Rechenzentren von Kunden wie Meta oder Microsoft verbaut werden. ChatGPT wurde mit Hilfe von tausenden Nvidia-Grafikkarten entwickelt und läuft heute auf Datenzentren, die mit Nvidia-Hardware ausgestattet sind. Im Segment der KI-Chips kommt Nvidia derzeit auf einen Marktanteil von über 90 Prozent.

Nvidias wichtigstes Produkt ist derzeit der Grafikchip H100. Er ist einer der leistungsfähigsten Chips und das derzeit begehrteste elektronische Bauteil der Welt. Das Angebot kann die Nachfrage auf dem Weltmarkt derzeit nicht befriedigen. Das bedeutet: Nvidia besitzt eine Preisfestsetzungsmacht.

Die Hoffnung

Nvidia-CEO Jensen Huang sieht die Menschheit durch KI am Beginn einer neuen Industriellen Revolution. Seine Vision ist der Aufbau einer weltweiten KI-Infrastruktur, um Quantensprünge in der heutigen Rechenleistung zu erzielen.

Die Hoffnung besteht darin, dass Nvidia einen Megatrend der Globalökonomie bedient. Das glaubt auch eine Reihe namhafter Analysten, die trotz der Rally der Nvidia-Aktie (über 1.000 Prozent seit 2020) und einer hohen Bewertung weiterhin zum Kauf der Aktie raten. Das durchschnittliche Kursziel liegt bei 873 US-Dollar (aktueller Kurs 798 US-Dollar).

Der Hype

Die Begründung für weitere Kurssteigerungen fußt in allen Analysen auf dem hohen Umsatzwachstum – und dessen erhoffter Fortsetzung. Laut Vivek Arya von der Bank of America sei die Bewertung darum weiterhin „überzeugend“. KI stecke noch in den Kinderschuhen. Durch die marktbeherrschende Stellung und Partnerschaften (wie beispielsweise mit Dell, SAP und ServiceNow) könnten die Anleger hier noch weitere Allzeithochs erwarten.

Der aktuell größte Optimist der Analystenriege ist Ananda Baruah von Loop Capital. Er erwartet für die Nvidia-Aktie Kurse um 1.200 US-Dollar. Das wäre ein nochmaliges Kursplus von 50 Prozent. Baruah geht davon aus, dass Nvidia weiterhin die Analystenschätzungen Quartal für Quartal schlagen wird.

Denn die Konkurrenz schläft nicht. Advanced Micro Devices (AMD) aus Santa Clara in Kalifornien produziert inzwischen einen leistungsstärkeren KI-Chip – und ist dabei günstiger als Nvidia. AMDs neue, im Dezember gelaunchte KI-Chips MI300X arbeiten nach eigener Aussage 1,6-mal so schnell wie Nvidias Produkte. Der durchschnittliche Verkaufspreis des AMD-Chips liegt zwischen 10.000 und 15.000 US-Dollar, so der Citi-Analyst Christopher Danely. Das ist deutlich günstiger als Nvidia (25.000 bis 40.000 US-Dollar).

Fazit: An der Börse gibt es keine absoluten Wahrheiten, sondern nur Wahrheiten auf Zeit.

 

Armes digitales Deutschland – eine Intervention eines klugen Professors für Mathematik

Prof. Ulrich Trottenberg schrieb an eine NRW-Behörde:

Dass Deutschland digital so weit zurückliegt, ist nicht nur, und auch nicht in erster Linie, ein Netz- und Infrastrukturproblem. Derartige Probleme kann man im Prinzip mit Geld und einer entsprechenden politischen Initiative lösen, zumindest systematisch in Angriff nehmen.

Das digitale Problem liegt tiefer. Es liegt in der digitalen Lethargie und der algorithmischen Hilflosigkeit der deutschen Öffentlichkeit. Alles Digitale ist algorithmisch geprägt und wird durch Algorithmen gesteuert: Rechner, Netze, Datenstrukturen und -flüsse usw. Tatsächlich begleiten Algorithmen unser gesamtes Leben, in geradezu jeder Minute, und prägen immer stärker auch unsere Arbeitswelt. Trotzdem sind Algorithmen in den Köpfen der meisten Menschen, auch vieler Gebildeter und Intellektueller, etwas merkwürdig Fremdes und Abstraktes. Man hört und liest das Wort „Algorithmen“ täglich, aber man weiß nicht, jedenfalls nicht genau, was das ist. Schon das Wort ist unverständlich.

In scheinbar merkwürdigem Gegensatz dazu, de facto aber dazu passend, gelten Algorithmen als bedrohlich, gefährlich, unheilbringend.

Ein aktuelles Beispiel für eine massive Verunsicherung ist die ChatGPT Entwicklung. Die Medien überschlagen sich in Kommentaren, von begeisterter Faszination bis zu rigoroser Ablehnung. Und das alles wird bizarr, wenn den generativen Algorithmen menschliche Eigenschaften zugeordnet werden: Die Chatroboter „denken“, die Maschinen haben eine „Seele“, sie reagieren „sensibel“ und haben „Emotionen“. Perspektivisch werden auf der einen Seite großartige Utopien beschworen und und auf der anderen Seite Dystopien der Bedrohung der Menschheit durch intellektuell überlegene Maschinen.

Kaum jemand bemüht sich, sachlich zu erklären, was da in den Algorithmen abläuft, wie und warum so verblüffende Ergebnisse erzielt werden.

Die digitale Lethargie der deutschen Gesellschaft beruht vor allem auf einer Fehlentwicklung der digitalen Bildung! Insbesondere Algorithmen haben bis heute keine Relevanz als zentrales Bildungsgut.

Solange das so bleibt, nutzt auch die bessere Vernetzung nicht viel. Das mangelnde digitale Verständnis der Öffentlichkeit ist das Problem der deutschen Gesellschaft, jedenfalls nicht nur die mangelhafte Infrastruktur.

Mit den besten Grüßen

Ulrich Trottenberg

Ich reagiere mit dieser Mail auf die Ankündigung der Vorstellung Ihres Buches bei der FES, nicht auf Ihr Buch. Ich habe Ihr Buch noch nicht gelesen, werde das aber sicher tun und bin sehr gespannt.

Vom Taschenrechner zum Chat GPT – Mit einer Antwort von Jean Pütz

Von Professor Dr. Ulrich Trottenberg, Mathematiker und Freund

Ein handelsüblicher Taschenrechner rechnet unvergleichlich viel schneller als jeder Mensch. Mit einem Smartphone – das heute so schnell rechnet wie ein Superrechner vor 30 Jahren – kann man anspruchsvolle mathematische Aufgaben lösen. Und ein Höchstleistungsrechner ist heute in der Lage Billiarden (eine Billiarde = eine 1 mit 15 Nullen!) Rechenoperationen in einer Sekunde durchzuführen und auf diese Weise sehr sinnvolle Rechenergebnisse zu erzielen, zum Beispiel das Wetter der nächsten Tage vorherzusagen. Trotz dieser geradezu unvorstellbaren Rechenleistung und der äußerst nützlichen Ergebnisse kommt niemand auf die Idee, den Rechnern ein „Bewusstsein“ zuzusprechen, dem Taschenrechner nicht, aber auch dem Höchstleistungsrechner nicht. Kaum jemand fühlt sich durch die Rechner bedroht, auch nicht durch die extreme Überlegenheit der Höchstleistungsrechner.

Das ist offenbar anders in dem Moment, wo der Computer nicht „sinnvolle“ Zahlen, sondern „sinnvolle“ Texte produziert. Die durch KI und Algorithmen des Maschinelles Lernens erzeugten Texte des ChatGPT4 Sprachmodells oder anderer generativer Algorithmen führen bei vielen Benutzern zur Überzeugung, dass der Computer mit der GPT-Software den „Sinn“ der erzeugten Texte „versteht“: Das GPT-System gibt in vielen Fällen auf Fragen intelligente, verständnisvolle Antworten, und es kann sich ein anspruchsvoller, überraschend anregender Dialog entwickeln.

Seit Monaten überschlagen sich die Medien in Berichten über die oft fantastischen Ergebnisse, die man mit dem Sprachmodell ChatGPT erzielen kann. Plötzlich kann jeder interessierte Mensch, ohne programmieren zu können oder andere einschlägige Erfahrungen zu haben, mit dieser Software spielen und arbeiten. Es sind insbesondere die Feuilleton-Teile der Medien, auch der großen renommierten Zeitungen und Zeitschriften, die sich des Themas annehmen. Dabei reichen die Reaktionen und Bewertungen von begeisterter Faszination über verstörte Verunsicherung bis zu massiver Ablehnung.

In Überschriften solcher Artikel ist  von der „Seele der Maschinen“, vom „Maschinengott“ und vom drohenden „Untergang der Menschheit“ die Rede, renommierte Experten und Wissenschaftsjournalisten sprechen den Systemen ein „Bewusstsein“ zu und reden von „denkenden“ Maschinen.  In solchen Formulierungen wird deutlich, wie intensiv die Erschütterung durch die generativen Algorithmen erlebt wird. Aus mathematischer Sicht fällt dagegen auf, dass die heute eingesetzten generativen Algorithmen und die zugehörigen Modelle mathematisch vergleichsweise simpel sind, jedenfalls bei weitem simpler als die meisten Algorithmen, die täglich für die Simulation und Optimierung  natürlicher und technischer Vorgänge verwendet werden. Der Unterschied zu den Algorithmen des Taschenrechners ist, dass ChatGPT mit Hunderten Milliarden Daten und Parametern arbeitet, wo eine Obstkasse im Supermarkt mit einem lernenden Algorithmus vielleicht 100 Daten und Parameter einsetzt, um selbstständig  z.B. Birnen und Bananen zu unterscheiden: Die „Intelligenz“ des Algorithmus, der Kern der zugrundeliegenden mathematischen Methodik, ist bei ChatGPT und bei der KI-basierten Obstkasse im wesentlichen die gleiche, nur die Daten- und Parameter-Quantitäten unterscheiden sich um viele Größenordnungen.

Die Aufregung  um ChatGPT ist verständlich, wenn man sich vor Augen hält, dass generative Algorithmen zu fragwürdigen, unsinnigen, gefährlichen und schädlichen Resultaten führen können. Die Ergebnisse hängen wesentlich vom Input (vom „prompt“)  ab, also von der Formulierung der Aufgabenstellung, und natürlich von den Daten und Texten, auf die das System – aufgrund des vorgegebenen Inputs – zurückgreift. ChatGPT kann den Nutzer durchaus in die Irre führen und gezielt missbraucht werden, z. B. durch vollkommene Sinnestäuschung, durch manipulierte und konstruierte, von der Realität ununterscheidbare Bilder und Filme. Was ein Plagiat und was ein Original ist, können wir ohne Kennzeichnung nicht mehr unterscheiden. Und die Kennzeichnung kann natürlich auch manipuliert werden. Wer ist der Autor eines Textes, wenn jeder uninspirierte, schwer verständliche Text durch eine generativ-algorithmische Überarbeitung in ein literarisches Kunstwerk verwandelt werden kann? Wie verändern diese KI-Entwicklungen die Arbeitswelt? An welchen Stellen nehmen KI-basierte Systeme den Menschen (gezielt oder unbemerkt) Entscheidungen ab, die den Menschen vorbehalten bleiben  müssen oder sollten?
Dieser kritisch-pessimistischen Bewertung lernender Algorithmen stehen auf der anderen Seite die ungeheuren Erfolge der KI gegenüber, die in einem kurzen Artikel nicht annähernd angemessen gewürdigt werden können. Wir erwähnen im medizinisch-pharmazeutischen Sektor nur die lebensrettende Früherkennung von Krebs, die individualisierte Medizin, die Optimierung der Entwicklung von neuen Arzneien usw. Bei diesen Chancen und den angedeuteten Risiken erkennen wir wieder die Wertfreiheit der Mathematik, sie ist die Grundlage für die größten Errungenschaften und kann für  inhumane und zerstörerische Zwecke missbraucht werden. Dass die Weiterentwicklung der KI-Systeme sorgfältig beobachtet, kontrolliert und verantwortungsvoll gesteuert werden sollte, und dass in vielen Anwendungsbereichen auch gesetzliche Regulierungen nötig sind, darüber muss  unbedingt (möglichst international und systemübergreifend) ein Konsens hergestellt werden.
Klug genutzt, können die heutigen und die weiter entwickelten Systeme zu großartigen Erleichterungen für die Menschheit führen. Sie sind dabei, die Welt fundamental zu verändern.

 

Lieber Ulrich,

großes Kompliment für diesen Artikel. Ich hoffe, dass Dir bei der Formulierung Chat GPT nicht geholfen hat.

Das ist die große Gefahr, die Du ja auch angesprochen hast: Wo bleibt das Original – wo bleibt die Bearbeitung. Insofern bin ich als Laien-Philosoph sehr skeptisch, ob diese Möglichkeiten nicht die Skepsis vieler Menschen gegenüber der Technologie und den Menschen, die damit umgehen könnten, weiter verstärkt. Das Prinzip der mangelnden Glaubwürdigkeit könnte die Konsens in unserer Gesellschaft aushebeln. Auch dieses Gefühl der Bürger lässt sich populistisch missbrauchen. Die Wissenschaft und Technologie verliert so wie so in der Schwarmintelligenz immer mehr Realitätsbezug. Gestern habe ich in der ARD den Presseclub verfolgt. Da sprach auch ein Journalist das mangelnde, vernunftbetonte Verständnis der Bürger an. Er nannte sie sogar ‚Idioten‘, bezog das aber auf den griechischen Ursprung des Wortes, es wird dort nämlich übersetzt mit ‚eigentümlichen Menschen‘. Ich würde heute sagen, das Eigentümliche hat sich ausgebreitet und mündet in der fehlenden Bereitschaft Wissen zu erwerben und der immer stärker werdenden Bereitschaft, dem Wunschdenken der Politiker eher zu glauben als der Wissenschaft, die korrumpiert wird durch Subventionen für alles und nichts. Es wird nicht mehr lange dauern, dann wird die Politik von Verschwörungsmythen und Emotionen gesteuert.

Hinzu kommt, dass immer weniger Menschen die Fortschritte der Technologie verstehen und gleichzeitig nur noch wenige Spezialisten den Durchblick haben.

Nicht umsonst versuche ich ja, den willigen Bürger mit meinen Kommentaren zum Thema ‚Der Vernunft eine Chance‘ bei Facebook zu erreichen. Immerhin folgen mir 95.000 Abonnenten und beteiligen sich mit mindestens 100 schriftlichen Kommentaren zum Thema – bis hin zu 970 bei meiner Intervention zum Verbot des Verbrennungsmotors. Leider ist das kein Sempel, welches auf die Allgemeinheit schließen lässt, denn das sind nur die wenigen, die gelegentlich noch ihr eigenes Gehirn einschalten. Quo vadis Deutschland? Demokratie nur auf Gefühlen auszubauen geht schief und die Wissenschaft wird nur noch als notwendiges Übel angesehen und verliert ihre Glaubwürdigkeit.

Danke für Dein Engagement – wir sind alle stolz auf Dich.

Dein Jean

Angst vor massivem Stellenabbau: Nach Verbrenner-Aus herrscht bei Bosch-Mitarbeitern „Alarmstufe Rot“

(Focus) – Der Betriebsrat von Bosch und die IG Metall reagieren auf das von der EU beschlossene Verbrenner-Aus ab 2035 und kündigen eine Betriebsversammlung an zehn Standorten in Deutschland an. Es herrsche Angst vor einem massiven Stellenabbau, teilte der Bamberger Betriebsratsvorsitzende Mario Gutmann gegenüber dem „ Bayerischen Rundfunk “ mit.

„Alarmstufe Rot“ für 900.000 Beschäftigte in Deutschland

Auch die mögliche Verlagerung der Produktionsstätten ins Ausland bereite vielen Mitarbeitern Sorge. Als Grund nennt Gutmann, dass hierzulande Teile für Verbrennermotoren gefertigt werden, die spätestens nach dem EU-Verbot ab 2035 unbrauchbar seien.

An der Betriebsversammlung werden auch das Bamberger Werk mit seinen knapp 6300 Mitarbeitern sowie der Standort in Nürnberg teilnehmen. Zwei Drittel der rund 6300 Beschäftigten in Bamberg konzentrieren sich derzeit allein auf die Fertigung von Teilen für Verbrennermotoren.

Martin Feder von der IG Metall spricht von „Alarmstufe Rot“ und warnt: „Die Zukunft der industriellen Fertigung ist in Gefahr.“ Das sei nicht nur bei Bosch zu spüren, sondern gelte für viele Unternehmen. 900.000 Beschäftigte sind aktuell in Deutschland „direkt und indirekt“ an der Verbrennermotoren-Produktion beteiligt.

„Die Politik verschläft gerade den Innovationsschub“

Feder nennt das Vorgehen des Autoherstellers Ford als warnendes Beispiel. In Köln und Aachen sollen knapp 2300 Arbeitsplätze abgebaut werden. Währenddessen baut Ford jedoch bereits an einer neuen Fabrik in den USA, die mehrere Milliarden Dollar kosten soll. Dort will Ford bald Batterien für E-Autos fertigen.

Durch Subventionen und Steuererleichterungen seien die USA und China besonders starke Produktionsförderer im eigenen Land. Der Bamberger Betriebsratschef Gutmann spricht über die daraus resultierende Deindustrialisierung in Deutschland und meint: „Die Politik verschläft gerade den Innovationsschub in die Zukunft.“

Bosch: „Wir sehen auch die Politik in der Verantwortung“

Die Robert Bosch GmbH ließ auf Anfrage des „BR“ mitteilen: „Grundsätzlich gehen wir dahin, wo unsere Kunden sind, und folgen damit unserem ‚Local for local‘-Prinzip. Das heißt, wir fertigen vornehmlich in der Region für die Region.“ Martin Schultz, kaufmännischer Bosch-Werkleiter in Bamberg, appelliert derweil an die Unterstützung aus der Politik: „Wir sehen allerdings auch die Politik in der Mitverantwortung, bei ihren Entscheidungen zur Zukunft der Mobilität die Ausgewogenheit zwischen ökologischen, ökonomischen und sozialen Fragen im Auge zu behalten.“

Nach den bisherigen Plänen sollen ab 2035 in der EU keine neuen Pkw mit Verbrenner mehr zugelassen werden. Die EU-Länder hatten sich bereits im Oktober auf einen Kompromiss verständigt. Zuletzt hatte das EU-Parlament die neuen CO2-Vorgaben gebilligt, wonach in der EU ab dem Jahr 2035 nur noch Neuwagen verkauft werden dürfen, die im Betrieb keine Treibhausgase ausstoßen. Die EU-Staaten müssen noch zustimmen. Die Vereinbarung soll 2026 erneut überprüft werden können.

WPK hat einen Unterstützungsfonds eingerichtet. Folgende Empfänger haben sich qualifiziert

(wpk) – Die ersten acht Projekte, die vom WPK-Innovationsfonds gefördert werden, stehen fest. Die unabhängige Jury hat am 1. September in Köln die Projekte mit dem höchsten Innovationsgrad ausgewählt.

Der WPK-Innovationfonds unterstützt Pionier:innen, die im Wissenschafts- und Datenjournalismus neue Wege beschreiten wollen. Martin Schneider, Vorsitzender der Wissenschaftspressekonferenz (WPK): „Wir freuen uns sehr über das hohe Interesse am Innovationsfonds: Mit 32 Bewerbungen in der ersten Ausschreibung hatten wir nicht gerechnet. Es war ein intensiver Entscheidungsprozess der Jury – und sie hat Projekte mit einer bemerkenswerten thematischen Bandbreite ausgesucht.“

Das Themenspektrum reicht von polyperspektivischen Reportagen für Audio & Smart Speaker über interaktive Live-Faktenchecks auf Twitch, einem Navigator für Medizin-Podcasts und einem neuen Klima-Themenservice für Redaktionen bis hin zur Idee, mit einem Greenwashing-Filter nachhaltige Konsumentscheidungen zu ermöglichen.

Dazu gesellen sich neue datenjournalistische Projekte, die den Impact von Satellitendaten und großen Datenbanken der Wissenschaft im Journalismus erhöhen wollen. Ein weiteres Projekt will die Berichterstattung über Wissenschaft in Regionalzeitungen mit einem neuen Tool zur Qualitätssicherung stärken.

Für diese Projekte hat die Jury insgesamt 320.000 Euro bewilligt; hinzu kommen Mittel für Beratungsleistungen, die die Bewerber:innen zusätzlich beantragen konnten. Die Teams und ihre Projekte im Einzelnen:

Förderlinie A (bis zu 10.000 Euro):

− Felix Pohl & Sarah Glatzel wollen mit „Fakt-O-Meter“ ein Format für Live-Faktenchecks auf der Plattform Twitch TV entwickeln.

− Leonie Sontheimer & Katharina Mau wollen mit dem „Newsletter Klimajournalismus“ einen neuen Themenservice für Redaktionen aufbauen.

− Das Team um Lukas Kohlenbach will mit „Medify“ einen Navigator für medizinische Podcasts und Audioinhalte erstellen.

 

Förderlinie B (bis zu 75.000 Euro):

− Der „Public Issues Data Guide“ vom Science Media Center stellt Redaktionen eine kuratierte Sammlung von Datensätzen zu gesellschaftlich relevanten Themen zur Verfügung.

− Mit „Katzen gegen Vögel“ entwickeln die RiffReporter die erste poly-perspektivische Wissenschaftsreportage für Audio & Smart Speaker, in der die Leser:innnen verschiedene Perspektiven einnehmen können.

− Marcus Pfeil & Michael Anthony wollen mit „Vertical52“ eine Plattform zur Suche und Visualisierung von Radar- und Satellitendaten aufbauen.

− Das Team von Flip will mit einem „Greenwashing-Filter“, der journalistische Recherche mit wissenschaftlichen Erkenntnissen verbindet, Verbraucher:innen nachhaltige Entscheidungen ermöglichen.

− TU Dortmund, Fraunhofer-IAIS, Medienhaus Lensing und Nürnberger Zeitung wollen im Projekt „Medien-Doktor Assistance“ die Wissenschaftsberichterstattung in Regionalzeitungen mit einem neuen Tool zur Qualitätssicherung stärken.

Ermöglicht wird die Förderung durch die sechs Stiftungen, die den Innovationsfonds tragen: die Joachim Herz Stiftung, die VolkswagenStiftung, der Stifterverband für die Deutsche Wissenschaft, die Schöpflin Stiftung, die Rudolf Augstein Stiftung und die ZEIT-Stiftung Ebelin und Gerd Bucerius.

Aufgrund der Vielzahl der Bewerbungen hat die Joachim Herz Stiftung zusätzlich 100.000 Euro bereitgestellt. „Guter Wissenschaftsjournalismus ist wesentlich, um komplexe Sachverhalte aus Wissenschaft und Forschung zu verstehen und sich eine eigene, auch kritische Meinung bilden zu können. Die klassischen Verlagshäuser haben ihre Wissenschaftsressorts allerdings massiv verkleinert – dabei brauchen wir dringend innovative neue Formate. Deswegen haben wir uns entschieden, unsere Fördersumme für den Fonds in diesem Jahr noch einmal aufzustocken, um mehr von den guten Projektvorschlägen zu ermöglichen“, so Dr. Nina Lemmens, Programmvorständin der Joachim Herz Stiftung.

Ausdrücklich danken die WPK und die Stiftungen den Juror:innnen Mustafa Benali (Quarks Digital/WDR), Georg Dahm (Fail Better Media), Christina Elmer (Professorin für Digital- & Datenjournalismus/TU Dortmund), Peter-Matthias Gaede (Freier Autor/ehem. Chefredakteur GEO), Henriette Löwisch (Leiterin Deutsche Journalistenschule), Maren Urner (Professorin für Medienpsychologie/Perspective Daily) und Steffen Walz (Explorer & Professor of Design Innovation) für ihr Engagement und die intensive Begutachtung und Diskussion sämtlicher Bewerbungen.

Die nächste Ausschreibung startet am 30. Oktober 2022 und läuft bis zum 13. Januar 2023.

Ausführliche Infos zu den acht ausgewählten Projekten und zur nächsten Ausschreibung finden Interessierte auf der Webseite des WPK-Innovationsfonds: https://innovationsfonds.wpk.org/.

Hintergrund:

Die Wissenschaftspressekonferenz (WPK), Deutschlands Verband der Wissenschafts[1]journalist:innen, hat im Mai 2022 den WPK-Innovationsfonds Wissenschaftsjournalismus gestartet (https://innovationsfonds.wpk.org/). Der Fonds unterstützt Pionier:innen, die im Wissenschafts- und Datenjournalismus neue Wege beschreiten wollen, finanziell und beratend. Mit der Förderung durch sechs angesehene Stiftungen können jährlich 300.000 Euro an Antragstellende vergeben werden. Die erste Ausschreibungsfrist endete am 15. Juli 2022.

Der Fonds ist eine Initiative der WPK, der Joachim Herz Stiftung, der VolkswagenStiftung, des Stifterverbands für die Deutsche Wissenschaft, der Schöpflin Stiftung, der Rudolf Augstein Stiftung und der ZEIT-Stiftung Ebelin und Gerd Bucerius. Die Joachim Herz Stiftung finanziert zudem die Fonds-Geschäftsstelle in den Räumen der WPK in Köln.

Die zwei unterschiedlichen Förderlinien A und B unterstützen die Entwicklung kleinerer Ideen ebenso wie die Umsetzung größerer Vorhaben. In der Förderlinie A kann man bis zu 10.000 Euro, in der Förderlinie B bis zu 75.000 Euro beantragen. Für die Beratung durch ein externes Netzwerk an Fachleuten in steuerrechtlichen, technischen oder juristischen Fragen können in beiden Förderlinien zusätzlich 10 Prozent der beantragten Summe bewilligt werden.

Eine unabhängige, siebenköpfige Jury begutachtet die Anträge. Der Innovationsfonds hat eine Laufzeit von drei Jahren und wird jährlich zwei Mal ausgeschrieben. Die Arbeit des Fonds wird zudem mit einer transformativen Forschung durch die Bauhaus-Universität Weimar umfassend begleitet. Das Bundesministerium für Bildung und Forschung (BMBF) fördert dieses Forschungsprojekt.

Datensicherheit: Mehr Privatsphäre auf dem Smartphone

(KIT) – Privatsphäre auf dem Smartphone ist möglich – das beweisen die „Privacy Friendly Apps“ für Android: Die Forschungsgruppe SECUSO am Karlsruher Institut für Technologie (KIT) hat gemeinsam mit Studierenden mehr als 30 verschiedene Apps für Android entwickelt, die nur die für die Funktionalität erforderlichen Berechtigungen anfordern und keine Tracking-Mechanismen enthalten. Für diese „Privacy Friendly Apps“ hat SECUSO nun den 2022 erstmals verliehenen „Digital Autonomy Award“ vom Kompetenzzentrum Digital Autonomy Hub erhalten, das vom Bundesministerium für Bildung und Forschung gefördert wird.

Wir alle füttern unsere Smartphones täglich mit vielen Daten: Wir führen Gespräche in Wort, Text und Bild, speichern Notizen, Fotos und Videos, planen Termine und verwalten Kontakte. Der Zugriff auf diese teilweise sensiblen Daten ist über sogenannte Berechtigungen geregelt. Beispielsweise benötigt jede App, die auf die Kamera zugreift, die entsprechende Berechtigung. Viele Apps verlangen jedoch bereits bei der Installation oder in anderen Kontexten Berechtigungen, die ihnen den Zugriff auf private Smartphone-Daten ermöglichen, obwohl dies für die Funktionalität der Apps nicht erforderlich ist. So gibt es Wetter-Apps oder QR-Code-Scanner, die Zugriff auf das Adressbuch oder auf private Fotos fordern. Zudem enthalten viele Apps sogenannte Tracker, die laufend Daten erfassen, das Verhalten der Nutzerinnen und Nutzer analysieren und Profile von Personen anlegen, ohne dass diese es mitbekommen. Die gesammelten Daten lassen sich für gezielte Werbung nutzen, können aber auch von Hackerinnen und Hackern gestohlen werden.

Studierende sind maßgeblich an der Entwicklung der Apps beteiligt

Mehr Privatsphäre ermöglichen die von der Forschungsgruppe SECUSO (Security – Usability – Society) des KIT entwickelten „Privacy Friendly Apps“, kurz PFAs. Die Forschungsgruppe unter Leitung von Professorin Melanie Volkamer gehört zum Institut für Angewandte Informatik und Formale Beschreibungsverfahren des KIT. An der Entwicklung der für Android-Smartphones geeigneten PFAs waren und sind Studierende maßgeblich beteiligt „Dies ermöglicht den Studierenden im Rahmen von Programmierpraktika oder Abschlussarbeiten einen guten Einstieg in die Security- und Privacy- Aspekte bei der Android-App-Entwicklung“, sagt Volkamer. „Eine Herausforderung liegt darin, die Entwicklung der Apps mit der universitären Lehre zu verbinden. Auch Studierende ohne einschlägige Vorerfahrung sollen sich daran beteiligen können.“

Die PFAs zeichnen sich dadurch aus, dass sie nur die für ihre Funktionalität erforderlichen Berechtigungen anfordern, keine Tracking-Mechanismen enthalten und damit keine Nutzungsdaten sammeln. „Die erhobenen Daten werden lediglich lokal auf dem Smartphone gespeichert“, erklärt Christopher Beckmann, wissenschaftlicher Mitarbeiter in der Forschungsgruppe SECUSO und verantwortlich für das Privacy Friendly Apps Lab. „Nur dann werden klar definierte Daten an Drittanbieter übertragen, wenn dies für die Funktionalität unbedingt erforderlich ist.“ Der Quellcode jeder PFA ist auf der Plattform GitHub öffentlich einsehbar.

Apps reichen vom Schrittzähler bis zum Passwortgenerator

Derzeit gibt es mehr als 30 PFAs in den Bereichen Tools, Fitness und Gesundheit, Spiele sowie Sicherheit, unter anderem mit Taschenlampe und To-do-Liste, Schrittzähler und Aktivpause, Sudoku und Kopfrechentrainer, Passwortgenerator und WiFi-Manager. Für die „Privacy Friendly Apps“ erhält SECUSO den 2022 erstmals verliehenen „Digital Autonomy Award“. Die Auszeichnung vergibt das Kompetenzzentrum Digital Autonomy Hub – Technik souverän nutzen, das ein interdisziplinäres Netzwerk von 43 Instituten und Organisationen koordiniert, vom Bundesministerium für Bildung und Forschung im Forschungsprogramm „Miteinander durch Innovation“ gefördert und von der Gesellschaft für Informatik e.V. und AlgorithmWatch umgesetzt wird.