Vom Taschenrechner zum Chat GPT – Mit einer Antwort von Jean Pütz

Von Professor Dr. Ulrich Trottenberg, Mathematiker und Freund

Ein handelsüblicher Taschenrechner rechnet unvergleichlich viel schneller als jeder Mensch. Mit einem Smartphone – das heute so schnell rechnet wie ein Superrechner vor 30 Jahren – kann man anspruchsvolle mathematische Aufgaben lösen. Und ein Höchstleistungsrechner ist heute in der Lage Billiarden (eine Billiarde = eine 1 mit 15 Nullen!) Rechenoperationen in einer Sekunde durchzuführen und auf diese Weise sehr sinnvolle Rechenergebnisse zu erzielen, zum Beispiel das Wetter der nächsten Tage vorherzusagen. Trotz dieser geradezu unvorstellbaren Rechenleistung und der äußerst nützlichen Ergebnisse kommt niemand auf die Idee, den Rechnern ein „Bewusstsein“ zuzusprechen, dem Taschenrechner nicht, aber auch dem Höchstleistungsrechner nicht. Kaum jemand fühlt sich durch die Rechner bedroht, auch nicht durch die extreme Überlegenheit der Höchstleistungsrechner.

Das ist offenbar anders in dem Moment, wo der Computer nicht „sinnvolle“ Zahlen, sondern „sinnvolle“ Texte produziert. Die durch KI und Algorithmen des Maschinelles Lernens erzeugten Texte des ChatGPT4 Sprachmodells oder anderer generativer Algorithmen führen bei vielen Benutzern zur Überzeugung, dass der Computer mit der GPT-Software den „Sinn“ der erzeugten Texte „versteht“: Das GPT-System gibt in vielen Fällen auf Fragen intelligente, verständnisvolle Antworten, und es kann sich ein anspruchsvoller, überraschend anregender Dialog entwickeln.

Seit Monaten überschlagen sich die Medien in Berichten über die oft fantastischen Ergebnisse, die man mit dem Sprachmodell ChatGPT erzielen kann. Plötzlich kann jeder interessierte Mensch, ohne programmieren zu können oder andere einschlägige Erfahrungen zu haben, mit dieser Software spielen und arbeiten. Es sind insbesondere die Feuilleton-Teile der Medien, auch der großen renommierten Zeitungen und Zeitschriften, die sich des Themas annehmen. Dabei reichen die Reaktionen und Bewertungen von begeisterter Faszination über verstörte Verunsicherung bis zu massiver Ablehnung.

In Überschriften solcher Artikel ist  von der „Seele der Maschinen“, vom „Maschinengott“ und vom drohenden „Untergang der Menschheit“ die Rede, renommierte Experten und Wissenschaftsjournalisten sprechen den Systemen ein „Bewusstsein“ zu und reden von „denkenden“ Maschinen.  In solchen Formulierungen wird deutlich, wie intensiv die Erschütterung durch die generativen Algorithmen erlebt wird. Aus mathematischer Sicht fällt dagegen auf, dass die heute eingesetzten generativen Algorithmen und die zugehörigen Modelle mathematisch vergleichsweise simpel sind, jedenfalls bei weitem simpler als die meisten Algorithmen, die täglich für die Simulation und Optimierung  natürlicher und technischer Vorgänge verwendet werden. Der Unterschied zu den Algorithmen des Taschenrechners ist, dass ChatGPT mit Hunderten Milliarden Daten und Parametern arbeitet, wo eine Obstkasse im Supermarkt mit einem lernenden Algorithmus vielleicht 100 Daten und Parameter einsetzt, um selbstständig  z.B. Birnen und Bananen zu unterscheiden: Die „Intelligenz“ des Algorithmus, der Kern der zugrundeliegenden mathematischen Methodik, ist bei ChatGPT und bei der KI-basierten Obstkasse im wesentlichen die gleiche, nur die Daten- und Parameter-Quantitäten unterscheiden sich um viele Größenordnungen.

Die Aufregung  um ChatGPT ist verständlich, wenn man sich vor Augen hält, dass generative Algorithmen zu fragwürdigen, unsinnigen, gefährlichen und schädlichen Resultaten führen können. Die Ergebnisse hängen wesentlich vom Input (vom „prompt“)  ab, also von der Formulierung der Aufgabenstellung, und natürlich von den Daten und Texten, auf die das System – aufgrund des vorgegebenen Inputs – zurückgreift. ChatGPT kann den Nutzer durchaus in die Irre führen und gezielt missbraucht werden, z. B. durch vollkommene Sinnestäuschung, durch manipulierte und konstruierte, von der Realität ununterscheidbare Bilder und Filme. Was ein Plagiat und was ein Original ist, können wir ohne Kennzeichnung nicht mehr unterscheiden. Und die Kennzeichnung kann natürlich auch manipuliert werden. Wer ist der Autor eines Textes, wenn jeder uninspirierte, schwer verständliche Text durch eine generativ-algorithmische Überarbeitung in ein literarisches Kunstwerk verwandelt werden kann? Wie verändern diese KI-Entwicklungen die Arbeitswelt? An welchen Stellen nehmen KI-basierte Systeme den Menschen (gezielt oder unbemerkt) Entscheidungen ab, die den Menschen vorbehalten bleiben  müssen oder sollten?
Dieser kritisch-pessimistischen Bewertung lernender Algorithmen stehen auf der anderen Seite die ungeheuren Erfolge der KI gegenüber, die in einem kurzen Artikel nicht annähernd angemessen gewürdigt werden können. Wir erwähnen im medizinisch-pharmazeutischen Sektor nur die lebensrettende Früherkennung von Krebs, die individualisierte Medizin, die Optimierung der Entwicklung von neuen Arzneien usw. Bei diesen Chancen und den angedeuteten Risiken erkennen wir wieder die Wertfreiheit der Mathematik, sie ist die Grundlage für die größten Errungenschaften und kann für  inhumane und zerstörerische Zwecke missbraucht werden. Dass die Weiterentwicklung der KI-Systeme sorgfältig beobachtet, kontrolliert und verantwortungsvoll gesteuert werden sollte, und dass in vielen Anwendungsbereichen auch gesetzliche Regulierungen nötig sind, darüber muss  unbedingt (möglichst international und systemübergreifend) ein Konsens hergestellt werden.
Klug genutzt, können die heutigen und die weiter entwickelten Systeme zu großartigen Erleichterungen für die Menschheit führen. Sie sind dabei, die Welt fundamental zu verändern.

 

Lieber Ulrich,

großes Kompliment für diesen Artikel. Ich hoffe, dass Dir bei der Formulierung Chat GPT nicht geholfen hat.

Das ist die große Gefahr, die Du ja auch angesprochen hast: Wo bleibt das Original – wo bleibt die Bearbeitung. Insofern bin ich als Laien-Philosoph sehr skeptisch, ob diese Möglichkeiten nicht die Skepsis vieler Menschen gegenüber der Technologie und den Menschen, die damit umgehen könnten, weiter verstärkt. Das Prinzip der mangelnden Glaubwürdigkeit könnte die Konsens in unserer Gesellschaft aushebeln. Auch dieses Gefühl der Bürger lässt sich populistisch missbrauchen. Die Wissenschaft und Technologie verliert so wie so in der Schwarmintelligenz immer mehr Realitätsbezug. Gestern habe ich in der ARD den Presseclub verfolgt. Da sprach auch ein Journalist das mangelnde, vernunftbetonte Verständnis der Bürger an. Er nannte sie sogar ‚Idioten‘, bezog das aber auf den griechischen Ursprung des Wortes, es wird dort nämlich übersetzt mit ‚eigentümlichen Menschen‘. Ich würde heute sagen, das Eigentümliche hat sich ausgebreitet und mündet in der fehlenden Bereitschaft Wissen zu erwerben und der immer stärker werdenden Bereitschaft, dem Wunschdenken der Politiker eher zu glauben als der Wissenschaft, die korrumpiert wird durch Subventionen für alles und nichts. Es wird nicht mehr lange dauern, dann wird die Politik von Verschwörungsmythen und Emotionen gesteuert.

Hinzu kommt, dass immer weniger Menschen die Fortschritte der Technologie verstehen und gleichzeitig nur noch wenige Spezialisten den Durchblick haben.

Nicht umsonst versuche ich ja, den willigen Bürger mit meinen Kommentaren zum Thema ‚Der Vernunft eine Chance‘ bei Facebook zu erreichen. Immerhin folgen mir 95.000 Abonnenten und beteiligen sich mit mindestens 100 schriftlichen Kommentaren zum Thema – bis hin zu 970 bei meiner Intervention zum Verbot des Verbrennungsmotors. Leider ist das kein Sempel, welches auf die Allgemeinheit schließen lässt, denn das sind nur die wenigen, die gelegentlich noch ihr eigenes Gehirn einschalten. Quo vadis Deutschland? Demokratie nur auf Gefühlen auszubauen geht schief und die Wissenschaft wird nur noch als notwendiges Übel angesehen und verliert ihre Glaubwürdigkeit.

Danke für Dein Engagement – wir sind alle stolz auf Dich.

Dein Jean