Archiv der Kategorie: Computer, TV, Medien
Quantencomputer auf Silziumbasis – Mit einem Prolog von Jean Pütz
Die Quantencomputer-Technologie ist die Zukunft. Das BIT wird durch das QUBIT ersetzt. Dieses Qubit ist in der Lage Unmengen von Daten zu speichern, die in der herkömmlichen Siliziumtechnologie nicht möglich sind. Auch die Geschwindigkeit der Quantencomputer ist um 10er Potenzen höher. Allerdings ist es bisher nicht möglich dies Software, die bisher mit Milliardenaufwand die auf siliziumbasierenden Computern entwickelt wurde für Quantencomputer nicht nutzbar. Das soll sich ändern und das ist Ziel eines Forschungsverbundes des HZDRs (Helmholtz-Zentrum-Dresden-Rossendorf). Dazu gibt es jetzt europäische Forschungsgelder und man kann gespannt sein, ob dies möglich ist, denn die Qubits funktionieren ja mit Lichtsignalen und wie lassen die sich auf unseren Bitscomputer übertragen.
Ihr Jean Pütz
Leichtsinn führt zu großen Gefahren in der IT-Sicherheit
(pte) – Nicht nur das Risikoempfinden der Deutschen in Bezug auf Cyber-Gefahren ist im Vergleich zu 2021 um zwölf Prozentpunkte gesunken. Laut dem neuen Report des IT-Security-Spezialisten G Data hat auch die Wissenskompetenz im Umgang damit im gleichen Zeitraum um sieben Punkte eingebüßt.
IT-Abteilungen gefordert
Der Studie zufolge variiert die Wahrnehmung von IT-Sicherheit stark zwischen dem privaten und beruflichen Umfeld. Während das Sicherheitsgefühl im privaten Umfeld gegenüber 2021 um rund acht Prozentpunkte gesunken ist, hat es im beruflichen Bereich lediglich um einen Prozentpunkt abgenommen.
Dieser Unterschied deutet laut den Experten darauf hin, dass viele Berufstätige den Irrglauben haben, dass die Verantwortung für IT-Sicherheit allein bei der IT-Abteilung liegt. Gleichzeitig sähen sich dieselben Personen im privaten Umfeld gezwungen, selbst aktiv zu werden. Diese unterschiedliche Wahrnehmung sei problematisch.
„Jeder muss Beitrag leisten“
G Data sieht folglich eine gefährliche Lücke in der IT-Sicherheit am Arbeitsplatz, die aus der mangelnden persönlichen Verantwortung und Sensibilisierung für Cyber-Bedrohungen entsteht. „Es ist entscheidend, dass jeder Einzelne erkennt, dass er einen aktiven Beitrag zur IT-Sicherheit leisten muss, um gegen Cyber-Bedrohungen gewappnet zu sein“, heißt es.
KI steigert Bedeutung von Digitalkompetenz & kritischem Denken – Mit einer Einführung von Jean Pütz
Diese Presseinformation der Universität Hohenheim gebe ich mit Bedenken weiter. Denn in letzter Zeit wird der KI Eigenschaften zugewiesen als ob sie zu allem fähig sei. Da wird von Digitalkompetenz gesprochen, die demnächst jeder beherrschen müsste.
Aus der Sicht der Forscher ist dieser Wunsch durchaus verständlich. Allerdings möchte ich einige Bedenken anmerken:
Ich bin fest davon on überzeugt, dass die Masse der Menschen völlig überfordert ist und sich eine Art Herrenrasse herausbildet, die nach dem Motto „Big-Brother is Watching you“ eine ungeheure Macht erhält. Die Anwendungen von KI können vieles erleichtern, aber die Nebenwirkungen und Risiken müssen auch berücksichtigt werden, weil eine Gegenbewegung zu erwarten ist.
Wenn die Bürger sich überfordert fühlen, dann haben Verschwörungstheorien die Oberhand gewinnen. Schon heute entfernt sich unsere Demokratie von der Logik und ein engagierter Abgeordneter in den Parlamenten hat mit seiner Vernunft kaum mehr Chancen. Denn auf den Populismus setzende Kollegen laufen ihm den Rang ab. So sehe ich auch die heutige Überhandnahme vor Irrationalität in politischen Entscheidungen und viele Entscheidungen werden wider besseren Wissens geschaffen. Gegen die Mehrheit beruht unsere Demokratie entstehen Gesetze die mit Rationalität nichts mehr zu tun haben. Die Wissenschaft hat einen Turm zu Babel gebaut, mit Einsichten in die früher verborgenen Geheimnisse menschlichen Lebens der Gefahr läuft unbeherrschbar zu werden.
Ihr Jean Pütz
(Uni Hohenheim) – Künstliche Intelligenz (KI) verändert die Bedeutung von grundlegenden menschlichen Kompetenzen − von der Bildung über den Beruf bis hin zum privaten Leben. Zu diesem Ergebnis kommt eine Studie unter Leitung der Universität Hohenheim in Stuttgart. Danach gewinnen methodische Basiskompetenzen wie kritisches Denken und Problemlösungskompetenz stark an Bedeutung. Auch die Digitalkompetenz wird immer wichtiger, während die Relevanz von Fremdsprachenkenntnissen abnimmt. Soziale Basiskompetenzen bleiben weitgehend stabil. Ein Whitepaper fasst die Ergebnisse zusammen und gibt Empfehlungen, wie die Erkenntnisse in Bildungsprogramme und Arbeitsorganisation eingebaut werden können.
Künstliche Intelligenz beeinflusst mittlerweile sämtliche Lebensbereiche, sei es im Beruf, im privaten Umfeld oder auch in der Bildung. Sprachgesteuerte Assistenzsysteme wie Alexa, Siri und Cortana oder Computer Vision zum Entsperren von Smartphones sind nur einige Beispiele, die zu einer immer häufigeren Nutzung von KI-Systemen im Alltag führen. In jüngster Zeit finden zudem sogenannte generative KI-Systeme wie ChatGPT oder GeminiAI immer größere Verbreitung.
„Künstliche Intelligenz zieht in alle Lebensbereiche ein und verändert sie“, so Studienleiter Prof. Dr. Henner Gimpel von der Universität Hohenheim. „Dabei dient Künstliche Intelligenz derzeit vorrangig als unterstützendes Werkzeug“, erklärt der Experte. „Jedoch zeichnet sich ab, dass KI in Zukunft vermehrt Tätigkeiten zu einem großen Teil oder sogar ganz übernehmen wird. Diese neuen Möglichkeiten verändern die erforderlichen Kompetenzen von Menschen, die zunehmend mit KI zu tun haben.“
Wie verändert sich die Bedeutung von Basiskompetenzen im Zeitalter von KI?
Doch welchen Einfluss hat dies auf die Fähigkeiten der Menschen, den zukünftigen Anforderungen gerecht zu werden? Wie sollten Bildungseinrichtungen, Arbeitgeber:innen und die Gesellschaft insgesamt auf die Veränderungen reagieren? Diesen Fragen sind Forschende vom Fachgebiet Digitales Management an der Universität Hohenheim in Zusammenarbeit mit dem Forschungsinstitut für Informationsmanagement (FIM) und dem Fraunhofer-Institut für Angewandte Informationstechnik (FIT) nachgegangen.
Ihr Augenmerk galt den sogenannten Basiskompetenzen, die oft auch als Schlüsselkompetenzen bezeichnet werden. „Gemeint ist damit eine Kombination aus Fertigkeiten, Wissen und Einstellungen, die zur Erfüllung einer bestimmten Aufgabe oder Aktivität erforderlich sind“, erläutert Dr. Julia Lanzl von der Universität Hohenheim. „Diese Kompetenzen decken alle Lebensbereiche ab und können in vielen verschiedenen Zusammenhängen eingesetzt werden. Gleichzeitig bilden sie die Grundlage für die Entwicklung weiterer spezifischer, kontextbezogener Fähigkeiten.“
„Damit sich Bildungseinrichtungen, Arbeitgeber:innen und Individuen auf die Veränderung einstellen können, müssen sie wissen, wie sich die Bedeutung einzelner Basiskompetenzen durch KI verändern wird“, sagt Frederik Schöttl, Doktorand im Fachgebiet Digitales Management. „Ein gutes Prognose-Tool ist eine sogenannten Delphi-Studie, bei der die Befragten immer wieder mit den Einschätzungen der anderen Teilnehmenden konfrontiert werden und diese bewerten.“ So entstand ein Meinungsbild von 34 Expert:innen aus Wissenschaft und Praxis, die sich entweder innerhalb der Forschung oder dem individuellen Beruf intensiv mit Kompetenzen und/oder KI beschäftigt haben.
Methodische Basiskompetenzen gewinnen an Bedeutung
Demnach werden methodische Basiskompetenzen wie kritisches Denken, Entscheidungskompetenz, analytisches Denken und Problemlösungskompetenz durch die zunehmende Nutzung von KI an Wichtigkeit gewinnen. „KI kann viele Aufgaben automatisieren, aber die Fähigkeit, komplexe Probleme zu lösen und kritisch zu hinterfragen, bleibt eine menschliche Domäne“, analysiert Frederik Schöttl die Studienergebnisse. „Die Menschen müssen in der Lage sein die Ergebnisse von KI-Systemen auf ihre Korrektheit und Glaubwürdigkeit zu prüfen. Aufgrund der ‚Black-Box‘-Natur vieler KI-Systeme und der generativen KI-Technologien wird besonders das kritische Denken immer wichtiger.“
Steigende Relevanz von Digitalkompetenzen, aber Fremdsprachen weniger wichtig
Eine zunehmende Bedeutung zeigt sich auch bei der Digitalkompetenz: „In einer von KI geprägten Welt ist es unerlässlich, digitale Technologien zu verstehen und anzuwenden“, sagt Prof. Dr. Gimpel. „Die Fähigkeit digitale Werkzeuge und Technologien effektiv zu nutzen, wird in nahezu allen Lebensbereichen unerlässlich. Dies könnte bedeuten, dass die Digitalkompetenz in Zukunft spezialisierter und die Fähigkeit zur KI-Nutzung zu einer eigenständigen Kompetenz wird.“
Die Expert:innen in der Studie kommen jedoch auch zu dem Schluss, dass Fremdsprachenkenntnisse an Bedeutung verlieren. „KI-Technologien sind zunehmend in der Lage, Übersetzungen und sprachliche Kommunikation zu übernehmen, wodurch der Bedarf an traditionellen Fremdsprachenkenntnissen sinkt“, so Mike Possin, wissenschaftliche Hilfskraft. „Nichtsdestoweniger ist es aktuell immer noch nötig, das Ergebnis einer KI-generierten Übersetzung zu überprüfen.“
Soziale Basiskompetenzen bleiben weitgehend unbeeinflusst
Soziale Basiskompetenzen wie Fähigkeit zur Empathie, Kommunikation und Zusammenarbeit bleiben weitgehend stabil in ihrer Bedeutung. „Menschliche Interaktionen sind nur in geringem Maße durch KI ersetzbar“, erklärt Dr. Lanzl. „KI kann hier zwar in einigen Aspekte unterstützen, aber echte menschliche Verbindungen und das Verständnis emotionaler und sozialer Kontexte sind zumindest bisher schwer zu automatisieren.“
Eine Ausnahme bilde die Ethik- und Kulturkompetenz: „Sie gewinnt an Relevanz, da die Notwendigkeit steigt moralische Normen und Werte im Umgang mit KI zu hinterfragen und zu überwachen.“
Handlungsempfehlungen
„Die zunehmende Verbreitung von KI erhöht die Relevanz von Basiskompetenzen – dessen sind sich die Expert:innen aus Praxis und Wissenschaft einig, die an unserer Delphi-Studie teilgenommen haben“, fasst Prof. Dr. Gimpel zusammen. „Dies unterstreicht die Notwendigkeit, nicht nur spezifische und kontextbezogene Kompetenzen zu fördern, sondern auch die grundlegenden Basiskompetenzen zu vermitteln, insbesondere im Bildungsbereich.“
Aus Sicht der Forschenden sind daher Bildungseinrichtungen, Arbeitgeber:innen und Politik gefordert, ihre Programme und Strategien anzupassen, um den Herausforderungen des KI-Zeitalters gerecht zu werden: Bildungseinrichtungen sollten in ihren Lehrplänen Basiskompetenzen stärker berücksichtigen und systematisch fördern. Soziale Basiskompetenzen sowie Ethik- und Kulturkompetenzen sind für Arbeitgeber:innen bei der Auswahl und Mitarbeiterentwicklung wichtig. Gleichzeitig sollten Schulungsprogramme einen starken Fokus auf Digitalkompetenzen und kritisches Denken legen, um auf die Zusammenarbeit mit KI-Systemen vorzubereiten.
HINTERGRUND: Delphi-Studie
Eine Delphi-Studie ist eine wissenschaftliche Methode zur Erhebung von Expertenmeinungen zu einem bestimmten Thema. Dabei werden mehrere Runden von (Online-)Befragungen durchgeführt, bei denen die Teilnehmenden zuerst auf Basis ihrer individuellen Expertise Ansichten äußern und dann mit dem anonymisierten Feedback der anderen konfrontiert werden. Ziel ist einen Konsens oder eine Konvergenz der Meinungen zu erreichen oder zumindest die Gründe für die Divergenz zu verstehen.
HINTERGRUND: DeLLFi und ABBA
Die Studie wurde durch zwei Projekte an der Universität Hohenheim ermöglicht, die digitale und analoge Lehre ideal verzahnen wollen:
Ziel von DeLLFi ist, eine kompetenzorientierte, digital unterstützte Lehre als festen Bestandteil der Lehre in Hohenheim zu etablieren. Die acht Maßnahmenpakete des Projektes „Digitalisierung entlang Lehren, Lernen und Forschen integrieren“ werden gefördert von der Stiftung Innovation in der Hochschullehre.
Ziel von ABBA ist es, Wirtschaftswissenschaftler:innen die notwendigen Kompetenzen für die Bewertung und Integration von Technologie in betriebliche Prozesse und Entscheidungen zu vermitteln. Das Projekt „AI for Business | Business for AI“ wird durch das Bundesministerium für Bildung und Forschung und mehrere beteiligte Länder gefördert.
Text: Stuhlemmer
Erstmals möglich: Der exakte Blick ins Molekül
Mikroprozessoren revolutionieren die Technik – Mit einer Anmerkung von Jean Pütz
Schon 1978 habe ich in der ARD unter dem Titel „Intelligenz in Miniatur – Mikroprozessoren revolutionieren die Technik“ diese rasante Entwicklung vorweg genommen. Aber ich hätte mir nicht träumen lassen, dass die Halbleitertechnik auf Basis von Silicium und anderen Materialien so eine Revolution auslösen könnte.
Seinerzeit habe ich mich gewundert, dass ich den Deutschen Journalistenpreis dotiert mit 10.000 DM dafür bekommen habe. Aber offenbar schien das doch gerechtfertigt, wenn ich die heutige Entwicklung sehe. Damals war Deutschland in dieser Technologie führend, aber wie fast immer haben wir uns die Butter vom Brot nehmen lassen.
Lesen Sie dazu die folgende Pressemitteilung des KIT“.
Ihr Jean Pütz
Zur Stärkung des Halbleiterökosystems in der EU wurde die Verordnung über den Europäischen Chip Act 2023 als Maßnahmenpaket beschlossen. „Der European Chips Act zielt darauf ab, die Halbleiterproduktion und die Entwicklungsmöglichkeiten in Europa zu fördern“, erläutert Becker. „Innerhalb dieses ChipActs wollen wir Kompetenzen und Netzwerke gezielt bündeln und erweitern. Die enge Verzahnung mit der Industrie bildet dabei einen wichtigen Baustein, unter anderem durch den gezielten Ausbau der interdisziplinären Aus- und Weiterbildung in Chipdesign am KIT.“
Elektronischer Turmbau zu Babel?
(Pioneer) – Wenn wir die Gegenwart von allen Geräuschen und Blendeffekten befreien, dann hören und sehen wir klarer. Manchmal bekommen wir die Gegenwart sogar in zwei Worten zu packen, die sich ihrerseits in ein Kürzel pressen und in einer Aktie verdichten lassen.
Diese Aktie ist derzeit Nvidia. Der Chiphersteller steht für das neue Zeitalter der Künstlichen Intelligenz, das in der Geheimsprache von Wirtschaftsführern und Börsianern nur als KI bezeichnet wird.
Das Unternehmen schlägt mit seinen KI-Chips Quartal für Quartal die Erwartungen der Analysten. Die Aktie kletterte bisher auf sagenhafte Höhen. Die Börse bewertet Nvidia inzwischen mit zwei Billionen Dollar. Das entspricht dem Bruttoinlandsprodukt Italiens. Aufklärung tut also not:
Die Firma
Das Tech-Unternehmen Nvidia wurde 1993 von dem taiwanesisch-amerikanischen Elektroingenieur Jensen Huang (61) zusammen mit Chris Malachowsky (64) und Curtis Priem (64) gegründet. Die drei wollten die Rechenleistung von Computern verbessern, besonders bei Videospielen und der Grafikbearbeitung sahen sie großes Wachstumspotenzial. Mit einem Startkapital von 40.000 Dollar wurde Nvidia gegründet.
Heute ist Nvidia Marktführer im Bereich Grafikkarten und Chipsätze und die Börsenbewertung liegt bei gut zwei Billionen Dollar. Hinter Microsoft, Apple und Saudi Aramco steht Nvidia damit auf Platz vier der wertvollsten Unternehmen der Welt. Im Fiskaljahr 2024, das am 31.01.2024 zu Ende ging, erzielte die Firma einen Nettogewinn von 29,7 Milliarden US-Dollar – ein sagenhaftes Plus von 580 Prozent im Vergleich zum Vorjahr.
CEO und Gründer Jensen Huang ist dadurch Milliardär geworden. Er hält rund drei Prozent der Aktien seines Unternehmens, Huangs Vermögen wird von Forbes inzwischen auf über 70 Milliarden Dollar geschätzt.
Der Markt
Ein KI-Modell, auch neuronales Netz genannt, ist im Wesentlichen eine „mathematische Lasagne“, wie Nvidia es nennt, die aus mehreren Schichten linearer Algebra-Gleichungen besteht. Die tausenden winzigen Recheneinheiten einer Grafikkarte arbeiten parallel, um diese „Lasagne“ eines KI-Modells zu zerlegen, sodass eine Künstliche Intelligenz innerhalb weniger Sekunden brauchbare Antworten liefern kann.
Diese Hardware liefert Nvidia mit seinen Chips, die in den Rechenzentren von Kunden wie Meta oder Microsoft verbaut werden. ChatGPT wurde mit Hilfe von tausenden Nvidia-Grafikkarten entwickelt und läuft heute auf Datenzentren, die mit Nvidia-Hardware ausgestattet sind. Im Segment der KI-Chips kommt Nvidia derzeit auf einen Marktanteil von über 90 Prozent.
Nvidias wichtigstes Produkt ist derzeit der Grafikchip H100. Er ist einer der leistungsfähigsten Chips und das derzeit begehrteste elektronische Bauteil der Welt. Das Angebot kann die Nachfrage auf dem Weltmarkt derzeit nicht befriedigen. Das bedeutet: Nvidia besitzt eine Preisfestsetzungsmacht.
Die Hoffnung
Nvidia-CEO Jensen Huang sieht die Menschheit durch KI am Beginn einer neuen Industriellen Revolution. Seine Vision ist der Aufbau einer weltweiten KI-Infrastruktur, um Quantensprünge in der heutigen Rechenleistung zu erzielen.
Die Hoffnung besteht darin, dass Nvidia einen Megatrend der Globalökonomie bedient. Das glaubt auch eine Reihe namhafter Analysten, die trotz der Rally der Nvidia-Aktie (über 1.000 Prozent seit 2020) und einer hohen Bewertung weiterhin zum Kauf der Aktie raten. Das durchschnittliche Kursziel liegt bei 873 US-Dollar (aktueller Kurs 798 US-Dollar).
Der Hype
Die Begründung für weitere Kurssteigerungen fußt in allen Analysen auf dem hohen Umsatzwachstum – und dessen erhoffter Fortsetzung. Laut Vivek Arya von der Bank of America sei die Bewertung darum weiterhin „überzeugend“. KI stecke noch in den Kinderschuhen. Durch die marktbeherrschende Stellung und Partnerschaften (wie beispielsweise mit Dell, SAP und ServiceNow) könnten die Anleger hier noch weitere Allzeithochs erwarten.
Der aktuell größte Optimist der Analystenriege ist Ananda Baruah von Loop Capital. Er erwartet für die Nvidia-Aktie Kurse um 1.200 US-Dollar. Das wäre ein nochmaliges Kursplus von 50 Prozent. Baruah geht davon aus, dass Nvidia weiterhin die Analystenschätzungen Quartal für Quartal schlagen wird.
Denn die Konkurrenz schläft nicht. Advanced Micro Devices (AMD) aus Santa Clara in Kalifornien produziert inzwischen einen leistungsstärkeren KI-Chip – und ist dabei günstiger als Nvidia. AMDs neue, im Dezember gelaunchte KI-Chips MI300X arbeiten nach eigener Aussage 1,6-mal so schnell wie Nvidias Produkte. Der durchschnittliche Verkaufspreis des AMD-Chips liegt zwischen 10.000 und 15.000 US-Dollar, so der Citi-Analyst Christopher Danely. Das ist deutlich günstiger als Nvidia (25.000 bis 40.000 US-Dollar).
Fazit: An der Börse gibt es keine absoluten Wahrheiten, sondern nur Wahrheiten auf Zeit.
Armes digitales Deutschland – eine Intervention eines klugen Professors für Mathematik
Prof. Ulrich Trottenberg schrieb an eine NRW-Behörde:
Dass Deutschland digital so weit zurückliegt, ist nicht nur, und auch nicht in erster Linie, ein Netz- und Infrastrukturproblem. Derartige Probleme kann man im Prinzip mit Geld und einer entsprechenden politischen Initiative lösen, zumindest systematisch in Angriff nehmen.
Das digitale Problem liegt tiefer. Es liegt in der digitalen Lethargie und der algorithmischen Hilflosigkeit der deutschen Öffentlichkeit. Alles Digitale ist algorithmisch geprägt und wird durch Algorithmen gesteuert: Rechner, Netze, Datenstrukturen und -flüsse usw. Tatsächlich begleiten Algorithmen unser gesamtes Leben, in geradezu jeder Minute, und prägen immer stärker auch unsere Arbeitswelt. Trotzdem sind Algorithmen in den Köpfen der meisten Menschen, auch vieler Gebildeter und Intellektueller, etwas merkwürdig Fremdes und Abstraktes. Man hört und liest das Wort „Algorithmen“ täglich, aber man weiß nicht, jedenfalls nicht genau, was das ist. Schon das Wort ist unverständlich.
In scheinbar merkwürdigem Gegensatz dazu, de facto aber dazu passend, gelten Algorithmen als bedrohlich, gefährlich, unheilbringend.
Ein aktuelles Beispiel für eine massive Verunsicherung ist die ChatGPT Entwicklung. Die Medien überschlagen sich in Kommentaren, von begeisterter Faszination bis zu rigoroser Ablehnung. Und das alles wird bizarr, wenn den generativen Algorithmen menschliche Eigenschaften zugeordnet werden: Die Chatroboter „denken“, die Maschinen haben eine „Seele“, sie reagieren „sensibel“ und haben „Emotionen“. Perspektivisch werden auf der einen Seite großartige Utopien beschworen und und auf der anderen Seite Dystopien der Bedrohung der Menschheit durch intellektuell überlegene Maschinen.
Kaum jemand bemüht sich, sachlich zu erklären, was da in den Algorithmen abläuft, wie und warum so verblüffende Ergebnisse erzielt werden.
Die digitale Lethargie der deutschen Gesellschaft beruht vor allem auf einer Fehlentwicklung der digitalen Bildung! Insbesondere Algorithmen haben bis heute keine Relevanz als zentrales Bildungsgut.
Solange das so bleibt, nutzt auch die bessere Vernetzung nicht viel. Das mangelnde digitale Verständnis der Öffentlichkeit ist das Problem der deutschen Gesellschaft, jedenfalls nicht nur die mangelhafte Infrastruktur.
Mit den besten Grüßen
Ulrich Trottenberg
Ich reagiere mit dieser Mail auf die Ankündigung der Vorstellung Ihres Buches bei der FES, nicht auf Ihr Buch. Ich habe Ihr Buch noch nicht gelesen, werde das aber sicher tun und bin sehr gespannt.
Vom Taschenrechner zum Chat GPT – Mit einer Antwort von Jean Pütz
Von Professor Dr. Ulrich Trottenberg, Mathematiker und Freund
Ein handelsüblicher Taschenrechner rechnet unvergleichlich viel schneller als jeder Mensch. Mit einem Smartphone – das heute so schnell rechnet wie ein Superrechner vor 30 Jahren – kann man anspruchsvolle mathematische Aufgaben lösen. Und ein Höchstleistungsrechner ist heute in der Lage Billiarden (eine Billiarde = eine 1 mit 15 Nullen!) Rechenoperationen in einer Sekunde durchzuführen und auf diese Weise sehr sinnvolle Rechenergebnisse zu erzielen, zum Beispiel das Wetter der nächsten Tage vorherzusagen. Trotz dieser geradezu unvorstellbaren Rechenleistung und der äußerst nützlichen Ergebnisse kommt niemand auf die Idee, den Rechnern ein „Bewusstsein“ zuzusprechen, dem Taschenrechner nicht, aber auch dem Höchstleistungsrechner nicht. Kaum jemand fühlt sich durch die Rechner bedroht, auch nicht durch die extreme Überlegenheit der Höchstleistungsrechner.
Das ist offenbar anders in dem Moment, wo der Computer nicht „sinnvolle“ Zahlen, sondern „sinnvolle“ Texte produziert. Die durch KI und Algorithmen des Maschinelles Lernens erzeugten Texte des ChatGPT4 Sprachmodells oder anderer generativer Algorithmen führen bei vielen Benutzern zur Überzeugung, dass der Computer mit der GPT-Software den „Sinn“ der erzeugten Texte „versteht“: Das GPT-System gibt in vielen Fällen auf Fragen intelligente, verständnisvolle Antworten, und es kann sich ein anspruchsvoller, überraschend anregender Dialog entwickeln.
Seit Monaten überschlagen sich die Medien in Berichten über die oft fantastischen Ergebnisse, die man mit dem Sprachmodell ChatGPT erzielen kann. Plötzlich kann jeder interessierte Mensch, ohne programmieren zu können oder andere einschlägige Erfahrungen zu haben, mit dieser Software spielen und arbeiten. Es sind insbesondere die Feuilleton-Teile der Medien, auch der großen renommierten Zeitungen und Zeitschriften, die sich des Themas annehmen. Dabei reichen die Reaktionen und Bewertungen von begeisterter Faszination über verstörte Verunsicherung bis zu massiver Ablehnung.
In Überschriften solcher Artikel ist von der „Seele der Maschinen“, vom „Maschinengott“ und vom drohenden „Untergang der Menschheit“ die Rede, renommierte Experten und Wissenschaftsjournalisten sprechen den Systemen ein „Bewusstsein“ zu und reden von „denkenden“ Maschinen. In solchen Formulierungen wird deutlich, wie intensiv die Erschütterung durch die generativen Algorithmen erlebt wird. Aus mathematischer Sicht fällt dagegen auf, dass die heute eingesetzten generativen Algorithmen und die zugehörigen Modelle mathematisch vergleichsweise simpel sind, jedenfalls bei weitem simpler als die meisten Algorithmen, die täglich für die Simulation und Optimierung natürlicher und technischer Vorgänge verwendet werden. Der Unterschied zu den Algorithmen des Taschenrechners ist, dass ChatGPT mit Hunderten Milliarden Daten und Parametern arbeitet, wo eine Obstkasse im Supermarkt mit einem lernenden Algorithmus vielleicht 100 Daten und Parameter einsetzt, um selbstständig z.B. Birnen und Bananen zu unterscheiden: Die „Intelligenz“ des Algorithmus, der Kern der zugrundeliegenden mathematischen Methodik, ist bei ChatGPT und bei der KI-basierten Obstkasse im wesentlichen die gleiche, nur die Daten- und Parameter-Quantitäten unterscheiden sich um viele Größenordnungen.
Lieber Ulrich,
großes Kompliment für diesen Artikel. Ich hoffe, dass Dir bei der Formulierung Chat GPT nicht geholfen hat.
Das ist die große Gefahr, die Du ja auch angesprochen hast: Wo bleibt das Original – wo bleibt die Bearbeitung. Insofern bin ich als Laien-Philosoph sehr skeptisch, ob diese Möglichkeiten nicht die Skepsis vieler Menschen gegenüber der Technologie und den Menschen, die damit umgehen könnten, weiter verstärkt. Das Prinzip der mangelnden Glaubwürdigkeit könnte die Konsens in unserer Gesellschaft aushebeln. Auch dieses Gefühl der Bürger lässt sich populistisch missbrauchen. Die Wissenschaft und Technologie verliert so wie so in der Schwarmintelligenz immer mehr Realitätsbezug. Gestern habe ich in der ARD den Presseclub verfolgt. Da sprach auch ein Journalist das mangelnde, vernunftbetonte Verständnis der Bürger an. Er nannte sie sogar ‚Idioten‘, bezog das aber auf den griechischen Ursprung des Wortes, es wird dort nämlich übersetzt mit ‚eigentümlichen Menschen‘. Ich würde heute sagen, das Eigentümliche hat sich ausgebreitet und mündet in der fehlenden Bereitschaft Wissen zu erwerben und der immer stärker werdenden Bereitschaft, dem Wunschdenken der Politiker eher zu glauben als der Wissenschaft, die korrumpiert wird durch Subventionen für alles und nichts. Es wird nicht mehr lange dauern, dann wird die Politik von Verschwörungsmythen und Emotionen gesteuert.
Hinzu kommt, dass immer weniger Menschen die Fortschritte der Technologie verstehen und gleichzeitig nur noch wenige Spezialisten den Durchblick haben.
Nicht umsonst versuche ich ja, den willigen Bürger mit meinen Kommentaren zum Thema ‚Der Vernunft eine Chance‘ bei Facebook zu erreichen. Immerhin folgen mir 95.000 Abonnenten und beteiligen sich mit mindestens 100 schriftlichen Kommentaren zum Thema – bis hin zu 970 bei meiner Intervention zum Verbot des Verbrennungsmotors. Leider ist das kein Sempel, welches auf die Allgemeinheit schließen lässt, denn das sind nur die wenigen, die gelegentlich noch ihr eigenes Gehirn einschalten. Quo vadis Deutschland? Demokratie nur auf Gefühlen auszubauen geht schief und die Wissenschaft wird nur noch als notwendiges Übel angesehen und verliert ihre Glaubwürdigkeit.
Danke für Dein Engagement – wir sind alle stolz auf Dich.
Dein Jean
Angst vor massivem Stellenabbau: Nach Verbrenner-Aus herrscht bei Bosch-Mitarbeitern „Alarmstufe Rot“
(Focus) – Der Betriebsrat von Bosch und die IG Metall reagieren auf das von der EU beschlossene Verbrenner-Aus ab 2035 und kündigen eine Betriebsversammlung an zehn Standorten in Deutschland an. Es herrsche Angst vor einem massiven Stellenabbau, teilte der Bamberger Betriebsratsvorsitzende Mario Gutmann gegenüber dem „ Bayerischen Rundfunk “ mit.
„Alarmstufe Rot“ für 900.000 Beschäftigte in Deutschland
Auch die mögliche Verlagerung der Produktionsstätten ins Ausland bereite vielen Mitarbeitern Sorge. Als Grund nennt Gutmann, dass hierzulande Teile für Verbrennermotoren gefertigt werden, die spätestens nach dem EU-Verbot ab 2035 unbrauchbar seien.
An der Betriebsversammlung werden auch das Bamberger Werk mit seinen knapp 6300 Mitarbeitern sowie der Standort in Nürnberg teilnehmen. Zwei Drittel der rund 6300 Beschäftigten in Bamberg konzentrieren sich derzeit allein auf die Fertigung von Teilen für Verbrennermotoren.
Martin Feder von der IG Metall spricht von „Alarmstufe Rot“ und warnt: „Die Zukunft der industriellen Fertigung ist in Gefahr.“ Das sei nicht nur bei Bosch zu spüren, sondern gelte für viele Unternehmen. 900.000 Beschäftigte sind aktuell in Deutschland „direkt und indirekt“ an der Verbrennermotoren-Produktion beteiligt.
„Die Politik verschläft gerade den Innovationsschub“
Feder nennt das Vorgehen des Autoherstellers Ford als warnendes Beispiel. In Köln und Aachen sollen knapp 2300 Arbeitsplätze abgebaut werden. Währenddessen baut Ford jedoch bereits an einer neuen Fabrik in den USA, die mehrere Milliarden Dollar kosten soll. Dort will Ford bald Batterien für E-Autos fertigen.
Durch Subventionen und Steuererleichterungen seien die USA und China besonders starke Produktionsförderer im eigenen Land. Der Bamberger Betriebsratschef Gutmann spricht über die daraus resultierende Deindustrialisierung in Deutschland und meint: „Die Politik verschläft gerade den Innovationsschub in die Zukunft.“
Bosch: „Wir sehen auch die Politik in der Verantwortung“
Die Robert Bosch GmbH ließ auf Anfrage des „BR“ mitteilen: „Grundsätzlich gehen wir dahin, wo unsere Kunden sind, und folgen damit unserem ‚Local for local‘-Prinzip. Das heißt, wir fertigen vornehmlich in der Region für die Region.“ Martin Schultz, kaufmännischer Bosch-Werkleiter in Bamberg, appelliert derweil an die Unterstützung aus der Politik: „Wir sehen allerdings auch die Politik in der Mitverantwortung, bei ihren Entscheidungen zur Zukunft der Mobilität die Ausgewogenheit zwischen ökologischen, ökonomischen und sozialen Fragen im Auge zu behalten.“
Nach den bisherigen Plänen sollen ab 2035 in der EU keine neuen Pkw mit Verbrenner mehr zugelassen werden. Die EU-Länder hatten sich bereits im Oktober auf einen Kompromiss verständigt. Zuletzt hatte das EU-Parlament die neuen CO2-Vorgaben gebilligt, wonach in der EU ab dem Jahr 2035 nur noch Neuwagen verkauft werden dürfen, die im Betrieb keine Treibhausgase ausstoßen. Die EU-Staaten müssen noch zustimmen. Die Vereinbarung soll 2026 erneut überprüft werden können.