Zwischen 0 und 1 05.04.2023, 06:15 Uhr

Entwarnung bei ChatGPT

«Much Ado About Nothing» heisst eine Komödie von Shakespeare. Die Debatten um ChatGPT und allgemein um KI folgen diesem Prinzip. Sie sind abstrakt, emotional und meinungsgetrieben.
Reinhard Riedl
(Quelle: Fachhochschule Bern/Reinhard Riedl)
Warum sind Warnungen vor nicht existierenden Gefahren und Missständen medial so erfolgreich? Sie kanalisieren diffuse Ängste und ermöglichen uns, unerfreuliche Erlebnisse einzuordnen und mit anderen zu teilen. Beispielsweise Erlebnisse, die zugleich banal und komplex sind.
Wer wahrheitsgemäss Freunden eine komplexe Geschichte erzählt, die sehr unerfreulich abgelaufen ist, der bekommt unerwartet oft keine (!) Zustimmung. Je mehr Aspekte in der Geschichte vorkommen, desto wahrscheinlicher ist Kritik an der Darstellung des Erzählenden. Wer dagegen in seiner Erzählung alle Details weglässt und sich als Opfer von Missständen inszeniert, die aus den Medien bekannt sind, dem ist das Mitgefühl sicher. Denn die anderen sehen den Bericht als Beweis für ihren Glauben an die Missstände an.
Besonders faszinierend am Klagen über inexistente Probleme ist dreierlei: Erstens sind die Geschichten meist recht simpel. Zweitens sind tatsächliche Missstände im Themenfeld den Erzählerinnen oder Erzählern in der Regel unbekannt. Und drittens werden die Klagen gern mit frei erfundenen Anforderungen begründet. Beispiel für Letzteres: Einige Kulturjournalistinnen und -journalisten führten zuletzt eine Kampagne gegen das Leitungsteam des Schauspielhauses Zürich. Die Begründung war bemerkenswert. Das Schauspielhaus sei zwar künstlerisch top und hätte neuerdings viel mehr junges Publikum als früher, aber der Dialog mit der Stadt finde nicht statt. Darum: weg mit dem Leitungsteam! Neuerdings geht es also im Theater nicht mehr um Theater, sondern um Dialog mit der Stadt, genauer um Dialog mit den «Digital Immigrants» der Stadt.
“In Sachen IT sind Warnungen vor künstlicher Intelligenz ein Dauerbrenner und ChatGPT der aktuelle Aufhänger„
Reinhard Riedl
In Sachen IT sind Warnungen vor künstlicher Intelligenz (KI) ein Dauerbrenner und ChatGPT der aktuelle Aufreger. Es gibt zahlreiche Medienbeiträge, die Aspekte ohne praktische Relevanz emotional aufblasen. Dabei ist ChatGPT im Grundsätzlichen gut verstanden, während in Bezug auf die sozialen Folgen alles offen ist. Beides, das Wissen und das Nichtwissen, sind unumstritten. Wozu also Aussagen formulieren wie «Es ist absurd, bei ChatGPT von künstlicher Intelligenz zu sprechen»? Es weiss doch jeder, dass es keine klare Definition von KI gibt!
Sinnvoll wäre es, die Auswirkungen von ChatGPT zuerst zu beobachten und zu analysieren, bevor konkrete Empfehlungen entwickelt werden. Aber das adressiert das Unbehagen mit ChatGPT nicht, der aufgeregte Diskurs von marginalen Herausforderungen dagegen schon. Er bauscht Eventualprobleme zu Riesenthemen auf und lädt zum Mitphilosophieren ein.
Wir sollten das Unbehagen ernst nehmen, aber nicht in die Bedenkenträger-Diskussion einstimmen. Stattdessen wäre es wichtig, die eigentlichen Werte zu benennen, die erhalten werden sollen, und zu untersuchen, ob sie überhaupt noch von vielen geteilt werden. Das kann schmerzhaft sein, aber es wäre nützlicher, als hektisch Gegenmassnahmen zu diskutieren.
Der Autor
Reinhard Riedl
beschäftigt sich mit der menschenzentrierten Entwicklung digitaler Lösungen in verschiedenen Sektoren: Gesundheits­wesen, Sport, Kunst, Stadt- und Regionalentwicklung, Verwaltung, Landwirtschaft und Verkehr. Er ist Heraus­geber des Wissenschafts­blogs «Societybyte» der Berner Fachhochschule. www.societybyte.swiss



Das könnte Sie auch interessieren