Mensch versus ChatGPT – wer weiß eigentlich mehr?

Eine Diskussion zur Einführung der Task Force Künstliche Intelligenz (TFKI) im Ethikverband der Deutschen Wirtschaft e.V. 

Kann ChatGPT lügen? Warum tut es das? Und darf das das überhaupt? Und wenn ja, warum darf ChatGPT lügen und Menschen nicht? Und verändert sich eigentlich unser Wissensbegriff, wenn wir mit ChatGPT umgehen? Diese und andere Fragen diskutierten Mitglieder der Task Force Künstliche Intelligenz (TFKI) im Ethikverband der Deutschen Wirtschaft (EVW e.V.).  

Die Diskussion wurde von Paul van de Wiel geleitet. Diskussionsteilnehmer waren der Moralphilosoph und Vizepräsident des EVW Prof. Dr. Klaus-Jürgen Grün, Dr. Jochen Biedermann, Gründer und CEO von FinTech Consult Limited, der Unternehmensberater Dr. Lothar Weniger, Kommunikationsberater Dr. Matthias Wühle, Jannis Graumann, Philosophiestudent an der Goethe Universität Frankfurt und Arthur Wei-Kang Liu, Philosophiestudent an der TU Darmstadt.

Die Mitglieder der Diskussionsrunde haben unterschiedliche Erfahrungen mit ChatGPT gemacht, gute wie schlechte. 

„KI weiß nicht, dass sie etwas nicht weiß“

  • Lothar Weniger –

Wühle beginnt mit einer Anekdote: Eine Radiomoderatorin hatte ChatGPT um Ausflugshinweise für die Osterfeiertage gebeten. Geliefert wurde ein schön formuliertes Reiseprogramm mit Osterbrunch und Museumsbesuch. Allerdings existierte weder das Restaurant noch das Museum an diesem Ort oder hatte zu diesem Zeitpunkt geöffnet. Wühle zufolge gibt sich ChatGPT nicht die Blöße, den Fragesteller mit einem „Weiß ich nicht“ abzufertigen, sondern erfindet schlicht Informationen.

„KI ist nun mal dumm, bzw. sie weiß nicht, dass sie etwas nicht weiß“, stellt Weniger fest. Dennoch glaubt er daran, da sie seiner Meinung nach einen großen Schub von Anwendungen bringen wird, der riesige Effizienzgewinne ermöglichen wird, vergleichbar mit der Automatisierung in der Produktion. Weniger sieht konkrete Anwendungsfelder etwa in der Rechtsberatung, der Aktienanalyse oder der 

Kommunikation mit Behörden. Probleme sieht Weniger auf den Gebieten von Forschung und Lehre, wo man aus dem Geschriebenen nicht mehr herauslesen kann, ob ein Student etwas weiß oder nicht weiß. Auch die Kreativen fühlen sich seiner Meinung nach in ihrer Entfaltung eingeschränkt, da auch hier ChatGPT Einzug hält.

„Wovor warnen Leute eigentlich, wenn sie vor ChatGPT warnen?“

  • Klaus-Jürgen Grün –

Viele behaupten, ChatGPT wisse gar nicht was es sagt. Aber auch Menschen wissen oft nicht, was sie sagen, gibt Grün zu bedenken. Für ihn ist die Frage interessanter „Was sagen solche Aussagen zu ChatGPT über uns selbst aus?“ Und wovor warnen eigentlich Leute genau, wenn sie vor ChatGPT warnen? 

„Dass ChatGPT nicht weiß, wenn es etwas nicht weiß“, hält Biedermann hingegen für ein rein technisches Problem. Wenn die Trainingsmenge zu klein ist, kann man auch einfach einen Schwellenwert einziehen, unter dem ChatGPT offen über sein Nichtwissen reden könnte.

„ChatGPT könnte uns irgendwann geistig überlegen sein“

  • Jochen Biedermann –

Biedermann stieß hingegen auf ein ganz anderes Problem, nämlich die Suche nach Quellen, etwa für Aussagen über volkswirtschaftliche Daten. Die Links, die ihm ChatGPT lieferte, funktionierten zu 99% nicht. Die Fehlermeldung lautete in der Regel: „404 – Seite nicht auffindbar“. Dennoch hält Biedermann ChatGPT für ein Tool, das uns hilft, Wissen schneller zu verarbeiten. In Prüfungen, in denen Bücher zugelassen sind, könne man ebensogut ChatGPT zulassen. Wenn diese Entwicklung so weitergeht, fürchtet Biedermann ein Problem, das aus der Singularität erwächst: „ChatGPT könnte uns irgendwann geistig überlegen sein oder sich sogar verselbständigen“.

„Befragt man ChatGPT zu philosophischen Standardthemen, erhält man wunderschöne Ergebnisse, so wie sich der Dozent eine mustergültige Hausarbeit wünscht“, berichtet Grün. Provokante Behauptungen wird man in solchen Texten nicht finden, auch keine Verletzungen religiöser Gefühle oder sexuellen Anzüglichkeiten. Mit anderen Worten: Das Ergebnis sieht so aus, wie sich wir Menschen uns den Menschen wünschen. So wünschen sich Moralisten die Menschen: Ohne Verstöße gegen Vernunft- oder Complianceregeln.

ChatGPT gehört zu den Large Language Models (LLM), die wiederum zu den generativen Deep-Learning-Modellen zählen, ergänzt Graumann. Während etwa Google ein reiner Webcrawler sei, der Ergebnisse nach Keywords zusammenstellt, arbeiten LLMs mit Predictions auf Basis neuronaler Netzwerke, bei denen Begriffe z.B. nach Wahrscheinlichkeiten ausgewählt werden. So entstehen auch bei entsprechend kleinen Datensätzen die „Halluzinationen“ wie sie an dem Beispiel des Osterausfluges geschildert worden sind.

„Ontologie ist für ein Sprachsystem ein fremdes Konzept“

  • Arthur Wei-Kang Liu –

„ChatGPT ist ein Sprachmodell, das rein auf Wahrscheinlichkeiten aufgebaut ist“, ergänzt Liu. Das System „versteht“ nicht im herkömmlichen Sinne, sondern mischt Begriffe und Wörter zusammen, die zu einem bestimmten Thema passen. Auf die Frage an ChatGPT, ob es eine Ontologie besitze, lautete die Antwort nein. Stattdessen beruhen alle Informationen auf Patterns. „Ontologie ist für ein Sprachsystem ein vollkommen fremdes Konzept“, schlussfolgert Liu. ChatGPT kann demzufolge keine Vorstellungen haben oder entwickeln, von dem was es auf der Welt gibt.

„Was meinen wir, wenn wir sagen, wir hätten etwas verstanden?“

  • Klaus-Jürgen Grün –

„Was aber heißt Verstehen?“, fragt Grün. Wittgenstein weist in seinen „Philosophischen Untersuchungen“ darauf hin, dass der Ausspruch „Jetzt habe ich es verstanden“ offenlässt, worin genau sich das „Jetzt“, das „Nach-Jetzt“ und die Zeit davor unterscheidet. Was genau hat sich da gerade geändert? ChatGPT „versteht“ rein nach Mustern, die auf der Wahrscheinlichkeitsrechnung beruhen. „Aber was meinen wir damit, wenn wir sagen, wir haben etwas verstanden und mit welchem Recht können wir so etwas behaupten?“, fragt Grün. „Bedeutung“, Struktur und Eigenschaften von „Verstehen“ werden Graumann zufolge auch in Searles „Chinese-Room-Experiment“ hinterfragt: Gilt es bereits als „Verstehen“ und gibt es einen Unterschied im „Verstehen“ einer Fremdsprache zwischen Mensch und Maschine, wenn beide lediglich mittels eines syntaktischen Übersetzungsprogramms eine Konversation mit einem Muttersprachler führen?

„Man sollte zwischen Wetterbericht und Manns Zauberberg unterscheiden“

  • Matthias Wühle –

Wühle hält die Angst der kreativen Berufe vor ChatGPT für unbegründet: „Man sollte zwischen einfachen Texten wie dem Wetterbericht auf der einen Seite und literarischen Werken wie Thomas Manns Zauberberg auf der anderen Seite unterscheiden“. Die erste Kategorie lässt sich Wühle zufolge hervorragend über KI produzieren und reproduzieren, letztere nicht.

Erste ChatGPT-Anwendungen findet man auch in Hotels, zumindest in Ländern mit hohen Personalkosten wie Japan und der Schweiz, berichtet Wühle. Dort ersetzen ChatGPT-basierte Avatare bereits Rezeptionisten, um mit den Übernachtungsgästen in Dialog zu treten. Und selbst zu dieser Diskussionsrunde ließen sich Wühle zufolge ChatGPT-Avatare hinzuziehen, die etwa darüber referieren könnten, was z.B. Wittgenstein zu diesem oder jenem Problem gesagt hätte. Kreativ sei das jedoch nicht.

Das menschliche Überlebensinteresse lässt sich Wühle zufolge auch weiter auf die Frage herunterbrechen, ob man an einem gelungenen Osterbrunch interessiert sei oder ob man bereit sei, für ein Zimmer mit Meerblick einen Aufpreis zu zahlen. Hier bietet sich Wühle zufolge ein Unterscheidungsargument im Sinne der Turing-Maschine.

„Wenn ChatGPT irgendwann wie Thomas Mann schreiben kann, werden Menschen es trotzdem lesen“, entgegnet Grün. Selbst das Urteil darüber, ob ein Text von ChatGPT verfasst wurde, wird am Ende ChatGPT selbst treffen können. Interessant ist doch aber, welche Worte verwenden Menschen, um ChatGPT zu kritisieren und was sagt das über die Menschen aus? Was erfahren wir dadurch Neues über den Menschen?

„AI-Systeme können auch Urheberrechte beanspruchen“

  • Jannis Graumann –

„AI-basierte Systeme erheben bisweilen sogar Urheberrecht auf Texten, die sie nicht selbst verfasst haben, wenn etwa die Mustererkennung durch Zufall übereinstimmt“, berichtet Graumann. Professoren benutzten Tools, etwa gptzero.me, um Texte von Studenten zu überprüfen. Textdetektoren schlagen dabei teils falschen Alarm. Demnach können auch Texte, die von Menschen verfasst wurden, als von einer AI generiert eingeordnet werden. Studenten drohen dabei rechtliche Folgen (Aberkennung der Leistung, Exmatrikulation etc.). Die Urheberrechtsfrage wird allerdings relevant, wenn beispielsweise etwas „im Stil von“ generiert wird: Kann ein Stil urheberrechtlich geschützt werden? Liegt das Recht beim Verfasser des Prompts? Oder eher bei der AI? Dies eröffnet Raum für weitere Diskussionen etwa um Bewusstsein, Person und Menschenrechtserweiterung auf intelligente Agenten.

Sam Altman, CEO von OpenAI, plädierte vor diesem Hintergrund am 16.März vor dem Senat für Regierungsreglementierungen angesichts des Potentials generativer AI’s

Die Task Force Künstliche Intelligenz (TFKI) hat sich am 28. Februar 2020 in Frankfurt als Arbeitsgruppe von Mitgliedern des Ethikverbands der Deutschen Wirtschaft (EVW e.V.) mit dem Ziel konstituiert, aktuelle Fragen und Probleme, die im Zusammenhang mit Künstlicher Intelligenz (KI) für die Moralphilosophie aufgeworfen werden, zu diskutieren. 

Mensch versus ChatGPT – wer weiß eigentlich mehr?

Titelbild: Illustration FUNDSCENE MEDIA

Weitere Artikel auf www.aimag.one unter KI

Erhalte regelmäßig die wichtigsten News zur Künstlichen Intelligenz bequem in dein Postfach!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.

More from this stream

Recomended

Hautkrebs-Diagnose auf einen Blick

Hautkrebs-Diagnose auf einen Blick: Wie Digitalisierung den Systemkollaps verhindert

Robotik- und KI-Sektoren mit wesentlich höheren Bewertungsmultiplikatoren als traditionelle Sektoren

Die Nachfrage nach Robotik und KI steigt rapide an, da Unternehmen zunehmend komplexe Prozesse automatisieren, die Effizienz steigern und die Betriebskosten senken wollen, was sich positiv auf die Gewinnmargen auswirkt.

Algorithmen verbessern Analyse medizinischer Bilder

Auf Deep Learning basierende Algorithmen können Tumoren erkennen – Forscher des KIT unter den besten Teams beim internationalen AutoPET Wettbewerb – Publikation in Nature Machine Intelligence

Was bedeutet Datenqualität im KI-Kontext?

Was bedeutet Datenqualität im KI-Kontext? Künstliche Intelligenz basiert auf guter Datengrundlage..........