Berufsanfänger und Studenten berichten von ihren Erfahrungen im Umgang mit ChatGPT
Von Dr. Matthias Wühle, Dozent an der ISM International School of Management Frankfurt
LLM-basierte KI-Lösungen wie ChatGPT wurde von Schülern und Studenten lange herbeigesehnt: Welche Zellen eignen sich zur DNA-Isolation? Welche Konflikte spiegelt das Wartburgfest wider? Welches Gelehrtenbild wird im Eingangsmonolog von «Faust» gezeichnet? Einfach die Frage als Prompt eingegeben – Hausaufgabe erledigt – Mehr freie Zeit für den Fußballplatz oder die neue Netflix-Serie. Soweit die Theorie. In der Praxis scheint doch eher der Vergleich mit einer anderen Wundermaschine gerechtfertigt, die lange vor ChatGPT die Klassenzimmer revolutionierte: der Taschenrechner. Komischerweise wurde der Mathe-Unterricht mit Einführung des Taschenrechners nicht leichter, sondern er wurde komplexer, forderte (und förderte!) strukturiertes Denken und abstraktes Vorstellungsvermögen. Der Taschenrechner markiert den Übergang vom Rechnen zur Mathematik, wie unser Mathelehrer immer zu sagen pflegte.
Ähnlich ist es auch mit ChatGPT: Sicher kann man sich eine Abiturprüfungsfrage über ChatGPT gut erklären lassen; nur lernen und das Wissen auch (an der richtigen Stelle – und zur richtigen Zeit) anwenden muss man schon selbst. Anstatt also ChatGPT aus den Klassenzimmern und Seminarräumen zu verbannen – was sich ohnehin kaum durchsetzen ließe – sollte man ab einer gewissen Klassenstufe lernen, ChatGPT als nützliches Werkzeug zu verwenden. Dass ChatGPT auch halluzinieren (Inhalte erfinden) oder sogar falsche Aussagen widergeben kann, sollte schon zum Grundverständnis eines LLM-Tools gehören. Im Folgenden berichten Studenten des ersten Semesters der ISM International School of Management in Frankfurt von ihren ganz eigenen Erfahrungen im Umgang mit ChatGPT beim Studium:
- ChatGPT kann mehr Schaden anrichten als Nutzen bringen
Von Elisa Keil (23), berufsbegleitende Studentin bei der International School of Management (ISM) in Frankfurt
Um Probleme effizient lösen zu können, werden oft neue Perspektiven und verschiedene Ansätze genutzt. Die präzise Formulierung der Problematik erleichtert es dabei dem Gegenüber – egal ob Mensch oder KI – spezifische Lösungsvorschläge zu liefern. Um von ChatGPT eine detaillierte und zielführende Lösung zu erhalten, sind Fachkenntnisse notwendig. Nur mit diesen Vorkenntnissen kann ChatGPT eine Antwort generieren, die auf die spezifischen Anforderungen der Branche und des Unternehmens zugeschnitten ist.
KI-generierte Antworten bringen jedoch auch Gefahren mit sich. Häufig bleibt die KI bei allgemein formulierten Lösungsvorschlägen, die nicht direkt auf unternehmensspezifische Probleme anwendbar sind. Zudem besteht die Gefahr, dass firmenspezifische Richtlinien aber auch Datenschutzrichlinien verletzt werden. Künstliche Intelligenzen wie ChatGPT, arbeiten mit Datenbanken, die mit jedem Eintragt erweitert werden. Je nachdem welche Informationen geteilt werden, kann die Nutzung mehr Schaden anrichten, als Lösungen bieten. Dies kann dazu führen, dass interne Informationen ungewollt preisgegeben werden und arbeitsrechtliche Konsequenzen deshalb entstehen.
Aus diesem Grund ist es ratsam, beim Einsatz von ChatGPT in Facharbeiten Vorsicht walten zu lassen. Eine Nutzung von ChatGPT kann jedoch in den ersten Schritten einer wissenschaflichen Arbeit von Nutzen sein. Besonders bei “Writersblock” kann es dazu genutzt werden, Ideen zu sammeln.
- Mit dem Prompt Argumentationsstrukturen vorgeben
Von Philipp Evers (23), studiert Finance & Management an der ISM Franfurt.
In der heutigen Wissenschaft erleben wir eine digitale Revolution, bei der Künstliche Intelligenz (KI) eine immer bedeutendere Rolle spielt. Ob bei der Analyse großer Datenmengen, der Automatisierung von Routineaufgaben oder der interaktiven Wissensvermittlung – KI verändert das wissenschaftliche Arbeiten grundlegend. Besonders Systeme wie ChatGPT bieten eine neue Form der Unterstützung, die es ermöglicht, Fragen in Echtzeit zu stellen und vielfältige Informationen schnell zu erhalten. Doch wie zuverlässig sind diese Modelle im akademischen Kontext wirklich? Welche Chancen bieten sie, und wo liegen ihre Grenzen?
Um der Antwort auf die Frage nach dem Nutzen von KI im wissenschaftlichen Kontext näher zu kommen, stelle ich ChatGPT eine Frage zu einem komplexen, fachspezifischen Sachverhalt, um anschließend ihre Antwort auf Stärken und Schwächen zu untersuchen.
ChatGPT gibt seine Antwort in 5 kurzen Stichpunkten, jeweils begleitet von etwa 3–5 Sätzen zur Ausführung und Erläuterung.
ChatGPT bietet eine breite Abdeckung der Themen und zeigt viele verschiedene Perspektiven auf. Diese Vielfalt sorgt dafür, dass die Antwort die unterschiedlichen Dimensionen des Themas anspricht. Besonders angenehm ist es, wie klar und strukturiert die Antwort formuliert ist, was hilft, komplexe Themen übersichtlich und verständlich darzustellen. Sie bietet dadurch eine gute Orientierung.
Die Antwort bleibt jedoch eher oberflächlich und geht nicht auf detaillierte Studien oder spezifische Daten ein, welche die aufgestellten Thesen stützen. In einem wissenschaftlichen Kontext wäre es notwendig, die Aussagen durch konkrete Belege oder Zitate aus Fachquellen zu untermauern, was in dieser KI-generierten Antwort fehlt. Einige Aussagen bleiben allgemein. Hier fehlt es an weiterführenden Beispielen oder Studien.
Eine große Schwäche weist die Antwort im Fehlen einer kritischen Diskussion über das Thema auf. Die Antwort zeigt keine Abwägung der Vor- und Nachteile der einzelnen Aspekte. Um eine fachspezifische Antwort der KI richtig beurteilen und verstehen zu können, sollte der Nutzer Vorwissen haben.
Nun stellte ich ChatGPT die Frage erneut, aber mit dem Zusatz: „Stelle in deiner Antwort eine These auf und sammle Argumente dafür und dagegen. Ziehe am Ende ein Fazit und begründe es.“ Der Zusatz verändert die Antwort maßgeblich, da er eine klare Argumentationsstruktur vorgibt und auf eine ausgewogene Betrachtung abzielt. Dies führt zu einer wissenschaftlich fundierteren und analytischeren Antwort.
Durch die Aufforderung, eine These aufzustellen und Argumente pro und contra zusammeln, wird die Antwort strukturierter. Die These dient als klarer Leitfaden und die Gegenüberstellung von Argumenten schafft eine logische Struktur, die den Leser durch die Überlegungen führt.
Die Pro- und Contra-Argumente sorgen für eine tiefere und kritischere Auseinandersetzung mit dem Thema. Durch die Anweisung, ein Fazit zu formulieren, wird die Argumentation abgerundet und in einem wissenschaftlichen Kontext verankert. Das Fazit erlaubt eine Zusammenfassung und Bewertung der vorangegangenen Argumente und verdeutlicht, auf welcher Basis eine Schlussfolgerung gezogen wird. Die Begründung stellt sicher, dass das Fazit nicht willkürlich erscheint, sondern auf den erörterten Fakten und Überlegungen basiert.
Der Zusatz erzeugt einen Mehrwert, denn eine Analyse erfordert die kritische Auseinandersetzung mit verschiedenen Perspektiven. Die geforderte Argumentstruktur bringt Tiefe und Präzision in die Antwort. Sie lädt zur weiteren Exploration ein, etwa durch wissenschaftliche Quellen und Studien, welche die Argumente stützen oder widerlegen könnten.
- ChatGPT liefert keine eigenen Ideen
Von Paula Fleck (23), berufsbegleitende Studentin bei der International School of Management (ISM) in Frankfurt
Häufig fehlt ChatGPT der notwendige Kontext, um die Frage umfassend zu beantworten. Die KI kann nur auf bestehende Texte und Dokumente zugreifen und keine eigenen Ideen entwerfen. Außerdem muss man bei persönlichen oder geheimen Informationen aufpassen, da ChatGPT mit sensiblen Daten nicht verschlüsselt umgehen kann. Daher sollte man diese Informationen vorsichtshalber nicht in solche Systeme eingeben.
Eine wichtige Rolle spielt außerdem der Prompt. Der Aufbau der Ergebnisse sieht auf dem ersten Blick meist vielversprechend aus und liefert einen guten Überblick. Dies ist eine klare Stärke von ChatGPT. Jedoch merkt man schnell, dass man, um weitere
Informationen und mehr Hintergrund zu erlangen, detailliertere Fragen gestellt werden müssen. Bei dem Eingeben des Prompts hilft es ebenfalls sich vorher zu überlegen, in welchem Format und für welchen Bedarf man die Antwort der KI verwenden möchte. Hinzu kommt, dass man ChatGPT auch den Sprachstil vorgeben kann. So kann das Ergebnis verständlicher oder gehobener mit Fachbegriffen dargestellt werden.
Für meine Zwecke würde ich ChatGPT lediglich zum Informieren über Sachinhalte nutzen, da die Themen meist sehr komplex sind und eine ausführliche Datenanalyse benötigt wird. Bei betriebswirtschaftlichen Themen muss man aufpassen, aus welchem Anlass der Autor das Schriftstück verfasst hat. Ein Besitzer eines Webshops schaut etwa auf Produktbewertungen anders als ein Konsument und handelt somit beim Verfassen aus einer anderen Intention. Durch eigene Recherche kann man somit verschiedene Blickwinkel mit einfließen lassen.
Ich finde, dass ChatGPT eine wichtige Bereicherung für das wissenschaftliche Arbeiten darstellt. KI-gestützte Tools bieten die Möglichkeit, komplexe Sachverhalte schnell zu analysieren, Informationen übersichtlich zusammenzustellen und grundlegendes Wissen zu vermitteln.
In den nächsten Jahren wird die künstliche Intelligenz weiter wachsen, da sie jeden Tag mit tausenden Informationen gespeist wird. Eine Gefahr der Weiterentwicklung der künstlichen Intelligenz könnte darin liegen, dass man eines Tages den Unterschied von menschlichen Werken und künstlicher Bearbeitung nicht mehr differenzieren kann. Dies betrifft dann nicht nur die Qualität der wissenschaftlichen Arbeit, sondern auch ethische und methodische Aspekte. Solche Werke leben von neuen Ansätzen, kritischem Denken und kreativen Lösungen. Das könnte in der Zukunft dazu führen, dass Menschen sich weniger mit den Themen auseinandersetzen, die KI-Inhalte ungeprüft übernehmen und kaum noch eigene, originelle Beiträge leisten. Wenn Forscher KI-generierte Inhalte verwenden, besteht außerdem die Gefahr, dass sie unbewusst urheberrechtlich geschützte Inhalte übernehmen und gegen akademische Standards verstoßen.
- Fehlende Trainingsdaten führen zu leeren Antworten
Von Tommy Franke (21), Dual Student im Fachbereich Product Asset Management bei der International School of Management (ISM) in Frankfurt
Bei langen Prompts, die aus mehreren Sätzen bestehen, fällt auf, dass oft nur auf Teile des Prompts eingegangen wird. Entsprechend empfiehlt es sich, Fragen nacheinander zu stellen.
Es ist grundsätzlich ratsam, schon etwas Hintergrundwissen zum Thema zu haben, um die Informationen der KI prüfen zu können. Das Problem mit generativen KIs ist, dass sie nicht wissen, dass sie nichts wissen. Im Gegensatz zu uns Menschen sind LLMs (Large-Language-Models) nicht in der Lage, Zusammenhänge zu erkennen. Sie können zwar Informationen und Daten verknüpfen und entsprechend sprachlich ausdrücken, aber haben nicht die Fähigkeit festzustellen, dass das, was sie meinen zu wissen ggf. nicht das ist, wonach gefragt wird. So könnte man ChatGPT z.B. nach Wahlprognosen fragen für eine anstehende Wahl, wofür die KI noch keine Trainingsdaten bekommen hat. Dabei würde eine entsprechend oberflächliche Antwort generiert, welche fast nur generelle Aussagen enthält. Also: Inhaltlich keine wirkliche Antwort, da ChatGPT nicht wusste, dass es eigentlich keine Informationen dazu hat.
Es wurde lediglich versucht, Informationen miteinander zu verknüpfen und in Worte umzuwandeln. Um also leere Antworten zu vermeiden, bietet es sich an, vorher anzufragen, ob ChatGPT zu der Thematik Informationen hat.
Generell kann des praktische KI-Tool dennoch für eine wissenschaftliche Arbeit genutzt werden. Allerdings eher, um eine Idee für Satzbaustrukturen, Formulierungen und Datenverknüpfung zu bekommen. So können auch zwei Themen mit der Hilfe von ChatGPT verknüpft werden. Man holt sich Inspiration von der KI und entwickelt daraus die eigenen Ideen.