Die folgende Seite beschäftigt sich vor allem mit ChatGPT, den Schreibprozess und wann man KI-Tools einsetzen kann. Außerdem besprechen wir die rechtlichen Rahmenbedingungen an der Universität Bielefeld und warum selber schreiben und lesen trotzdem wichtig sind.
ChatGPT kann in vielen Phasen des Schreibprozesses unterstützend eingesetzt werden, wenn die Nutzung wohlüberlegt ist.
2. Recherche, Quellen- und Literaturstudium
3. Formulieren
4. Überarbeiten und neu schreiben
5. Korrigieren
WICHTIG: Die Schreibenden übernehmen die Verantwortung für den Text – also Sie!
Je genauer, desto besser!
Prüfen Sie immer wieder die erzielten Ergebnisse:
Leitfrage: Steht im Text wirklich das, was ich ausdrücken möchte?
Funktion | Tools (Beispiele) |
---|---|
Texproduktion | Jasper.ai, ChatGPT, DeepL write, Gemini (ehemals BARD), neuroflash |
Paraphrasieren | Quillbot, ChatGPT |
Korrektur & Feeback | Grammarly, Word Grammatik- & Rechtschreibprüfung, Writefull |
Übersetzen | DeepL, google translate |
Literaturrecherche | Elicit, ResearchRabbit, keenious, Connected Papers |
Visualisieren (Bilder, Grafiken usw.) |
DALL-E 2, Stable diffusion, Midjourney |
u.v.m. | u.v.m. |
Tool-Übersicht (Psychologie) |
Niels van Quaquebeke: AI Tools for Research Workflow in Academia (30.10.2023) |
Hier finden Sie alle Infos zum Thema Prüfungsrecht und ChatGPT.
Ein Auszug:
„Der (ungekennzeichnete) Einsatz von Chatbots bei Studien- und Prüfungsleistungen entgegen anderslautenden Aufgabenstellungen oder Eigenständigkeitserklärungen ist nicht erlaubt und gilt, wie auch der Einsatz sonstiger (herkömmlicher) unzulässiger Hilfsmittel, als Täuschungsversuch. Ein Täuschungsversuch führt in der Regel dazu, dass eine Abwertung oder ein Nichtbestehen erfolgen "kann", das bedeutet eine ordnungsgemäße Ermessensausübung durch die jeweils prüfende Person ist vorzunehmen. Überlicherweise [sic!] sehen die Prüfungsordnungen vorher eine Anhörung zum Täuschungsvorwurf vor.
Im Einzelnen:
Prüfungsleistungen müssen „eigenständig" und ohne fremde Hilfe erbracht werden, weil individuelle Fähigkeiten unter Beweis gestellt werden sollen. Beim Einsatz von KI-Software zur Erstellung von Prüfungsleistungen fehlt diese Eigenständigkeit. Die vermeintliche Prüfungsleistung beruht durch den Einsatz von Chatbots nicht mehr auf einer selbstständigen und persönlichen Anwendung der erlernten und nachzuweisenden Kompetenzen im individuellen Prüfungskontext.
Ursprünglich mag bei dem Ausschluss der Inanspruchnahme fremder Hilfe an andere Menschen oder Unternehmen gedacht worden sein, ausdrücklich eingeschränkt ist die fremde Hilfe aber nicht. Übliche technische Unterstützungen durch ChatGPT oder andere KI-Software haben häufig den gleichen quantitativen und qualitativen Umfang wie eine bereits jetzt sanktionierte, durch „menschliche“ Hilfestellung erreichte Unterstützung und werden daher auch begrifflich von der "Inanspruchnahme fremder Hilfe" umfasst.
Ist eine eigenständige Bearbeitung Bestandteil der "Aufgabenstellung" und werden übliche Eigenständigkeitserklärungen verlangt und benutzt, kann deshalb bereits auf dieser Basis angenommen werden, dass ein unzulässiger Einsatz von Chatbots oder anderen technischen Hilfsmitteln als Täuschungsversuch zu werten ist, weil fremde Hilfe in Anspruch genommen wurde.
Durch das Aufkommen technischer Lösungen sind jedoch eine Vielzahl von Hilfsmitteln zu den bisherigen üblichen Hilfsmitteln dazugekommen. Es bietet sich daher an, das Verbot technischer Hilfsmittel ausdrücklich zu benennen und eine genauere Differenzierung und Ausformulierung vorzunehmen.“
Hier finden Sie alle Infos zum Thema Prüfungsrecht und ChatGPT.
Ein Auszug:
„Begreift man den Einsatz von Chatbots als legitimes Hilfsmittel zu einer Prüfung, ergibt sich somit auch die Möglichkeit, den Einsatz von Chatbots / künstlichen Intelligenzen in Prüfungen durch Zulassung als Hilfsmittel ausdrücklich vorzusehen.
Es existieren bereits heute Prüfungen, bei denen lediglich durch eine Anpassung der Aufgabenstellung erreicht werden kann, dass Studierende für die Bearbeitung Chatbots nutzen können, ohne dass dadurch der Nachweis des bislang geforderten Kompetenzerwerbs gefährdet wird.
Hierbei gilt es nicht nur aus rechtlichen Gründen zu beachten, dass trotz Verwendung von KI-Werkzeugen die Ergebnisse auf einer Grundlage beruhen müssen, die aus selbst angeeignetem Wissen der Studierenden besteht (Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 33). In diesem Sinne kommen etwa Aufgabenstellungen in Frage, bei denen umfassende und überzeugende Ergebnisse trotz KI-Einsatz nur dann präsentiert werden können, wenn die zugrundeliegende Thematik entsprechend verstanden und durchdrungen wurde. Eine andere Lösung wäre, im Rahmen des vorgegebenen Rahmens den Erwartungshorizonts zu modifizieren und (andere) Schwerpunkte bei Aspekten der Bewertung der Leistung zu setzen oder strenger zu bewerten (zu diesen und weiteren Möglichkeiten der Realisierung von KI-Prüfungsformaten Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 16 f.).
Darüber hinaus könnte zukünftig über eine Änderung an Modulen ein Zuschnitt der zu erlernenden Kompetenzen geschaffen werden, der den Einsatz von Chatbots/künstlicher Intelligenz für den Nachweis des Lernerfolgs im Rahmen der Prüfung erforderlich oder möglich macht. So ist etwa vorstellbar, dass Studierende in der Zukunft nicht nur etwa in Methoden der Datenauswertung, Textauslegung oder Wissensvermittlung geprüft werden, sondern auch im zielführenden Einsatz von KI-Software bezogen auf die jeweilige Fachdisziplin.
Über Modifikationen an Modulen und Kompetenzbeschreibungen wäre es u.U. einfacher möglich, eine Reihe geeigneter KI-Anwendungen zur Verwendung zuzulassen und die Studierenden dokumentieren zu lassen, welche Software mit welchen Befehlen („Prompts“) individuell zum fertigen Ergebnis verholfen hat. Dadurch kann die Kompetenz gefördert werden, verschiedene Werkzeuge möglichst prüfungsspezifisch gelungen einzusetzen und zu kombinieren.
Hiermit erkläre ich, dass ich die vorliegende Arbeit ohne fremde Hilfe (beispielsweise Zusammenarbeit mit Kommiliton*innen oder Inanspruchnahme von Lektoratsdienstleistungen) verfasst und die abgebildeten Datensätze, Zeichnungen, Skizzen und graphische Darstellungen, soweit nicht anders angegeben, eigenhändig erstellt habe. Ich habe keine anderen Quellen als die angegebenen benutzt und habe die Stellen der Arbeit, die anderen Werken entnommen sind – einschl. verwendeter Tabellen und Abbildungen – in jedem einzelnen Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht.
Bei der Herstellung dieses Textes wurden folgende KI-gestützte Werkzeuge und Prompts [= Anweisungen oder Fragen an die KI] verwendet:
Aufzählung der KI-Werkzeuge und des genutzen Prompts hier einfügen
Hiermit erkläre ich, dass ich die vorliegende Arbeit ohne fremde Hilfe (beispielsweise Zusammenarbeit mit Kommiliton*innen oder Inanspruchnahme von Lektoratsdienstleistungen) oder unter Rückgriff auf vergleichbare technische Hilfsmittel (genauere Ausdifferenzierung) verfasst und die abgebildeten Datensätze, Zeichnungen, Skizzen und graphische Darstellungen, soweit nicht anders angegeben, eigenhändig erstellt habe. Ich habe keine anderen Quellen als die angegebenen benutzt und habe die Stellen der Arbeit, die anderen Werken entnommen sind – einschl. verwendeter Tabellen und Abbildungen – in jedem einzelnen Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht.
Gimpel, H., Hall, K., Decker, S. et al. (2023). Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education: A Guide for Students and Lecturers. (Hohenheim Discussion Papers in Business, Economics and Social Sciences, No. 02-2023). https://www.econstor.eu/bitstream/10419/270970/1/1840457716.pdf.
Albrecht, S. (Büro für Technikfolgeabschätzung beim deutschen Bundestag). (2023). ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen.
Bender, E., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? https://doi.org/10.1145/3442188.3445922
Buruk, O. (2023): Academic Writing with GPT-3.5: Reflection on Practices, Efficacy, and Transparency. [Preprint]
Deutscher Ethikrat (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz.
Heard, S. B. (Blogbeitrag vom 20. Juni 2023). How to use ChatGPT in scientific writing.
Reinmann, G. (2023). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik. Hochschulforum Digitalisierung (Diskussionspapier Nr. 25). https://hochschulforumdigitalisierung.de/wp-content/uploads/2023/10/HFD_DP_25_Deskilling.pdf
Salden, P. & Leschke, J. (2023). Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung.
Wolfsberger, J. (Blogbeitrag vom 28. Juni 2023). Ich liebe ChatGPT.