zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search
  • KI-Tools

    Informationen für Studierende

    Campus der Universität Bielefeld
    © Universität Bielefeld

Informationen für Studierende zu KI-Tools

KI-Tools beim Schreiben: was man wissen sollte

Die folgende Seite beschäftigt sich vor allem mit ChatGPT, den Schreibprozess und wann man KI-Tools einsetzen kann. Außerdem besprechen wir die rechtlichen Rahmenbedingungen an der Universität Bielefeld und warum selber schreiben und lesen trotzdem wichtig sind.

ChatGPT

Diagramm mit zwei überöappenden Kreisen, die die Ausgabe von ChatGPT beschreibt, mit einem Kreis, der die wahrscheinliche Wortreihenfolge angibt und ein Kreis, der die korrekten Aussagen darstellen soll. Über die Hälfte der Kreise überlappt sich.
Salden, P. & Leschke, J. (2023). Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung (S. 10). https://doi.org/10.13154/294-9734
  • basiert auf einem Sprachmodell (Large Language Model), das nach Eingabe eines Prompts Texte durch die Aneinanderreihung von Tokens –umgangssprachlich ausgedrückt Wort für Wort –anhand statistischer Wahrscheinlichkeiten (und nicht auf Basis inhaltlichen Verstehens!)erzeugt
  • Basis: neuronale Netze, Zufallsvariable erzeugt immer neue Ergebnisse
  • Basisversion (GPT-3) entgeltfrei (3 Mrd. Trainingstexte bis 2021), aber man muss einen Account anlegen und OpenAIbenutzt u.U. die Eingaben der Nutzer*innen und deren Interaktion mit GPT als Trainingsdaten
  • neue Version (GPT-4) kostenpflichtig (aktuell)
  • Ideen explorieren, Anregungen suchen („Research Buddy“)
    Achtung: Funktioniert nur, wenn man sich inhaltlich auskennt, weil man nur dann im „Gespräch“ falsche Aussagen oder einseitige Argumentationen erkennt
  • aus Stichwortlisten Fließtext schreiben lassen
  • rohe, informell geschriebene Textteile stilistisch verändern („im Stil von…“)
  • kürzen (Text, Sätze, Wörter)
  • Textstruktur verändern lassen (Neuordnen von Absätzen)
  • Grammatik und Syntax „polieren“, zu komplizierte Sätze überarbeiten lassen
  • usw.
     

ChatGPT kann in vielen Phasen des Schreibprozesses unterstützend eingesetzt werden, wenn die Nutzung wohlüberlegt ist.

  1. Die Arbeit und Recherche planen
    • Ins Thema einarbeiten
    • (vorläufige) Fragestellung
    • Vorgehen planen (Methoden, Vorgehen, Literatur)
    • Vorläufige Idee für den Aufbau der Arbeit
  • ChatGPT kann für Brainstorming, Ideen entwickeln und "Probebohrungen" genutzt werden

2. Recherche, Quellen- und Literaturstudium

  • Notizen machen
  • exzerpieren
  • dokumentieren usw.
  • ChatGPT kann helfen, sich einen Überblick zu verschaffen, Zusammenfassungen schreiben lassen

3. Formulieren

  • Passagen, Absätze, Sätze
  • Kapitel
  • Abbildungen, Tabellen etc.
  • ChatGPT kann Sprachmaterial für eine Rohfaasung liefern oder auch Argumentationen

4. Überarbeiten und neu schreiben

  • Geschriebenes aus einer Leser*innen-Perspektibe ansehen
  • Die Textstruktur, den Aufbau des Textes verändern
  • ChatGPT einsetzen, um zu paraphrasieren, umzuschreiben, für den Stil und zum Übersetzen

5. Korrigieren

  • Wörter und Sätze ändern und verbessern
  • Text in Formbringen
  • ChatGPT kann für Grammatik- und Rechtschreibprüfung eingesetzt werden
  • kann im Forschungs- und Schreibprozess unterstützen
  • manchmal Zeitersparnis durch Übernahme von Routine-Arbeiten
  • kann mehr Teilhabe ermöglichen (z.B. für Menschen mit Lese-Rechtschreibschwäche, Seh-Einschränkungen), aber auch einschränken: Qualitätsunterschied kostenfreie – kostenpflichtige Versionen; Inhalte kleinerer Fächer, seltene Sprachen, sehr neue oder spezifische Theorien werden schlechter, unpräziser abgebildet als bekannte
  • plappert, simuliert, produziert Falschinformationen (z.B. Quellen)
    • keine verlässliche Wissensquelle, hat kein semantisches Verständnis
  • „verführt“ uns durch den geschliffenen Stil und dialogischen Charakter (Anthropomorphisierung)
    • wir halten den Chatbot für kompetenter, als er ist (und uns selbst auf lange     Sicht möglicherweise für inkompetenter, als wir sind)
  • Bias (Verzerrung, Voreingenommenheit) in den Trainingsdaten
    • Vorurteile werden durch Reproduzieren des Sprachmaterials verstärkt; Textbasis intransparent
  • unklarer Urheber- und Datenschutz, fehlende Transparenz
    • Achtung: keine sensiblen Forschungsdaten eingeben, da unklar, was davon     OpenAI weiterverarbeitet

WICHTIG: Die Schreibenden übernehmen die Verantwortung für den Text – also Sie!

  • Machtkonzentration (es dominieren wenige, meist US-amerikanische Firmen)
  • schlechte Arbeitsbedingungen der Menschen, die die Systeme trainieren (geringer Lohn, kaum/keine psychologische Betreuung)
  • immenser ökologischer Fußabdruck durch hohen Stromverbrauch
     
  • Brauchbare Ergebnisse lassen sich nur durch gute Eingaben („Prompts“) erzielen.
  • Das Formulieren guter Prompts erfordert Fach- und Textsortenwissen.
  • Das Ergebnis muss immer auf Korrektheit geprüft werden!
  • Nutzung von textgenerierenden Tools wie ChatGPT bedeutet nicht immer Zeitersparnis.
  • „Prompt Engineering“ als neues professionelles Beschäftigungsfeld (?)
     

Prompting-Beispiele

Tabelle mit Aktivität und Prompting-Beispielen
  • Du bist eine Masterstudentin, die sich mit ihrer Abschlussarbeit im Fach Biologie zum Thema XY für einen Preis bewirbt, der für exzellente Masterarbeiten vergeben wird. Stell in ca. 500 Wörtern deine Arbeit vor, indem du das Thema, deine Fragestellung und dein Vorgehen beschreibst sowie die wichtigsten Ergebnisse und Erkenntnisse. Zudem soll die fachliche Relevanz deutlich werden.
    (Idee von Elke Langelahn, Schreibauftrag im Seminar „Schreiben im Studium, SoSe 2022)
  • Stell dir vor, du bist eine versierte Journalistin, die einen Pulitzer-Preis-verdächtigen Artikel zum Thema XY für die New York Times verfasst. Kontrastiere dabei die Aspekte V und Z. (Idee von Nadine Lordick, 2023, Workshop „Mit ChatGPT bessere Arbeiten schreiben?“ am 06.09.2023 an der Universität Bielefeld)
  • Write a text on the topic A from the perspective B with the target audience C in a D tone. (Gimpel et al., 2023)

Je genauer, desto besser!

Prüfen Sie immer wieder die erzielten Ergebnisse:

  • Welche Passagen muss ich inhaltlich korrigieren?
  • Wo muss ich Anpassungen an die geforderte Textsorte vornehmen?
  • Wo muss ich sprachlich präzisieren (z.B. Fach-begriffe, Konnektoren, Hauptsatz-/Nebensatz-konstruktionen, Absatzgestaltung)?
  • Welche Passagen muss ich stilistisch überarbeiten (z.B. Wissenschaftssprache, individueller Schreibstil)?

Leitfrage: Steht im Text wirklich das, was ich ausdrücken möchte?

  • Schreiben unterstützt die Auseinandersetzung mit und das Lernen von fachlichen Inhalten. (Bangert-Drowns et al., 2004; Klein & Boscolo, 2016; Graham, Kiuhara, & MacKay, 2020; van Dijk et al., 2022)
  • Schreiben verbessert das Lesen.
    (Graham & Hebert, 2011)
  • Schreiben ist eine wichtige Fertigkeit für den Beruf und das Leben. („A skill for the digital world“; OECD, 2016, S. 3)
  • Schreiben ist eine wichtige Ausdrucksform: Sie haben eine eigene Stimme und etwas zu sagen!
  • Schreiben und Lesen heißt: das Denken trainieren. Eigenständiges kritisches Denken ist wichtig und ein zentrales Ziel der Hochschulbildung.
  • Das Studium ist keine Aneinanderreihung von „Abkürzun-gen“: Auseinandersetzung & Vertiefung brauchen Zeit!
  • Um die Qualität der ausgegebenen Ergebnisse beurteilen zu können, müssen Sie Fachinhalte und Textsorten gelernt haben.
     

Weitere KI-Tools und ihre Funktionen

Funktion Tools (Beispiele)
Texproduktion Jasper.ai, ChatGPT, DeepL write, Gemini (ehemals BARD), neuroflash
Paraphrasieren Quillbot, ChatGPT
Korrektur & Feeback Grammarly, Word Grammatik- & Rechtschreibprüfung, Writefull
Übersetzen DeepL, google translate
Literaturrecherche Elicit, ResearchRabbit, keenious, Connected Papers
Visualisieren (Bilder, Grafiken usw.)

DALL-E 2, Stable diffusion, Midjourney

u.v.m. u.v.m.

Tool-Übersicht (Psychologie)

Niels van Quaquebeke: AI Tools for Research Workflow in Academia (30.10.2023)

Screenshot Elicit
  • basiert auf Sprachmodell GPT-3
  • Datenbasis: Semantic Scholar (seit 2022 über 200 Mio. wissenschaftliche Publikationen, vorwiegend englischsprachige Texte)
  • Benutzung: Stichworte oder Fragen eingeben, Suchmaschine sucht nach den inhaltlich ähnlichsten Beiträgen, liefert bibliografische Angaben und Kurzzusammenfassungen
     

Wichtig zu wissen

Screenshot Elicit

 

  • Solche Recherchetools ersetzen nicht die Suche in Fachdatenbanken und Bibliothek, können sie aber ergänzen.
  • meist bessere Ergebnisse in englischer Sprache (da Trainingsmaterial überwiegend englische Texte)
  • eher geeignet, wenn man sich schon im Thema etwas auskennt (auch um gute Prompts eingeben zu können)
  • prüfen:
    • welche Datenbasis?
    • aus welchem Zeitraum?
    • Funktionsweise? (Sprachmodelle garantieren keine Korrektheit, sondern    erzeugen auch Falschinformationen)

Rechtliche Rahmenbedingungen an der Universität Bielefeld

Hier finden Sie alle Infos zum Thema Prüfungsrecht und ChatGPT.

Ein Auszug:

„Der (ungekennzeichnete) Einsatz von Chatbots bei Studien- und Prüfungsleistungen entgegen anderslautenden Aufgabenstellungen oder Eigenständigkeitserklärungen ist nicht erlaubt und gilt, wie auch der Einsatz sonstiger (herkömmlicher) unzulässiger Hilfsmittel, als Täuschungsversuch. Ein Täuschungsversuch führt in der Regel dazu, dass eine Abwertung oder ein Nichtbestehen erfolgen "kann", das bedeutet eine ordnungsgemäße Ermessensausübung durch die jeweils prüfende Person ist vorzunehmen. Überlicherweise [sic!] sehen die Prüfungsordnungen vorher eine Anhörung zum Täuschungsvorwurf vor.

Im Einzelnen:

Prüfungsleistungen müssen „eigenständig" und ohne fremde Hilfe erbracht werden, weil individuelle Fähigkeiten unter Beweis gestellt werden sollen. Beim Einsatz von KI-Software zur Erstellung von Prüfungsleistungen fehlt diese Eigenständigkeit. Die vermeintliche Prüfungsleistung beruht durch den Einsatz von Chatbots nicht mehr auf einer selbstständigen und persönlichen Anwendung der erlernten und nachzuweisenden Kompetenzen im individuellen Prüfungskontext.

Ursprünglich mag bei dem Ausschluss der Inanspruchnahme fremder Hilfe an andere Menschen oder Unternehmen gedacht worden sein, ausdrücklich eingeschränkt ist die fremde Hilfe aber nicht. Übliche technische Unterstützungen durch ChatGPT oder andere KI-Software haben häufig den gleichen quantitativen und qualitativen Umfang wie eine bereits jetzt sanktionierte, durch „menschliche“ Hilfestellung erreichte Unterstützung und werden daher auch begrifflich von der "Inanspruchnahme fremder Hilfe" umfasst.

Ist eine eigenständige Bearbeitung Bestandteil der "Aufgabenstellung" und werden übliche Eigenständigkeitserklärungen verlangt und benutzt, kann deshalb bereits auf dieser Basis angenommen werden, dass ein unzulässiger Einsatz von Chatbots oder anderen technischen Hilfsmitteln als Täuschungsversuch zu werten ist, weil fremde Hilfe in Anspruch genommen wurde.

Durch das Aufkommen technischer Lösungen sind jedoch eine Vielzahl von Hilfsmitteln zu den bisherigen üblichen Hilfsmitteln dazugekommen. Es bietet sich daher an, das Verbot technischer Hilfsmittel ausdrücklich zu benennen und eine genauere Differenzierung und Ausformulierung vorzunehmen.“

Hier finden Sie alle Infos zum Thema Prüfungsrecht und ChatGPT.

Ein Auszug:

„Begreift man den Einsatz von Chatbots als legitimes Hilfsmittel zu einer Prüfung, ergibt sich somit auch die Möglichkeit, den Einsatz von Chatbots / künstlichen Intelligenzen in Prüfungen durch Zulassung als Hilfsmittel ausdrücklich vorzusehen.

Es existieren bereits heute Prüfungen, bei denen lediglich durch eine Anpassung der Aufgabenstellung erreicht werden kann, dass Studierende für die Bearbeitung Chatbots nutzen können, ohne dass dadurch der Nachweis des bislang geforderten Kompetenzerwerbs gefährdet wird.

Hierbei gilt es nicht nur aus rechtlichen Gründen zu beachten, dass trotz Verwendung von KI-Werkzeugen die Ergebnisse auf einer Grundlage beruhen müssen, die aus selbst angeeignetem Wissen der Studierenden besteht (Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 33). In diesem Sinne kommen etwa Aufgabenstellungen in Frage, bei denen umfassende und überzeugende Ergebnisse trotz KI-Einsatz nur dann präsentiert werden können, wenn die zugrundeliegende Thematik entsprechend verstanden und durchdrungen wurde. Eine andere Lösung wäre, im Rahmen des vorgegebenen Rahmens den Erwartungshorizonts zu modifizieren und (andere) Schwerpunkte bei Aspekten der Bewertung der Leistung zu setzen oder strenger zu bewerten (zu diesen und weiteren Möglichkeiten der Realisierung von KI-Prüfungsformaten Salden/Lordick/Wiethoff/Hoeren, didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, S. 16 f.).

Darüber hinaus könnte zukünftig über eine Änderung an Modulen ein Zuschnitt der zu erlernenden Kompetenzen geschaffen werden, der den Einsatz von Chatbots/künstlicher Intelligenz für den Nachweis des Lernerfolgs im Rahmen der Prüfung erforderlich oder möglich macht. So ist etwa vorstellbar, dass Studierende in der Zukunft nicht nur etwa in Methoden der Datenauswertung, Textauslegung oder Wissensvermittlung geprüft werden, sondern auch im zielführenden Einsatz von KI-Software bezogen auf die jeweilige Fachdisziplin.

Über Modifikationen an Modulen und Kompetenzbeschreibungen wäre es u.U. einfacher möglich, eine Reihe geeigneter KI-Anwendungen zur Verwendung zuzulassen und die Studierenden dokumentieren zu lassen, welche Software mit welchen Befehlen („Prompts“) individuell zum fertigen Ergebnis verholfen hat. Dadurch kann die Kompetenz gefördert werden, verschiedene Werkzeuge möglichst prüfungsspezifisch gelungen einzusetzen und zu kombinieren.

Chatbots als zulässiges Hilfsmittel

Hiermit erkläre ich, dass ich die vorliegende Arbeit ohne fremde Hilfe (beispielsweise Zusammenarbeit mit Kommiliton*innen oder Inanspruchnahme von Lektoratsdienstleistungen) verfasst und die abgebildeten Datensätze, Zeichnungen, Skizzen und graphische Darstellungen, soweit nicht anders angegeben, eigenhändig erstellt habe. Ich habe keine anderen Quellen als die angegebenen benutzt und habe die Stellen der Arbeit, die anderen Werken entnommen sind – einschl. verwendeter Tabellen und Abbildungen – in jedem einzelnen Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht.

Bei der Herstellung dieses Textes wurden folgende KI-gestützte Werkzeuge und Prompts [= Anweisungen oder Fragen an die KI] verwendet:

Aufzählung der KI-Werkzeuge und des genutzen Prompts hier einfügen

Chatbots als unzulässiges Mittel

Hiermit erkläre ich, dass ich die vorliegende Arbeit ohne fremde Hilfe (beispielsweise Zusammenarbeit mit Kommiliton*innen oder Inanspruchnahme von Lektoratsdienstleistungen) oder unter Rückgriff auf vergleichbare technische Hilfsmittel (genauere Ausdifferenzierung) verfasst und die abgebildeten Datensätze, Zeichnungen, Skizzen und graphische Darstellungen, soweit nicht anders angegeben, eigenhändig erstellt habe. Ich habe keine anderen Quellen als die angegebenen benutzt und habe die Stellen der Arbeit, die anderen Werken entnommen sind – einschl. verwendeter Tabellen und Abbildungen – in jedem einzelnen Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht.

Handreichungen, Sammlungen & weiterführende Informationen

Gimpel, H., Hall, K., Decker, S. et al. (2023). Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education: A Guide for Students and Lecturers. (Hohenheim Discussion Papers in Business, Economics and Social Sciences, No. 02-2023). https://www.econstor.eu/bitstream/10419/270970/1/1840457716.pdf.

Albrecht, S. (Büro für Technikfolgeabschätzung beim deutschen Bundestag). (2023). ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen.

Bender, E., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? https://doi.org/10.1145/3442188.3445922

Buruk, O. (2023): Academic Writing with GPT-3.5: Reflection on Practices, Efficacy, and Transparency. [Preprint]

Deutscher Ethikrat (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz.

Heard, S. B. (Blogbeitrag vom 20. Juni 2023). How to use ChatGPT in scientific writing.

Reinmann, G. (2023). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik. Hochschulforum Digitalisierung (Diskussionspapier Nr. 25). https://hochschulforumdigitalisierung.de/wp-content/uploads/2023/10/HFD_DP_25_Deskilling.pdf

Salden, P. & Leschke, J. (2023). Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung.

Wolfsberger, J. (Blogbeitrag vom 28. Juni 2023). Ich liebe ChatGPT.


Zum Seitenanfang