▪
Literarisches Lernen
Ein Weg, um die
Interaktion mit der KI zu optimieren, besteht darin, sie selbst als
Ressource für die •
Optimierung von
Prompts einzusetzen. Dies kann auch der
Textarbeit mit • Künstlicher
Intelligenz (K) im Literaturunterricht von Nutzen sein.
Die KI Gemini Advanced führt dabei unterschiedliche Strategien auf.
Mit diesen kann man
Die Anweisung (Prompt)
analysieren
Die Analyse der Aufgabe
beim Prompten wird mit Hilfe der Kriterien Relevanz,
Korrektheit/Genauigkeit,
Grad der Detaillierung sowie
Stil und Ton vorgenommen.
-
Relevanz: Ist die Antwort des
Sprachmodells für die Anfrage überhaupt relevant oder nur bedingt
relevant? Wenn nicht, war der Prompt möglicherweise zu vage oder
mehrdeutig oder die Kontextinformationen zu ungenau.
-
Korrektheit und Genauigkeit : Sind
die Antworten inhaltlich überhaupt korrekt? Sind sie genau genug?
Wenn nicht, könnte der Prompt das Modell in die Irre geführt haben
oder es fehlt ihm an Kontext.
-
Grad der Detaillierung: Ist
die Antwort zu oberflächlich oder zu detailliert? Unter
Umständen war der Prompt zu kurz oder eben zu ausführlich. In einem
solchen Fall kann man die die Formulierung des Prompts so anpassen,
dass der gewünschte Grad der Detaillierung erreicht werden kann..
-
Stil und Ton: Entspricht der Stil der
Antwort den Erwartungen? Wenn nicht, kann versucht werden, den
gewünschten Stil im Prompt expliziter anzugeben.
Mit verschiedenen Variationen bei der Prompt-Gestaltung
experimentieren
Um den Prompt bei
nicht zufrieden stellenden Antworten des Sprachmodells zu verbessern,
kann man auf verschiedene Art und Weise, aber auch in Kombination
miteinander vorgehen. Vier Strategien, um beim Prompten zu
experimentieren betreffen die Formulierung,
Schlüsselwörter, Beispiele sowie
Einschränkungen, die man vornehmen
kann.
-
Formulierung: Liegt es womöglich
an der Formulierung, dass die Ergebnisse nicht wie gewünscht
ausfallen? Unter Umständen lohnt es sich, einfach andere
Formulierungen zu verwenden.
-
Schlüsselwörter: Sind die
Begriffe, die quasi als Schlüsselwörter für die KI fungieren, zu
ungenau oder müssen sie um weitere Schüsselwörter ergänzt
werden? Gibt es eventuell bestimmte Schlüsselwörter, die die KI
in die falsche Richtung weisen und daher weggelassen
werden sollten?
-
Beispiele: Kann das Modell auf
Beispiel zurückgreifen? Beispiele, die man der KI angeben kann,
helfen oft weiter,
-
Einschränkungen: Ist die die
Richtung, die de Anweisung vorgibt, u. U. zu allgemein oder zu
umfassend formuliert? Um solche Probleme zu vermeiden ist es oft
sinnvoll, dem Sprachmodell zu auch zu sagen, was es eben
nicht tun soll.
Sich dem gewünschten Ergebnis schrittweise annähern (Iteration)
Das wichtigste
Verfahren, mit dem man die Feedback-Qualitäten des Sprachmodells
ganz explizit nutzen kann, ist die so genannte
Feedback-Schleife, einem Verfahren
der schrittweisen Annäherung (Iteration), das man aus der Mathematik
kennt. Dort beschreibt es ein Rechenverfahren zur Annäherung an die
exakte Lösung. Neben diesem iterativen Prozess in einem konkreten
Fall sollte man bei unzureichenden Ergebnissen aber in jedem Fall
mehrere Versuche mit
unterschiedlichen Prompts vornehmen und auf seine
eigenen Erfahrungen beim Prompten im Allgemeinen und im
Zusammenhang mit bestimmten Themen und Aufgaben zurückgreifen (Prompt-Engineering-Wissen)
Bei der
Feedback-Schleife geht es
ausdrücklich darum, wie man die KI zur Hilfe veranlassen kann, einen
bestimmten Output zu optimieren, dass er den eigenen Erwartungen
entspricht. Das Prompting-Verfahren, das dabei zum Einsatz kommt,
wird von Fachleuten auch als Gedankenkette (Chain-of-Thought-Prompting,
kiurz CoT-Prompting) bezeichnet.
Hierzu muss man sich
mit einer sukzessiven Strategie auf weitere Interaktionen mit der KI
einlassen. In einem Prozess der schrittweisen Annäherung (iterativer
Prozess) werden dazu die Vorgaben in dem Chat, der den bisherigen
Verlauf in seiner Chat-Historie aufgezeichnet und gespeichert hat,
nach und nach konkretisiert, präzisiert oder um die nötigen
Kontextinformationen etc. ergänzt, um das Ergebnis so zu verbessern.
Dabei kann man systematisch vorgehen, in dem man z. B. bei der
Analyse eines erzählenden Textes das Modell nach und nach
auffordert, zu bestimmten Analysekategorien eine Antwort zu
generieren, ohne sich nur auf seine globale Antwort zu stützen.
Besondere Techniken zur Prompt-Optimierung einsetzen
Beim »Prompt-Engineering,
also der möglichst effektiven Konstruktion geeigneter Prompts für
KI-Modelle, kann man auch auch besondere Makromodelle zurückgreifen,
denen eine bestimmte Abfolge und/oder das Verfügbarmachen von
Kontextinformationen betrifft. Damit soll wie bei allen anderen
Techniken auch die Outputqualität der KI-Antworten verbessert
werden.
▪
Literarisches Lernen
Gert Egle, zuletzt bearbeitet am:
18.07.2024
|