Management

Künstliche Intelligenz: Prompting: Das Superprompt-Versprechen

Gibt es ihn wirklich, den Superprompt, der für alles eine Lösung generiert und uns alle reich und schön macht? Worauf es beim Prompting wirklich ankommt.

Avatar
von Regiomanager 13.09.2023
(© master1305 − stock.adobe.com) | Dr. Maximilian Lange

In einer Welt, in der Informationen in rasantem Tempo generiert und geteilt werden, ist das Konzept des „Superprompts“ verführerisch. Es verspricht schnelle Antworten auf komplexe Fragen, Lösungen für alle unsere Probleme und vielleicht sogar den Schlüssel zu unermesslichem Reichtum und Schönheit. Kein Wunder, dass es auf den diversen Social-Media-Kanälen vor Heilsversprechen nur so wimmelt.
Der Begriff Superprompt steht für die Idee, dass eine gut formulierte Frage oder Aufforderung (der Prompt) die Fähigkeit besitzt, uns zu enormen Erfolgen zu führen. In Wirtschaft, Wissenschaft und im persönlichen Leben – überall soll der Superprompt der Schlüssel zu optimierten Ergebnissen sein. Gewissermaßen der Stein der Weisen der heutigen Zeit. Leider müssen wir Sie bereits an dieser Stelle bitter enttäuschen: Den Superprompt gibt es nicht. Und Blei in Gold zu verwandeln funktioniert auch nicht wirklich. Wer bereits selbst etwas mit ChatGPT und anderen Modellen herumexperimentiert hat, wird genau wissen, wie ernüchternd oder enttäuschend dies in der Praxis oft sein kann. „Einfach so“ kommt da bestimmt nichts Brauchbares heraus. Prompting zu erlernen dauert seine Zeit und es heißt nicht, dass man damit auch immer brauchbare Ergebnisse erzielen kann. Man sollte also immer wissen, was man von der KI erwarten darf und was nicht. Anstelle des Superprompts stellen wir Ihnen an dieser Stelle daher nur einige Best Practices vor, wie sie auch von OpenAI, dem Erfinder von ChatGPT,
empfohlen werden.


Sechs Strategien für
bessere Ergebnisse

Kombinieren Sie die hier beschriebenen Strategien, um einen größeren Effekt zu erzielen. Experimentieren Sie, um die Methoden zu finden, die am besten für Sie funktionieren.


1. Geben Sie klare Anweisungen

GPTs können keine Gedanken lesen. Wenn die Antworten zu umfangreich sind, fordern Sie kürzere Ausgaben. Wenn die Antworten zu simpel sind, verlangen Sie ein Expertenniveau. Sagen Sie dem Modell klar, welches Format Sie bevorzugen. Je eindeutiger Ihre Anforderungen, desto besser die Ergebnisse.

• Weisen Sie dem Modell eine
spezifische Rolle zu.

• Spezifizieren Sie Details in Ihrer Anfrage
für relevantere Rückmeldungen.

• Nutzen Sie Trennzeichen für unterschiedliche
Abschnitte der Eingabe.

• Erläutern Sie die notwendigen Schritte
für eine Aufgabenstellung.

• Geben Sie Beispiele für richtige Antworten.

• Legen Sie die gewünschte Länge der Antwort fest.


2. Stellen Sie einen Referenztext bereit

GPTs halluzinieren gerne und geben vollkommen selbstbewusst komplett falsche oder frei erfundene Antworten. Dieses Verhalten können Sie reduzieren, indem Sie Ihrer Arbeitsanweisung einen Referenztext beifügen, auf den sich das Modell beziehen soll. Weisen Sie das Modell gegebenenfalls an, mit Zitaten aus diesem Referenztext zu antworten. Setzen Sie Ihren Text einfach in dreifache Anführungsstriche: „„„Ihr Referenztext“““.


3. Zerlegen Sie komplexe Aufgaben
in einfachere Teilaufgaben

So wie es in der Softwareentwicklung gute Praxis ist, ein komplexes System in eine Reihe von modularen Komponenten zu zerlegen, gilt dies auch für Aufgaben, die an GPTs gestellt werden. Komplexe Aufgaben neigen dazu, höhere Fehlerquoten zu haben als einfachere Aufgaben. Darüber hinaus können komplexe Aufgaben oft als Workflow einfacherer Aufgaben neu definiert werden, bei dem die Ausgaben früherer Aufgaben verwendet werden, um die Eingaben für spätere Aufgaben zu konstruieren.
Auch ist es etwa denkbar, einen langen Text in mehrere Stücke aufzuteilen, diese Stücke zusammenzufassen und diese Zusammenfassungen zu der letztlichen Antwort zusammenzufügen. Tipp: Je nach Modell haben Sie unterschiedlich viele „Token“ zur Verfügung. Während Sie als normaler User nur 4.096 Token zur Verfügung haben, sind es mit dem Modell 3.5 Turbo 16K bereits 16.385 Token und bei ChatGPT 4-32k sogar bis zu 32.768 Token. 1.000 Tokens entsprechen dabei in etwa 750 Wörtern.


4. Geben Sie GPTs Zeit zum „Nachdenken“

Wenn Sie aufgefordert werden, 17 mit 28 zu multiplizieren, wissen Sie es vielleicht nicht sofort, können es aber mit der Zeit herausfinden. Ähnlich machen GPTs mehr Fehler bei der sofortigen Beantwortung, anstatt sich Zeit zu nehmen, um eine Antwort zu finden. Die Aufforderung zu einer Kette von Überlegungen vor einer Antwort kann GPTs helfen, sich zuverlässiger auf korrekte Antworten zuzubewegen. Weisen Sie das Modell beispielsweise an, einen eigenen Lösungsweg auszuarbeiten, bevor es Ihre Frage beantwortet. Oder verwenden Sie eine Abfolge von Abfragen, um den Denkprozess des Modells anzuregen. Und fragen Sie das Modell, ob es bei vorherigen Durchgängen etwas übersehen hat.


5. Verwenden Sie externe Tools

ChatGPT erlaubt die Nutzung von Plug-ins, etwa zum Interpretieren von Grafiken oder für die SEO-Optimierung. Auch gibt es auf dem Markt eine große Anzahl anderer KI-Anbieter, die Aufgaben oft besser erledigen als ChatGPT. Mitunter ist es auch sinnvoll, sich Python-Code ausgeben zu lassen und die Aufgabe damit zu lösen. Vielfach wird der Weg daraus bestehen, die vielfältigen Möglichkeiten geschickt miteinander zu kombinieren oder die API zu benutzen und damit auf die eigene Datenbank zuzugreifen. So lassen sich Prozesse vergleichsweise leichtfüßig automatisieren. An dieser Stelle sei auch auf Modelle wie Llama2 von Meta verwiesen, die Sie kostenlos auf dem eigenen Server hosten können. Damit bleiben Ihre Daten immer zu 100 Prozent unter Ihrer Kontrolle. Vollkommen im Einklang mit der DSGVO.


6. Testen Sie Änderungen systematisch

Die Verbesserung des Prompts ist leichter zu beurteilen, wenn Sie sie messen können. Aber Vorsicht: Vielfach wird eine Änderung am Prompt nur bei isolierter Betrachtung zu einer echten Verbesserung führen, in anderen Fällen jedoch zu einer Verschlechterung. Nutzen Sie daher stets eine Gruppe von Beispielen als Test-Datensatz, um sicherzustellen, dass eine Änderung die Leistung insgesamt verbessert.

Dr. Maximilian Lange | redaktion@regiomanager.de Dr. Maximilian Lange
| redaktion@regiomanager.de

Teilen:

Newsletter abonnieren

Newsletter abonnieren und Brancheninfos erhalten

Datenschutz*