Warum exaktes Prompting den Unterschied macht
Wer ungenaue Fragen stellt, bekommt auch ungenaue Antworten. Das gilt im Gespräch mit Menschen genauso wie mit KI. Kunden bezeichnen Antworten als „zu oberflächlich, zu ungenau, nicht hilfreich“, doch der Grund liegt oft nicht bei der KI selbst, sondern bei der Art der Anfrage. Schlechtes Prompting = schlechte Ergebnisse. Aber was genau ist Prompting?
Unter Prompting versteht man allgemein die Art und Weise, wie Eingaben, also Prompts, an eine Künstliche Intelligenz formuliert werden.
Gutes Prompting verwandelt KI in einen echten Assistenten, der präzise und kontextbezogen antwortet. Anfragen können dabei lediglich eine Frage, aber auch komplexe Szenarien und Aufforderungen sein. Allgemein gilt: Je spezifischer der Prompt, desto detaillierter die Antwort der KI. Entsprechend lassen sich positive Auswirkungen gelungener Prompts ableiten:
- Relevanz: Nutzer:innen empfinden die Antworten als abgestimmt auf ihren Informationsbedarf
- Effizienz: Nachfragen und Korrekturen werden reduziert, Arbeitsprozesse effizienter
- Nutzerzufriedenheit: Vertrauen auf Basis der präzisen Antworten verbessert die Interaktion mit der KI-Anwendung und dem Unternehmen, das diese einsetzt.
Es handelt sich beim Prompting also nicht rein um technische Anforderungen, sondern um die Kommunikationsschnittstelle zwischen Mensch und Maschine.
Worauf kommt es beim Prompting an?
Wie kann diese Schnittstelle zwischen der KI und den Anwender:innen also bestmöglich gestaltet werden? Wichtige Faktoren sind dabei unter anderem die Wahl des Prompt-Stils, die klare Strukturierung von Eingaben, die Nutzung geeigneter Formate und Anweisungen sowie die Bereitstellung relevanter Kontextinformationen, damit die KI Aufgaben korrekt versteht und umsetzt.
Promptingarten
Die drei bekanntesten Prompting Arten sind Single-Shot, Zero-Shot und Few-Shot. Ein Vergleich:

Ein unspezifischer Prompt wie „Erkläre mir KI“ liefert nur eine allgemeine Definition, ohne groß auf Kontext oder Ansicht der Anfrage einzugehen. Eine detaillierte Anfrage hingegen, z. B. „Erkläre mir in drei prägnanten Sätzen, wie KI wiederkehrende Fragen im Kundenservice automatisieren kann“, führt zu einer Ausgabe der KI, die auf den Kontext der Anfrage zugeschnitten ist und die individuellen Inhalte, hier der praxisbezogene Anwendung, berücksichtigt.
Kerneigenschaften des Promptings
Für das Schreiben des Prompts, also der Eingabeaufforderung, gibt es vier Kernbereiche zu beachten: Persona, Aufgabe, Kontext und Format.
Die Persona beschreibt, welche Rolle oder Perspektive der KI vorgegeben wird (z. B. „Ich bin Entwickler.“). Eine klar definierte Persona hilft, relevantere und kontextspezifische Antworten zu erhalten. Darauf folgend wird die Aufgabe, also die konkrete Anweisung für die KI, beschrieben. Hier ist es wichtig: spezifisch und prägnant formulieren. Je mehr relevante Details zudem enthalten sind, desto gezielter und nutzbarer wird die Antwort. Zuletzt kann anhand der Angabe zur Form das Format der Ausgabe bestimmt werden. Dies kann z. B. eine E-Mail, Liste, Tabelle oder Zusammenfassung als Text sein. Diese Faktoren bilden die Grundlage qualitativ hochwertiger KI-Ausgaben.

Tipps von OpenAI
Abhilfe beim Erstellen von Prompts verschafft auch OpenAI. Es ist eines der führenden Unternehmen für KI-Forschung und praktische Anwendung und steht hinter ChatGPT, den Sprachmodellen, die weltweit in Chatbots und Assistenzsystemen eingesetzt werden. Das Unternehmen stellt online Best Practices zur Verfügung, die aus unterschiedlichen Projekten hervorgegangen sind und zeigen, wie anhand von strukturierten Eingaben deutlich bessere Resultate entstehen. Hier einmal die wichtigsten Erkenntnisse aus dem Artikel als Tipps zusammengestellt:
- Das neueste Modell: Das aktuellste und leistungsfähigste Modell ist in der Regel leichter zu steuern und liefert bessere Ergebnisse.
- Anweisungen zu Beginn: Beginnt der Prompt mit klaren Anweisungen, getrennt vom Kontext, können Missverständnisse direkt vermieden werden.
Beispiel: Fasse mir den folgenden Text als Liste zusammen. Text: “...”
- Spezifisch und detailliert: Präzise Anweisungen zu Kontext, Zielergebnis, Format, Stil sowie Länge ermöglichen es, gewünschte Resultate zu erzielen.
Beispiel: Statt “Schreibe einen Text zum Thema KI” besser “Schreibe einen inspirierenden Text über das Thema KI im Newsletter Format, der Leser begeistert und Neugier weckt.”
- Beispiele zur Formatierung: Das Modell kann anhand von Beispielen zur Strukturierungsform lernen, wie die Ausgabe aufgebaut sein soll. Dies erleichtert die Interpretation und Verarbeitung der Ergebnisse.
- Von Zero-Shot und Few-Shot Prompting zu Fine-Tuning: Wenn einfache Prompts unzureichende Ergebnisse liefern, werden anschließend Beispiele hinzugefügt oder gegebenenfalls per Fine-Tuning des Modells spezifische Anpassungen vorgenommen.
- Vage und ungenaue Beschreibungen reduzieren: Unklare Anweisungen wie „Erkläre dies einfach“ sollten gemieden werden, stattdessen sind Formulierungen wie „Erkläre dies in einfachen Worten für einen Anfänger“ ausschlaggebender.
Beispiel: Statt “Die Beschreibung für das KI Produkt sollte relativ kurz sein, nur ein paar Sätze und nicht viel mehr.” empfiehlt sich eine genaue Anweisung: “Beschreibe das KI Produkt in einem Absatz mit 3 bis 5 Sätzen.”
- Positiv, nicht negativ prompten: Statt zu sagen, was vermieden werden soll, gilt es lieber, klare Handlungsanweisungen einzubauen. Das Benennen unerwünschter Verhaltensweisen kann irreführend sein.
- „Leading words“ für die Codegenerierung: Beim Thema Coding ist es besonders wichtig, konkrete Anweisungen zu geben. Einleitende Worte zu der gewünschten Zielsprache, z.B. „Schreibe eine einfache Python-Funktion, die...“ helfen dem Modell, den gewünschten Code-Stil zu verstehen und umzusetzen.
Diese Best Practices stellen einen Leitfaden dar, um die Kommunikation mit der KI zu verbessern.
Welches Modell für welchen Zweck?
Das Prompting-Engineering, also das Entwerfen und Testen der Eingabeaufforderungen, läuft in der Regel über eine Schnittstelle (API), die mit dem LLM interagiert. Dadurch werden die Funktionen der LLM effizient genutzt, aber vor allem auch die Kapazität der LLM verbessert. Das Sprachmodell der KI ist das System, das darauf trainiert wurde, menschliche Sprache zu verstehen und zu erzeugen. Im Kontext der LLM, wie GPT, bezeichnet ein Token im Grunde einen „Baustein“ der Sprache, den das Modell verarbeitet. Sprachmodelle zählen Eingaben und Ausgaben in Tokens. Dementsprechend wird je nach Modell auch abgerechnet. Hier einmal die wichtigsten Modelle von OpenAI auf einen Blick:
GPT-3.5
GPT-3.5 ist eine Weiterentwicklung von GPT-3 und wurde im November 2022 zusammen mit ChatGPT vorgestellt, gefolgt von mehreren Turbo-API-Versionen mit schrittweisen Verbesserungen. Das Modell erzeugt menschenähnlichen Text, übersetzt Inhalte und beantwortet Fragen kontextbezogen. Es eignet sich gut für alltägliche Aufgaben, ist aber weniger leistungsstark als neuere Versionen. Dafür benötigt es deutlich weniger Rechenressourcen.
GPT-4
GPT-4 wurde im März 2023 veröffentlicht, zudem später auch Turbo-Versionen. Es arbeitet zuverlässiger und kreativer als GPT-3.5 und unterstützt Multimodalität, sodass sowohl Texte als auch Bilder verarbeitet werden können. Das Modell verfügt über ein deutlich größeres Kontextfenster, das heißt, es kann statt zuvor bei GPT-3.5 16.000 Wörter, nun bis zu 128.000 Wörter Input berücksichtigen und verarbeiten. GPT-4 wurde auf größeren und vielfältigen Datensätzen trainiert, wodurch es komplexe Anfragen besser bearbeiten und sogar Schreibstile von Nutzern erlernen kann. Laut OpenAI erreicht es eine um 40 % höhere faktische Genauigkeit, ist jedoch langsamer in der Verarbeitung. OpenAI hat, wie zuvor für 3.5 auch, keine spezifische Risikoeinstufung für GPT-4 veröffentlicht. Diese Einstufungen spiegeln die potenziellen Risiken wider, die mit der Nutzung jedes Modells verbunden sind, und dienen dazu, Entwickler und Nutzer auf mögliche Gefahren hinzuweisen. Sie werden für alle neueren Modelle veröffentlicht.
GPT-4o
GPT-4o verarbeitet als multimodales Modell Text, Audio, Bild und auch Video in Prompts und unterstützt Fine-Tuning, sodass Entwickler das Modell auf spezifische Anwendungsfälle anpassen können. Dank effizienter Token-Verarbeitung ist die Nutzung kostengünstiger, dennoch stuft OpenAI GPT-4o als Modell mit mittlerem Risiko ein, da es vermehrt zu Halluzinationen kommt, Datensicherheitsbedenken bestehen und sogar die Gefahr besteht, unbeabsichtigt urheberrechtlich geschützte Inhalte zu reproduzieren und zu erzeugen. OpenAI hat GPT-4o als mittleres Risiko eingestuft, basierend auf der höchsten Risikobewertung in der Kategorie Persuasion. Dies bedeutet, dass das Modell in der Lage ist, überzeugende Inhalte zu erzeugen, was in bestimmten Kontexten problematisch sein könnte (z. B. durch unbeabsichtigte Reproduktion urheberrechtlich geschützter Inhalte).
GPT-5
GPT-5 gilt laut OpenAI als das bisher leistungsstärkste Modell und bildet die Grundlage von ChatGPT. Es kombiniert mehrere Modelle, wobei ein intelligenter Router in Echtzeit entscheidet, ob GPT‑5, GPT‑5 Thinking oder eine Mini-Version eingesetzt wird, abhängig von der Komplexität der Anfrage und den Absichten der Nutzer:innen. OpenAI hat GPT-5 als hohes Risiko eingestuft, da das Modell eine erhöhte Fähigkeit aufweist, Täuschungen zu erzeugen, was in sicherheitskritischen Kontexten problematisch sein kann (besonders in der Kategorie CBRN chemisch, biologisch, radiologisch, nuklear). Das Modell eröffnet neue Möglichkeiten für Entwickler, erfordert aber folglich eine vorsichtige Handhabung mit definierten Sicherheitsbarrieren.
Eine Übersicht aller Sprachmodelle von OpenAI ist hier zu finden.
Weitere Modelle
Neben den GPT-Modellen existieren zahlreiche KI-Sprachmodelle mit unterschiedlichen Stärken. Claude von Anthropic wurde für sichere und transparente Interaktionen entwickelt und legt besonderen Wert auf ethische und nachvollziehbare Antworten. Cohere bietet leistungsstarke Modelle für Textverarbeitung und Analyse, die insbesondere in der Unternehmenspraxis geschätzt werden. LLaMA von Meta ist besonders in der Forschung und bei Open-Source-Projekten beliebt. Gemini von Google kombiniert fortschrittliche Sprach- und Wissensverarbeitung und zielt auf präzise, kontextbasierte Antworten in vielseitigen Anwendungen ab. Google Gemini gilt aktuell als das zweitbekannteste KI-Modell nach OpenAIs ChatGPT. Mistral 7B ist ein ressourcenschonendes Open-Source-Modell mit 7,3 Milliarden Parametern, das in Textverarbeitungsaufgaben trotz kompakter Größe hervorragende Ergebnisse liefert. In unserem Artikel zu ChatGPT Alternativen zeigen wir weitere verfügbare Anbieter auf.
Wie funktioniert Prompting bei moinAI?
moinAI kombiniert die Leistungsfähigkeit moderner GPT-Modelle mit strukturiertem Prompting, um hochwertige, kontextsensitive Antworten zu erzeugen. Das LLM basiert auf Trainingsdaten aus allen relevanten DACH-Branchen über acht Jahre hinweg und wird zudem individuell für jeden Kunden von moinAI trainiert. Neben der Möglichkeit für Endnutzer, Prompts gezielt zu formulieren, können auch interne Prompts erstellt werden, um die Ausgabe der KI gezielt zu steuern. So lässt sich über Persona-Festlegungen Sprache, Fachwissen und Tonalität auf die jeweilige Zielgruppe und Aufgabe abstimmen. Dadurch wirken Antworten konsistenter und anwendungsorientierter. Hier eine Ansicht der Persona-Steuerung im Hub:

Um sensible Geschäftsinformationen zu schützen, speichert das Modell keine vertraulichen Prompts dauerhaft. Es besteht somit kein Risiko von Datenlecks oder einer Verletzung geistigen Eigentums:

Damit Antworten ethisch und neutral sind sowie auf die Marke des Unternehmens abgestimmt sind, kann das Modell mit vordefinierten Richtlinien definiert werden, z. B.:
- Keine diskriminierenden Inhalte
- Vermeidung sensibler oder rechtlich problematischer Aussagen
- Nutzung eines freundlichen, professionellen Tons
Das sieht wie folgt aus im Hub:

moinAI bietet somit leistungsstarke Multimodalität mit präzisem, kontextsensiblem Prompting, wobei Persona, Task, Kontext und Format beachtet werden. Dabei gibt es keinerlei Datensicherheitsbedenken, da sensible Prompts nicht gespeichert werden. Schutz- und Kommunikationsregeln stellen sichere und markenkonforme Ergebnisse bereit.
Fazit
Das volle Potenzial großer Sprachmodelle lässt sich anhand eines effektiven Prompt-Designs optimal ausschöpfen. OpenAI liefert dazu praxiserprobte Hinweise mit Erläuterungen zu fortschrittlichen Techniken wie dem Fine-Tuning. Werden diese beachtet, steigen die Qualität und Präzision der Ausgaben, aber vor allem die Genauigkeit der erzeugten Ergebnisse und somit die Nutzerzufriedenheit erheblich. Für den Einsatz von SaaS-basierten generativen KI-Tools ist es besonders wichtig, die Unterschiede zwischen GPT-3.5, GPT-4/o und GPT-5 zu kennen und ein Modell zu wählen, das auf den Use Case angepasst ist. Denn: Nicht jedes Modell eignet sich für jede Aufgabe. moinAI setzt auf ein erprobtes LLM mit über acht Jahren Branchenerfahrung im DACH-Markt. Mittels Fine-Tuning kann die KI individuell je Kund:in aus Dialogen und Rückfragen lernen, um Inhalte zugeschnitten zu generieren und zusammenzufassen und Wissen zielgerichtet zu vermitteln.