Wenn KI-Tools wie ChatGPT, Claude, Gemini oder DeepSeek „komisch“ antworten, liegt die Ursache oft nicht am Modell, sondern am Input: zu wenig Kontext, unklare Ziele, widersprüchliche Anforderungen oder schlecht aufbereitetes Material. Gute Ergebnisse entstehen, wenn die KI schnell versteht: Worum geht es, was ist wichtig, was ist tabu, und wie soll die Ausgabe aussehen.
Dieser Artikel zeigt eine praxistaugliche Methode, um Aufgaben und Materialien so vorzubereiten, dass die KI weniger rät und mehr trifft. Das spart Zeit, reduziert Nachfragen und sorgt für Output, der näher am gewünschten Ergebnis liegt.
Warum guter KI-Output bei der Eingabe beginnt
Sprachmodelle arbeiten nicht wie eine Suchmaschine. Sie erzeugen Text basierend auf Mustern und dem, was im Prompt steht. Fehlt etwas Entscheidendes, füllt die KI Lücken mit plausiblen Annahmen. Das wirkt dann überzeugend, ist aber nicht immer passend.
Typische Ursachen für schwache Antworten
- Unklare Zielsetzung: „Schreib was dazu“ führt zu beliebigem Text.
- Zu wenig Kontext: Die KI kennt Zielgruppe, Situation, Format oder Randbedingungen nicht.
- Vermischte Aufgaben: Recherche, Bewertung, Textproduktion und Formatierung in einem Satz.
- Materialchaos: PDFs, Notizen, Stichpunkte ohne Struktur oder mit widersprüchlichen Infos.
- Fehlende Definition von „gut“: Keine Kriterien (z. B. Ton, Länge, Detailgrad, Beispiele, Struktur).
Was die KI wirklich braucht (in einfachen Worten)
Eine KI kann nur mit dem arbeiten, was sichtbar ist. Für stabile Ergebnisse braucht es drei Dinge: (1) eine klare Aufgabe, (2) die nötigen Informationen und (3) eine klare Erwartung an die Ausgabe. Wer diese drei Teile sauber liefert, bekommt auch bei unterschiedlichen Tools konsistentere Antworten.
Die 6-Bausteine-Methode für sauberen KI-Input
Die folgende Struktur funktioniert in fast jedem Tool: ChatGPT, Claude, Gemini, Copilot oder auch spezialisierte Assistenten. Sie ist bewusst einfach gehalten, damit sie im Alltag schnell anwendbar bleibt.
1) Ziel und Erfolgskriterium definieren
Statt „Erstell eine Zusammenfassung“ besser: Was soll nachher möglich sein? Zum Beispiel: „Nach dem Text sollen Kolleg:innen entscheiden können, ob Thema X umgesetzt wird.“ Ein Erfolgskriterium macht die Aufgabe messbar: „max. 200 Wörter, mit 3 Pro/Contra-Punkten“ oder „als Tabelle, damit es vergleichbar ist“.
2) Kontext: Wer, warum, wofür?
Kontext ist kein „nice to have“. Er ist die Abkürzung zu passenden Antworten. Dazu gehören Zielgruppe (z. B. Kund:innen, Management, Einsteiger:innen), Situation (z. B. internes Memo, Website-Text, Schulungsunterlage) und Tonalität (z. B. sachlich, freundlich, direkt).
3) Material geordnet bereitstellen
KI kann aus Rohtext arbeiten, aber sie profitiert stark von Struktur. Statt 1.500 Zeichen Copy-Paste aus verschiedenen Quellen hilft ein kleines Paket:
- Stichpunkte nach Themenblöcken
- klare Begriffe (z. B. „Produktname“, „Zielgruppe“, „Preis“)
- Widersprüche markieren („Info A sagt…, Info B sagt…“)
Wichtig: Nur Material liefern, das wirklich genutzt werden soll. Alles andere lenkt ab und verschlechtert die Antwortqualität.
4) Grenzen und No-Gos festlegen
Hier entstehen oft die größten Qualitätsgewinne. Beispiele: keine rechtliche Beratung, keine Zahlen erfinden, keine internen Details nennen, keine Versprechen („garantiert“, „100%“). Diese Leitplanken sind besonders relevant, wenn Texte veröffentlicht werden oder Risiken bestehen. Passend dazu hilft der Beitrag KI-Antworten prüfen – Faktencheck, Quellenlogik, Selbsttest.
5) Ausgabeformat und Struktur vorgeben
Viele gute Inhalte scheitern daran, dass die Ausgabe nicht direkt nutzbar ist. Wer Format vorgibt, spart Nacharbeit: Überschriften, Bulletpoints, Tabelle, kurze Absätze, feste Reihenfolge. Ein starkes Mittel ist ein Ausgabeformat als Vorlage, etwa: „Gib erst eine Kurzfassung (3 Sätze), dann eine Liste mit 5 Punkten, dann eine Tabelle mit Spalten A/B/C.“
6) Ein Beispiel oder Gegenbeispiel geben
Ein Mini-Beispiel zeigt der KI, was gemeint ist. Das kann ein kurzer Satz sein („So klingt es richtig: …“) oder ein Gegenbeispiel („Bitte nicht so werblich wie: …“). Das ist besonders hilfreich, wenn es um Stil und Ton geht. Für langfristig stabile Ergebnisse lohnt sich zusätzlich ein sauberer Systemrahmen, siehe KI-Systemprompts erstellen – Stil und Qualität stabil halten.
So geht’s: In 7 Minuten vom Chaos zum brauchbaren Prompt
- Aufgabe in einem Satz notieren: Was soll am Ende herauskommen?
- Zielgruppe festlegen (1 Satz) und den Kanal nennen (Mail, Website, internes Memo).
- Material sammeln und in 3–6 Stichpunkte gruppieren (maximal eine Bildschirmseite).
- Widersprüche markieren und entscheiden: „Nutze Info A als Standard.“
- Grenzen definieren: Was darf nicht passieren? (z. B. keine erfundenen Zahlen)
- Struktur vorgeben: gewünschte Überschriften oder Listenform.
- Zum Schluss eine Rückfrage erlauben: „Wenn etwas fehlt, stelle bis zu 3 Fragen.“
Mini-Fallbeispiel: Ein Prompt wird inhaltlich „treffsicher“
Ausgangslage: Ein Team möchte einen Text für eine Produktseite erstellen. Der erste Prompt lautet: „Schreib eine Produktbeschreibung für unser neues Tool.“ Ergebnis: generische Marketing-Phrasen, falsche Annahmen, zu lang.
Schritt 1: Input klären (kurz, aber konkret)
Stattdessen wird der Input strukturiert:
- Ziel: Besucher:innen sollen in 30 Sekunden verstehen, ob das Tool passt.
- Zielgruppe: kleine Teams ohne eigene IT, deutschsprachig.
- Material: 5 Kernfunktionen, 3 Vorteile, 2 Abgrenzungen („kann nicht…“).
- Grenzen: keine Preisangaben, keine Versprechen, keine technischen Buzzwords.
- Format: Headline + 3 Absätze + Bulletliste + FAQ mit 3 Fragen.
Schritt 2: Prompt mit Struktur
Der Prompt wird dadurch automatisch präziser. Der Text wird nicht „magisch“, aber er trifft Ton, Länge und Zweck deutlich besser. Für Teams ist das ein guter Einstieg in Kontext-Engineering (Kontext so aufbereiten, dass die KI kaum raten muss).
Checkliste: Input-Qualität vor dem Absenden prüfen
Diese kompakte Liste verhindert die häufigsten Fehler. Wenn mehrere Punkte „Nein“ sind, lohnt sich eine Minute Nachbesserung.
- Ist das Ziel in einem Satz klar?
- Ist die Zielgruppe benannt?
- Ist genug Material vorhanden, damit die KI nicht raten muss?
- Gibt es klare Grenzen (No-Gos, sensible Inhalte, keine Annahmen)?
- Ist das gewünschte Format beschrieben?
- Sind Begriffe eindeutig (z. B. Produktname, Abkürzungen, interne Bezeichnungen)?
- Ist die Aufgabe in Teilaufgaben getrennt, wenn sie komplex ist?
Material richtig „füttern“: Text, Tabellen, Screenshots
Moderne KI ist oft multimodal (kann also auch Bilder oder PDFs interpretieren). Trotzdem gilt: Je klarer die Darstellung, desto weniger Missverständnisse.
Text: Lieber geordnet als lang
Lange Rohtexte ohne Struktur erhöhen das Risiko, dass Wichtiges untergeht. Besser ist ein kurzes Dossier mit Überschriften wie „Ziel“, „Fakten“, „Offene Fragen“, „Beispiele“. Wer regelmäßig mit wiederkehrenden Inhalten arbeitet, kann Wissen systematisch ablegen, etwa in einer Datenbank. Dazu passt KI-Notion-Wissensdatenbank – Setup für saubere Antworten.
Tabellen: Eindeutige Spaltennamen, klare Einheiten
Bei Tabellen hilft: jede Spalte klar benennen, Einheiten dazuschreiben (z. B. „Budget (EUR)“), fehlende Werte markieren („n/a“). Wenn die KI rechnen oder vergleichen soll, zuerst definieren, was als „besser“ gilt (z. B. schneller, günstiger, weniger Risiko).
Screenshots/PDFs: Erwartung an die Extraktion nennen
Wenn ein Screenshot hochgeladen wird, sollte klar sein, was die KI daraus machen soll: „Extrahiere die drei wichtigsten Kennzahlen und erkläre, was sie bedeuten.“ Ohne diese Ansage wird häufig zu viel interpretiert.
FAQ: Häufige Fragen zum Vorbereiten von KI-Eingaben
Wie lang sollte ein Prompt sein?
So kurz wie möglich, so vollständig wie nötig. Ein Prompt darf lang sein, wenn er Struktur hat. Unstrukturierte Länge schadet eher, weil Wichtiges untergeht. Ein guter Richtwert ist: lieber ein kurzes Briefing mit Abschnitten als ein Fließtext.
Was tun, wenn wichtige Infos fehlen?
Die KI explizit um Rückfragen bitten: „Wenn dir Informationen fehlen, stelle bis zu drei präzise Fragen, bevor du schreibst.“ Das reduziert Annahmen und verbessert die Passgenauigkeit.
Welche Rolle spielt das Modell (ChatGPT vs. Claude vs. Gemini)?
Modelle unterscheiden sich in Stil und Stärken. Die Input-Qualität wirkt jedoch überall: Gute Aufgabenstellung und sauberes Material verbessern Ergebnisse unabhängig vom Anbieter. Für ein stabiles Setup hilft zudem Prompt-Scaffolding (eine feste Prompt-Struktur, die immer wieder verwendet wird).
Wie vermeidet man, dass die KI Dinge „erfindet“?
Grenzen klar setzen („keine unbekannten Zahlen nennen“), Material liefern und die KI zwingen, Unsicherheiten zu markieren: „Wenn etwas nicht im Material steht, schreibe ‘unbekannt’.“ Zusätzlich lohnt ein kurzer Qualitätscheck nach dem Output; praktische Schritte stehen im Beitrag LLM-Halluzinationen reduzieren: Ursachen, Maßnahmen, Checks.
Kleine Vergleichsbox: Schnellprompt vs. sauberer Input
| Ansatz | Vorteile | Nachteile |
|---|---|---|
| Schnellprompt („Schreib mir X…“) | Sofort loslegen, wenig Aufwand | Viele Annahmen, mehr Nacharbeit, wechselnde Qualität |
| Sauberer Input (Ziel, Kontext, Material, Format) | Stabilere Ergebnisse, weniger Rückfragen, besser nutzbarer Output | 1–5 Minuten Vorbereitung nötig |
Praktischer Prompt zum Kopieren (Template)
Dieses Template ist bewusst allgemein gehalten. Es lässt sich in jeder KI verwenden und kann als Standard im Team dienen:
Prompt-Template
- Ziel: [Was soll nachher möglich sein?]
- Zielgruppe/Kanal: [Für wen? Wo wird es genutzt?]
- Kontext: [Wichtige Hintergründe in 3–6 Stichpunkten]
- Material/Fakten: [Nur relevante Infos, geordnet]
- Grenzen: [No-Gos, was nicht erfunden werden darf, sensible Inhalte]
- Ausgabeformat: [Struktur, Länge, Ton, gewünschte Elemente]
- Rückfragen: Wenn etwas fehlt, stelle bis zu [1–3] Fragen.
Für Teams, die daraus wiederholbare Abläufe bauen wollen, passt ergänzend KI-Checklisten mit ChatGPT & Co. – wiederholbare Abläufe bauen.
Fehlerbilder erkennen: Wenn die KI trotz gutem Input danebenliegt
Manchmal sind Prompt und Material solide, aber das Ergebnis ist trotzdem nicht passend. Dann helfen diese schnellen Korrekturen:
Zu allgemein: Detaillierungsgrad festlegen
Statt „ausführlich“ besser definieren: „Erkläre auf Einsteiger-Niveau, mit 2 Beispielen, ohne Fachbegriffe (oder Fachbegriffe kurz erklären).“
Zu kreativ: Variabilität begrenzen
Klare Vorgaben wie „bleibe streng bei den Fakten aus dem Material“ und „keine Metaphern“ reduzieren Ausschmückungen.
Zu lang: harte Grenzen setzen
Eine Maximal-Länge und klare Struktur helfen: „Maximal 180 Wörter. Nur diese 4 Überschriften.“ Wenn trotzdem überzogen wird, die KI bitten, nur zu kürzen, nicht neu zu schreiben.
Falscher Fokus: Prioritäten angeben
Wenn es mehrere Ziele gibt, braucht es eine Reihenfolge: „Wichtigste Priorität: Verständlichkeit. Zweite Priorität: Vollständigkeit.“ Ohne Priorität wird häufig versucht, alles gleichzeitig zu erfüllen.

