KI ist im Team kein „Tool wie jedes andere“. Sobald mehrere Personen Texte, Analysen, Bilder oder Code mit ChatGPT, Claude, Gemini, DeepSeek & Co. erstellen, braucht es Spielregeln: Wer darf was? Wie werden Ergebnisse geprüft? Und wie wird verhindert, dass am Ende niemand weiß, welche Version gilt?
Dieser Artikel liefert ein praxistaugliches Setup fĂĽr die KI-Governance im Alltag: Rollen, Regeln, Freigaben und eine einfache Struktur, die ohne BĂĽrokratie auskommt.
Welche Fragen Teams zur KI-Zusammenarbeit wirklich klären müssen
In der Praxis drehen sich die meisten Probleme nicht um „wie promptet man“, sondern um Zusammenarbeit. Diese Fragen sollten vorab beantwortet sein:
- Wer entscheidet, wofĂĽr KI genutzt werden darf (und wofĂĽr nicht)?
- Wie sieht ein einheitlicher Freigabeprozess aus, bevor etwas veröffentlicht oder an Kund:innen geschickt wird?
- Wo liegen Prompts, Beispiele und Vorlagen, damit nicht jede Person bei null startet?
- Wie wird dokumentiert, welche Version „final“ ist?
- Wie geht das Team mit Fehlern um (z. B. falsche Aussagen, falsche Zahlen, Tonalität daneben)?
Ein guter Rahmen macht Arbeit nicht langsamer, sondern verhindert RĂĽckschritte und Nacharbeit.
Rollenmodell: Wer macht bei KI eigentlich was?
Ein Rollenmodell sorgt dafür, dass KI-Nutzung nicht „zufällig“ passiert. Es muss nicht groß sein – drei bis fünf Rollen reichen oft.
1) Owner (Verantwortung fĂĽr Regeln und Grenzen)
Der Owner definiert, was erlaubt ist (z. B. interne Zusammenfassungen) und was tabu ist (z. B. personenbezogene Daten oder vertrauliche Verträge in offenen Tools). Außerdem entscheidet diese Rolle über Standard-Tools und Basis-Einstellungen.
Wenn Datenschutz relevant ist, hilft zusätzlich der Artikel Datenschutz mit KI – sensible Inhalte sicher bearbeiten.
2) Creator (Erstellt EntwĂĽrfe mit KI)
Creator nutzen KI für Rohfassungen, Varianten, Strukturvorschläge, Zusammenfassungen oder Formulierungen. Wichtig: Creator liefern keine „fertigen Wahrheiten“, sondern Entwürfe mit Kontext: Zielgruppe, Ziel, Format, Quellenlage (falls vorhanden) und offene Fragen.
3) Reviewer (PrĂĽft Inhalt und Risiko)
Reviewer prĂĽfen Inhalte fachlich, sprachlich und rechtlich/markenbezogen. In vielen Teams ist das eine Redaktions- oder Fachrolle. Entscheidend ist, dass Review nicht optional ist, wenn Ergebnisse extern genutzt werden.
Für eine systematische Prüfung ist dieser Leitfaden passend: KI-Antworten prüfen – Faktencheck, Quellenlogik, Selbsttest.
4) Publisher (Veröffentlicht / versendet final)
Publisher sorgen dafür, dass nur freigegebene Versionen rausgehen: Blog, Newsletter, Kundenmail, Support-Antwort, Social Post. Diese Rolle ist besonders wichtig, wenn mehrere Kanäle parallel laufen.
5) Prompt Curator (Vorlagen und Beispiele pflegen)
Diese Rolle sammelt gute Prompts, erstellt Vorlagen und hält sie aktuell. Damit entstehen wiederholbare Ergebnisse statt Einmal-Treffer. Als Basis eignet sich eine kleine, zentrale Prompt-Sammlung, siehe: Prompt-Bibliothek für KI-Tools – System statt Zufallsergebnisse.
Regeln, die im Alltag wirklich helfen (ohne Overhead)
Viele KI-Richtlinien scheitern, weil sie zu abstrakt sind. Besser: wenige Regeln, die direkt in den Workflow greifen.
Regel 1: KI darf EntwĂĽrfe liefern, Entscheidungen bleiben menschlich
KI kann Vorschläge machen, aber keine Verantwortung tragen. Deshalb sollte klar sein: Fachliche Freigabe und Veröffentlichung sind menschliche Aufgaben – immer.
Regel 2: Jede KI-Ausgabe bekommt Kontext und Zweck
Ein Entwurf ohne Zweck ist schwer zu bewerten. In der Teamarbeit sollte jede KI-Ausgabe mindestens diese Angaben haben:
- Ziel (z. B. „Support-Antwort beruhigend, 120–150 Wörter“)
- Zielgruppe (z. B. „Kund:innen ohne Fachwissen“)
- Kanal (z. B. „E-Mail“, „LinkedIn“, „Wissensdatenbank“)
- Risiko (z. B. „rechtlich sensibel“, „Zahlen enthalten“, „medizinisches Thema“)
Regel 3: Sensible Inhalte werden vor dem Prompting bereinigt
Wenn Inhalte nicht in ein externes Tool gehören, müssen sie vorher anonymisiert werden (z. B. Namen entfernen, Kundennummern ersetzen, interne Details abstrahieren). Das gilt besonders für HR, Recht, Kundendaten und vertrauliche Strategie.
Regel 4: Prompt-Vorlagen statt Einzelprompts
Ein Team profitiert massiv von 10–20 Standardvorlagen für wiederkehrende Aufgaben: Meeting-Notizen, Angebotsmails, Blog-Briefings, Social-Varianten, QA-Listen. Damit wird Qualität stabiler und schneller messbar.
Freigaben organisieren: Ein Prozess, der nicht nervt
Ein guter Review-Workflow ist kurz, klar und nachvollziehbar. Diese Variante funktioniert in vielen Teams (Marketing, Produkt, Support, HR) ohne extra Tools.
Stufe A: Draft (Creator)
- Creator erstellt Entwurf mit KI und ergänzt Kontext (Ziel, Kanal, Risiko).
- Creator markiert offene Punkte („Bitte Fakten prüfen“, „Ton prüfen“, „Zahlen fehlen“).
Stufe B: Review (Fach/Redaktion)
- Reviewer prüft Fakten, Plausibilität, Ton, Markenpassung, rechtliche Stolperstellen.
- Reviewer entscheidet: „freigeben“, „zurück an Creator“ oder „neu aufsetzen“.
Stufe C: Final (Publisher)
- Publisher ĂĽberprĂĽft, ob die richtige Version freigegeben ist.
- Publisher setzt finalen Kanal-Check (Betreffzeile, Links, Format, Anhänge, Tracking).
Wichtig: Freigaben funktionieren nur, wenn klar ist, welche Version die aktuelle ist. Das kann ein gemeinsamer Ordner, ein Doc-Link oder ein Ticket sein – entscheidend ist Eindeutigkeit.
So geht’s: In 30 Minuten ein Team-Setup aufsetzen
- Eine Person als Owner festlegen (inkl. Stellvertretung).
- 3–5 Standard-Use-Cases definieren (z. B. „Support-Antwort“, „Social Post“, „Interne Zusammenfassung“).
- FĂĽr jeden Use-Case eine Prompt-Vorlage erstellen (mit Ziel, Zielgruppe, Ton, Output-Format).
- Einen Freigabepfad wählen: Wer reviewed, wer published?
- Einen gemeinsamen Ablageort für Vorlagen und „finale Versionen“ festlegen.
- Eine kurze Teamregel: Was nie in externe KI-Tools eingegeben wird.
Mini-Fallbeispiel: Support-Team mit KI, ohne Risiko-Chaos
Ein Support-Team möchte Antworten schneller formulieren, aber Fehler vermeiden. Der typische Ablauf:
- Creator kopiert eine anonymisierte Kundenfrage (ohne Namen, Auftragsnummern) in das Tool.
- KI erstellt eine Antwort in zwei Varianten: „kurz“ und „detailliert“.
- Creator ergänzt Produktspezifika (z. B. korrekter Prozess, echte Fristen) und markiert Unsicherheiten.
- Reviewer (Teamlead) prĂĽft bei sensiblen Themen: RĂĽckerstattung, rechtliche Aussagen, Kulanz.
- Publisher sendet die Antwort aus dem Ticketsystem – und dokumentiert die finale Version.
Ergebnis: Weniger Tippzeit, aber klare Kontrolle. Die KI ist Schreib- und Strukturhilfe, nicht Entscheider.
Qualität messbar machen: einfache Kriterien statt Bauchgefühl
Ohne Messpunkte wirkt KI-Arbeit schnell „zufällig“. Diese Kriterien sind alltagstauglich und in Reviews leicht prüfbar:
- Stimmt der Zweck? (beantwortet der Text die Frage oder redet er drum herum?)
- Stimmen Aussagen? (keine erfundenen Details, keine unbelegten Behauptungen)
- Passt der Ton? (freundlich, klar, keine Ăśbertreibungen)
- Ist der Output nutzbar? (Format, Länge, Call-to-Action, nächste Schritte)
- Wurde heikler Inhalt sauber behandelt? (keine sensiblen Daten, keine rechtlichen Zusicherungen)
Wenn Texte oft „fast gut“ sind, ist selten das Modell das Problem – meist fehlen Vorgaben, Beispiele oder ein klarer Review-Schritt.
Tool-Wahl im Team: nicht alles können müssen
In Teams ist Konsistenz wichtiger als maximale Feature-Vielfalt. Ein stabiler Mix kann so aussehen:
- Ein Haupt-Chat-Tool fĂĽr Text und Analyse (z. B. ChatGPT, Claude oder Gemini).
- Ein Bildtool, falls benötigt (z. B. Midjourney oder Leonardo AI).
- Optional ein spezialisiertes Tool für Transkription oder Video, wenn es echte Aufgaben löst.
Entscheidend ist, dass alle wissen, wofür welches Tool gedacht ist. Eine Orientierung zur Tool-/Modell-Auswahl bietet: KI-Tools im Vergleich – ChatGPT, Claude, Gemini & Co. richtig wählen.
Checkliste: Team-Regeln fĂĽr stabile KI-Ergebnisse
- Rollenmodell ist definiert (Owner, Creator, Reviewer, Publisher).
- Prompt-Vorlagen existieren fĂĽr die wichtigsten Use-Cases.
- Es gibt einen festen Ablageort für „finale“ Versionen.
- Review-Workflow ist klar: wann Review Pflicht ist und wer freigibt.
- Tabu-Liste fĂĽr sensible Inhalte ist schriftlich und bekannt.
- Qualitätskriterien sind vereinbart (Zweck, Fakten, Ton, Nutzbarkeit).
FAQ: Häufige Fragen zur KI-Zusammenarbeit im Team
Wie streng muss ein Freigabeprozess sein?
So streng wie das Risiko es erfordert. Interne Zusammenfassungen können oft ohne formalen Review laufen. Alles, was extern rausgeht oder Zahlen/Verträge betrifft, sollte reviewed werden.
Was ist, wenn Teammitglieder unterschiedliche Tools nutzen?
Dann helfen gemeinsame Vorlagen und klare Qualitätskriterien. Zusätzlich lohnt sich ein Haupttool für Standardaufgaben, damit Outputs vergleichbarer werden.
Wie bleibt der Schreibstil ĂĽber mehrere Personen hinweg konsistent?
Mit festen Textbausteinen, Beispielen und einer kurzen Stilvorgabe (Ton, Länge, Formulierungen, No-Gos). Wer tiefer einsteigen möchte: KI-Systemprompts erstellen – Stil und Qualität stabil halten.
Wie verhindert das Team, dass falsche Aussagen ĂĽbernommen werden?
Indem Review Pflicht wird, sobald Fakten, Zahlen, rechtliche Aussagen oder medizinische/finanzielle Themen vorkommen. Zusätzlich sollten Creator immer kennzeichnen, wo Unsicherheit besteht.

