Preise beeinflussen Umsatz, Marge und Vertrauen – und trotzdem werden sie im Alltag oft „nach Gefühl“ angepasst. Das Problem: Schon kleine Änderungen können an der falschen Stelle Nebenwirkungen auslösen (mehr Support-Anfragen, weniger Wiederkäufe, mehr Retouren). Wer Preise testet, sollte deshalb nicht nur „höher vs. niedriger“ vergleichen, sondern sauber planen: Wer sieht welchen Preis, wann, wie lange – und woran wird Erfolg gemessen?
In diesem Leitfaden geht es um Preistests im Online-Shop, die ohne unnötiges Risiko funktionieren. Der Fokus liegt auf verständlichen Vorgehensweisen, die in Shopware, Shopify, WooCommerce oder anderen Systemen umsetzbar sind – egal ob mit Bordmitteln, Analytics oder einem Test-Tool.
Welche Fragen ein Preis-Test wirklich beantworten sollte
Ein Preisexperiment ist nur dann hilfreich, wenn vorher klar ist, welche Entscheidung danach getroffen wird. Dafür lohnt sich ein kurzer Fragen-Block, der aus „Preis-Idee“ eine testbare Hypothese macht.
Hypothese statt Vermutung: ein Satz reicht
Eine gute Hypothese verbindet Preisänderung, Zielgruppe und erwarteten Effekt: „Wenn Produkt A statt 49 € nun 52 € kostet, bleibt die Conversion bei Neukunden stabil, aber die Marge steigt.“ Das ist viel konkreter als „52 € könnte auch gehen“.
Wichtig: Eine Hypothese sollte immer eine Messgröße enthalten (z. B. Conversion Rate, Deckungsbeitrag, Abverkauf pro Besucher). Sonst lässt sich später kaum entscheiden, ob der Test „gut“ war.
Primäre Metrik festlegen – und nicht alles gleichzeitig optimieren
Ein häufiger Fehler: Es wird nur auf Umsatz geschaut. Bei Preisen ist das zu kurz gedacht. Sinnvoller ist, eine Hauptmetrik festzulegen (z. B. „Deckungsbeitrag pro Besucher“ oder „Bestellungen pro 1.000 Sitzungen“) und 2–3 Nebenmetriken zu beobachten (z. B. Retourenquote, Support-Kontakte, Storno).
Gerade bei Sortimenten mit unterschiedlichen Margen kann eine reine Umsatzsteigerung unterm Strich schlechter sein als vorher.
Segmentierung klären: wen betrifft der Test?
Preise wirken je nach Segment sehr unterschiedlich. Für viele Shops ist es fairer (und oft auch sauberer), Preis-Tests nur bei Neukunden zu starten und Bestandskunden auszuschließen. Alternativ kann nach Herkunft (z. B. bezahlter Traffic vs. organisch), Gerät (Mobile/Desktop) oder Warenkorb-Höhe segmentiert werden.
Test-Designs, die in der Praxis funktionieren
Es gibt nicht „den einen“ Preistest. Die passende Variante hängt davon ab, ob es um einzelne Produkte, Kategorien oder das gesamte Preisgefüge geht – und wie groß der Traffic ist.
Split-Test mit zwei Preisen (klassisch, aber heikel)
Beim klassischen A/B-Test sehen Besucher zufällig Preis A oder Preis B. Das liefert klare Vergleichswerte, kann aber als unfair wahrgenommen werden, wenn Kunden darüber sprechen oder später wiederkommen und einen anderen Preis sehen.
Praxis-Tipp: Diese Variante eignet sich eher für Produkte mit geringer sozialer Vergleichbarkeit (z. B. Zubehör) oder bei Zielgruppen, die selten wiederkehren. Für Stammkundschaft und stark vergleichbare Produkte sollte vorsichtiger getestet werden.
Zeitbasierter Test (vorher/nachher) mit Kontrolle
Ein zeitbasierter Test ändert den Preis für einen definierten Zeitraum, z. B. zwei Wochen. Vorteil: kein „zwei Preise gleichzeitig“-Gefühl. Nachteil: Saison, Kampagnen oder Lieferfähigkeit können das Ergebnis verfälschen.
Stabiler wird es mit einer Kontrollgruppe: Eine ähnliche Produktgruppe bleibt unverändert. So lässt sich besser erkennen, ob die Veränderung am Preis lag oder an äußeren Faktoren.
Bundling oder Mindestbestellwert als indirekter Preistest
Manchmal geht es nicht darum, den Preis direkt zu ändern, sondern den wahrgenommenen Wert. Indirekte Tests sind oft risikoärmer: Ein Bundle-Preis, ein Vorteil ab Mindestbestellwert oder eine andere Staffel kann die Zahlungsbereitschaft testen, ohne „der gleiche Artikel kostet heute anders“ auszulösen.
Wer ohnehin über Sets nachdenkt, kann das Thema vertiefen: Product Bundles im Online-Shop – Sets, Regeln, Umsetzung.
Preisschwellen testen (psychologische Kante, sachlich prĂĽfen)
Viele Shops arbeiten mit Schwellen wie 49 € vs. 50 €. Ob das wirklich wirkt, hängt stark vom Produkt ab. Hier helfen kleine Schritte: statt 49 → 59 direkt lieber 49 → 52 testen. Entscheidend ist, ob sich die Conversion sichtbar verändert und ob der zusätzliche Deckungsbeitrag den Effekt überkompensiert.
So wird ein Preistest sauber aufgesetzt (ohne Chaos)
Ein guter Test lebt von klaren Regeln. Das schützt vor „Zufalls-Erfolgen“ und vor Entscheidungen, die später niemand erklären kann.
Wer bekommt welchen Preis? Regeln dokumentieren
Es sollte schriftlich feststehen, wie die Zuteilung erfolgt (z. B. per Cookie, per Session, per Nutzergruppe). Damit wird verhindert, dass ein Besucher mehrfach zwischen Varianten springt. Gerade bei Warenkörben ist das kritisch: Der Preis sollte vom Produktlisting bis zur Bestellbestätigung konsistent bleiben.
GĂĽltigkeit im Checkout: Preis-Logik und Validierung
Wenn Preise je nach Variante unterschiedlich sind, muss der Checkout sicherstellen, dass der im Warenkorb angezeigte Preis auch wirklich der abgerechnete Preis ist. PrĂĽfroutinen (z. B. serverseitige Validierung) verhindern, dass Kunden durch Cache, Sessions oder Plugins falsche Summen sehen.
Passend dazu: Checkout-Validierung im Online-Shop – Fehler senken.
Tracking festlegen: was wird wann gezählt?
Für Preistests braucht es konsistente Ereignisse: Produktansicht, In-den-Warenkorb, Checkout-Start, Kauf. Wichtig ist außerdem, die Testvariante als Eigenschaft mitzuschicken (z. B. „price_variant=A/B“). Sonst lassen sich die Ergebnisse später nicht sicher zuordnen.
Wer das Tracking generell ordnen möchte, findet hier einen soliden Rahmen: Shop-Tracking ohne Chaos – Events, Consent, Datenqualität.
Stop-Regeln definieren: wann wird abgebrochen?
Bei Preisen ist es sinnvoll, vorab klare Abbruchkriterien zu setzen. Beispiele: auffälliger Anstieg von Stornos, Support-Anfragen zu „falschen Preisen“, technische Fehler im Checkout oder ein deutlicher Einbruch bei einer Kernmetrik. Solche Regeln helfen, im Team schnell zu entscheiden, ohne Diskussionen „aus dem Bauch“.
Kurze Praxis-Box fĂĽr den Start
- Hypothese in einem Satz formulieren (Preisänderung + Zielgruppe + erwartete Wirkung).
- Eine Hauptmetrik wählen (z. B. Deckungsbeitrag pro Besucher) und Nebenmetriken notieren.
- Test-Design festlegen: Split, zeitbasiert mit Kontrolle oder indirekt (Bundle/Staffel).
- Variante technisch konsistent machen: gleicher Preis von Listing bis Checkout.
- Tracking-Property pro Variante einbauen und Testzeitraum fest definieren.
- Stop-Regeln festlegen und Support/Team vorab informieren.
Typische Fallstricke bei Preisexperimenten
Viele Tests scheitern nicht an der Idee, sondern an Details. Die folgenden Punkte tauchen in der Praxis besonders häufig auf.
Zu viele gleichzeitige Änderungen
Wenn parallel ein neues Theme live geht, ein Versandpreis angepasst wird und zusätzlich ein Preis-Test läuft, ist das Ergebnis kaum noch interpretierbar. Preis-Tests sollten möglichst isoliert laufen. Wenn das nicht möglich ist, müssen Änderungen zumindest dokumentiert und bei der Auswertung berücksichtigt werden.
Rabatte, Gutscheine und dynamische Preise ĂĽberdecken den Effekt
Ein Preistest kann im Alltag „unsichtbar“ werden, wenn viele Kunden ohnehin mit Rabatt kaufen. Dann misst der Test nicht den Preis, sondern die Rabattstrategie. In solchen Fällen ist es sinnvoll, den Test nur für Traffic ohne Gutscheincode zu machen oder Rabatt-Aktionen während der Testphase auszusetzen.
Wenn Gutscheine zentral sind, sollte deren Logik sauber sein, bevor Preise getestet werden: WooCommerce Gutscheine einrichten – Rabatte sauber steuern.
Unfaire Wahrnehmung bei Bestandskunden
Preise sind auch Kommunikation. Wenn Stammkunden plötzlich höhere Preise sehen, ohne dass es nachvollziehbar wirkt, leidet Vertrauen. Für diese Gruppe eignen sich eher zeitbasierte Tests (alle sehen in Zeitraum X denselben Preis) oder indirekte Tests (Mehrwert statt „nur teurer“). Technisch kann auch eine Segment-Regel helfen: Bestandskunden sehen immer den Standardpreis.
Fehlinterpretation durch kleine Stichproben
Bei Produkten mit wenig Traffic ist ein Split-Test oft nicht stabil. Dann wirken einzelne Bestellungen „wie ein Beweis“, obwohl es Zufall ist. In solchen Fällen sind zeitbasierte Tests mit längerer Laufzeit oder Tests auf Kategorie-Ebene meist geeigneter.
Auswertung: Entscheidungen ableiten, ohne sich selbst zu belĂĽgen
Ein Preistest endet nicht mit einer Prozentzahl. Er endet mit einer Entscheidung: Preis beibehalten, ausrollen, weiter testen oder verwerfen. Dafür braucht es eine Auswertung, die mehr betrachtet als „mehr/weniger Umsatz“.
Was zählt wirklich? Marge, Retouren, Support
Ein höherer Preis kann die Conversion etwas senken und trotzdem besser sein, wenn der zusätzliche Deckungsbeitrag pro Bestellung das überkompensiert. Umgekehrt kann ein niedrigerer Preis zwar mehr Käufe bringen, aber bei steigenden Retouren und Supportfällen langfristig schaden.
Hilfreich ist ein einfacher Rechen-Hinweis für die Entscheidungsrunde: „Deckungsbeitrag pro Besucher = (Bestellungen pro Besucher) × (Deckungsbeitrag pro Bestellung)“. Das ist keine exakte Wissenschaft, aber oft näher an der Realität als Umsatz allein.
Ergebnis ĂĽbertragen: wo gilt es, wo nicht?
Selbst wenn ein Preis bei Produkt A funktioniert, gilt das nicht automatisch für Produkt B. Preiselastizität (wie stark Kunden auf Preisänderungen reagieren) ist je nach Kategorie sehr unterschiedlich. Deshalb sollten Erkenntnisse als Regeln notiert werden, z. B. „Zubehör toleriert +5 %, Kernprodukte reagieren empfindlicher“. Das macht spätere Entscheidungen schneller.
Wann Preis-Tests besser nicht laufen sollten
Es gibt Situationen, in denen Preistests mehr Schaden als Nutzen bringen. Typische Beispiele: instabile Lieferfähigkeit, viele technische Baustellen im Checkout, laufende große Kampagnen oder unklare Steuer-/Versandlogik. Dann ist der Test zwar möglich, aber die Daten sind kaum belastbar.
Wenn die Shop-Basis gerade wackelt, ist es oft sinnvoller, zuerst Stabilität zu schaffen (Performance, Checkout, Datenqualität) und danach Preise zu testen. Wer den Checkout ohnehin verbessert, findet hier einen passenden Einstieg: Warenkorb-Abbrecher reduzieren – UX-Tuning für Online-Shops.
Mini-Fallbeispiel aus der Praxis: Preistest ohne Stammkunden-Ärger
Ein Shop mit wiederkehrender Kundschaft möchte den Preis eines beliebten Produkts erhöhen, befürchtet aber negatives Feedback. Statt zwei parallele Preise zu zeigen, wird ein zeitbasierter Test gewählt: In Woche 1 bleibt alles beim alten Preis, in Woche 2 gilt der neue Preis für alle Besucher. Parallel bleibt eine ähnliche Produktgruppe unverändert und dient als Kontrollgruppe. Der Vergleich betrachtet nicht nur Conversion und Umsatz, sondern auch Stornos und Support-Tickets zum Thema „Preis“.
Das Ergebnis lässt sich anschließend gut kommunizieren, weil es für alle Besucher im Zeitraum gleich war. Gleichzeitig hilft die Kontrollgruppe, Effekte durch Wochenend-Traffic oder Kampagnen besser einzuordnen.
Vergleich: schnelle Orientierung fĂĽr die passende Methode
| Ansatz | Vorteile | Nachteile | Geeignet fĂĽr |
|---|---|---|---|
| Split-Test (zwei Preise parallel) | Klarer Vergleich, schnell bei viel Traffic | Kann unfair wirken, Wiederkehrer problematisch | Neukunden, Zubehör, hohe Besucherzahlen |
| Zeitbasiert (vorher/nachher) + Kontrolle | Ein Preis für alle im Zeitraum, fairer Eindruck | Äußere Faktoren können verzerren | Stammkunden, Kernprodukte, mittlerer Traffic |
| Indirekt (Bundle/Staffel/Mindestwert) | Weniger Preis-Diskussion, testet Zahlungsbereitschaft über Wert | Komplexer auszuwerten, mehr Setup | Sortimente mit Ergänzungsprodukten, Up-/Cross-Sell |
Für die Umsetzung gilt unabhängig vom System: Preisvarianten müssen technisch sauber, im Tracking eindeutig und für den Kunden nachvollziehbar sein. Dann liefern Preispsychologie und Zahlen gemeinsam bessere Entscheidungen – ohne Aktionismus.
Wichtig: Wer Preis-Tests fährt, sollte auch die technische Basis im Blick behalten (Caching, Warenkorb, Checkout-Logik). Sonst wird nicht der Preis getestet, sondern die Stabilität des Shops.
Am Ende zählt nicht, ob eine Variante „gewinnt“, sondern ob die Entscheidung klar begründbar ist: nach Conversion Rate, Marge, Retouren und Kundenerlebnis – und mit einem Setup, das sich wiederholen lässt.

