Kurz-Antwortblock
- Was ist das Ziel? Hypothesen prüfen und skalierbare Verbesserungen (Uplift) nachweisen.
- Wie testen? Mit Google-Ads-Experiments (Split: 50/50 oder benutzerdefiniert) oder Ad Variations.
- Was messen? Primär-KPI (z. B. CPA/ROAS), Sekundär-KPIs (CTR, CVR), Signifikanz & Konfidenz.
- Best Practices: Eine Variable pro Test, ausreichend Dauer/Volumen, saubere Segmentierung.
Warum testen?
Systematisches Testen reduziert Unsicherheit und erhöht die Effizienz. Ob neue Bidding-Strategien, RSA-Varianten oder PMax-Assets – valide Experimente zeigen, welche Änderung wirklich Wirkung hat und wo Budget skalieren darf.
Arten von Experimenten
- Campaign Experiments (Split-Test): Du duplizierst eine Kampagne, änderst genau eine Variable (z. B. Bidding) und teilst den Traffic prozentual.
- Ad Variations: Überschreibungen auf Anzeigenebene (z. B. Headline austauschen) über mehrere Anzeigengruppen/Kampagnen.
- Geo-Split / Holdout: Regionen getrennt steuern (z. B. Bundesländer A/B), wenn Traffic-Sharing nicht praktikabel ist.
- Inkrementalitäts-Tests: Mit Conversion Lift / Geo-Experiments (fortgeschritten, v. a. Brand & YouTube).
Test-Design & Uplift-Logik
Ein gutes Design minimiert Bias und maximiert Aussagekraft:
- Hypothese definieren: „Wenn wir von tCPA (35 €) auf tROAS (500 %) wechseln, steigt ROAS um ≥10 % bei stabilen Kosten.“
- Einflussgröße isolieren: Nur eine Variable pro Test ändern.
- Randomisierung & Split: 50/50 (oder 60/40) mit gleichmäßiger Zuweisung.
- Testdauer & Power: Mindestens 2–4 Wochen und genug Conversions (Daumenregel: ≥100/Arm), sonst keine Stabilität.
- Signifikanz: Ergebnissicherheit prüfen (Konfidenzintervall, p-Wert) und Business-Relevanz (Effektgröße) bewerten.
So setzt du es um (Schritt-für-Schritt)
- Hypothese & KPI festlegen: Primär-KPI (z. B. CPA, ROAS), Sekundär-KPIs (CTR, CVR, CPC).
- Kampagne duplizieren / Experiment anlegen: In Google Ads → Experiments → Kampagne wählen → Split % definieren.
- Variable ändern: z. B. Bidding (tCPA vs. tROAS), Zielwerte, RSA-Text, Landingpage.
- Guardrails setzen: Budget-Caps, Negativlisten, Frequenzlimits (YouTube/Display), Mindestlaufzeit.
- Monitoring: Wöchentlich Performance prüfen, aber nicht eingreifen (keine mehrfachen Änderungen).
- Auswertung & Rollout: Bei signifikantem Uplift: Gewinner-Konfiguration übernehmen; sonst Hypothese anpassen.
Tabelle: Testarten, Variable & empfohlene Dauer
| Testtyp | Beispiel-Variable | Primäre KPI | Empf. Dauer | Hinweis |
|---|---|---|---|---|
| Campaign Experiment | tCPA → tROAS | ROAS / Umsatz | 3–4 Wochen | Conversions ≥100/Arm anstreben |
| Ad Variations | Neue RSA-Headline | CTR / CVR | 2–3 Wochen | Keine parallelen großen Änderungen |
| Geo-Split | Brand-Budget On/Off | Inkrementalität | 4–6 Wochen | Strikte Regionen-Trennung |
| PMax Asset-Test | Neues Video-Asset | Conversions / CPA | 3–4 Wochen | Signale konstant halten |
Mini-Case: tCPA vs. tROAS
Ein E-Com-Konto testet 50/50 tCPA (35 €) gegen tROAS (500 %). Nach 4 Wochen:
- tCPA-Arm: 420 Conversions, CPA 33,80 €.
- tROAS-Arm: 380 Conversions, ROAS 5,6, Umsatz +9 % bei leicht höherem CPA.
Entscheidung: tROAS gewinnt für Umsatzwachstum; für reine Lead-Kosten bleibt tCPA im Brand-Cluster bestehen. Rollout: Hybrid – Non-Brand mit tROAS, Brand mit tCPA.
Checkliste & Fehler vermeiden
Checkliste
- Hypothese & KPI klar definiert
- Nur eine Variable geändert
- Traffic sauber gesplittet (50/50)
- Genug Laufzeit & Conversions
- Signifikanz & Effektgröße bewertet
- Dokumentation & Rollout-Plan vorhanden
Fehler vermeiden
- Mehrere Variablen gleichzeitig ändern
- Zu kurze Dauer/zu wenig Volumen
- Zwischendurch Ziele/Budgets ändern
- Cherry-Picking einzelner Segmente
- Keine Post-Test-Überwachung nach Rollout
FAQ
- Wie lange sollte ein Experiment laufen?
- Mindestens 2–4 Wochen und bis genügend Conversions für stabile Aussagen vorliegen.
- Kann ich mehrere Experimente parallel fahren?
- Nur, wenn sie sich nicht überschneiden (unterschiedliche Kampagnen/Regionen) – sonst Interferenzen.
- Wie gehe ich mit Saisonalität um?
- Tests über identische Zeiträume fahren oder Seasonality Adjustments nutzen; keine Urlaubs-/Feiertagsausreißer wählen.
- Wann Ad Variations statt Campaign Experiments?
- Wenn ausschließlich Anzeigentexte/Assets getestet werden – schneller & weniger Setup-Aufwand.
- Wie messe ich Inkrementalität?
- Mit Geo-Holdouts oder Conversion-Lift-Studien; Fokus auf Nettoneu-Effekte statt Kanal-Attribution.
Externe Quellen
- Google Ads Help: Experiments (abgerufen am 07.09.2025)
- Google Ads Help: Anzeigentests & Variationen (abgerufen am 07.09.2025)
- Rheinwerk Verlag (2024): Google Ads – Das umfassende Handbuch
- Google Analytics Help (2024): Conversion Lift & Geo-Experimente
