Tests & Experimente in Google Ads

Kurz-Antwortblock

  • Was ist das Ziel? Hypothesen prüfen und skalierbare Verbesserungen (Uplift) nachweisen.
  • Wie testen? Mit Google-Ads-Experiments (Split: 50/50 oder benutzerdefiniert) oder Ad Variations.
  • Was messen? Primär-KPI (z. B. CPA/ROAS), Sekundär-KPIs (CTR, CVR), Signifikanz & Konfidenz.
  • Best Practices: Eine Variable pro Test, ausreichend Dauer/Volumen, saubere Segmentierung.

Warum testen?

Systematisches Testen reduziert Unsicherheit und erhöht die Effizienz. Ob neue Bidding-Strategien, RSA-Varianten oder PMax-Assets – valide Experimente zeigen, welche Änderung wirklich Wirkung hat und wo Budget skalieren darf.

Arten von Experimenten

  • Campaign Experiments (Split-Test): Du duplizierst eine Kampagne, änderst genau eine Variable (z. B. Bidding) und teilst den Traffic prozentual.
  • Ad Variations: Überschreibungen auf Anzeigenebene (z. B. Headline austauschen) über mehrere Anzeigengruppen/Kampagnen.
  • Geo-Split / Holdout: Regionen getrennt steuern (z. B. Bundesländer A/B), wenn Traffic-Sharing nicht praktikabel ist.
  • Inkrementalitäts-Tests: Mit Conversion Lift / Geo-Experiments (fortgeschritten, v. a. Brand & YouTube).

Test-Design & Uplift-Logik

Ein gutes Design minimiert Bias und maximiert Aussagekraft:

  1. Hypothese definieren: „Wenn wir von tCPA (35 €) auf tROAS (500 %) wechseln, steigt ROAS um ≥10 % bei stabilen Kosten.“
  2. Einflussgröße isolieren: Nur eine Variable pro Test ändern.
  3. Randomisierung & Split: 50/50 (oder 60/40) mit gleichmäßiger Zuweisung.
  4. Testdauer & Power: Mindestens 2–4 Wochen und genug Conversions (Daumenregel: ≥100/Arm), sonst keine Stabilität.
  5. Signifikanz: Ergebnissicherheit prüfen (Konfidenzintervall, p-Wert) und Business-Relevanz (Effektgröße) bewerten.

So setzt du es um (Schritt-für-Schritt)

  1. Hypothese & KPI festlegen: Primär-KPI (z. B. CPA, ROAS), Sekundär-KPIs (CTR, CVR, CPC).
  2. Kampagne duplizieren / Experiment anlegen: In Google AdsExperimentsKampagne wählen → Split % definieren.
  3. Variable ändern: z. B. Bidding (tCPA vs. tROAS), Zielwerte, RSA-Text, Landingpage.
  4. Guardrails setzen: Budget-Caps, Negativlisten, Frequenzlimits (YouTube/Display), Mindestlaufzeit.
  5. Monitoring: Wöchentlich Performance prüfen, aber nicht eingreifen (keine mehrfachen Änderungen).
  6. Auswertung & Rollout: Bei signifikantem Uplift: Gewinner-Konfiguration übernehmen; sonst Hypothese anpassen.

Tabelle: Testarten, Variable & empfohlene Dauer

TesttypBeispiel-VariablePrimäre KPIEmpf. DauerHinweis
Campaign ExperimenttCPA → tROASROAS / Umsatz3–4 WochenConversions ≥100/Arm anstreben
Ad VariationsNeue RSA-HeadlineCTR / CVR2–3 WochenKeine parallelen großen Änderungen
Geo-SplitBrand-Budget On/OffInkrementalität4–6 WochenStrikte Regionen-Trennung
PMax Asset-TestNeues Video-AssetConversions / CPA3–4 WochenSignale konstant halten

Mini-Case: tCPA vs. tROAS

Ein E-Com-Konto testet 50/50 tCPA (35 €) gegen tROAS (500 %). Nach 4 Wochen:

  • tCPA-Arm: 420 Conversions, CPA 33,80 €.
  • tROAS-Arm: 380 Conversions, ROAS 5,6, Umsatz +9 % bei leicht höherem CPA.

Entscheidung: tROAS gewinnt für Umsatzwachstum; für reine Lead-Kosten bleibt tCPA im Brand-Cluster bestehen. Rollout: Hybrid – Non-Brand mit tROAS, Brand mit tCPA.

Checkliste & Fehler vermeiden

Checkliste

  • Hypothese & KPI klar definiert
  • Nur eine Variable geändert
  • Traffic sauber gesplittet (50/50)
  • Genug Laufzeit & Conversions
  • Signifikanz & Effektgröße bewertet
  • Dokumentation & Rollout-Plan vorhanden

Fehler vermeiden

  • Mehrere Variablen gleichzeitig ändern
  • Zu kurze Dauer/zu wenig Volumen
  • Zwischendurch Ziele/Budgets ändern
  • Cherry-Picking einzelner Segmente
  • Keine Post-Test-Überwachung nach Rollout

FAQ

Wie lange sollte ein Experiment laufen?
Mindestens 2–4 Wochen und bis genügend Conversions für stabile Aussagen vorliegen.
Kann ich mehrere Experimente parallel fahren?
Nur, wenn sie sich nicht überschneiden (unterschiedliche Kampagnen/Regionen) – sonst Interferenzen.
Wie gehe ich mit Saisonalität um?
Tests über identische Zeiträume fahren oder Seasonality Adjustments nutzen; keine Urlaubs-/Feiertagsausreißer wählen.
Wann Ad Variations statt Campaign Experiments?
Wenn ausschließlich Anzeigentexte/Assets getestet werden – schneller & weniger Setup-Aufwand.
Wie messe ich Inkrementalität?
Mit Geo-Holdouts oder Conversion-Lift-Studien; Fokus auf Nettoneu-Effekte statt Kanal-Attribution.

Externe Quellen

Zuletzt aktualisiert am: 07.09.2025

Key Takeaways

  • Ein sauberes Test-Design ist wichtiger als der Testumfang.
  • Eine Variable pro Experiment – sonst keine klare Attribution.
  • Genug Dauer und Volumen sind Pflicht für Signifikanz.
  • Uplift bewerten: statistisch und geschäftlich.
  • Gewinner zügig ausrollen, aber Post-Rollout überwachen.