A/B Testing im E-Mail-Marketing: So findest du, was funktioniert
20% Öffnungsrate. Ist das gut? Schlecht? Du weißt es nicht – weil du nie getestet hast, ob ein anderer Betreff besser wäre. A/B Testing beendet das Raten. Zwei Versionen, ein Gewinner, messbare Ergebnisse.
Was ist A/B Testing im E-Mail Marketing?
A/B Testing (auch Splittest genannt) bedeutet: Du erstellst zwei Versionen einer E-Mail, die sich in genau einem Element unterscheiden. Version A geht an 15% deiner Liste, Version B an weitere 15%. Nach einer Testphase (typisch 2-4 Stunden) wird die bessere Version automatisch an die restlichen 70% verschickt.
| Element | Version A | Version B |
|---|---|---|
| Betreff | "5 Tipps für mehr Umsatz" | "Machst du diesen Fehler auch?" |
| Alles andere | Identisch | Identisch |
Das Ergebnis: Du weißt mit Sicherheit, welcher Betreff besser funktioniert. Kein Bauchgefühl. Keine Vermutung. Daten.
A/B Test vs. multivariater Test
Ein A/B Test vergleicht genau EINE Variable (z.B. nur den Betreff). Ein multivariater Test vergleicht mehrere Variablen gleichzeitig (Betreff + Absender + Versandzeit). Für E-Mail Marketing reicht A/B Testing – denn du brauchst weniger Daten für aussagekräftige Ergebnisse.
Was du testen solltest (und was nicht)
Nicht jedes Element lohnt sich gleich. Ohne klare Priorität testest du wochenlang irrelevante Details – während dein größter Hebel unberührt bleibt. Hier die Rangfolge nach Impact:
1. Betreffzeile (größter Hebel)
Die Betreffzeile entscheidet über Öffnen oder Ignorieren. Eine Verbesserung der Öffnungsrate um 5 Prozentpunkte (z.B. von 20% auf 25%) bedeutet bei 2.000 Kontakten: 100 zusätzliche Leser pro E-Mail.
Teste diese Varianten:
| Test | Version A | Version B |
|---|---|---|
| Neugier vs. Nutzen | "Was die meisten falsch machen..." | "3 Wege zu mehr Öffnungsrate" |
| Personalisiert vs. Generisch | "Simon, dein Monatsbericht" | "Dein Monatsbericht für Februar" |
| Kurz vs. Lang | "Neues Feature" | "Dieses Feature spart dir 3 Stunden pro Woche" |
| Emoji vs. Ohne | "🔥 Neue Aktion" | "Neue Aktion ab heute" |
| Frage vs. Aussage | "Nutzt du schon Tags?" | "So nutzt du Tags richtig" |
2. Absendername
"Newsletter" vs. "Simon von simon-erklaert.com" vs. "Simon Hänel" – der Absendername beeinflusst die Öffnungsrate fast so stark wie der Betreff. Persönliche Namen performen meist besser als Firmennamen.
3. Versandzeit
Dienstag 10:00 vs. Donnerstag 14:00. Der optimale Versandzeitpunkt hängt von deiner Zielgruppe ab. B2B-Kontakte öffnen anders als B2C-Kontakte. Testen statt raten.
4. Call-to-Action
Button-Text, Button-Farbe, Position im Text. "Jetzt anmelden" vs. "Kostenfreien Platz sichern" – kleine Wortänderungen können die Klickrate verdoppeln. Besonders wirkungsvoll in Kombination mit Segmentierung: Verschiedene Segmente reagieren auf unterschiedliche CTAs.
Was du NICHT testen solltest
- Mehrere Elemente gleichzeitig: Wenn du Betreff UND Versandzeit änderst, weißt du nicht, was den Unterschied gemacht hat
- Bei zu kleiner Liste: Unter 500 Kontakten sind die Ergebnisse statistisch nicht aussagekräftig
- Unwichtige Details: Schriftfarbe der Footer-Links, Formulierung des Abmelde-Texts
25% mehr Klicks durch Optimierung
Jonas Eisert (Loveve) erzielte 25% mehr Klicks und siebenstellige Umsätze – nicht durch mehr Traffic, sondern durch systematische Optimierung seiner bestehenden E-Mail-Kampagnen mit KlickTipp. Der Unterschied: Jede E-Mail wurde getestet, jede Variante gemessen.
A/B Test einrichten: Schritt für Schritt
Schritt 1: Hypothese aufstellen
Nicht "Ich teste mal den Betreff", sondern: "Ich vermute, dass eine Frage im Betreff mehr Öffnungen bringt als eine Aussage – weil Fragen Neugier erzeugen."
Eine gute Hypothese hat drei Teile:
- Was du änderst: "Betreff als Frage formulieren"
- Was du erwartest: "Höhere Öffnungsrate"
- Warum: "Fragen erzeugen Neugier und fordern zum Nachdenken auf"
Schritt 2: Testgruppe festlegen
Die Standardaufteilung: 15% Version A, 15% Version B, 70% Gewinner-Version.
| Listengröße | Testgruppe pro Variante | Mindest-Ergebnis für Aussagekraft |
|---|---|---|
| 500 | 75 Empfänger | Grobe Tendenz |
| 1.000 | 150 Empfänger | Brauchbar |
| 2.500 | 375 Empfänger | Zuverlässig |
| 5.000+ | 750 Empfänger | Statistisch belastbar |
Schritt 3: Wartezeit bestimmen
Wie lange wartest du, bevor der Gewinner an den Rest geht?
- Betreffzeilen-Test: 2-4 Stunden (die meisten Öffnungen passieren in den ersten Stunden)
- Klick-Test: 4-8 Stunden (Klicks brauchen länger)
- Conversions: 24 Stunden (Käufe brauchen Bedenkzeit)
Schritt 4: Gewinner-Kriterium wählen
| Kriterium | Wann sinnvoll |
|---|---|
| Öffnungsrate | Betreffzeilen, Absendername, Versandzeit |
| Klickrate | CTA-Texte, Button-Farben, Content-Struktur |
| Conversion-Rate | Verkaufs-E-Mails, Landing-Page-Links |
Schritt 5: Ergebnis dokumentieren
Halte fest: Was wurde getestet, welches Ergebnis, welche Erkenntnis. Nach 10 Tests hast du ein Playbook für deine Zielgruppe, das dir jahrelang höhere Ergebnisse bringt. Wer seine Tests nicht dokumentiert, macht denselben Fehler zweimal – und verschenkt das teuerste Asset im E-Mail Marketing: Wissen über die eigene Zielgruppe.
A/B Testing in KlickTipp
In KlickTipp funktioniert A/B Testing auf zwei Ebenen:
Newsletter-Splittest (ab Premium):
- Newsletter erstellen → "Splittest" aktivieren
- Variante B anlegen (z.B. anderen Betreff)
- Testgruppen-Größe und Wartezeit festlegen
- Gewinner-Kriterium wählen (Öffnungen oder Klicks)
- Versenden – KlickTipp schickt automatisch die bessere Version an den Rest
Kampagnen-Splittest (Deluxe):
Hier testest du nicht nur einzelne E-Mails, sondern ganze Automation-Pfade. Beispiel: Sende 50% durch Pfad A (3 E-Mails über 5 Tage) und 50% durch Pfad B (5 E-Mails über 10 Tage). Der Pfad mit mehr Verkäufen gewinnt.
Kampagnen-Splittest = Gamechanger
Die meisten Tools können nur E-Mail-Betreffzeilen testen. KlickTipp testet im Deluxe-Tarif ganze Funnel-Pfade gegeneinander. Das ist der Unterschied zwischen "etwas bessere Öffnungsraten" und "fundamental bessere Conversion."
Die 5 häufigsten Fehler beim A/B Testing
1. Zu viele Variablen gleichzeitig testen
Betreff, Absender UND Versandzeit ändern → du weißt nicht, was gewirkt hat. Immer nur EINE Variable.
2. Test zu früh abbrechen
Nach 30 Minuten: "Version A hat 12 Öffnungen, B hat 8 – A gewinnt!" Nein. Warte die geplante Testzeit ab. Frühes Abbrechen führt zu Zufallsergebnissen.
3. Ergebnisse nicht dokumentieren
Der dritte A/B Test bringt dir nichts, wenn du die Erkenntnisse aus den ersten beiden vergessen hast. Führe eine simple Liste: Datum, Test, Ergebnis, Erkenntnis.
4. Nur Betreffzeilen testen
Betreffzeilen sind der einfachste Test, aber nicht der einzige. Teste auch: CTA-Texte, Versandzeiten, Absendername, E-Mail-Länge, Personalisierung.
5. Bei zu kleiner Liste testen
Unter 500 Kontakten bekommst du keine statistisch relevanten Ergebnisse. Besser: Best Practices anwenden und ab 500 Kontakten mit systematischen Tests starten.
Dein Testplan für die nächsten 4 Wochen
| Woche | Test | Erwarteter Effekt |
|---|---|---|
| 1 | Betreff: Frage vs. Aussage | Öffnungsrate +3-5% |
| 2 | Absendername: Vorname vs. Firmenname | Öffnungsrate +2-4% |
| 3 | CTA-Text: Generisch vs. Spezifisch | Klickrate +5-10% |
| 4 | Versandzeit: Vormittag vs. Nachmittag | Öffnungsrate +1-3% |
Nach 4 Wochen weißt du: den besten Betreffzeilen-Stil, den optimalen Absender, den stärksten CTA-Text und die beste Versandzeit für DEINE Zielgruppe.
Dein nächster Schritt
Du hast zwei Optionen. Option A: Weiter raten, welcher Betreff besser ist – und jede Woche Geld liegen lassen, ohne es zu merken. Option B: Systematisch testen und jede Woche ein bisschen besser werden.
Jeder Test liefert eine Erkenntnis. Nach 20 Tests hast du ein Playbook, das niemand kopieren kann – weil es auf DEINEN Daten basiert. Wer nicht testet, optimiert nicht. Wer nicht optimiert, verliert – an Konkurrenten, die es tun.
---
Q: Was ist A/B Testing im E-Mail Marketing?
A: A/B Testing (Splittest) bedeutet, zwei Varianten einer E-Mail an eine Testgruppe zu senden und die bessere Version automatisch an den Rest der Liste zu verschicken. Du änderst genau ein Element (z.B. den Betreff) und lässt die Daten entscheiden, statt zu raten.
Q: Wie groß muss meine Liste für A/B Testing sein?
A: Mindestens 500 Kontakte für brauchbare Ergebnisse. Ab 1.000 Kontakten werden die Tests zuverlässig. Bei unter 500 Kontakten sind die Testgruppen zu klein für statistisch relevante Unterschiede – hier besser Best Practices anwenden.
Q: Was sollte ich zuerst testen?
A: Die Betreffzeile. Sie hat den größten Einfluss auf die Öffnungsrate und ist am einfachsten zu testen. Danach: Absendername, Versandzeit, CTA-Text.
Q: Wie lange sollte ein A/B Test laufen?
A: Für Betreffzeilen: 2-4 Stunden. Für Klick-Tests: 4-8 Stunden. Für Conversion-Tests: 24 Stunden. Die meisten Öffnungen passieren in den ersten Stunden nach dem Versand.
Q: Kann ich mehrere Elemente gleichzeitig testen?
A: Technisch ja, aber tu es nicht. Wenn du Betreff UND Versandzeit gleichzeitig änderst, weißt du nicht, welche Änderung den Unterschied gemacht hat. Immer nur eine Variable pro Test ändern.
Q: Was kostet A/B Testing bei KlickTipp?
A: A/B Tests für Newsletter sind im Premium-Tarif (ca. 50€/Monat) enthalten. Kampagnen-Splittests (ganze Funnel-Pfade testen) gibt es im Deluxe-Tarif (ca. 70€/Monat). Im Standard-Tarif (30€/Monat) sind keine Splittests verfügbar. Alle Tarife: KlickTipp Preise.
Häufige Fragen zum A/B Testing
Simon Haenel
Informatiker & KI-Enthusiast
Informatiker aus Leidenschaft. Auf dieser Seite nutze ich KI, um komplexe Themen verständlich aufzubereiten – recherchiert, strukturiert und auf den Punkt gebracht.