A/B Testing im E-Mail-Marketing: So findest du, was funktioniert
20% Öffnungsrate. Ist das gut? Schlecht? Du weißt es nicht – weil du nie getestet hast, ob ein anderer Betreff besser wäre. A/B Testing beendet das Raten. Zwei Versionen, ein Gewinner, messbare Ergebnisse.
Du verschickst einen Newsletter. 20% öffnen ihn. Die anderen 80%? Haben den Betreff gelesen und gedacht: "Nicht relevant." Nächste Woche verschickst du wieder einen – mit einem anderen Betreff. 24% öffnen. Aber du weißt nicht, ob der Betreff besser war oder ob es einfach ein besserer Tag war.
Das bedeutet: Du verschwendest jede Woche Budget, Zeit und Aufmerksamkeit – ohne zu wissen, woran es liegt. Systematisches A/B Testing deiner Emails beendet dieses Raten. Du schickst zwei Varianten gleichzeitig an eine Testgruppe und lässt die Daten entscheiden, welche Version an den Rest geht.
Transparenz
Fakten basieren auf dem Litmus State of Email Report, dem t3n-Guide zu Conversion-Optimierung und der KlickTipp Dokumentation. Affiliate-Links enthalten.
Was ist A/B Testing im E-Mail Marketing?
A/B Testing (auch Splittest genannt) bedeutet: Du erstellst zwei Versionen einer E-Mail, die sich in genau einem Element unterscheiden. Version A geht an 15% deiner Liste, Version B an weitere 15%. Nach einer Testphase (typisch 2-4 Stunden) wird die bessere Version automatisch an die restlichen 70% verschickt.
| Element | Version A | Version B |
|---|---|---|
| Betreff | "5 Tipps für mehr Umsatz" | "Machst du diesen Fehler auch?" |
| Alles andere | Identisch | Identisch |
Das Ergebnis: Du weißt mit Sicherheit, welcher Betreff besser funktioniert. Kein Bauchgefühl. Keine Vermutung. Daten.
A/B Test vs. multivariater Test
Ein A/B Test vergleicht genau EINE Variable (z.B. nur den Betreff). Ein multivariater Test vergleicht mehrere Variablen gleichzeitig (Betreff + Absender + Versandzeit). Für E-Mail Marketing reicht A/B Testing – denn du brauchst weniger Daten für aussagekräftige Ergebnisse.
Was du testen solltest (und was nicht)
Nicht jedes Element lohnt sich gleich. Ohne klare Priorität testest du wochenlang irrelevante Details – während dein größter Hebel unberührt bleibt. Hier die Rangfolge nach Impact:
1. Betreffzeile (größter Hebel)
Die Betreffzeile entscheidet über Öffnen oder Ignorieren. Eine Verbesserung der Öffnungsrate um 5 Prozentpunkte (z.B. von 20% auf 25%) bedeutet bei 2.000 Kontakten: 100 zusätzliche Leser pro E-Mail.
Teste diese Varianten:
| Test | Version A | Version B |
|---|---|---|
| Neugier vs. Nutzen | "Was die meisten falsch machen..." | "3 Wege zu mehr Öffnungsrate" |
| Personalisiert vs. Generisch | "Simon, dein Monatsbericht" | "Dein Monatsbericht für Februar" |
| Kurz vs. Lang | "Neues Feature" | "Dieses Feature spart dir 3 Stunden pro Woche" |
| Emoji vs. Ohne | "🔥 Neue Aktion" | "Neue Aktion ab heute" |
| Frage vs. Aussage | "Nutzt du schon Tags?" | "So nutzt du Tags richtig" |
2. Absendername
"Newsletter" vs. "Simon von simon-erklaert.com" vs. "Simon Hänel" – der Absendername beeinflusst die Öffnungsrate fast so stark wie der Betreff. Persönliche Namen performen meist besser als Firmennamen.
3. Versandzeit
Dienstag 10:00 vs. Donnerstag 14:00. Der optimale Versandzeitpunkt hängt von deiner Zielgruppe ab. B2B-Kontakte öffnen anders als B2C-Kontakte. Testen statt raten.
4. Call-to-Action
Button-Text, Button-Farbe, Position im Text. "Jetzt anmelden" vs. "Kostenfreien Platz sichern" – kleine Wortänderungen können die Klickrate verdoppeln. Besonders wirkungsvoll in Kombination mit Segmentierung: Verschiedene Segmente reagieren auf unterschiedliche CTAs. Das 4-Farben-Modell zeigt, warum – jeder Persönlichkeitstyp bevorzugt einen anderen Stil.
Was du NICHT testen solltest
- Mehrere Elemente gleichzeitig: Wenn du Betreff UND Versandzeit änderst, weißt du nicht, was den Unterschied gemacht hat
- Bei zu kleiner Liste: Unter 500 Kontakten sind die Ergebnisse statistisch nicht aussagekräftig
- Unwichtige Details: Schriftfarbe der Footer-Links, Formulierung des Abmelde-Texts
25% mehr Klicks durch Optimierung
Jonas Eisert (Loveve) erzielte 25% mehr Klicks und siebenstellige Umsätze – nicht durch mehr Traffic, sondern durch systematische Optimierung seiner bestehenden E-Mail-Kampagnen mit dem Tool. Der Unterschied: Jede E-Mail wurde getestet, jede Variante gemessen.
A/B Test einrichten: Schritt für Schritt
Schritt 1: Hypothese aufstellen
Nicht "Ich teste mal den Betreff", sondern: "Ich vermute, dass eine Frage im Betreff mehr Öffnungen bringt als eine Aussage – weil Fragen Neugier erzeugen."
Eine gute Hypothese hat drei Teile:
- Was du änderst: "Betreff als Frage formulieren"
- Was du erwartest: "Höhere Öffnungsrate"
- Warum: "Fragen erzeugen Neugier und fordern zum Nachdenken auf"
Die "Warum"-Komponente ist der Punkt, an dem A/B-Tests von Daten-Sammlung zu echtem Lernen werden — sie verbindet das Test-Ergebnis mit einer Hypothese aus der Verkaufspsychologie. Ohne Warum weißt du nur, was funktioniert hat, nicht warum.
Schritt 2: Testgruppe festlegen
Die Standardaufteilung: 15% Version A, 15% Version B, 70% Gewinner-Version.
| Listengröße | Testgruppe pro Variante | Mindest-Ergebnis für Aussagekraft |
|---|---|---|
| 500 | 75 Empfänger | Grobe Tendenz |
| 1.000 | 150 Empfänger | Brauchbar |
| 2.500 | 375 Empfänger | Zuverlässig |
| 5.000+ | 750 Empfänger | Statistisch belastbar |
Schritt 3: Wartezeit bestimmen
Wie lange wartest du, bevor der Gewinner an den Rest geht?
- Betreffzeilen-Test: 2-4 Stunden (die meisten Öffnungen passieren in den ersten Stunden)
- Klick-Test: 4-8 Stunden (Klicks brauchen länger)
- Conversions: 24 Stunden (Käufe brauchen Bedenkzeit)
Schritt 4: Gewinner-Kriterium wählen
| Kriterium | Wann sinnvoll |
|---|---|
| Öffnungsrate | Betreffzeilen, Absendername, Versandzeit |
| Klickrate | CTA-Texte, Button-Farben, Content-Struktur |
| Conversion-Rate | Verkaufs-E-Mails, Landing-Page-Links |
Schritt 5: Ergebnis dokumentieren
Halte fest: Was wurde getestet, welches Ergebnis, welche Erkenntnis. Nach 10 Tests hast du ein Playbook für deine Zielgruppe, das dir jahrelang höhere Ergebnisse bringt. Wer seine Tests nicht dokumentiert, macht denselben Fehler zweimal – und verschenkt das teuerste Asset im E-Mail Marketing: Wissen über die eigene Zielgruppe. Welche E-Mail Marketing KPIs du dabei im Blick behalten solltest, erfährst du im separaten Guide.
A/B Testing im System
In KlickTipp funktioniert A/B Testing auf zwei Ebenen:
Newsletter-Splittest (ab Premium):
- Newsletter erstellen → "Splittest" aktivieren
- Variante B anlegen (z.B. anderen Betreff)
- Testgruppen-Größe und Wartezeit festlegen
- Gewinner-Kriterium wählen (Öffnungen oder Klicks)
- Versenden – KlickTipp schickt automatisch die bessere Version an den Rest
Kampagnen-Splittest (Deluxe):
Hier testest du nicht nur einzelne E-Mails, sondern ganze Automation-Pfade. Beispiel: Sende 50% durch Pfad A (3 E-Mails über 5 Tage) und 50% durch Pfad B (5 E-Mails über 10 Tage). Der Pfad mit mehr Verkäufen gewinnt.
Kampagnen-Splittest = Gamechanger
Die meisten Tools können nur E-Mail-Betreffzeilen testen. KlickTipp testet im Deluxe-Tarif ganze Funnel-Pfade gegeneinander. Das ist der Unterschied zwischen "etwas bessere Öffnungsraten" und "fundamental bessere Conversion."
Die 5 häufigsten Fehler beim A/B Testing
1. Zu viele Variablen gleichzeitig testen
Betreff, Absender UND Versandzeit ändern → du weißt nicht, was gewirkt hat. Immer nur EINE Variable.
2. Test zu früh abbrechen
Nach 30 Minuten: "Version A hat 12 Öffnungen, B hat 8 – A gewinnt!" Nein. Warte die geplante Testzeit ab. Frühes Abbrechen führt zu Zufallsergebnissen.
3. Ergebnisse nicht dokumentieren
Der dritte A/B Test bringt dir nichts, wenn du die Erkenntnisse aus den ersten beiden vergessen hast. Führe eine simple Liste: Datum, Test, Ergebnis, Erkenntnis.
4. Nur Betreffzeilen testen
Betreffzeilen sind der einfachste Test, aber nicht der einzige. Teste auch: CTA-Texte, Versandzeiten, Absendername, E-Mail-Länge, Personalisierung. Ob ein schlichtes Text-Format besser konvertiert als ein Design-Template, zeigt der Guide Newsletter Design vs. Conversion.
5. Bei zu kleiner Liste testen
Unter 500 Kontakten bekommst du keine statistisch relevanten Ergebnisse. Besser: Best Practices anwenden und ab 500 Kontakten mit systematischen Tests starten.
10 A/B-Test-Ideen mit erwartetem Impact
Du weißt jetzt, wie Tests funktionieren. Hier sind 10 konkrete Ideen, sortiert nach realistischem Impact auf deine Ergebnisse:
| # | Test-Element | Variante A | Variante B | Metrik | Erwarteter Effekt |
|---|---|---|---|---|---|
| 1 | Betreffzeile | Nutzen-basiert: "5 Tipps für mehr Umsatz" | Neugier-Lücke: "Dieser Fehler kostet dich Kunden" | Öffnungsrate | +3–8% |
| 2 | Absendername | Firmenname: "Simon-Erklaert Newsletter" | Vorname: "Simon" | Öffnungsrate | +2–5% |
| 3 | Versandzeit | Dienstag 9:00 Uhr | Donnerstag 14:00 Uhr | Öffnungsrate | +1–4% |
| 4 | CTA-Farbe | Grau/neutral | Kontrastfarbe (z.B. Orange/Grün) | Klickrate | +5–15% |
| 5 | CTA-Text | Generisch: "Mehr erfahren" | Spezifisch: "Jetzt Workshop-Platz sichern" | Klickrate | +8–20% |
| 6 | Preheader | Leer / E-Mail-Anfang | Bewusst ergänzend zur Betreffzeile | Öffnungsrate | +2–5% |
| 7 | Personalisierung | Kein Name: "Hallo," | Vorname: "Hallo [Vorname]," | Öffnungsrate + Klicks | +1–4% |
| 8 | Bild vs. kein Bild | Header-Bild vorhanden | Reines Text-Format ohne Bild | Klickrate / Zustellrate | variiert stark |
| 9 | E-Mail-Länge | Kurz (150–250 Wörter) | Lang (500–800 Wörter) | Klickrate | variiert je Zielgruppe |
| 10 | Emoji im Betreff | Kein Emoji: "Dein Monatsbericht" | Mit Emoji: "📊 Dein Monatsbericht" | Öffnungsrate | +3–6% (oder –2%) |
Priorisierungsregel: Teste immer zuerst, was den größten Hebel hat. Die Betreffzeile (Test #1) entscheidet über Öffnen oder Ignorieren und hat damit den höchsten Einfluss auf alle nachgelagerten KPIs. CTA-Optimierungen (Tests #4 und #5) wirken direkt auf den Umsatz — bei gleicher Öffnungsrate.
Hinweis zu Test #8 (Bild vs. kein Bild): Text-E-Mails werden von manchen Spam-Filtern bevorzugt behandelt, können aber optisch weniger ansprechend sein. Bei hochengagierten Listen performen sie oft besser als Design-Newsletter. Teste das, bevor du dein Template dauerhaft änderst.
Statistisch signifikante Ergebnisse: Wann ist ein A/B-Test wirklich valide?
Der häufigste Fehler beim A/B Testing ist nicht fehlende Kreativität — sondern fehlende Geduld. Tests werden zu früh ausgewertet, zu kleine Gruppen verglichen, Ergebnisse als "eindeutig" eingestuft, obwohl sie reiner Zufall sind.
Die drei Bedingungen für einen validen Test:
1. Mindestens 1.000 Empfänger pro Variante
Als Faustregel gilt: Jede Testvariante braucht mindestens 1.000 Empfänger, um statistisch belastbare Aussagen zu ermöglichen. Bei 500 Empfängern pro Gruppe liegt der statistische Fehler so hoch, dass ein 2%-Unterschied in der Öffnungsrate zufällig entstanden sein kann. Bei 1.000 Empfängern sinkt dieser Fehler auf ein akzeptables Niveau.
Was das für deine Liste bedeutet:
| Listengröße | Empfänger pro Variante (15/15/70) | Tauglichkeit |
|---|---|---|
| 500 | 75 | Nur grobe Tendenz |
| 1.000 | 150 | Erste Hinweise |
| 3.500 | 525 | Verwendbar, aber vorsichtig interpretieren |
| 7.000+ | 1.050 | Statistisch belastbar |
Bei kleinen Listen empfiehlt sich eine längere Testphase statt der Standard-2-Stunden, um mehr Öffnungen zu sammeln.
2. Mindestens 24 Stunden Laufzeit
Der Öffnungs-Peak liegt zwar in den ersten Stunden — aber ein Test nach 2 Stunden zu stoppen bedeutet: Du misst nur das Verhalten von Frühöffnern. Wer die E-Mail am Nachmittag oder am nächsten Morgen öffnet, fehlt in deiner Auswertung. Für Conversion-Tests (Käufe, Anmeldungen) gilt: Mindestens 48-72 Stunden.
3. Konfidenzintervall von 95%
Das Konfidenzintervall gibt an, wie sicher du sein kannst, dass dein Ergebnis kein Zufall ist. Ein Konfidenzintervall von 95% bedeutet: In 95 von 100 Fällen würdest du denselben Gewinner sehen.
Wie du das berechnen kannst: Tools wie Neil Patel's A/B Testing Calculator oder der Optimizely Stats Engine sind kostenlos und brauchen nur Empfängerzahlen und Öffnungsraten als Input.
Praktische Faustregel:
Wenn der Unterschied zwischen Variante A und B unter 2 Prozentpunkten liegt und du weniger als 1.000 Empfänger pro Gruppe hattest — interpretiere vorsichtig. Das könnte Zufall sein. Warte auf weitere Tests.
Erst wenn du denselben Effekt in zwei unabhängigen Tests siehst, gilt er als bestätigt.
Dein Testplan für die nächsten 4 Wochen
| Woche | Test | Erwarteter Effekt |
|---|---|---|
| 1 | Betreff: Frage vs. Aussage | Öffnungsrate +3-5% |
| 2 | Absendername: Vorname vs. Firmenname | Öffnungsrate +2-4% |
| 3 | CTA-Text: Generisch vs. Spezifisch | Klickrate +5-10% |
| 4 | Versandzeit: Vormittag vs. Nachmittag | Öffnungsrate +1-3% |
Nach 4 Wochen weißt du: den besten Betreffzeilen-Stil, den optimalen Absender, den stärksten CTA-Text und die beste Versandzeit für DEINE Zielgruppe.
Dein nächster Schritt
Du hast zwei Optionen. Option A: Weiter raten, welcher Betreff besser ist – und jede Woche Geld liegen lassen, ohne es zu merken. Option B: Systematisch testen und jede Woche ein bisschen besser werden.
Jeder Test liefert eine Erkenntnis. Nach 20 Tests hast du ein Playbook, das niemand kopieren kann – weil es auf DEINEN Daten basiert. Wer nicht testet, optimiert nicht. Wer nicht optimiert, verliert – an Konkurrenten, die es tun.
Häufige Fragen zum A/B Testing
Was ist A/B Testing im E-Mail Marketing?
A/B Testing (Splittest) bedeutet, zwei Varianten einer E-Mail an eine Testgruppe zu senden und die bessere Version automatisch an den Rest der Liste zu verschicken. Du änderst genau ein Element (z.B. den Betreff) und lässt die Daten entscheiden, statt zu raten.
Wie starte ich mit A/B Testing in meinem Newsletter?
Starte mit einem Betreffzeilen-Test: Formuliere zwei verschiedene Betreffzeilen, sende jede an 15% deiner Liste und lass die Gewinner-Version automatisch an die restlichen 70% gehen. Nach 2-4 Stunden Wartezeit steht das Ergebnis. In KlickTipp aktivierst du dafür die Splittest-Funktion ab dem Premium-Tarif.
Wie lange sollte ein A/B Test laufen?
Für Betreffzeilen-Tests reichen 2-4 Stunden, weil die meisten Öffnungen in den ersten Stunden passieren. Klick-Tests brauchen 4-8 Stunden, Conversion-Tests bis zu 24 Stunden. Entscheidend ist, die geplante Testzeit nicht vorzeitig abzubrechen — sonst bekommst du Zufallsergebnisse statt belastbarer Daten.
Welche Elemente sollte ich im E-Mail Marketing testen?
Den größten Hebel hat die Betreffzeile — sie entscheidet, ob deine E-Mail überhaupt geöffnet wird. Danach folgen Absendername, Versandzeit und CTA-Texte. Teste immer nur ein Element pro Durchgang, damit du weißt, was den Unterschied gemacht hat.
Ab wann ist ein A/B Test statistisch aussagekräftig?
Ab ca. 500 Kontakten bekommst du brauchbare Tendenzen. Ab 1.000 werden Ergebnisse zuverlässig, ab 2.500 statistisch belastbar. Bei kleineren Listen sind die Testgruppen (je 15%) zu klein für signifikante Unterschiede. Dann besser bewährte Best Practices anwenden und ab 500 Kontakten systematisch testen.
Simon Haenel
Informatiker EFZ · Systemtechnik
Informatiker EFZ (Systemtechnik) mit IT-Praxis in Verkehrsleittechnik, Managed Services und Firewall-Hardening. Analysiert E-Mail-Marketing-Tools aus der technischen Perspektive — Zustellarchitektur, Serverstandort, DSGVO-Infrastruktur.
Weiterlesen
Öffnungsrate verbessern
7 Hebel für mehr E-Mail-Öffnungen
Erklärung lesenKlickTipp Kosten
Welcher Tarif hat A/B Tests?
Erklärung lesenSales Funnel erstellen
Den ganzen Funnel optimieren
Erklärung lesenNewsletter erstellen
Grundlagen für bessere E-Mails
Erklärung lesenLanding Page erstellen
A/B Testing für Landing Pages
Erklärung lesen