Skip to main content

A/B Testing kampanii

A/B testing pozwala porównać dwie wersje kampanii i automatycznie wybrać lepszą. Zwiększ open rate o 20-30% testując temat emaila!

Co możesz testować?

Temat emaila

Najczęściej testowane (biggest impact na open rate)

Nadawca

“Jan Kowalski” vs “Zespół Mailist”

Treść emaila

Długa vs krótka, formalna vs swobodna

CTA

Tekst przycisku, kolor, umiejscowienie

Jak działa A/B test?

1

Podziel listę

50% dostaje wersję A, 50% wersję B
2

Wyślij obie wersje

Równocześnie, w tym samym czasie
3

Zmierz wyniki

Po 2-4 godzinach sprawdź:
  • Open rate
  • Click rate
  • Konwersje
4

Wybierz zwycięzcę

Mailist automatycznie wybiera lepszą wersję dla przyszłych kampanii

Tworzenie A/B testu

Wersja A: "Nowości stycznia dla Ciebie"
Wersja B: "{{firstName}}, sprawdź nasze nowości"

Split: 50% / 50%
Test time: 4 godziny
Winning metric: Open rate
Pytanie: Czy personalizacja zwiększa otwarcia?

Najlepsze praktyki

Testuj tylko JEDNĄ zmienną naraz
  • ✅ Dobry test: Tylko temat się różni
  • ❌ Zły test: Temat + treść + CTA są inne (nie wiesz, co zadziałało)
Minimalna wielkość: Do sensownego A/B testu potrzebujesz minimum 1,000 kontaktów (500 per wariant)

Przykładowe testy

A: “Nowości stycznia 2025”B: ”🎯 Nowości stycznia 2025”Wynik: Emoji zwiększyło open rate o 12%
A: “Sprawdź naszą ofertę”B: “Tylko dziś: Sprawdź naszą ofertę”Wynik: Pilność zwiększyła open rate o 18%
A: “Nowości stycznia” (17 znaków)B: “Kompleksowy przewodnik po nowościach w naszej ofercie w styczniu 2025” (78 znaków)Wynik: Krótki temat wygrał o 25% (lepsze wyświetlanie na mobile)

Następne kroki

Analityka kampanii

Zrozum wyniki A/B testów i optymalizuj dalej