A/B-Tests richtig umsetzen: Der komplette Guide für wertvolle Testings

Mit A/B-Tests finden Sie im digitalen Marketing heraus, wie Sie für Ihr Unternehmen mehr Leads erhalten – und zwar mit statistischer Signifikanz. Testen Sie Landing Pages, Newsletter, E-Mails oder Ads über den gesamten Sales Funnel hinweg. Dieser Guide liefert Ihnen das notwendige Rüstzeug zum Einsatz von A/B-Tests in der Conversion-Optimierung. Sie erhalten einen Überblick über wichtige statistische Kennzahlen, Fallstricke und Website-Komponenten, um sie während Ihrer Testings im Blick zu halten. Entscheidend für ihren Erfolg ist die richtige Durchführung, vor der stets eine schlüssige Hypothese angeführt wird. Wie Sie A/B-Tests richtig umsetzen.

A/B-Tests als integraler Bestandteil Ihrer zyklischen Conversion-Optimierung

In der Conversion-Optimierung geht es darum, die Komponenten von Websites, Landing Pages oder E-Mails so zusammenzusetzen, dass eben jene Elemente die Aufmerksamkeit Ihrer Nutzer erregen, die Sie für eine möglichst erfolgreiche Konversion benötigen. Erheben Sie deshalb den Status qQuo auf allen relevanten Zielseiten, indem Sie Zusammenhänge über das Nutzerverhalten ermitteln. Entwickeln Sie anschließend begründete Hypothesen über Verbesserungsmöglichkeiten. Nehmen Sie diese Verbesserungen schließlich vor und testen Sie sie gegen die ursprüngliche Variante. Setzen Sie die explorative Analyse, die Hypothesenbildung, weitere A/B-Tests inklusive Ihrer Auswertung fort, bis Sie Ihre Conversions nachhaltig optimiert haben. Vermutlich stellen Sie fest, dass es immer wieder neue Anknüpfungspunkte gibt, die Sie für weitere Testings nutzen können. Nicht nur, weil sich immer wieder neue Erkenntnisse ergeben, sondern auch aufgrund veränderter Angebote sowie eines sich wandelnden Nutzerverhaltens.

Ohne Conversion-Ziele keine Conversion-Optimierung

Um überhaupt herausfinden zu können, welche Komponenten es zu optimieren gilt, ermitteln Sie zunächst ein Conversion-Ziel. Handelt es sich um eine sogenannte Macro-Conversion, also um ein abschließendes Conversion-Ziel (z. B. Bestellung eines Produkts), können Sie es in Teilschritte bzw. kurzfristige Ziele, in sog. Micro-Conversions, einteilen. In der Regel führt dieses Vorgehen auch dazu, dass Sie in Ihrem Sales Funnel weiter oben ansetzen, um die einzelnen Schritte bis zum Lead über die Conversion-Optimierung abzubilden.

Hypothesenbildung in A/B-Tests

Um A/B-Tests richtig umsetzen zu können, formulieren Sie zunächst eine Hypothese. Unternehmen, die Ihre Zielgruppe gut kennen, sind hierbei im Vorteil! Denn eine Hypothese für ein solches Testing ist im Grunde nichts anderes als eine Annahme über Ihre Zielgruppe, bezogen auf eine Komponente in Ihrer Landing Page, E-Mail-Vorlage oder Anzeige. Zielgruppen-Annahmen sind oft bereits in Personas formuliert, und dort als Herausforderungen oder Challenges gekennzeichnet. Wenn darin beispielsweise steht, dass Zeitdruck ein wesentlicher Faktor ist, könnte Ihre Maßnahme an genau diesem Punkt ansetzen.

Durch vorausgegangenes Tracking (Eye-Tracking, Heatmaps oder Neuronale Netze) erhalten Sie zusätzliche Informationen, welche Komponenten es wert sind, getestet zu werden. Zusammen mit der Annahme über Ihre Nutzer und diesen Ergebnissen können Sie nun eine konkrete Hypothese formulieren.

Formel einer Hypothese für A/B-Tests

“Wenn ich dank Beobachtung T Komponente A aufgrund der Zielgruppenannahme Z durch Maßnahme B optimiere, kann ich Conversion-Ziel C verbessern.”

Sie benötigen

  • ein Conversion-Ziel (C)
  • eine Zielgruppen-Annahme (Z)
  • eine Beobachtung (T), datengestützt (Analytics, Eye-Tracking oder Heatmaps)
  • eine Maßnahme (B), basierend auf Annahme über Ihre Zielgruppe
  • eine ermittelte Test-Komponente (A)

A ist die ursprüngliche Version, B die neue, die im Falles eines erfolgreichen A/B-Tests in Zukunft verwendet werden soll. Je konkreter die Hypothese ist, desto weniger Spielraum existiert während der Entwicklung des Testelements.

A/B-Tests gehören zu den wichtigsten Methoden innerhalb der Conversion-Optimierung. Explorative Verfahren wie etwa das Eye-Tracking oder Heatmaps werden meist im Vorfeld eingesetzt, um Muster in der Anwendung von Websites zu entdecken. Das können Blickbewegungen sein, Maus- bzw. Touch-Bewegungen und natürlich das Klick-Verhalten der Nutzer.

A/B-Test-Tipps für bessere Conversions

A/B-Tests sind unabdingbar, um die Potenziale für die Conversion-Optimierung voll auszuschöpfen. Die folgenden Tipps können hilfreich sein, um die richtigen Maßnahmen für ihre A/B-Tests zu entwickeln:

  • Kürzen Sie Formulare soweit wie möglich.
  • Verwenden Sie Trust-Elemente, um das Vertrauen Ihrer Nutzer zu gewinnen.
  • Reduzieren Sie den Zeitdruck Ihrer Nutzer.
  • Personalisieren Sie Ihre Web-Inhalte.
  • Bieten Sie Interaktions- und Support-Möglichkeiten an.
  • Testen Sie verschiedene Bild-Varianten.
  • Heben Sie wichtige Call-to-Actions visuell hervor.
  • Reduzieren Sie Ablenkungen und Auswahlmöglichkeiten durch ein klares, zielführendes Design.
  • Machen Sie Ihrem Nutzer sofort verständlich, worum es geht.
  • Signalisieren Sie die sofortige Verfügbarkeit Ihrer Angebote (z. B. sofort lieferbar).
  • Locken Sie mit knappen Ressourcen (z. B. nur noch wenige Produkte verfügbar).
  • Nutzen Sie A/B-Tests, um Ihre Marketing-Automatisierung zu optimieren.

Einflussfaktoren in A/B-Tests konstant halten

Wichtig ist, dass beide Test-Varianten stets zum gleichen Zeitpunkt geprüft werden. Es würde das Test-Ergebnis verfälschen, wenn Sie erst Variante A testen, und danach Variante B. Menschen neigen dazu, sich zu verschiedenen Zeitpunkten höchst unterschiedlich zu verhalten. Bereits die Uhrzeit kann einen erheblichen Einfluss auf unsere Bereitschaft haben, Handlungen beispielsweise auf Landing Pages zu vollziehen. Ebenfalls deutlich sind die Unterschiede unseres Nutzungsverhaltens am Wochenende, im Vergleich zu unserem Verhalten innerhalb der Woche. Selbstverständlich kann auch das Wetter unsere Bereitschaft beeinflussen, wie wir Web-Angebote nutzen. Diese Faktoren sind in der Regel weder vermeidbar, noch kalkulierbar, und sollten daher in beiden Varianten konstant gehalten werden.

Testlaufzeit über Konversionszyklen hinweg

Die Hypothese ist aufgestellt, das Test-Element ist entwickelt worden und steht für den Test zur Verfügung. Selbstverständlich müssen die technischen Voraussetzungen geklärt, und ein Testing-Tool ausgewählt worden sein. Anschließend kann der A/B-Test gestartet werden. Seine Laufzeit ist von unterschiedlichen Faktoren abhängig; etwa davon, ob das Ergebnis positiv oder negativ ist, aber auch von der Signifikanz der Resultate.

Damit Sie Ihren A/B-Test richtig umsetzen, ist es zusätzlich von Bedeutung, dass die Konversionszyklen Ihrer Nutzer berücksichtigt werden. In vielen Fällen kehrt der Nutzer nach seinem ersten Besuch mehrere Male zurück bevor er eine Macro-Conversion auslöst. Es ist daher wichtig, dass der A/B-Test ausreichend lange läuft, um den gesamten Konversionszyklus abzubilden, insbesondere, wenn langfristige Ziele getestet werden.

Fallstricke im A/B-Testing

  • Verwirrung bei Stammkunden vermeiden: Stammkunden finden sich in aller Regel hervorragend in Ihrem Web-Angebot zurecht, und kennen jeden Button. Eine plötzliche Änderung könnte dazu führen, dass die Conversion gerade im Stammkundengeschäft einbricht. Berücksichtigen Sie diesen Aspekt bei der Durchführung ihrer A/B-Tests.
  • Duplicate Content: Falls in A/B-Tests zwei nahezu identische Seiten existieren, wertet Google diese als doppelten Inhalt. Dies kann einen Verlust Ihres Suchmaschinen-Rankings zur Folge haben. Es gibt aber diverse Möglichkeiten, Duplicate Content zu vermeiden. Eine davon ist die sog. DOM-Manipulation.
  • Umsatzeinbußen vermeiden: A/B-Tests sollten nur so lange laufen wie nötig. Denn wenn der A/B-Test eine signifikant bessere Variante ermittelt hat, sollte diese Version auch verwendet werden, da sie höhere Umsätze verspricht.
  • Fehlendes statistisches Basiswissen: Statistisches Basiswissen ist nicht nur hilfreich, sondern unabdingbar, um A/B-Tests erfolgreich durchführen zu können.

Multivariate Tests

Speziell bei Multivariaten-Tests, bei denen Kombinationen (z. B. Bild und Text) getestet werden, steigen die Anforderungen an das Team, das für die Durchführung und Auswertung zuständig ist. Zudem erhöht sich die auch die Zahl der benötigten Nutzer, um das gewünschte Signifikanzniveauvon z.B. 95% zu erreichen. Während Sie in einem einfachen A/B-Test lediglich eine neue Variante testen (Variante B), ergeben sich bereits bei nur einer Bild-Text-Kombination gleich drei neue Variationen (nämlich B/A, A/B, B/B).

A/B-Tests spielen in der Conversion-Optimierung von Landing Pages eine wichtige Rolle, aber auch E-Mails oder Newsletter werden häufig getestet. Im Rahmen einer Multi-Channel-Strategie ist es von Bedeutung, Kommunikation über mehrere Kanäle abzubilden und auf Basis von Daten weitere Entscheidungen zu treffen. Ein Tool, das das A/B-Testing von Landing Pages und E-Mails ermöglicht und in eine umfassende Marketing Automatization integriert, ist beispielsweise Salesforce Pardot.

A/B-Tests richtig auswerten: Das Signifikanzniveau

Wenn das Testergebnis eine höhere Konversion zeigt, ist das für sich gesehen noch kein Grund zur Freude. Jubeln dürfen Sie erst, wenn es statistisch signifikant ist. Das Signifikanzniveau sollte grundsätzlich bei mindestens 95% liegen, was so viel bedeutet, dass die Irrtumswahrscheinlichkeit Ihres Tests, also die Wahrscheinlichkeit, dass Ihr Testergebnis bloßer Zufalls ist, bei 5% liegt. Bei einer Irrtumswahrscheinlichkeit von 5% sind tatsächlich 5% der Testergebnisse wirklich falsch. Oftmals ist es daher hilfreich, A/B-Tests länger laufen zu lassen, um eine höhere statistische Signifikanz zu erhalten. Sie können aber selbst entscheiden, wie viel Risiko sie bereit sind zu akzeptieren. Denn letztlich werden Signifikanzniveaus willkürlich festgelegt, auch wenn sich die 95%-Marke in der Statistik etabliert haben mag. Und letztlich ist es natürlich auch eine Frage der Wirtschaftlichkeit, wie lange Sie einen A/B-Test laufen lassen.

Machen Sie einen A/A-Test

Ein A/A-Test testet zwei identische Versionen in einem A/B-Setting. Sie können auf diese Weise überprüfen, wie gut Ihre A/B-Software funktioniert. Aber auch bei zu großer Varianz Ihrer Daten kann es passieren, dass die Ergebnisse nicht ausreichend präzise sind bzw. nicht besonders gut durch den ermittelten Durchschnittswert repräsentiert werden. Achten Sie also zusätzlich auch auf die statistische Varianz!

A/B-Testverfahren

Im Falle von A/B-Tests haben wir es mit statistischen Tests zu tun, hinter denen sich unterschiedlich Test-Methoden verbergen können. Mitunter basieren sie auf dem Bayesian-Ansatz, oder auf klassischen Hypothesentests. Auch die Wahl des statistischen Tests und die damit verbundenen Modellannahmen können einen Einfluss auf die Qualität des resultierenden Ergebnisses haben.

Zur Durchführung und Auswertung von A/B-Tests ist statistisches Basiswissen hilfreich. Tools unterstützen Sie insbesondere in der Durchführung, indem Sie den Tracking-Code in Ihre Website einbinden, die Testvarianten erstellen und die Tests schließlich automatisiert durchführen. In komplexen Situationen, d.h. wenn viele Tests parallel laufen oder Sie Multivariate Tests durchführen, spielt das Monitoring über mehrere Zyklen bzw. Iterationen eine wichtige Rolle. Kennzahlen über Ergebnisse und Zwischenstände helfen Ihnen bei der Entscheidung, welche A/B-Tests Sie z. B. stoppen können, und bei welchen Sie die Laufzeit verlängern sollten.

Sie möchten mehr darüber erfahren, wie Sie A/B-Tests erfolgreich in Ihr Cross-Channel-Marketing integrieren? Wir empfehlen die virtuelle Tour Sind Sie bereit für den Einstieg in die Marketingautomatisierung?" mit Tipps zu Pardot Online-Marketingkampagnen zur Umsatz- und Effizienzsteigerung.

Interessiert an Salesforce? Lernen Sie mehr über unser kostenloses E-Book!