INTERNET WORLD Business Logo Abo
A/B-Test
Sonstiges 03.02.2015
Sonstiges 03.02.2015

Fehler vermeiden Fallstricke bei der Conversion-Optimierung

Shutterstock.com/Download Now
Shutterstock.com/Download Now

Schwachstellen auf dem Online-Auftritt können dem Betreiber buchstäblich teuer zu stehen kommen. Sieben Tipps für genaue Ergebnisse beim A/B-Testing von Websites und Onlineshops.

Optimierungsmaßnahmen für den eigenen Online-Auftritt sollten nie ohne vorheriges Testen durchgeführt werden. Eine bewährte Methode ist das A/B-Testing. Dabei werden mehrere Webseiten-Varianten an Besucher ausgespielt und gegeneinander getestet. Was einfach klingt, birgt aber einige Fallstricke, die der Web-Controlling- und Targeting-Anbieter etracker vorstellt.

1. Wildes Testen ohne Strategie

A/B-Tests können im Handumdrehen erstellt werden. Das verführt das dazu, ohne Strategie zu handeln. Marketingverantwortliche sollten zunächst das Problem identifizieren und dann eine Hypothese formulieren: "Wenn ein <Problem> durch <Optimierungsvorschlag> verändert wird, erreichen wir eine Verbesserung von <erwartetes Ergebnis>."

2. Achtung Fehlerteufel

Wenn es an den Launch eines A/B-Tests geht, ist ebenfalls Bedacht angesagt. Einmal nicht aufgepasst und der Fehlerteufel hat sich eingeschlichen. Vor dem Release des Tests müssen Marketingverantwortliche noch einmal explizit die Funktionalität sowie die Anzeige der Varianten in unterschiedlichen Browsern und auf diversen Endgeräten prüfen.

3. Zu hohe Ziele

Mehr Bestellungen oder Umsatz als Ziel eines A/B-Tests anzugeben, kann den Test verfälschen, weil zu viele Faktoren auf den Verkauf einwirken. Es gilt, auf kürzere Conversion-Ziele zu setzen, sogenannte Mikro-Conversions. Wird im A/B-Test ein neuer Call-to-Action-Button ausprobiert, kann das Ziel der Klick darauf sein.

4. Duplicate Content würgt SEO-Ranking

Ein gutes Suchmaschinenranking kann durch A/B-Tests schnell zunichtegemacht werden. Damit die Seitenvarianten von Google nicht als Duplicate Content behandelt werden, muss man den Content der Seite dynamisch ändern, so dass der Google-Crawler immer nur die Originalseite durchsucht.

5. Zu schnell Ende im Gelände

Auch wenn sich nach 100 Testbesuchern schon ein Gewinner des A/B-Tests herauskristallisiert, die Datenmenge muss groß genug sein, um die Gewinner-Variante mit statistischer Signifikanz zu bestimmen. Typischerweise braucht es einige 100 bis 1.000 Besucher pro Test, abhängig davon, wie stark sich die Conversion-Rate der Seitenvarianten vom Original unterscheidet.

6 . Aus den Augen aus dem Sinn

Ein A/B-Test kann manchmal schneller ein eindeutiges Ergebnis erzielen, als man vermutet. Mit jedem Tag, an dem der A/B-Test noch läuft, büßt der Websitebetreiber Umsatz oder zumindest die definierten Conversion-Ziele ein. Ein Autopilot kann helfen. Er erkennt, wenn es eine eindeutige Gewinnervariante gibt, und spielt diese mehrheitlich aus.

7. Testing ohne Segmentierung

In der Regel werden A/B-Tests über alle Kundengruppen gefahren. Allerdings sollte der Marketingverantwortliche die Ergebnisse immer segmentieren: nach Wiederkehrern, Stammkunden und so weiter. Das ermöglicht auch einen ersten Einblick in mögliche Personalisierungsstrategien. Je nach Besuchergruppe und Verhalten können dann personalisierte Websiteinhalte automatisch ausgespielt werden. 

"Die Optimierung der Website ist keine Aufgabe, die man sich einmal im Jahr vornehmen sollte, sondern eine kontinuierliche. Durch Analyse und Testing stellen Websitebetreiber sicher, dass nur erfolgversprechende Maßnahmen umgesetzt werden", so Olaf Brandt, Director Product Management bei etracker. 

Das könnte Sie auch interessieren