Serie, Teil 2 19.10.2015, 09:35 Uhr

Conversion-Optimierung: Hypothesen mit A/B-Tests überprüfen

Mit A/B-Testing kann man überprüfen, ob Änderungen auf der Website die Conversion Rate steigern. Doch dabei lauern einige Statistik-Fallen, die man kennen sollte.
Mann sitzt vor PCs
(Quelle: shutterstock.com/Danang Setiawan)
von André Morys, Geschäftsführer WebArts
Bei der Conversion-Optimierung von Websites ist A/B-Testing das Mittel der Wahl, um ­eine Veränderung auf ihre Wirksamkeit zu überprüfen. Das Prinzip ist einfach: Die Ausgangsseite und die "verbesserte" Seite werden im Wechsel ausgespielt: Zeigt die „verbesserte“ Seite eine Steigerung der Performance, hat sie den Test bestanden. Im ersten Teil der Serie zur Conversion-Optimierung wurde erklärt, ­woher gute Ideen für die Experimente kommen und wie diese "Hypothesen" priorisiert werden.
Warum sollte man Ideen für die Conversion-Optimierung überhaupt "testen"? Viele Verantwortliche sind von der Wirksamkeit der einen oder anderen Idee derart überzeugt, dass ihnen eine direkte Umsetzung wesentlich schneller und kostengünstiger erscheint. Der Sinn eines Tests liegt jedoch darin, durch Prüfung der unterschiedlichen Umsetzungen oder Ideen für eine Optimierungshypothese deren Wirksamkeit anhand von Nutzungsdaten nachzuweisen.

Multivariate Tests

Neben dem A/B-Testing, bei denen die Änderung eines einzelnen Website-Elements getestet wird, wurden auch sogenannte multivariate Tests (MVT) entwickelt, bei denen jede Veränderung isoliert betrachtet wird, und zwar in Kombination mit sämtlichen ­anderen Veränderungen.
Solche multivariate Tests sind sehr hilfreich, um zu messen, welcher Erfolg mit den unterschiedlichen Elementen einer Hypothese bei der Conversion-Optimierung erzielt wird, oder auch um Kreuzeffekte bei mehreren Hypothesen zu testen. Als Nachteil sei vor allem die sehr hohe Traffic-Menge erwähnt, die benötigt wird, um valide Testresultate zu erzielen.
Tools für MVT- oder A/B-Testing sorgen für eine gleichmässige Verteilung des Traffics auf alle Varianten, spielen die Veränderung aus und leiten die Nutzer­zugriffe auf die entsprechende URL. Ausserdem messen sie mithilfe eines Java-Script-Tags, ob die zuvor definierten Ziele für die Conversion-Optimierung ­erreicht wurden.
Jeder, der bereits solche Tests durchgeführt hat, kennt die Überraschung, wenn eine Variante gewinnt, die niemand im Auge hatte. Und genau darin liegt letztlich der grosse Vorteil dieser Methode: Objektive Daten sind eine bessere Grundlage für Entscheidungen als subjektive Meinungen.
Jedes Unternehmen, das mithilfe von A/B-Testing die Wirksamkeit seiner Massnahmen zur Conversion-Optimierung kontrolliert, gewinnt einen grossen Erfahrungsschatz auf Basis echter Nutzerdaten. Amazon führte laut eigenem Geschäftsbericht im vergangenen Jahr knapp 2.000 Experimente durch - der aus den Erkenntnissen entstandene Wettbewerbsvorteil ist neben dem betriebswirtschaftlichen Nutzen sicherlich enorm.





Das könnte Sie auch interessieren