A/B-testing: Ander land? Ander resultaat.
De testvarianten
Een van onze klanten, de klusjessite Twizzi, is sinds kort ook actief in Nederland onder de naam Klusveiling. Beide bedrijven hebben een haast identieke website qua vormgeving. Enkel hun bedrijfsnaam, doelgroep en huisstijl verschillen van elkaar. We hebben op beide sites exact dezelfde testen opgezet:
- De ene test liep op de verschillende detailpagina’s waarop je de categorieën van de verschillende klussen terug kan vinden. We wilden de bezoekers ondersteunen die rechtstreeks op dergelijke detailpagina’s terecht komen met als doel de bounce ratio te verlagen en de conversieratio te verhogen. Een duidelijk stappenplan met een aantrekkelijke call to action leek ons de perfecte oplossing!
- De andere test liep op de homepage. Hier wilden we testen of een achtergrondbeeld dat verwees naar de cal to action een effect zou hebben op de conversieratio. Hierbij hebben we telkens twee varianten, een vakman en een dertiger, tegenover de originele versie getest.
De resultaten
Veralgemenen is nooit goed!
We spreken dan wel dezelfde taal, maar er is wel degelijk een cultuurverschil tussen Belgen en Nederlanders. Daar waar in Vlaanderen de variant telkens als winnaar uit de bus kwam, schoot de variant bij onze Noorderburen te kort.
Zo had de test met het stappenplan in Vlaanderen een improvement van maar liefst 15,79% ten opzichte van de originele versie. Concreet betekent dit een betere doorklikratio op de call to action “Plaats hier gratis jouw werk of klus”. Diezelfde test die liep op Klusveiling had daarentegen een negatieve improvement, waarbij de originele versie beter bevonden werd dan de variant.
Zo zie je maar dat je Belgen en Nederlanders niet over dezelfde kam mag scheren. Daarom doen we steeds een aparte A/B-test per land of domein. Dit laat ons toe doelgroepgerichte optimalisaties door te voeren.