Træf bedre beslutninger om din hjemmeside - brugerdata og A/B Testing
Udgivet: January 29, 2020
Senest opdateret: March 19, 2024
Udgivet: January 29, 2020
Senest opdateret: March 19, 2024
Estimeret læsetid: 5 minutter
Når du begynder at få nok data om brugeradfærd fra dine Heatmaps, Session Recordings og Feedback Surveys, begynder du også at lave antagelser og hypoteser (bevidst eller ej) om din hjemmeside eller webshop.
Hvor nogle observationer kan have åbenlyse løsninger - for eksempel hvis en Session Recording viser dig, at nogle af dine siders design ser forkert ud med visse skærmopløsninger, så er det klart, at du er nødt til at rette på det responsive layout - andre løsninger er ikke helt så ligetil.
A/B Testing hjælper dig med at få bekræftet dine antagelser ved at teste forskellige varianter op imod en "kontrol" (dvs. den originale eller den nuværende version af din hjemmeside) og rapportere hver variants performance i forhold til det mål, du gerne vil nå.
Der er normalt to mål, som du kan sigte efter i et A/B Testing-projekt:
1. Løsning af et problem.
Hvis dine Heatmaps viser dig, at besøgende på hjemmesiden stort set ignorerer din Call-to-Action (CTA), er det indlysende, at du er nødt til at ændre noget - men hvad præcist det er, du har brug for at ændre, er måske knap så indlysende.
Skal du ændre CTA-placeringen eller fjerne nogle af elementerne omkring den, for at få den til at skille sig mere ud?
Er det bare et spørgsmål om at ændre farven på knappen til en mere iøjnefaldende farve? Eller er det teksten, der skal omskrives?
Med én test ad gangen kan du langsomt, men sikkert, luge ud i disse muligheder, og pin-pointe den ændring, du skal foretage for at opnå flere CTA-klik (og i sidste ende konverteringer).
2. Forbedring af en eksisterende funktion.
Der dukker muligvis ikke kritiske problemer op i din analyse af brugeroplevelsen, men du kan også altid forbedre de målinger, der er "gode nok".
Det kan virke lidt omsonst at skulle teste ændringer af din hjemmesides design eller funktionalitet for noget, der ikke nødvendigvis er et problem, men som heller ikke performer helt optimalt.
Som man siger, “Du behøver ikke at reparere noget, der ikke er ødelagt.” Men du risikerer også at komme bagefter dine konkurrenter, hvis du hele tiden nøjes med ting, der 'bare' fungerer.
Et gylden middelvej, du kan vælge, er at udføre en A/B Test, hvor du kan eksperimentere med nye ideer uden at skulle revidere hele den eksisterende struktur eller design.
A/B Test og Split Testing bruges i flæng, men disse udtryk henviser faktisk til forskellige typer tests, som man bruger til forskellige formål.
A/B Testing er til test af ens hjemmesider med kun én ting til forskel - for eksempel forskellige farver på en knap. Split Testing derimod er til test af helt forskellige versioner af en hjemmeside med mere end én variant, - som en re-designet landingsside eller et andet overordnet web-tema.
Begge typer tests er nyttige på deres egen måde, så du skal nøje overveje din målsætning, når du vælger den ene fremfor den anden.
Hvis du f.eks. eksperimenterer med den rigtige udformning af en landingsside, der får din besøgende til at konvertere til køb, vil en Split Test være optimal at udføre. Du kan derefter oprette forskellige versioner af din side - en med en let tone og en anden med mere direkte, to-the-point indhold.
Omvendt, hvis du kun ønsker at forbedre et enkelt element på en hjemmeside, er A/B Test vejen frem, som f.eks. ved at teste forskellige overskrifter på en blog-artikel.
A/B Testing og Split Testing kan også bruges sammen for at få bedre resultater. Du kan starte med at oprette en Split Test for at se, hvilket tema dine brugere responderer på, og når den vindende variant er fundet, kan du arbejde dig ned i detaljen ved at A/B-teste specifikke elementer som tekst- og knapplaceringer, så du kan finde frem til den bedst mulige version af din hjemmeside.
Bemærk: De fleste værktøjer kan håndtere simple A/B Tests som eksperimenter med forskellige farver eller tekstvarianter. Til Split Testing af hjemmesider med helt forskellige layouts får du sandsynligvis brug for hjælp af en udvikler til at konfigurere disse sider, og Split Test-værktøjet kan så håndtere visning af sidevarianterne til et udvalg af dine besøgende.
Hos 1902 Software bruger vi Crazy Egg til A/B Tests af nye ideer, som vi gerne vil implementere på vores hjemmesider.
Crazy Egg gør det let at udføre A/B Tests, fordi deres algoritme stort set tager sig af alt efter den indledende opsætning.
Når du først har besluttet hvilke varianter, du vil teste, sørger Crazy Egg derefter for at konfigurere, hvordan de forskellige versioner af din hjemmeside præsenteres for dine brugere. Typisk er en A/B Test-kampagne jævnt fordelt på din besøgende - dvs. halvdelen præsenteres for kontrolvarianten, mens den anden halvdel vises den variant, der testes. I Crazy Egg implementerer de dog "Multi-Armed Bandit Testing", hvor Split Tests konfigureres efterhånden som data indsamles, og som man lærer af de foreløbige resultater.
For eksempel, hvis én variant får flere positive resultater end den anden, bliver stadig mere trafik rettet over mod den første for at sikre, at potentielle konverteringer ikke spildes på den mindre succesfuld variant. Du kan læse mere om Multi-Armed Bandit Testing her.
AUTHOR
Peter Skouhus
En dansk iværksætter, der ejer 1902 Software Development, et it-selskab på Filippinerne, hvor han har boet siden 1998. Peter har stor erfaring inden for IT-udvikling, strategisk it-ledelse og salg.