Lär dig hur du använder tester och data för att fatta mer välinformerade marknadsföringsbeslut.

Blå eller gul? ”Få reda på mer” eller ”Läs mer”? Skicka mejlet på Måndag eller på Onsdag? Att prova sig fram är förvisso ett sätt att fastställa bästa möjliga utfall för dina digitala marknadsföringsinitiativ, men A/B-testning, även kallat ”Split testing”, är snabbare, mer effektivt och kan ge dig hårda data som hjälper ditt team att fatta välinformerade och effektiva beslut.

Definitionen av A/B-testning (även kallat Split testing):

Ett vetenskapligt tillvägagångssätt för experimentering där en eller flera innehållsfaktorer i digital kommunikation (webb, e-post, sociala medier, etc.) avsiktligt ändras för att man ska kunna se vilka effekter det har under en förutbestämd tidsperiod. Resultaten analyseras, utvärderas och tolkas sedan för att möjliggöra att man fattar det beslut som ger högst avkastning.

Vad är A/B-testning?

A/B-testning, eller ”A/B testing” på engelska, låter vilken organisation som helst vara mer datadriven och strategisk när det gäller den digitala kommunikationen. Det gör att beslut kan fattas helt utan gissningar och låter data styra vilken väg man ska ta. Istället för att lägga dyrbar tid på att debattera vilken färg knappen bör ha (vem älskar inte den debatten?), låter split testing er fokusera mer på data istället för åsikter och känslor. Varning: Låt inte din digitala marknadsföring falla offer för HiPPO (Highest Paid Person's Opinion syndrome, eller den högst avlönade personens åsikt-syndromet på svenska).

Du kan använda A/B-testning i flera marknadsföringskanaler och testa dina budskap, bilder, färger eller mer komplexa saker såsom formulärfält och användarflöde på en webbplats. Du kan A/B-testa ämnesrader på dina mejl i ett försök att öka öppningsfrekvensen. Det är ett vetenskapligt tillvägagångssätt för att uppnå ett visst mål. Bra testning kräver noggrann planering och utförande så att det går att lita på och analysera den data som samlas in, för att dra objektiva och korrekta slutsatser.

A/B-tester kan göra driften mer effektiv. Med stöd från data kan det rätta beslutet bli uppenbart efter ungefär en vecka av registrerade utfall. Att testa, istället för att gissa, sparar dyrbar tid för de kreativa teamen, marknadsföringsteamen och andra kollegor som de kan lägga på att jobba på sina respektive prioriteter.

Den finansiella kostnaden och alternativkostnaden för att fatta fel beslut kan minimeras med A/B-testning, för att inte tala om de lärdomar man får under testningen, som kan vara helt ovärderliga. Om ni testar en blå knapp mot en gul knapp, jämnt fördelat över er publik, och testningen avslöjar att knappen faktiskt borde vara blå, då har ni halverat risken för att lansera den mindre effektiva variationen.

Vissa av världens mest innovativa företag förlitar sig på A/B-tester för marknadsföring och produktbeslut. Experimentering är så väsentlig och integrerad del i vissa företag att de utvecklat sina egna skräddarsydda verktyg för att utföra tester. Nya lanseringar på LinkedIn görs aldrig utan split testing. Netflix är ökänt för sina experiment med registreringsprocessen och med innehållets effektivitet, och de uppmuntrar sina designers att tänka som vetenskapsmän. Google gjorde 17,523 experiment live på trafiken, vilket resulterade i 3,620 lanseringar under 2019. Jeff Bezos berömda uttalande lyder: ”Vår framgång är en funktion av hur många experiment vi gör per år, per månad, per vecka och per dag”. 

Varför bör man använda split testing?

När du gör ett A/B-test på en webbplats så delas trafiken oftast upp så att vissa användare ser kontrollgruppen, eller hur sidan redan såg ut (till exempel med den blå knappen), och de som ser den nya versionen, eller testversionen (med den gula knappen). Till skillnad från kvalitativa tester eller undersökningar där användare berättar vad de kommer göra, samlas det under ett A/B-test istället in data över vad användare faktiskt gör när de väljer mellan kontrollgruppen och den nya variationen.

Utan att gå in för djupt i matematiken bakom hur man gör ett A/B-test, så finns det två grundläggande principer om experimentering som alla bör förstå: slumpmässigt urval och statistisk signifikans.

Vad är slumpmässigt urval i A/B-testning?

För att resultaten ska kunna vara pålitliga måste användarna som ser den nya variationen representera den valda användarbasen – till exempel borde alla användare vara folk som är på jakt efter ett par skor. I de flesta fall delas antalet användare jämnt mellan kontrollgrupp och variation. Det är detta vi menar med slumpmässigt urval och det är detta som ofta görs i tester för att undvika partiskhet och metodfel. Men det bör uppmärksammas att endast en liten del av användarna väljs ut att se variationen, för att minimera risken.

Vår framgång är en funktion av hur många experiment vi gör per år, per månad, per vecka och per dag.

JEFF BEZOS, VD FÖR AMAZON

De flesta kommersiella mjukvarorna som kan göra A/B-tester i olika marknadsföringskanaler (inklusive Marketing Cloud) har ofta en inbyggd funktion för slumpmässigt urval så att marknadsförare och otekniska personer enkelt kan utföra tester.

Vad är statistisk signifikans i split testing?

Statistisk signifikans är ett mått på pålitlighet – om resultaten är verkliga eller bara berodde på tur eller slump. Till exempel om en analytiker säger att testresultaten som visar en ökning på 5 % för konverteringsgraden har en statistisk signifikans på 90 % så betyder det att du kan vara 90 % säker på att resultaten är tillförlitliga.

Analys och undersökningar ger effektiv testning

Albert Einstein sa en gång att ”Formuleringen av ett problem är ofta viktigare än dess lösning, som kan bara kan vara en fråga om matematisk eller experimentell skicklighet”. Det första och viktigaste steget i ett experiment är att identifiera de viktiga problemen (eller mätbara affärsmål) och bekräfta dem med hjälp av analys och undersökning.

Låt oss säga att ett webbteam får reda på att de har en underpresterande landningssida. Istället för att direkt försöka hitta lösningar och börja experimentera med att ändra bilder, budskap eller layout så måste teamet först titta på data för att kunna identifiera problemet. Genom att titta på analyser för sidan och användardata, kan de identifiera att problemet ligger i uppmaningen till handling (CTA). Denna typ av genomtänkt, målinriktad undersökning är den analys som behövs för att påbörja A/B-testningen.

Skapa idéer och en hypotes

När ett problem väl identifierats och bekräftats bör ni börja med att hitta sätt att lösa problemet. Detta bör följas av hypoteser för möjliga resultat och påverkan.

Det bör noteras att det är viktigt att skilja på idéer och hypoteser. En idé är en åsikt om ett experiments vad, var, vem och hur. Hypotesen är anledningen till varför idén, om den implementeras, bättre kommer uppfylla den uppsatta målsättningen än vad som görs i nuläget. Till exempel, att ändra färgen på knappen till gul är en idé. Tron att den höga kontrasten mellan knappens färg och bakgrunden kommer hjälpa användare få syn på knappen och att det kommer resultera i fler genomklickningar är hypotesen.

Prioritera och gör upp en ordningsföljd för att bestämma vad som ska testas när

När du försöker lösa ett problem med din digitala marknadsföring så finns det förmodligen många test du vill göra, och många hypoteser du vill testa. Men för att få ren data måste du testa en hypotes i taget.

Det är nu du bör börja prioritera och lägga upp en ordningsföljd för testen. De flesta framgångsrika experimentprogrammen väger dessa beslut baserat på hur viktiga testen är för strategin, hur jobbiga de är att genomföra, hur lång tid de tar och vilken påverkan de kan ha. Vissa större program ger varje kriterium ett värde. Det föreslagna testet som har högst sammanlagda värde hamnar högst upp på listan med prioriteter. Men med det sagt finns det inget sätt att prioritera som är perfekt, och alla dessa sätt bör justeras över tid.

Färdigställ din plan för testning

När du vet vilka test du vill göra så är det bäst att skapa en robust plan för testning innan du börjar utforma själva testen. En utförlig plan för A/B-testning bör inkludera följande information:

  • Problemet du försöker lösa

  • Ett SMART mål (Specific, Measurable, Achievable, Relevant, Time-based, eller Specifikt, Mätbart, Uppnåeligt, Relevant och Tidssatt på svenska) 

  • Hypotesen som ska testas

  • Mätetal för framgång (hur resultaten ska mätas)

  • Publik (vem du testar på och hur många)

  • Plats (där testet ska göras)

  • Skillnaden (vilka skillnader kontrollgruppen och variationen har)

  • Varaktigheten på testet som behövs för att uppnå den förbestämda statiska signifikansen – varaktigheten påverkas om fördelningen är 50/50 eller 80/20 (vilket i sin tur bestäms av din risktolerans)

En väldokumenterad plan ger transparens som hjälper dig skapa en enhällig inriktning i din organisation, och den hjälper till att minska risken att olika tester krockar med varandra. Detta kan vara särskilt viktigt om du jobbar i en lite större organisation där många team kan genomföra olika tester samtidigt.

Utforma ditt A/B-test

Med en färdig plan för testning är det nu dags att börja utforma testet. Om du ska ändra färgen på en knapp, en bild eller text på en webbsida, gör detta med programvara och tjänster som specialanpassats för testning. Produkter såsom Interaction Studio i Marketing Cloud låter användarna ändra färger i testsyfte med ett visuellt redigeringsverktyg så att de inte behöver kunna någonting om kodning. Du kan också testa ämnesrader för e-post direkt i produkten. 

Om det finns några inslag som är riktade mot kunden så är det en god idé att rådfråga design/UX-avdelningen för att garantera att ändringarna är förenliga med varumärket och företagets standarder för tillgänglighet. Om det är ett mer komplext test där man måste göra ändringar i koden så be dina utvecklare se över koden innan testet påbörjas. Och om ditt företag har resurserna för det, kör allt genom en sista kvalitetskontroll innan ni fortsätter.

Verkställ och övervaka din split testing

När du väl tryckt på knappen för att påbörja testet så är jobbet bara halvklart. Experiment måste övervakas noggrant för att se till att de går som de ska, speciellt om du gör ett test som pågår under en längre tid. Ibland kan testverktyget sluta skicka trafik till variationen om komponenten som testas flyttas. Lanseringar på serversidan kan göra att testverktyget slutar fungera som det ska eller slutar skicka data till och från testverktyget. Regelbunden övervakning säkerställer att eventuella fel upptäcks så tidigt som möjligt. Ett datavisualiseringsverktyg som till exempel Tableau kan hjälpa dig slå samman data och ge dig en mer holistisk vy av testet.

Under traditionell A/B-testning väljer man en varaktighet för testet, och man slutar inte förrän testet nått den dag och/eller volym man bestämt sig för. Men om det preliminära resultatet är kraftfullt vinklat åt ena hållet (till exempel om testvariationens konverteringsgrad hela tiden är mycket lägre än kontrollgruppens och att det finns tydliga tecken på att detta inte kommer förändras), då blir det ett affärsbeslut om man ska avbryta testet i förväg för att bevara företagets hälsa.

Dra lärdomar när du analyserar testresultaten

En experimentrapport bör belysa vad datan betyder. Analytiker bör tolka datan objektivt och ”berätta historien” bakom siffrorna på ett kvalitativt sätt. Vad som är viktigare är att man alltid ska tillhandahålla rekommendationer på åtgärder man kan ta för att få en djupare förståelse för användarnas beteende. Dessa rekommendationer kan ligga som grund för nästa experiment.

Och med det sluts cirkeln med iterativ testning när nästa test påbörjats.

Vad händer sen?

Kom ihåg att ett split test inte är misslyckat bara för att det inte gick som du trodde. Det betyder bara att hypotesen inte bevisats statistiskt. Det vore orimligt att tro att dina idéer och förutsägelser alltid skulle vara rätt. Med ett test som utformats, verkställts, övervakats och analyserats på rätt sätt, kommer du alltid lära dig något nytt. Det är alltid ett framsteg. 

Lär dig mer om A/B-testning

Interaction Studio i Marketing Cloud skapar A/B-test med klick istället för kod. Testa färger, ämnesrader och mycket mer.

UTFORSKA INTERACTION STUDIO