2819 6630

Bjerge der ligner en graf med opadgående kurve

A/B Splittest: Hvad det er – og hvornår det giver mening for din virksomhed

A/B test på hjemmeside, e-mails eller annoncer giver svar i stedet for gætteri. Her får du en ærlig forklaring og konkrete idéer – inkl. hvornår du har trafik nok til at det batter.

Mange små virksomheder hører ord som A/B test og splittest og tænker: “Det lyder smart… men er det overhovedet noget for mig?” Det er et fair spørgsmål. Jeg ser det tit hos håndværkere, konsulenter, revisorer, behandlere, foreninger og andre små virksomheder, hvor der ikke sidder en marketingafdeling og nørder tal hele dagen – og hvor man samtidig ikke har uendeligt med trafik at teste på.

Et splittest betyder helt enkelt, at du viser to (eller få) varianter af det samme til forskellige besøgende – fx en landingsside, en e-mail eller en annonce – og måler hvilken version der performer bedst. “Bedst” er typisk flere henvendelser, flere køb eller flere tilmeldinger. Fordelen er, at du træffer beslutninger ud fra data i stedet for mavefornemmelser. Ulempen er, at det kræver disciplin: Én ændring ad gangen, og testen skal køre længe nok til at give et brugbart svar.

På siden her gennemgår jeg hvad splittest er, hvad du konkret kan bruge det til (hjemmeside, landingssider, e-mails, annoncer, formularer, knapper og tekster), hvornår det kan betale sig – og hvilke værktøjer der findes.

Indholdsfortegnelse fold ud

Hvad er en splittest (A/B test)?

A/B splittest med variant A og B

En splittest er i bund og grund en kontrolleret måde at finde ud af hvad der virker på din hjemmeside, uden at du skal gætte dig frem. Du viser to (eller et par) varianter af det samme til forskellige besøgende, og så måler du hvilken version der klarer sig bedst på det du faktisk vil opnå.

A/B test og splittest er det samme. På dansk siger mange “splittest”, men princippet er identisk. Variant A er typisk din nuværende side eller dit nuværende element, og variant B er den ændrede version du vil teste imod.

Sådan fungerer det i praksis

Du starter med en kontrolgruppe. Det er variant A, altså “originalen”. Så laver du en testvariant, variant B, hvor du ændrer én ting ad gangen. Det kan være en overskrift, en knaptekst, en knapfarve, rækkefølgen på sektioner, et billede, eller en formular der er gjort kortere.

Det vigtigste er at du måler på noget konkret. F.eks. antal som klik på en knap, udfyldte kontaktformularer, tilmeldinger til nyhedsbrev eller hvor mange der scroller ned til et bestemt punkt.

  • Variant A er baseline, så du ved hvad du sammenligner med
  • Variant B (og evt. C) er ændringen, så du kan se effekten af en specifik idé
  • Du kører testen længe nok til at data ikke bare er tilfældigheder

Hvorfor det er smart, og hvornår det bliver bøvlet

Fordelen er ret simpel. Du tager beslutninger baseret på data i stedet for mavefornemmelser. Gennem årene har jeg set mange virksomheder bruge tid på små rettelser der føles rigtige, men som enten ikke flytter noget eller faktisk gør det dårligere. En splittest gør det sort på hvidt.

Ulempen er at det kræver trafik, tid og disciplin. Hvis du kun har få besøgende om ugen, kan du vente længe på et resultat du kan stole på. Og hvis du ændrer fem ting på én gang, så aner du ikke hvad der virkede. Det er typisk her folk får lavet halve tests og ender tilbage i gætteriet.

Det er ikke nyt, men det er blevet tilgængeligt

Splittests har været brugt i markedsføring og produktudvikling i mange år. Forskellen i dag er at små virksomheder også kan være med, fordi der findes værktøjer der gør det muligt at sætte det op uden at bygge et helt analyseapparat.

Hvis du vil arbejde mere systematisk med at få flere henvendelser fra samme trafik, så hører splittests hjemme under konverteringsoptimering. Det er dér, det giver mening at tænke i hypoteser, tests og løbende forbedringer.

Skriv og fortæl hvad du vil teste

Hvad kan du bruge splittest til?

En splittest lyder tit som noget kun store virksomheder gør. I praksis er det ofte små justeringer der flytter mest, især når du ikke har lyst til at gætte dig frem.

Hjemmeside og landingssider

På en hjemmeside giver splittest mest mening på sider der har et formål. Forsiden, en landingsside, en ydelsesside eller en side der skal få folk til at udfylde en formular. Her kan du teste ting som faktisk betyder noget for en besøgende.

  • Overskrifter og underoverskrifter der rammer mere konkret
  • CTA-knapper hvor du tester tekst, farve og placering
  • Billeder der viser dig, dit produkt eller et “før/efter” i stedet for stockfotos
  • Layout og rækkefølge på sektioner, fx pris før eller efter social proof
  • Tekstlængde, hvor du tester kort og kontant mod mere forklaring

Hvis du vil nørde med det selv, så giver det god mening at arbejde målrettet med landingssider og få styr på dine call to actions først.

E-mails og nyhedsbreve

E-mails er oplagte at teste, fordi du får data hurtigt. Du kan splitte en udsendelse i to varianter og måle hvad der sker. Det er ikke raketvidenskab, men det afslører hurtigt om din mavefornemmelse holder.

  • Emnelinje, fx kort og konkret mod mere nysgerrighed
  • Afsender-navn, fx dit navn mod firmanavn
  • Knaptekst, fx “Læs mere” mod “Se tilbud” eller noget der er endnu bedre
  • Med eller uden billeder, og om emojis hjælper eller bare støjer

Her kigger man typisk på åbningsrate og klikrate. Og nej, jeg roder ikke med Outlook og mailkonti.

Annoncer på Facebook og Google

Annoncer er i sig selv en testmaskine. Platformene har ofte indbygget A/B-test, og selv når de ikke kalder det det, så kan du køre flere annoncer mod samme målgruppe og se hvad der vinder.

  • Forskellige billeder eller video mod stillbillede
  • Overskrifter der er mere direkte på problemet
  • Annoncetekst der er kort mod en der forklarer lidt mere

Min erfaring er at mange brænder penge af fordi de ændrer alt på én gang og bagefter ikke ved hvorfor det gik godt eller skidt.

Formularer og leadgenerering

Formularer er et klassisk sted hvor små ændringer kan give flere henvendelser. Men det kræver at du tør skære ind til benet og teste det.

  • Få felter mod mange felter
  • Placering, fx øverst på siden mod efter en forklaring
  • Felt-tekster der er mere menneskelige og mindre “skemaagtige”
  • Submit-knap, fx “Send” mod “Få et svar”

Det hænger tæt sammen med leadgenerering, fordi hver ekstra friktion typisk koster henvendelser.

Social proof der faktisk virker

Testimonials, logoer og “antal kunder” kan hjælpe, men det er ikke altid det gør det. Nogle gange skaber det tryghed. Andre gange ligner det fluff, eller værre, noget der virker utroværdigt. Det kan du teste.

  • Testimonials med navn og kontekst mod anonyme citater
  • Logovisning mod ingen logoer
  • Placering af social proof tæt på CTA mod længere nede på siden

Test én ting ad gangen

Reglen jeg holder fast i er simpel. Alt der er synligt og kan ændres kan testes, men du skal kun ændre én ting ad gangen, eller i hvert fald meget få. Ellers ved du ikke hvad der skabte effekten, og så ender du tilbage i gætteri.

Hvis du vil, kan jeg hjælpe dig med at vælge de 1-2 ting der er mest oplagte at teste først, så du ikke spilder tid på småting.

Skriv og fortæl hvad du vil teste først

Hvornår giver splittest mening?

Splittests lyder tit som en smart genvej til flere henvendelser. Problemet er bare at mange små virksomheder ikke har trafikken til at få et svar, man kan stole på. Og så ender man med at optimere på tilfældigheder.

Lav trafik giver ofte støj i stedet for læring

Hvis du har meget lav trafik, er chancen for statistisk signifikans lille. I praksis betyder det at du kan få et “vindende” resultat, som bare skyldes held, sæson, en enkelt stor kunde der ramte siden, eller at du lige havde en uge med ekstra travlhed på Facebook.

Hvis du er en typisk SMV med et par hundrede besøgende om ugen, kan en test nemt skulle køre i mange uger før du har data nok. Og i den periode kan markedet nå at ændre sig.

Det giver mening når du kan holde testen ren

A/B Splittest giver mest mening når du har stabil trafik, et klart mål og tålmodighed til at køre testen længe nok. Det kan være:

  • Du har et tydeligt mål som flere henvendelser, flere tilmeldinger eller lavere bounce rate, og du måler det konsekvent.
  • Du kan lade testen køre i flere uger uden at få kolde fødder efter tre dage.
  • Du ændrer én ting ad gangen, fx overskrift, CTA-tekst eller formularens længde, så du ved hvad der faktisk gjorde forskellen.
  • Du har nogenlunde ens trafikmix undervejs, så du ikke tester på en uge med helt anderledes besøgende end normalt.

Det bliver tvivlsomt når du tester alt på én gang

Jeg ser tit A/B tests hvor der både er ny overskrift, nyt hero-billede, ny knapfarve, ny tekst og ny sideopbygning. Hvis variant B vinder, ved du reelt ingenting. Og hvis du samtidig har ustabil trafik, bliver det endnu mere gætteri.

For mange små virksomheder er basisoptimering vigtigere

Gennem årene har jeg set at de største gevinster sjældent kommer fra avancerede tests i starten. De kommer fra at få styr på det basale først. En tydelig CTA, en kontaktformular der ikke føles som en skatteblanket, og en side der loader hurtigt. Når det fundament spiller, giver splittest langt mere mening, fordi du tester små forbedringer ovenpå noget der allerede virker.

Læs mere om konverteringsoptimering

Sådan laver du en splittest

Når folk hører “splittest”, tror de tit det er noget tungt og teknisk. I praksis er det bare en disciplineret måde at undgå mavefornemmelser på. Jeg har set alt for mange ændre 10 ting på én gang og bagefter konkludere at “det virkede” uden reelt at vide hvorfor.

Her er en enkel model du kan følge, uanset om du tester på en landingsside, en “Kontakt”-knap eller en formular.

Trin 1 – Find data og vælg ét mål

Start i Google Analytics eller et andet analyseværktøj. Kig efter sider med meget trafik og et tydeligt “drop-off”. Det kan være at folk lander på en ydelsesside, men næsten ingen klikker videre til kontakt. Vælg ét klart mål, som du kan måle direkte.

  • Eksempler på mål kan være flere klik på “Kontakt”, flere formular-indsendelser eller flere tilmeldinger til nyhedsbrev.

Trin 2 – Skriv en hypotese du kan være uenig med

En hypotese er bare din forklaring på hvorfor noget burde virke. Den skal være konkret nok til at du kan sige “ja” eller “nej” bagefter. For eksempel “En grøn CTA-knap giver flere klik end den blå, fordi den skiller sig mere ud i layoutet.”

Min erfaring er at de bedste hypoteser kommer fra noget du kan se i adfærden. Ikke fra hvad du synes er pænt.

Trin 3 – Test kun én variabel ad gangen

Det her er punktet hvor de fleste ødelægger deres egen test. Hvis du både ændrer overskrift, knapfarve og billeder, og resultaterne ændrer sig, så ved du ikke hvad der gjorde forskellen.

  • Test for eksempel kun overskriften ELLER kun knapteksten ELLER kun placeringen af CTA.

Trin 4 – Opsæt test og kør den længe nok

Du skal bruge et værktøj der kan vise variant A og variant B til tilfældige besøgende. En 50/50 fordeling er helt almindelig, fordi det giver et fair sammenligningsgrundlag. A er din kontrolgruppe, altså den nuværende version. B er ændringen.

Kør testen længe nok til at du har ordentligt med data. Jeg har set tests blive stoppet efter to dage fordi B “så bedre ud”. Det er sådan man ender med at optimere i blinde.

Trin 5 – Analysér og pas på falske konklusioner

Når du analyserer, skal du tjekke om forskellen er statistisk signifikant. Ellers kan det være tilfældigheder. Og vær ærlig omkring hvad der ellers skete i perioden. Hvis I samtidig sendte en stor mail ud, ændrede jeres annoncer eller fik omtale et sted, så kan det have påvirket tallene.

Brug resultatet til næste test. Splittesting er sjældent én stor “aha”-oplevelse. Det er mange små forbedringer, der lægger sig ovenpå hinanden.

Når du har styr på metoden, bliver det også nemmere at vælge hvad der overhovedet er værd at teste på din nye hjemmeside.

Skriv og fortæl hvad du overvejer at teste

Hvad kan du teste med A/B testing?

Når folk hører om A/B testing, tænker de tit at det handler om småting. Men de små ting er ofte præcis det, der afgør om en besøgende tager kontakt eller bare smutter igen. Jeg har set det mange gange gennem årene, både på kundesider og på mine egne projekter, hvor en enkelt ændring kunne flytte overraskende meget.

Det vigtigste er at du tester noget, der faktisk kan påvirke adfærden, og at du holder dig til én ændring ad gangen. Ellers aner du ikke hvad der virkede.

CTA-knapper der får folk til at gøre noget

Knapper er det oplagte sted at starte, fordi de er nemme at ændre og nemme at måle på. Her er nogle klassikere jeg ofte tester eller anbefaler at teste.

  • Farve og kontrast. Blå, grøn og orange kan alle virke, men kun hvis knappen skiller sig tydeligt ud fra baggrunden. En knap der “matcher designet” kan være pæn, men den kan også blive usynlig.
  • Tekst på knappen. “Kontakt os” er ofte for anonymt. “Få en uforpligtende snak” siger mere om hvad der sker bagefter. Nogle gange virker en mere konkret tekst endnu bedre, fordi den fjerner usikkerhed.
  • Størrelse og form. En lille knap kan ligne en tilfældig menu-link. Rundede hjørner vs. kantede kan også ændre følelsen af “klikbarhed”, især på mobil.
  • Placering. Øverst i hero, efter introen, i en sidebar, eller gentaget efter et afsnit hvor du allerede har overbevist folk. Jeg har set sider hvor knappen stod “rigtigt” ifølge en eller anden regelbog, men hvor en anden placering gav langt flere henvendelser.

Hvis du vil nørde mere i det her spor, så læs også min side om call to action. Det er samme disciplin, bare forklaret mere grundigt.

Overskrifter og brødtekst der rammer rigtigt

H1 og dine underoverskrifter er tit der, hvor du enten vinder eller taber folk på 5 sekunder. Du kan teste en mere informerende tone mod en mere sælgende tone. Du kan også teste længde. Nogle sider fungerer bedst med en kort, kontant overskrift. Andre har brug for en forklarende overskrift der gør det helt klart hvem siden er til.

Jeg kan især godt lide tests hvor du ændrer én ting i teksten og lader resten være. For eksempel kun H1, eller kun første afsnit. Så kan du faktisk stole på resultatet.

Billeder og video der skaber tryghed

Billeder kan være tilovers, men de kan også være det der gør at folk tror på dig. Du kan teste ét stort billede mod et lille galleri. Du kan teste billeder af mennesker mod produktbilleder eller “før og efter”.

Video er lidt en kategori for sig. Nogle gange virker video rigtig godt, andre gange stjæler den bare opmærksomheden fra det vigtige. Hvis du tester video, så test for eksempel med og uden lyd, eller med undertekster. Mange ser video uden lyd, især på mobil.

Rækkefølgen på indhold og social proof

Placering af indhold er undervurderet. Du kan teste om du skal starte med en kort forklaring og så gå direkte til “sådan hjælper jeg”, eller om du skal starte med at bygge tillid først. Social proof som anmeldelser og logoer kan også testes. Nogle målgrupper vil se det med det samme. Andre vil først læse lidt, og så bliver anmeldelserne det sidste skub.

Formularer der ikke skræmmer folk væk

Kontaktformularer er et sted hvor jeg ofte ser sjusk. For mange felter, for mange krav, og en knap der bare hedder “Send”. Du kan teste antal felter, og hvad der er påkrævet vs. valgfrit. En simpel formular kan give flere henvendelser, også selvom du får lidt mindre info per henvendelse. Du kan også teste knap-teksten. “Få et tilbud inden 24 timer” sætter en anden forventning end “Send besked”.

Én ændring per test så du kan bruge resultatet

Det er fristende at ændre farve, tekst og placering på én gang, fordi du bare vil have det overstået. Men så ender du med et resultat du ikke kan handle på. Hold det simpelt. Én ændring. Ét klart mål. Så kan du gentage det og faktisk blive klogere for hver test.

Skriv og fortæl hvad du vil teste

Værktøjer til splittest og A/B test

Der findes masser af værktøjer til A/B test, men her er den lidt trælse sandhed. Google Optimize var længe det “nemme gratis valg” for mange, og jeg brugte det også selv. Google lukkede det i 2022. Så hvis du har læst gamle guides der siger “bare brug Optimize”, så er det derfor du ikke kan finde det længere.

I dag skal du typisk vælge mellem to spor. Enten tester du i de værktøjer du allerede bruger, eller også betaler du for et dedikeret A/B test-værktøj til selve hjemmesiden. Begge dele kan være fint. Det kommer mest an på budget, hvor meget trafik du har, og hvor meget du gider rode med opsætning.

Dedikerede A/B test-værktøjer til hjemmesiden

Hvis du vil teste direkte på sitet med visuelle ændringer, mål på konverteringer og ordentlig statistik, så er det typisk tredjepart der gælder. Du vil støde på navne som Visual Website Optimizer (VWO), Optimizely, AB Tasty, Convert og Kameleoon. De kan meget forskelligt, og de ligger også på vidt forskellige prisniveauer. Nogle har gratis trial eller en begrænset gratis plan, men de fleste bliver hurtigt “rigtige penge”, når du vil bruge det seriøst.

  • VWO er ofte et valg når man vil have noget der er til at gå til, men stadig ret kraftigt.
  • Optimizely og AB Tasty ser jeg mest i større setups, hvor der også er tid til at arbejde struktureret med tests.
  • Convert og Kameleoon er typisk for dem der vil nørde mere med opsætning og mål.

Min erfaring er at mange SMV’er køber et stort værktøj for tidligt og ender med at bruge 10 procent af det. Hvis du ikke har trafik nok eller tid til at køre tests løbende, så bliver det hurtigt dyrt.

A/B test i e-mail og annoncer er ofte gratis

De fleste nyhedsbrevstjenester har indbygget A/B test af emnelinjer og indhold. Brevo, Mailchimp og lignende gør det ret nemt at teste to emnelinjer mod hinanden eller to varianter af en mail. Det er tit et bedre sted at starte end at kaste sig ud i avanceret split på hjemmesiden.

Det samme gælder annoncer. Google Ads og Meta (Facebook/Instagram) har indbyggede muligheder for at teste annoncevarianter. Du kan teste budskaber, billeder og målgrupper uden at ændre en eneste linje på dit website.

Hvad giver mening for en mindre virksomhed

Hvis du er en mindre virksomhed, så start med det du allerede betaler for. Kør en simpel emnelinje-test i dit nyhedsbrev. Test to annoncematerialer i Google Ads eller Meta. Og når du kan se at du har nok trafik og et reelt behov, så kan vi kigge på et dedikeret A/B test-værktøj til hjemmesiden og vælge noget der passer til dit niveau.

Skriv til mig hvis du vil vælge det rigtige test-setup

Fejl at undgå ved splittest

Jeg kan godt lide splittests, fordi de tvinger dig til at træffe beslutninger på data i stedet for mavefornemmelser. Men jeg har også set mange tests ende som ren støj, fordi man snubler i de samme klassiske fejl. Og så er det jo spild af tid, uanset om du tester på en lille håndværker-side eller et større setup.

Du tester for mange ting på én gang

Hvis du ændrer overskrift, knaptekst, farver og formular på samme tid, og version B vinder, så ved du reelt ikke hvorfor. Var det knappen, eller var det overskriften. Hold dig til én tydelig ændring ad gangen, især hvis du ikke har voldsomt meget trafik. Det er kedeligt, men det virker.

Du stopper testen for tidligt

Det her er nok den mest almindelige. Man ser en “vinder” efter et par dage og lukker testen, fordi man gerne vil videre. Problemet er at tilfældigheder kan ligne et mønster, hvis der ikke er nok data. Gennem årene med tests på egne sites har jeg set “vindere” skifte plads flere gange, før resultatet stabiliserer sig.

Du glemmer andre tiltag under testperioden

Hvis du samtidig kører en kampagne, sender et nyhedsbrev, får omtale et sted, eller der bare er sæsonudsving, så kan det påvirke resultatet. Det betyder ikke at du ikke må teste, men du skal notere hvad der sker omkring testen og være ærlig om, om data kan sammenlignes.

Du har ikke et klart mål

“Den her version føles bedre” er ikke et mål. Vælg én primær ting du måler på, ellers ender du med at diskutere i ring. Det kan fx være henvendelser fra kontaktformularen, klik på en bestemt knap eller et køb, hvis det giver mening.

Du ignorerer segmenter

Nye besøgende og tilbagevendende kan reagere helt forskelligt. Det samme gælder mobil vs. desktop. Hvis din vinder kun vinder i ét segment, så skal du overveje om det er godt nok, eller om du skal justere testen eller lave en opfølgende test.

  • Én ændring pr. test, ellers kan du ikke lære noget af den
  • Lad testen køre længe nok til at resultatet ikke bare er held
  • Hold øje med eksterne ting der kan forstyrre data
  • Definér ét konkret mål, før du trykker “start”
  • Tjek segmenter, så du ikke optimerer for den forkerte gruppe

Konklusionen er ret kedelig, men vigtig. Disciplin og tålmodighed giver bedre beslutninger, og det er præcis derfor splittest kan være guld værd, når det bliver gjort ordentligt.

Få sparring og hjælp til splittest ved at kontakte mig til en uforpligtende snak.

Få sparring til dine tests

Ofte stillede spørgsmål om splittest

Her er de spørgsmål jeg oftest får om A/B tests. Hvis dit spørgsmål ikke er med, så kontakt mig – jeg svarer typisk inden for få timer.

Hvad er en splittest?

En splittest (A/B test) er når du viser to eller få varianter af det samme (fx en hjemmeside, en e-mail eller en annonce) for forskellige brugere og måler hvilken variant der performer bedst – typisk på konverteringer, klik eller tilmeldinger.

Hvad er forskellen på A/B test og splittest?

I praksis bruges begge betegnelser om det samme: at splitte trafikken mellem to (eller få) versioner og sammenligne resultater. “A/B test” er den engelske term, “splittest” er ofte brugt på dansk.

Hvad kan jeg bruge splittest til?

Du kan teste hjemmesider og landingssider (overskrifter, knapper, billeder, layout), e-mails (emnelinje, knaptekst), annoncer (billeder, tekster), formulare (antal felter, knaptekst) og meget mere – alt der er synligt og kan ændres.

Hvorfor skal jeg kun teste én ting ad gangen?

Hvis du ændrer flere ting samtidig, ved du ikke hvilken ændring der drev resultatet. Ved kun at ændre ét element (fx kun knapfarve eller kun overskrift) kan du tolke resultatet sikkert.

Hvor længe skal en splittest køre?

Det afhænger af din trafik og konverteringsrate. Som tommelfingerregel skal du have nok besøgende og nok konverteringer per variant til at forskellen er statistisk signifikant – ofte anbefales minimum flere uger og fx mindst 50 konverteringer per variant (afhænger af værktøj og formål).

Har jeg nok trafik til at lave splittest?

Hvis du har meget lav trafik, kan det tage mange uger eller måneder at få et pålideligt resultat. For mange små virksomheder giver det først mening når der er stabil trafik – organisk eller betalt – og et klart mål. Det kan ofte betale sig først at optimere det grundlæggende (tydelig CTA, god formularedesign) før avancerede splittests.

Hvilke værktøjer kan jeg bruge til splittest på hjemmesiden?

Der findes værktøjer som VWO, Optimizely, AB Tasty og andre. Mange e-mail-tjenester og annonceplatforme (Google Ads, Meta) har indbygget A/B test. Valg afhænger af budget og behov.

Kan jeg splittest på e-mails og nyhedsbreve?

Ja. De fleste nyhedsbrevstjenester (fx Brevo, Mailchimp) har indbygget mulighed for at teste emnelinje, afsender eller indhold og måle åbningsrate og klikrate.

Hvad er en kontrolgruppe?

Kontrolgruppen er den gruppe der ser den oprindelige version (variant A). Den bruges som reference så du kan sammenligne om den nye variant (B) performer bedre eller dårligere.

Hvad skal jeg teste først?

Start der hvor det giver mest værdi: Ofte CTA-knapper (farve, tekst, placering), overskrifter på vigtige sider, eller formulare hvor mange falder fra. Data fra fx Google Analytics kan vise hvor besøgende forlader landingsiden eller hvor der er mest trafik at optimere.

Er splittest det samme som konverteringsoptimering?

Splittest er én metode inden for konverteringsoptimering (CRO). Konverteringsoptimering dækker alt arbejde med at øge andelen af besøgende der tager den ønskede handling. Splittesting er den måde du tester konkrete ændringer på med data.

Kan jeg få hjælp til at lave en splittest?

Ja. En konsulent eller webbureau kan hjælpe med at vurdere om I har trafik nok, definere hypoteser, vælge værktøj og sætte testen op. Pilanto kan hjælpe i forbindelse med konverteringsoptimering og WordPress-hjemmesider – kontakt mig for en uforpligtende snak.

Klar til en uforpligtende snak?
Henrik Andersen

Du arbejder direkte med mig

Mit navn er Henrik Andersen, og jeg står bag Pilanto ApS. Jeg har arbejdet med hjemmesider siden 2004 og SEO siden 2013 – og står selv for arbejdet fra start til slut. Målet er løsninger, der faktisk virker i praksis – uden binding og uden unødvendig kompleksitet.