57 Errori comuni nei test A/B e come evitarli

Pubblicato: 2021-06-15
57 Errori comuni nei test A/B e come evitarli

Stai eseguendo i test A/B ma non sei sicuro che funzionino correttamente?

Vuoi imparare gli errori comuni durante i test A/B in modo da non perdere tempo prezioso in una campagna interrotta?

Bene, buone notizie! In questo articolo, ti guideremo attraverso 57 errori di test A/B comuni (e talvolta non comuni) che vediamo, in modo che tu possa evitarli o renderti conto di quando stanno accadendo e risolverli rapidamente.

Li abbiamo suddivisi in 3 sezioni chiave:

  • Errori prima di iniziare il test,
  • Problemi che possono verificarsi durante il test,
  • E gli errori che puoi fare una volta terminato il test.

Puoi semplicemente leggere e vedere se stai realizzando qualcuno di questi da solo.

E ricorda:

Ogni guasto è una lezione preziosa, sia nei test che negli errori di impostazione. La chiave è imparare da loro!

Allora tuffiamoci...

nascondere
  • Errori comuni dei test A/B che possono essere commessi prima ancora di eseguire il test
    • # 1. Spingere qualcosa dal vivo prima di testare!
    • #2. Non esegue un test A/B effettivo
    • #3. Non testare per vedere se lo strumento funziona
    • #4. Utilizzo di uno strumento di bassa qualità e contenuto lampeggiante
    • #5. Nessun test di qualità
    • #6. Il nuovo trattamento/variazione funziona?
    • #7. Non seguendo un'ipotesi e solo testando qualsiasi cosa vecchia
    • #8. Avere un'ipotesi non verificabile
    • #9. Non fissare un obiettivo chiaro per il test in anticipo
    • # 10. Concentrarsi su metriche superficiali
    • # 11. Utilizzare solo dati quantitativi per formare idee di prova
    • # 12. Copiare i tuoi concorrenti
    • # 13. Testare solo le "migliori pratiche del settore"
    • # 14. Concentrarsi prima sulle attività di piccolo impatto, quando è disponibile una grande ricompensa ad alto impatto/frutta a bassa caduta
    • # 15. Testare più cose contemporaneamente e non sapere quale cambiamento ha causato il risultato
    • #16. Non eseguire un'analisi pre-test adeguata
    • #17. Etichettatura errata dei test
    • #18. Esecuzione dei test all'URL errato
    • # 19. Aggiunta di regole di visualizzazione arbitrarie al test
    • # 20. Testare il traffico sbagliato per il tuo obiettivo
    • #21. Non riuscire a escludere i visitatori di ritorno in un test e distorcere i risultati
    • #22. Non rimuovere i tuoi IP dal test
    • # 23. Non segmentare le variazioni del gruppo di controllo (effetto rete)
    • #24. Esecuzione di test durante eventi stagionali o eventi principali del sito/della piattaforma
    • #25. Ignorando le differenze culturali
    • #26. Esecuzione di più campagne connesse contemporaneamente
    • #27. Ponderazione del traffico disuguale
  • Errori comuni del test A/B che puoi fare durante il test
    • #28. Non funziona abbastanza a lungo per ottenere risultati accurati
    • #29. Monitoraggio/sbirciatina dell'elicottero
    • #30. Non tenere traccia del feedback degli utenti (particolarmente importante se il test interessa un'azione diretta e immediata)
    • #31. Apportare modifiche a metà test
    • #32. Modifica dell'allocazione del traffico % a metà del test o rimozione degli scarsi risultati
    • #33. Non interrompere un test quando hai risultati accurati
    • #34. Essere emotivamente coinvolti nel perdere le variazioni
    • #35. Esecuzione dei test per troppo tempo e rilevamento cali
    • #36. Non utilizzare uno strumento che ti permetta di interrompere/implementare il test!
  • Errori comuni dei test A/B che puoi commettere dopo che il test è terminato
    • #37. Rinunciare dopo una prova!
    • #38. Rinunciare a una buona ipotesi prima di testarne tutte le versioni
    • #39. Aspettarsi grandi vittorie tutto il tempo
    • #40. Non verificare la validità dopo il test
    • #41. Non leggere i risultati correttamente
    • #42. Non guardare i risultati per segmento
    • #43. Non imparare dai risultati
    • #44. Prendendo i perdenti
    • #45. Non agire sui risultati
    • #46. Non iterare e migliorare le vittorie
    • #47. Non condividere i risultati vincenti in altre aree o dipartimenti
    • #48. Non testare tali modifiche in altri dipartimenti
    • #49. Troppa iterazione su una singola pagina
    • #50. Non abbastanza test!
    • #51. Non documentare i test
    • #52. Dimenticando i falsi positivi e non ricontrollando le enormi campagne di aumento
    • #53. Non tracciare i risultati della downline
    • #54. Non tiene conto degli effetti di primato e novità, che possono influenzare i risultati del trattamento
    • #55. L'esecuzione delle modifiche al periodo di considerazione
    • #56. Non ripetere il test dopo il tempo X
    • #57. Testare solo il percorso e non il prodotto
  • Conclusione

Errori comuni dei test A/B che possono essere commessi prima ancora di eseguire il test

# 1. Spingere qualcosa dal vivo prima di testare!

Potresti avere una nuova fantastica pagina o design del sito Web e sei davvero ansioso di pubblicarlo senza testarlo.

Aspetta!

Esegui prima un rapido test per vedere come funziona. Non vuoi spingere un cambiamento radicale in tempo reale senza ottenere alcuni dati, o potresti perdere vendite e conversioni.

A volte quel nuovo cambiamento può essere un sostanziale calo delle prestazioni. Quindi fai prima un rapido test.

#2. Non esegue un test A/B effettivo

Un test A/B funziona eseguendo una singola sorgente di traffico verso una pagina di controllo e una variante di quella pagina. L'obiettivo è scoprire se il cambiamento che hai implementato fa sì che il pubblico si converta meglio e agisca.

Il fatto è che, per assicurarci che questo test sia controllato ed equo, dobbiamo eseguire quel test con parametri specifici. Abbiamo bisogno delle stesse sorgenti di traffico che visualizzano la campagna nello stesso periodo di tempo in modo da non avere fattori esterni che influiscono su un test e non sull'altro.

Alcune persone commettono l'errore di eseguire un test in sequenza. Eseguono la loro pagina corrente per X periodo di tempo, quindi la nuova versione per X tempo, quindi misurano la differenza.

Questi risultati non sono del tutto accurati poiché molte cose potrebbero essere successe durante quelle finestre di test. Potresti ottenere un'esplosione di nuovo traffico, eseguire un evento, facendo sì che le 2 pagine abbiano un pubblico e risultati completamente diversi.

Quindi assicurati di eseguire un test A/B effettivo in cui stai dividendo il traffico tra le tue 2 versioni e le testerai esattamente allo stesso tempo.

#3. Non testare per vedere se lo strumento funziona

Nessuno strumento di test è accurato al 100%. La cosa migliore che puoi fare quando inizi è eseguire un test A/A per vedere quanto è preciso il tuo strumento.

Come? Esegui semplicemente un test in cui dividi il traffico 50:50 su una singola pagina. (Assicurati che sia una pagina su cui il tuo pubblico può convertire in modo da poter misurare un risultato specifico.)

Converti Esperienze A/A test
Come eseguire esperimenti A/A

Come mai?

Poiché entrambi i gruppi del tuo pubblico vedono esattamente la stessa pagina, i risultati della conversione dovrebbero essere identici su entrambi i lati del test, giusto?

Bene, a volte non lo sono, il che significa che il tuo strumento potrebbe essere impostato in modo errato. Quindi vai avanti e controlla il tuo strumento di test prima di eseguire qualsiasi campagna.

#4. Utilizzo di uno strumento di bassa qualità e contenuto lampeggiante

Alcuni strumenti non sono buoni come altri. Fanno il lavoro ma lottano sotto il carico di traffico o 'lampeggiano' e sfarfallano.

Converti esperienze SmartInsert rimuove lo sfarfallio
Abbiamo creato il nostro metodo proprietario per fermare i test che influenzano le palpebre.

Ciò può effettivamente far fallire il test, anche se hai una potenziale variante vincente.

Diciamo che stai testando un'immagine sulla tua pagina. La pagina di controllo viene caricata correttamente, ma la variazione sfarfalla tra la nuova immagine di prova e l'originale solo per una frazione di secondo. (O forse ogni volta che l'utente scorre su e giù per la pagina.)

Questo può distrarre e causare problemi di fiducia, riducendo il tasso di conversione.

In effetti, la tua nuova immagine potrebbe anche essere convertita meglio in teoria, ma lo sfarfallio dello strumento sta abbassando i risultati, fornendoti un test impreciso di quell'immagine.

Assicurati di avere uno strumento abbastanza buono con cui testare.

(Questo è un fattore di esperienza utente così importante che Google sta attualmente adeguando le proprie classifiche per i siti che non hanno sfarfallio o elementi in movimento).

#5. Nessun test di qualità

Un errore semplicissimo, ma hai verificato che tutto funzioni?

  • Hai seguito il processo di vendita?
  • Ne hai altri? (E su dispositivi non memorizzati nella cache perché a volte ciò che viene salvato nel browser non è l'aspetto della pagina.)
  • Il caricamento delle pagine va bene? Sono lenti? I disegni sono incasinati?
  • Funzionano tutti i pulsanti?
  • Il monitoraggio delle entrate funziona?
  • Hai verificato che la pagina funzioni su più dispositivi?
  • Hai una segnalazione degli errori in atto se qualcosa si rompe?

Vale la pena dare un'occhiata PRIMA di iniziare a indirizzare il traffico verso qualsiasi campagna.

SUGGERIMENTO PRO

Ottieni la nostra lista di controllo della qualità per i test A/B. È un PDF compilabile a cui vorrai tornare ogni volta che esegui il controllo qualità di un test.

#6. Il nuovo trattamento/variazione funziona?

Allo stesso modo, hai verificato che la tua nuova variazione funzioni prima di eseguire un test?

Potrebbe essere una parte trascurata dei test di QA, ma le campagne spesso possono essere eseguite con pulsanti interrotti, vecchi collegamenti e altro. Prima controlla, poi prova.

#7. Non seguendo un'ipotesi e solo testando qualsiasi cosa vecchia

Alcune persone provano qualsiasi cosa senza pensarci davvero.

Hanno un'idea per una modifica e vogliono testarla, ma senza un'analisi reale di come la pagina viene attualmente convertita, o anche perché la modifica che stanno testando potrebbe fare la differenza. (Potrebbe essere che riducano la conversione ma non lo sappiano nemmeno, poiché non hanno ancora tracciato un risultato di base).

Formare un'ipotesi su dove si trova un problema, la causa e come risolverlo farà un'enorme differenza per il tuo programma di test.

Che cos'è un'ipotesi?
Puoi creare un'ipotesi usando il nostro generatore gratuito qui.

#8. Avere un'ipotesi non verificabile

Non tutte le ipotesi sono corrette. Questo va bene. In effetti, la parola significa letteralmente "Ho un'idea basata su informazioni X e penso che Y potrebbe accadere in circostanze Z".

Ma avrai bisogno di un'ipotesi verificabile, il che significa che può essere dimostrata o smentita attraverso il test. Le ipotesi verificabili mettono in moto l'innovazione e promuovono la sperimentazione attiva. Potrebbero portare al successo (nel qual caso la tua intuizione era corretta) o al fallimento, dimostrando che hai sempre sbagliato. Ma ti daranno spunti. Potrebbe significare che il tuo test deve essere eseguito meglio, che i tuoi dati erano errati/letti in modo errato o che hai trovato qualcosa che non ha funzionato che spesso fornisce informazioni su un nuovo test che potrebbe funzionare molto meglio.

#9. Non fissare un obiettivo chiaro per il test in anticipo

Una volta che hai un'ipotesi, puoi usarla per allinearti con un risultato specifico che vuoi ottenere.

A volte le persone eseguono una campagna e vedono cosa cambia, ma otterrai sicuramente più lead/conversioni o vendite se hai chiarezza su quale elemento specifico vuoi vedere un passaggio.

(Questo ti impedisce anche di vedere un calo in un elemento importante ma considera il test una vittoria perché "ha più condivisioni".)

A proposito…

# 10. Concentrarsi su metriche superficiali

Il tuo test dovrebbe sempre essere legato alle metriche Guardrail o a qualche elemento che influisce direttamente sulle tue vendite. Se si tratta di più lead, dovresti sapere fino al dollaro quanto vale un vantaggio e il valore di aumentare il tasso di conversione.

Allo stesso tempo, di solito dovrebbero essere evitate le metriche che non si collegano o non determinano un risultato misurabile. Più Mi piace su Facebook non significano necessariamente più vendite. Rimuovi quei pulsanti di condivisione social e guarda quanti contatti in più ottieni. Diffida delle metriche di vanità e ricorda che solo perché una perdita è stata risolta non significa che non ce ne sia un'altra altrove da affrontare!

Ecco l'elenco di Ben Labay delle metriche comuni del guardrail per i programmi di sperimentazione:

# 11. Utilizzare solo dati quantitativi per formare idee di prova

L'uso di dati quantitativi per ottenere idee è fantastico, ma è anche leggermente imperfetto. Soprattutto se gli unici dati che utilizziamo provengono dalle nostre analisi.

Come mai?

Possiamo sapere dai nostri dati che X quantità di persone non hanno cliccato, ma potremmo non sapere perché.

  • Il pulsante è troppo in basso nella pagina?
  • Non è chiaro?
  • È in linea con ciò che vuole lo spettatore?
  • Funziona anche?

I migliori tester ascoltano anche il loro pubblico. Scoprono di cosa hanno bisogno, cosa li fa avanzare, cosa li trattiene e poi lo usano per formulare nuove idee, test e testi scritti.

A volte i tuoi utenti sono frenati da problemi di fiducia e dubbi su se stessi. Altre volte, è chiarezza e forme rotte o cattivi design. La chiave è che queste sono cose che i dati quantitativi non possono sempre dirti, quindi chiedi sempre al tuo pubblico e usalo per aiutarti a pianificare.

# 12. Copiare i tuoi concorrenti

Pronto per un segreto?

La maggior parte delle volte i tuoi concorrenti stanno solo volando. A meno che non abbiano qualcuno che ha condotto campagne di incremento a lungo termine, potrebbero semplicemente provare cose per vedere cosa funziona, a volte senza utilizzare alcun dato per le loro idee.

E anche allora, ciò che funziona per loro, potrebbe non funzionare per te. Quindi sì, usali come ispirazione ma non limitare le tue idee di prova solo a ciò che le vedi fare. Puoi anche andare al di fuori del tuo settore per trovare ispirazione e vedere se fa scattare alcune ipotesi.

# 13. Testare solo le "migliori pratiche del settore"

Ancora una volta, ciò che funziona per uno non è ciò che funziona sempre per un altro.

Ad esempio, le immagini di scorrimento di solito hanno prestazioni terribili ma, su alcuni siti, possono effettivamente generare più conversioni. Prova tutto. Non hai niente da perdere e tutto da guadagnare.

# 14. Concentrarsi prima sulle attività di piccolo impatto, quando è disponibile una grande ricompensa ad alto impatto/frutta a bassa caduta

Possiamo essere tutti colpevoli di concentrarci sulla minuzia. Potremmo avere una pagina che desideriamo eseguire meglio e testare progetti di layout e immagini e persino i colori dei pulsanti. (Personalmente ho una pagina di vendita che è alla sua quinta iterazione.)

Il fatto è che probabilmente ci sono pagine molto più importanti da testare in questo momento.

Dai la priorità all'impatto soprattutto:

  • Questa pagina influenzerà direttamente le vendite?
  • Ci sono altre pagine nel processo di vendita che hanno prestazioni decisamente inferiori?

Se è così, concentrati prima su quelli.

Un aumento dell'1% su una pagina di vendita è ottimo, ma un aumento del 20% sulla pagina che li porta lì potrebbe essere molto più importante. (Soprattutto se quella particolare pagina è dove stai perdendo la maggior parte del tuo pubblico.)

A volte non stiamo solo cercando più spinta, ma anche per riparare qualcosa che è un collo di bottiglia.

Testare e migliorare il più grande impatto, prima i frutti appesi più bassi. Questo è ciò che fanno le agenzie ed è per questo che eseguono lo stesso numero di test dei team interni, ma con un ROI più elevato. Le agenzie ottengono il 21% di vittorie in più per lo stesso volume di test!

# 15. Testare più cose contemporaneamente e non sapere quale cambiamento ha causato il risultato

Non c'è niente di sbagliato nell'eseguire test radicali in cui si cambiano più cose contemporaneamente e si riprogetta un'intera pagina.

In effetti, queste riprogettazioni radicali a volte possono avere l'impatto maggiore sul tuo ROI, anche se sei un sito a basso traffico, e soprattutto se sei bloccato e non riesci a ottenere altro aumento.

Ma tieni presente che non tutti i test A/B dovrebbero essere per un cambiamento radicale come questo. Il 99% delle volte stiamo solo testando un cambiamento di una singola cosa, tipo

  • Nuovi titoli
  • Nuove immagini
  • Nuovo layout dello stesso contenuto
  • Nuovi prezzi, ecc.

La chiave quando si esegue un test di un singolo elemento è proprio questo però. Mantieni il tuo test su UN SOLO cambiamento di elemento in modo da poter vedere cosa sta facendo la differenza e imparare da esso. Troppe modifiche e non sai cosa ha funzionato.

#16. Non eseguire un'analisi pre-test adeguata

Hai abbastanza visitatori nel tuo gruppo di test? Il test vale anche la pena?

Fai i conti! Assicurati di avere abbastanza traffico prima di eseguire un test, altrimenti è solo tempo e denaro sprecati. Molti test falliscono a causa di traffico insufficiente o scarsa sensibilità (o entrambi).

Eseguire un'analisi pre-test per determinare la dimensione del campione e l'effetto minimo rilevabile per l'esperimento. Un calcolatore di significatività del test A/B come quello di Convert ti dirà la dimensione del campione e l'MDE per il tuo test, il che ti aiuterà a decidere se vale la pena eseguirlo. Puoi anche utilizzare queste informazioni per determinare per quanto tempo dovrebbe durare il test e quanto piccolo non vorresti perdere prima di concludere che un test ha avuto successo o meno.

#17. Etichettatura errata dei test

Un errore semplicissimo ma succede. Etichetti erroneamente i test e poi ottieni risultati sbagliati. La variante vince ma si chiama controllo, quindi non implementi mai la vittoria e rimani con il perdente!

Ricontrolla sempre!

#18. Esecuzione dei test all'URL errato

Un altro semplice errore. L'URL della pagina è stato inserito in modo errato o il test è in esecuzione su un "sito di test" in cui hai apportato le modifiche e non sulla versione live.

Potrebbe sembrare a posto per te, ma in realtà non verrà caricato per il tuo pubblico.

# 19. Aggiunta di regole di visualizzazione arbitrarie al test

Ancora una volta, devi testare una cosa con il tuo trattamento e nient'altro.

Se è un'immagine, prova l'immagine. Tutto il resto dovrebbe essere lo stesso, inclusa l'ora del giorno in cui le persone possono vedere entrambe le pagine!

Alcuni strumenti ti consentono di testare diverse ore del giorno per vedere come si comporta il traffico in diversi intervalli di tempo. Questo è utile se vuoi vedere quando il tuo miglior traffico è sul tuo sito, ma non utile se le pagine sono divise da chi le vede E hanno variazioni diverse.

Ad esempio, il traffico del nostro blog diminuisce nei fine settimana (come la maggior parte dei blog aziendali).

Immagina se eseguissimo un test dal lunedì al mercoledì sulla pagina di controllo e poi mostrassimo il traffico da venerdì a domenica sul trattamento? Avrebbe un traffico molto più basso con cui testare e probabilmente risultati molto diversi.

# 20. Testare il traffico sbagliato per il tuo obiettivo

Idealmente, quando esegui un test, vuoi assicurarti di testare solo un singolo segmento del tuo pubblico. Di solito si tratta di nuovi visitatori organici per vedere come rispondono la prima volta sul tuo sito.

A volte potresti voler testare visitatori abituali, abbonati e-mail o persino traffico a pagamento. Il trucco è testarne solo uno alla volta in modo da poter ottenere una rappresentazione accurata di come si comporta quel gruppo con quella pagina.

Quando imposti il ​​test, seleziona il pubblico con cui vuoi lavorare e rimuovi tutti gli altri che potrebbero inquinare il risultato, come i visitatori di ritorno.

#21. Non riuscire a escludere i visitatori di ritorno in un test e distorcere i risultati

Chiamiamo questo campione di inquinamento.

Fondamentalmente, se un visitatore vede la pagina del tuo sito, ritorna e vede la tua variazione, risponderà in modo molto diverso rispetto a se ne vedesse solo uno.

Possono essere confusi, rimbalzare o persino convertire più in alto, semplicemente a causa di quelle interazioni extra.

Il fatto è che fa sì che i tuoi dati diventino inquinati e meno accurati. Idealmente, vuoi utilizzare uno strumento che randomizzi la pagina che vedono ma poi mostri loro sempre la stessa versione fino al termine del test.

#22. Non rimuovere i tuoi IP dal test

A proposito di inquinamento del campione, ecco un altro modo per inquinare i tuoi dati (ed è comunque una buona pratica per l'analisi).

Assicurati di bloccare te e gli indirizzi IP del tuo personale dal tuo strumento di analisi e test. L'ultima cosa che vuoi è che tu o un membro del team esegua il "check-in" su una pagina e venga taggato nel test.

# 23. Non segmentare le variazioni del gruppo di controllo (effetto rete)

Un'altra opzione di inquinamento che è rara ma può verificarsi, soprattutto se hai una rete per il tuo pubblico.

Ecco un esempio.

Diciamo che hai una piattaforma in cui il tuo pubblico può comunicare. Forse una pagina Facebook o una sezione commenti, ma TUTTI possono accedervi.

In questa situazione, potresti avere persone che vedono una pagina e altre che vedono una variazione, ma sono tutte sullo stesso social network. Ciò può effettivamente distorcere i tuoi dati poiché possono influenzare le reciproche scelte e interazioni con la pagina. Linkedin ha segmentato il suo pubblico durante il test di nuove funzionalità per prevenire problemi di effetti di rete.

Idealmente, si desidera separare la comunicazione tra i 2 gruppi di test fino al completamento del test.

#24. Esecuzione di test durante eventi stagionali o eventi principali del sito/della piattaforma

A meno che tu non stia testando un evento stagionale, non vorrai mai eseguire una campagna di prova durante le vacanze o qualsiasi altro evento importante, come una vendita speciale o un evento mondiale.

A volte non puoi farne a meno. Avrai una corsa di prova e Google implementa semplicemente un nuovo aggiornamento di base e pasticcia con le tue fonti di traffico a metà campagna *tosse*.

La cosa migliore da fare è semplicemente rieseguire dopo che tutto si esaurisce.

#25. Ignorando le differenze culturali

Potresti avere un obiettivo per una pagina, ma stai anche conducendo una campagna globale con più varianti visualizzate in diverse lingue e diversi paesi.

È necessario tenerne conto durante l'esecuzione del test. Alcune modifiche possono essere apportate a livello globale, come un semplice cambio di layout o l'aggiunta di segnali di fiducia, ecc.

Altre volte, è necessario tenere conto dei punti di differenza culturali. Come le persone vedono il layout, come vedono le immagini e gli avatar sulla tua pagina.

Netflix lo fa con le miniature di tutti i suoi programmi, testando diversi elementi che possono attirare un pubblico diverso (con attori specifici famosi in quel paese).

Errori di test A/B del test culturale Netflix
Fonte: Blog sui test di Netflix

Ciò che ottiene clic in un paese può essere incredibilmente diverso negli altri. Non lo sai fino a quando non provi però!

#26. Esecuzione di più campagne connesse contemporaneamente

È facile emozionarsi e voler eseguire più test contemporaneamente.

Ricorda solo: puoi eseguire più test per punti simili nel processo di vendita contemporaneamente, ma non eseguire più test per più punti collegati nella canalizzazione.

Ecco cosa intendo.

Potresti facilmente eseguire test su ogni pagina di generazione di lead che hai, tutto allo stesso tempo.

Tuttavia, non vorresti testare le pagine dei lead, le pagine di vendita e le pagine di pagamento contemporaneamente in quanto ciò può introdurre così tanti elementi diversi nel processo di test, richiedendo enormi volumi di traffico e conversioni per ottenere informazioni utili.

Non solo, ma ogni elemento può causare effetti diversi nella pagina successiva, sia buoni che cattivi. A meno che tu non abbia centinaia di migliaia di visitatori a settimana, probabilmente farai fatica a ottenere risultati accurati.

Quindi sii paziente e testa solo una fase alla volta o pagine che non sono collegate nel processo.

Nota a margine:

Converti ti consente di escludere le persone in un esperimento dalla visualizzazione di altri. Quindi puoi in teoria testare l'intero ciclo di vendita e quindi vedere solo il controllo delle altre pagine.

Converti esperienze includendo ed escludendo i visitatori di prova
Li rimuovi semplicemente da altri segmenti di pubblico di prova.

#27. Ponderazione del traffico disuguale

Non importa se stai eseguendo un test A/B, A/B/n o multivariato. È necessario allocare un volume di traffico uguale a ciascuna versione in modo da poter ottenere una misurazione accurata.

Impostali in modo che siano uguali dall'inizio. La maggior parte degli strumenti ti consentirà di farlo.

Converti Experiences A/B testando la distribuzione del traffico
Assicurati di bilanciare equamente la distribuzione.

Errori comuni del test A/B che puoi fare durante il test

#28. Non funziona abbastanza a lungo per ottenere risultati accurati

Ci sono 3 fattori importanti da tenere in considerazione quando vuoi testare e ottenere risultati accurati:

  • Significato statistico,
  • Ciclo di vendita, e
  • Misura di prova.

Quindi analizziamolo.

La maggior parte delle persone termina i test una volta che il loro strumento di test dice loro che un risultato è migliore dell'altro E il risultato è statisticamente significativo, ad esempio se il test continua a funzionare in questo modo, allora questo è un vincitore definitivo.

Il fatto è che a volte puoi premere "stat sig" abbastanza velocemente con una piccola quantità di traffico. Casualmente tutte le conversioni avvengono su una pagina e nessuna sull'altra.

Tuttavia, non rimarrà sempre così. Potrebbe essere che il test è stato lanciato, è il giorno di paga e quel giorno hai ottenuto un sacco di vendite.

Per questo dobbiamo tenere conto del ciclo di vendita. Le vendite e il traffico possono variare a seconda del giorno della settimana o del mese. Per ottenere una rappresentazione più accurata di come viene eseguito il test, idealmente è necessario eseguire da 2 a 4 settimane.

Infine, hai la dimensione del campione.

Se esegui il test per un mese, probabilmente otterrai abbastanza traffico per ottenere risultati accurati. Troppo poco e il test non sarà in grado di darti un livello di confidenza che funzionerà come dovrebbe.

Quindi, come regola generale,

  • Scegli una valutazione di affidabilità del 95%.
  • Corri per un mese.
  • Scopri in anticipo quale dimensione del campione ti serve e non interrompere il test fino a quando non viene raggiunto O ottieni risultati sorprendenti che dimostrano senza ombra di dubbio che hai un vincitore.

#29. Monitoraggio/sbirciatina dell'elicottero

Sbirciare è un termine usato per descrivere quando un tester dà un'occhiata al proprio test per vedere come sta andando.

Idealmente, non vogliamo mai guardare il nostro test una volta eseguito e non prendiamo mai una decisione su di esso fino a quando non ha terminato un ciclo completo, con la giusta dimensione del campione e ha raggiunto la significatività statistica.

Tuttavia... Cosa succede se il test non è in esecuzione?

E se qualcosa si rompe?

Bene, in tal caso, non vuoi davvero aspettare un mese per vedere che è rotto, giusto? Questo è il motivo per cui controllo sempre per vedere se un test sta ottenendo risultati nel controllo e nella variazione, 24 ore dopo averlo impostato per l'esecuzione.

Se riesco a vedere che entrambi ricevono traffico e ricevono clic/conversioni, me ne vado e lo lascio fare. NON prendo decisioni fino a quando il test non ha terminato il suo corso.

#30. Non tenere traccia del feedback degli utenti (particolarmente importante se il test interessa un'azione diretta e immediata)

Diciamo che il test sta ottenendo clic e il traffico è distribuito, quindi *sembra* che funzioni, ma all'improvviso inizi a ricevere segnalazioni che le persone non possono compilare il modulo di vendita. (O meglio ancora, hai ricevuto un avviso automatico che una metrica del guardrail è scesa molto al di sotto dei livelli accettabili.)

Bene, allora il tuo primo pensiero dovrebbe essere che qualcosa si è rotto.

Non è sempre. Potresti ricevere clic da un pubblico che non risuona con la tua offerta, ma per ogni evenienza vale la pena controllare quel modulo.

Se è rotto, riparalo e riavvia.

#31. Apportare modifiche a metà test

Potrebbe essere stato chiaro da questi ultimi punti, ma non vogliamo mai apportare modifiche a un test una volta che è stato pubblicato.

Certo, qualcosa potrebbe rompersi, ma questo è l'unico cambiamento che dovremmo fare. Non cambiamo il design, né la copia, o altro.

Se il test funziona, lascialo eseguire e lascia che i dati decidano cosa funziona.

#32. Modifica dell'allocazione del traffico % a metà del test o rimozione degli scarsi risultati

Proprio come non modifichiamo le pagine in fase di test, non rimuoviamo alcuna variazione né modifichiamo la distribuzione del traffico durante il test.

Come mai?

Diciamo che stai eseguendo un test A/B/n con un controllo e 3 variazioni. Inizi il test e dopo una settimana dai un'occhiata di nascosto e noti che 2 versioni stanno andando alla grande e una sta andando male.

Ora sarebbe allettante disattivare la variante "perdente" e ridistribuire il traffico tra le altre varianti, giusto? Diamine... potresti anche voler prendere quel 25% in più del traffico e inviarlo semplicemente al top performer, ma non farlo.

Come mai?

Questa ridistribuzione non solo influirà sulle prestazioni del test, ma può influire direttamente sui risultati e sul modo in cui vengono visualizzati nello strumento di reporting.

Tutti gli utenti che erano stati precedentemente inseriti in un bucket nella variante rimossa dovranno essere riallocati a una variante e vedranno una pagina Web modificata in un breve lasso di tempo, il che potrebbe influire sul loro comportamento e sulle scelte successive.

Ecco perché non cambi mai traffico né disattivi le variazioni a metà. (E anche perché non dovresti sbirciare!)

#33. Non interrompere un test quando hai risultati accurati

A volte ti sei semplicemente dimenticato di interrompere un test!

Continua a funzionare e ad alimentare il 50% del tuo pubblico su una pagina più debole e il 50% sul vincitore. Ops!

Fortunatamente, strumenti come Converti esperienze possono essere impostati per interrompere una campagna e mostrare automaticamente il vincitore una volta che soddisfa determinati criteri (come dimensione del campione, sigla statistica, conversioni e intervallo di tempo).

Punto di arresto automatizzato di Convert Experiences
Hai già provato la nostra app?

#34. Essere emotivamente coinvolti nel perdere le variazioni

Come tester, dobbiamo essere imparziali. A volte, tuttavia, potresti avere un design o un'idea particolare che ami e sei convinto che avrebbe dovuto vincere, quindi continui a prolungare il test sempre più a lungo per vedere se va avanti.

Togli il cerotto.

Potresti avere una buona idea che deve solo essere migliorata, ma non puoi farlo fino al termine del test corrente.

#35. Esecuzione dei test per troppo tempo e rilevamento cali

Ecco un altro potenziale problema di inquinamento del campione.

Se esegui un test per più di 4 settimane, è possibile che i cookie degli utenti vengano eliminati. Ciò può causare la mancanza di tracciamento degli eventi, ma possono persino restituire e inquinare nuovamente i dati del campione.

#36. Non utilizzare uno strumento che ti permetta di interrompere/implementare il test!

Un altro problema raro.

Alcuni programmi di test insistono sulla creazione di test hardcoded. cioè uno sviluppatore e un ingegnere costruiscono la campagna da zero.

Non è eccezionale, tuttavia, quando il test è terminato e devi aspettare che lo stesso sviluppatore lo spenga e installi la variante vincente. Non solo questo è frustrante, ma può seriamente rallentare il numero di test che puoi eseguire e persino il ROI della pagina in attesa che venga pubblicata.

Errori comuni dei test A/B che puoi commettere dopo che il test è terminato

#37. Rinunciare dopo una prova!

9 test su 10 di solito sono un fallimento.

Ciò significa che devi eseguire 10 test per ottenere quel vincitore. Ci vuole sforzo ma ne vale sempre la pena, quindi non fermarti dopo una campagna!

#38. Rinunciare a una buona ipotesi prima di testarne tutte le versioni

Un fallimento può semplicemente significare che la tua ipotesi è corretta ma deve essere eseguita meglio.

Prova nuovi modi, nuovi design, nuovo layout, nuove immagini, nuovi avatar, nuovo linguaggio. Hai l'idea e vedi se riesci a eseguirla meglio.

Ci sono volute 21 iterazioni di CXL per migliorare la pagina del cliente, ma sono passate da un tasso di conversione del 12,1% al 79,3%.

CXL case study A/B testing
Non rinunciare a una buona ipotesi!

#39. Aspettarsi grandi vittorie tutto il tempo

Il fatto è che potresti ottenere un'enorme vincita solo 1 su 10 o più campagne vincenti.

Questo va bene. Continuiamo a testare e continuiamo a migliorare, perché anche un 1% aumenta le mescole nel tempo. Miglioralo e portalo al 2% e ora hai raddoppiato l'efficacia.

Quali tipi di test danno i migliori risultati?

La verità è che esperimenti diversi hanno effetti diversi. Secondo la ricerca di Jakub Linowski da oltre 300 test, gli esperimenti di layout tendono a portare a risultati migliori.

Qual è il tipo di schermo più difficile da ottimizzare? La stessa ricerca rivela le sue schermate di pagamento (con un effetto mediano di +0,4% su 25 test).

#40. Non verificare la validità dopo il test

Quindi la prova è finita. Hai corso abbastanza a lungo, hai visto risultati e ottenuto stat sig, ma puoi fidarti dell'accuratezza dei dati?

Potrebbe essere che qualcosa si è rotto a metà del test. Non fa mai male controllare.

#41. Non leggere i risultati correttamente

Cosa ti dicono davvero i tuoi risultati? Non leggerli correttamente può facilmente prendere un potenziale vincitore e sembrare un completo fallimento.

  • Immergiti nelle tue analisi.
  • Guarda tutti i dati qualitativi che hai.

Cosa ha funzionato e cosa no? Perchè è successo?

Più comprendi i tuoi risultati, meglio è.

#42. Non guardare i risultati per segmento

Vale sempre la pena immergersi un po' più in profondità.

Ad esempio, una nuova variante potrebbe sembrare con scarse conversioni, ma sui dispositivi mobili ha un aumento del 40% delle conversioni!

Puoi scoprirlo solo segmentandolo nei tuoi risultati. Guarda i dispositivi utilizzati e i risultati lì. Potresti trovare degli spunti preziosi!

Basta essere consapevoli del significato della dimensione del segmento. Potresti non aver avuto abbastanza traffico su ciascun segmento per considerarlo completamente affidabile, ma puoi sempre eseguire un test solo per dispositivi mobili (o qualunque canale fosse) e vedere come si comporta.

#43. Non imparare dai risultati

Perdere i test può darti un'idea di dove devi migliorare ulteriormente o fare più ricerche. La cosa più fastidiosa come CRO è vedere clienti che si rifiutano di imparare da ciò che hanno appena visto. Hanno i dati ma non li usano...

#44. Prendendo i perdenti

O peggio, prendono la variazione perdente.

Forse preferiscono il design e il tasso di conversione è diverso solo dell'1%, ma nel tempo questi effetti si aggravano. Prendi quelle piccole vittorie!

#45. Non agire sui risultati

Ancora peggio?

Ottenere una vittoria ma non implementarla! Hanno i dati e semplicemente non ci fanno nulla. Nessun cambiamento, nessuna intuizione e nessun nuovo test.

#46. Non iterare e migliorare le vittorie

A volte puoi ottenere un passaggio, ma c'è di più da avere. Come abbiamo detto prima, è molto raro che ogni vincita ti dia un aumento a due cifre.

Ma ciò non significa che non puoi arrivarci eseguendo nuove iterazioni e miglioramenti e aumentando l'1% alla volta.

Tutto si somma, quindi continua a migliorare!

#47. Non condividere i risultati vincenti in altre aree o dipartimenti

Una delle cose più importanti che vediamo con i team CRO iper-di successo/maturi è che condividono le loro vincite e risultati con altri dipartimenti dell'azienda.

Ciò fornisce agli altri dipartimenti informazioni su come possono anche migliorare.

  • Trovate una copia vincente della pagina di vendita? Preinquadralo nei tuoi annunci che li portano alla pagina!
  • Trovate uno stile di magnete al piombo che funzioni alla grande? Provalo su tutto il sito.

#48. Non testare tali modifiche in altri dipartimenti

E questa è la chiave qui. Anche se condividi approfondimenti con altri dipartimenti, dovresti comunque testare per vedere come funziona.

Un design di stile che dia slancio in un'area potrebbe rovinare gli altri, quindi prova sempre!

#49. Troppa iterazione su una singola pagina

Chiamiamo questo colpire il "massimo locale".

La pagina su cui stai eseguendo i test si è stabilizzata e non riesci a ottenere più sollievo da essa.

Puoi provare riprogettazioni radicali, ma cosa succede dopo?

Passa semplicemente a un'altra pagina nel processo di vendita e migliora. (Ironia della sorte, questo può effettivamente dimostrare di dare comunque un ROI più elevato.)

Portare una pagina di vendita da una conversione dal 10% all'11% può essere meno importante che portare la pagina che indirizza il traffico ad essa dal 2% al 5%, poiché essenzialmente raddoppierai il traffico su quella pagina precedente.

In caso di dubbio, trova il prossimo test più importante nella tua lista e inizia a migliorare lì. Potresti anche scoprire che aiuta comunque la conversione su quella pagina bloccata, semplicemente fornendole prospettive migliori.

#50. Non abbastanza test!

I test richiedono tempo e ce ne sono solo così tanti che possiamo eseguire contemporaneamente.

Quindi cosa possiamo fare?

Riduci semplicemente i tempi di fermo tra i test!

Completa un test, analizza il risultato e ripeti o esegui un test diverso. (Idealmente, metterli in coda e pronti per partire).

In questo modo vedrai un ritorno molto più alto per il tuo investimento di tempo.

#51. Non documentare i test

Un'altra abitudine che hanno i team CRO maturi è la creazione di un database interno di test, che include dati sulla pagina, l'ipotesi, cosa ha funzionato, cosa non ha funzionato, il passaggio, ecc.

Non solo puoi quindi imparare dai test precedenti, ma può anche impedirti di ripetere un test per sbaglio.

#52. Dimenticando i falsi positivi e non ricontrollando le enormi campagne di aumento

A volte un risultato è semplicemente troppo bello per essere vero. O è stato impostato qualcosa o è stata registrata una registrazione errata, o questo è semplicemente quel test su 20 che dà un falso positivo.

Che cosa si può fare?

Ripeti semplicemente il test, imposta un livello di confidenza elevato e assicurati di eseguirli abbastanza a lungo.

#53. Non tracciare i risultati della downline

Durante il monitoraggio dei risultati del test, è anche importante ricordare il tuo obiettivo finale e tenere traccia delle metriche di downline prima di decidere un vincitore.

Una nuova variante potrebbe tecnicamente ottenere meno clic, ma genera più vendite da parte delle persone che fanno clic.

In questo caso, questa pagina sarebbe effettivamente più redditizia da gestire, supponendo che anche il traffico che fa clic continua a convertire...

#54. Non tiene conto degli effetti di primato e novità, che possono influenzare i risultati del trattamento

Diciamo che non stai prendendo di mira solo i nuovi visitatori con una modifica, ma tutto il traffico.

Li stiamo ancora segmentando in modo che il 50% veda l'originale e il 50% la nuova versione, ma stiamo consentendo ai visitatori precedenti di entrare nella campagna. Ciò significa che le persone che hanno già visto il tuo sito, letto i tuoi contenuti, visto i tuoi inviti all'azione, ecc.

Inoltre, per tutta la durata della campagna, vedono solo la loro versione di prova specifica.

Quando apporti una nuova modifica, può effettivamente avere un effetto di novità sul tuo pubblico passato.

Forse vedono sempre lo stesso CTA e ora lo ignorano, giusto? In questo caso, un nuovo pulsante o design CTA può effettivamente vedere un passaggio dai visitatori precedenti, non perché lo desiderino di più ora, ma perché è nuovo e interessante.

A volte, potresti anche ottenere più clic perché il layout è cambiato e stanno esplorando il design.

Per questo motivo, di solito otterrai un aumento iniziale in risposta, ma che si attenua nel tempo.

La chiave durante l'esecuzione del test è segmentare il pubblico dopo e vedere se i nuovi visitatori stanno rispondendo così come i vecchi.

Se è molto più basso, potrebbe essere un effetto di novità con i vecchi utenti che fanno clic in giro. Se è a un livello simile, potresti avere un nuovo vincitore tra le mani.

In ogni caso, lascialo funzionare per l'intero ciclo e bilancialo.

#55. L'esecuzione delle modifiche al periodo di considerazione

Un'altra cosa da considerare durante il test è qualsiasi variante che potrebbe cambiare il periodo di considerazione del pubblico.

Cosa voglio dire?

Diciamo che normalmente non ottieni vendite immediate. I lead potrebbero avere un ciclo di vendita di 30 giorni o anche più lungo.

Se stai testando un invito all'azione che influisce direttamente sul loro tempo per considerare e acquistare, ciò distorcerà i tuoi risultati. Per prima cosa, il tuo controllo potrebbe ottenere vendite ma essere al di fuori del periodo di test, quindi ti mancano.

Esempio di modifiche al periodo di considerazione in esecuzione
Fonte: Adobe

Un altro scenario è se si dispone di un CTA che offre un accordo, un prezzo di qualsiasi altra cosa che li faccia desiderare di agire ora, questo quasi sempre distorcerà i risultati per far sembrare che questa versione stia convertendo molto meglio.

Tienilo a mente e controlla le tue analisi durante e dopo il test per essere sicuro.

#56. Non ripetere il test dopo il tempo X

Non si tratta meno di una determinata pagina o di un errore di test, ma più di una filosofia di test.

Sì, potresti avere una pagina fantastica e sì, potresti aver fatto 20 iterazioni su di essa per portarla dov'è oggi.

Il fatto è che tra qualche anno potresti dover rivedere di nuovo l'intera pagina. Gli ambienti cambiano, la lingua ei termini utilizzati, il prodotto può essere modificato.

Sii sempre pronto a tornare a una vecchia campagna e riprovare. (Un altro motivo per cui avere un repository di test funziona alla grande.)

#57. Testare solo il percorso e non il prodotto

Quasi tutti noi ci concentriamo sul percorso verso la vendita e lo testiamo. Ma la realtà è che il prodotto può anche essere testato e migliorato A/B e può anche offrire una spinta maggiore.

Pensa all'iPhone.

evoluzione dell'iphone
Fonte

Apple ha testato il suo sito Web e lo ha migliorato, ma sono le iterazioni e i miglioramenti del prodotto che continuano a generare un aumento ancora maggiore.

Ora potresti non avere un prodotto fisico. Potresti avere un programma o un'offerta digitale, ma imparare di più sulle esigenze del tuo pubblico e testarlo, quindi riportarlo alla tua pagina di vendita può essere ENORME in termini di aumento.

Conclusione

Così il gioco è fatto. I 57 errori di test A/B comuni e non comuni che vediamo e come evitarli.

Puoi utilizzare questa guida per aiutarti a eludere questi problemi per tutte le campagne future.

Inizia la prova gratuita in modo affidabile
Inizia la prova gratuita in modo affidabile