analytics

e-Commerce e multicanalità: codici a barre per i coupon di OVS

4.75 avg. rating (93% score) - 4 votes

Una buona idea, quella dei codici a barre, semplice, che ti porta a esclamare: perché non lo fanno tutti?! Il canale web di una catena tradizionale soffre spesso di competizione con il retail su strada, questo perché i responsabili dei negozi interpretano l’e-Commerce come un avversario (invece che un alleato). Ma la multicanalità è valida per i merchant quanto per gli utenti.

OVS, marchio di abbigliamento leader in Italia, ha preso per fortuna un’altra strada. Grazie alla strategia del gruppo (Coin) e alle funzionalità di un tool per l’e-mail marketing, ha messo in piedi un sistema di couponing multicanale. Gli utenti iscritti al sito ricevono la promozione e possono usufruirne allo stesso modo sia online, tramite un codice alfanumerico da digitare, che in negozio, tramite la stampa di un apposito codice a barre.

I vantaggi sono molti, tra questi:

  1. offrire alle persone un’esperienza di acquisto/relazione multicanale davvero trasparente;
  2. misurare l’impatto di una campagna online sulle attività di vendita nei negozi tradizionali;
  3. sviluppare logiche sofisticate di CRM (dato che il codice a barre è personalizzato per utente).

Niente male, vero?

A/B test e split test nell’e-Commerce: quanto tempo per considerare affidabile il risultato?

0.00 avg. rating (0% score) - 0 votes

Sul blog di Visual Website Optimizer – uno strumento S.a.a.S. per gli split test – è comparso un articolo interessante sull’annoso problema dell’attendibilità di un test A/B (cos’è un A/B test?).

A/B test (split test) come funziona?

La domanda frequente è: quanto tempo occorre affinché i risultati di uno split test si possano considerare validi? In questo caso il tempo dipende dal traffico, ovvero quanti utenti passano ogni giorno dalla pagina contenente la modifica che vogliamo testare. In fondo si tratta di un ragionamento basato sulla statistica: i risultati saranno tanto più attendibili quanto più ampio sarà il nostro panel. Chiaramente nessuno ha un tempo infinito e, anzi, prima si ottiene la risposta meglio è.

Diventa importante definire una soglia oltre la quale il test si possa considerare concluso e i suoi risultati utilizzabili. Proprio ieri un amico mi ha chiesto se fossero sufficienti 6.000 utenti veicolati sulla pagina di test in 19 giorni di esperimento (con un +29% di conversione alla vendita). Si tratta di un valore certamente soggettivo, ma considerata la situazione e il bilanciamento automatico, secondo me sono più che sufficienti.

A/B test (split test) i risultati negli esperimenti in Google Analytics

La questione si fa spinosa per i siti a basso traffico. In questi casi, peraltro molto frequenti, verificare l’efficacia di una variante alla pagina diventa troppo impegnativo in termini temporali. Non possiamo attendere 400 giorni per scoprire quale headline funzioni meglio! Fortunatamente nel post “How to do A/B split testing on low traffic sites” l’autore raccoglie una serie di tecniche e consigli pratici per utilizzare gli split test in contesti con poco traffico, alla ricerca del tasso di conversione perfetto:

  1. ragionare per “micro-conversioni” (qui avevo segnalato un articolo interessante a riguardo);
  2. valutare modifiche che abbiano un forte impatto sulla psicologia delle persone;
  3. apportare modifiche radicali al layout;
  4. evitare i test multivariati;
  5. migliorare aspetti presenti nella maggior parte delle pagine;
  6. provare le due versioni in sequenza invece che bilanciando il traffico (su questa nutro qualche dubbio);
  7. provare anche test qualitativi.

E voi quali tecniche mettete in campo in questi casi?

Foto credit: 1 Robcubbon, 2 Marketingland.

 Torna su