Persone, tecnologie e metodi per raccogliere i dati per un’analisi per l’azione.

Credo che un ripasso su quelle che, prima del fenomeno dei Big Data in piena esplosione, erano le tecniche di ricerca che esulano dal web marketing, sia sempre valida, per capire con quale metodo vadano analizzati i dati, per non basarci troppo sui tool informatici senza prima aver capito da dove essi derivano.

Kotler e Scott definirono il sistema informativo del marketing come il complesso di attrezzature, persone, metodi, tecnologie, procedure con l’obbiettivo di raccogliere, classificare, analizzare e interpretare le informazioni a scopo di marketing.

Ci sono tre tipi di informazioni:

  • i dati interni all’azienda: possono provenire dalle vendite o dal customer care;
  • eventi che possono concorrere nella modifica dell’ambiente di marketing: derivano da fonti diverse e sono complessi da interpretare;
  • le informazioni derivanti dalle ricerche di marketing: indagini e analisi finalizzate con l’obbiettivo di ottimizzare il marketing mix.

Il sistema informativo del marketing

Marketing è analisi, è numeri, valutazione e corretta interpretazione.

La ricerca nel marketing è sempre il primo processo in ogni fase: parte dall’identificazione di un problema, passa alla raccolta dati da elaborare e interpretare per arrivare alla pianificazione di azioni.

Le ricerche non sono infallibili naturalmente (oggi con i Big Data le cose sono cambiate) ma sono uno strumento fondamentale per pianificare le azioni riducendo il rischio di ipotesi sbagliate.

 

fase 1: identificare il problema

Serve fare innanzitutto una definizione degli obiettivi della ricerca che possono essere il perché un prodotto non vende abbastanza bene, quali desideri hanno i consumatori, quale campagna pubblicitaria sarebbe meglio utilizzare.

Definiti questi i metodi di ricerca saranno:

  • ricerca esplorativa: il fenomeno è poco conosciuto e serve a tracciare i contorni del problema;
  • descrittiva: misurare la frequenza di un fenomeno;
  • casuale: comprendere i rapporti causa/effetto fra più variabili.

Si ricorre alle misure di successo, criteri o standard in base ai quali valutare i risultati corrispondenti alle diverse alternative a disposizione.

Servono così per evitare di investire in ricerche che modificherebbero solo di poco il risultato al quale devono contribuire.

 

fase 2: sviluppo del piano di ricerca

Serve a questo punto un metodo con il quale raccogliere i dati:un approccio da adottare che permetta di raccogliere dati attendibili.

Non potendo analizzare tutti i consumatori o casi disponibili nell’universo si effettua un campionamento: si prende solo una porzione dell’universo, il più possibile rappresentativa, in modo da evitare scelte errate.

Il campionamento probabilistico permette di selezionare con probabilità accurata il campione: per esempio in un supermercato prendiamo un cliente ogni 30 minuti per una settimana a tutte le ore dall’apertura alla chiusura, per tutti i supermercati di quella catena in provincia. Avremmo quindi coperto tutti i giorni, tutta la settimana e tutte le ore della giornata, per tutta la provincia.

Per esigenze di costi e tempi il supermercato può fare questa analisi solo il mercoledì e in un supermercato, siamo in presenza di un campionamento non probabilistico, poiché non vengono tenuti in considerazione gli altri giorni di acquisto e solo quelli di un supermercato che può avere caratteristiche e utenze diverse dagli altri.

L’inferenza statistica è l’estensione dei dati all’universo della popolazione, e deve essere più attendibile possibile: se dobbiamo generalizzare i dati è bene che il campionamento sia fatto bene, poiché potrebbe dar vita a scelte sbagliate.

Se l’universo che ci interessa è composto da 20% di giovani, 40% anziani e 40% adulti, mentre si fa la ricerca a un 10% di giovani, 30% di anziani e 60% di adulti, avremmo un campione inadeguato.

 

fase 3: raccolta delle informazioni

Vi sono dati primari e secondari.

I primi sono quelli realizzati appositamente per la ricerca, raccolti selezionando un campione e analizzandolo.

Quelli secondari sono dati raccolti per precedenti ricerche, già disponibili, come quelli provenienti dal customer care, dagli acquisti online, navigazioni nel sito, eccetera. Sono meno costosi dei primi e rapidi da raggiungere. Naturalmente non sono ad hoc.

I dati primari si ottengono con:

  • l’osservazione del consumatore, ossia l’osservazione dell’essere umano nei comportamenti;
  • questionari e interviste che prevedono interviste di profondità, interviste e questionari per raccogliere dati quantitativi (quanto si compie un’azione o quanto si preferisce un determinato aspetto) e qualitativi (perché si compie un’azione e perché una cosa la preferiamo ad un’altra) e colloqui di gruppo come focus group;
  • le tecnologie, che hanno stravolto moltissimi aspetti della raccolta dati. Se parliamo di Big Data possiamo citarne moltissimi: dal tracciamento della navigazione, ai secondi che spendiamo in un sito, alle preferenze nei social media, all’eye tracking, che permette il tracciamento dell’occhio durante la visione di una pagina web (ad esempio) e altre ricerche di neuromarketing che danno dati sempre più interessanti sugli stimoli.
    Ciononostante alcune sono ricerche costose, quindi è bene tornare a dire che il campione va selezionato accuratamente, non solo per la ricerca, ma una raccolta dati perfetta fatta su un campione non rappresentativo, sarebbe inutile e dannosa.

 

fase 4: INTERPETARE PER INTRAPRENDERE LE AZIONI

Di questa fase c’è ben poco da dire qui, in questo post.
Adesso è necessario che il marketing mix sia adatto a ciò che le ricerche di mercato ci hanno comunicato.