Poco più di un secolo fa Wanamaker dava voce all’ansia di tutti gli inserzionisti quando dichiarava «So benissimo che la metà dei soldi che spendo in pubblicità è sprecata; purtroppo però non so quale metà». La Rete sembra aver costruito uno spazio di comunicazione in cui la legge dello spreco viene abrogata: ogni clic viene tracciato, di ogni utente si possono conoscere i comportamenti di interazione on-line, e di ogni contenuto è possibile monitorare la quantità di visualizzazioni distribuite nel corso del tempo, le funzioni attivate, i servizi utilizzati.
Il valore di una posizione pubblicitaria è stato parametrizzato sugli stessi criteri assegnati tradizionalmente alla carta e alla televisione: la quantità di visualizzazioni dovrebbe infondere di per sé al contenuto informativo la capacità di persuadere i lettori all’acquisto o almeno al clic.
Invece gli utenti sono più dispettosi, o più distratti, di quello che si sia disposti a credere, e agli esordi del monitoraggio web hanno fatto la sorpresa agli editori (non meno che alle concessionarie e agli inserzionisti) di mostrare che il numero di clic sui contributi promozionali rappresenta un volume prossimo a poche frazioni percentuali del traffico attivo sulle pagine in cui sono collocati. Il click-through rate, ovvero la porzione di visitatori di una pagina che interagisce con i banner, equivale allo 0,09% del traffico complessivo – almeno secondo uno studio di Google del 2011 – per di più con una tendenza storica alla diminuzione nel corso degli anni.
Da parte di Google e degli editori più accorti, la risposta alla negligenza delle masse è stato l’investimento sulla cosiddetta “economia dell’attenzione”, che consiste nel proporre alla lettura di ogni individuo soltanto le informazioni che corrispondono ai suoi interessi personali. Per ottenere questo risultato hanno tracciato i comportamenti degli utenti on-line registrando tutte le interazioni che hanno compiuto, i file che hanno postato, le domande che hanno formulato, i like che hanno tributato ai contenuti degli altri. Con la policy imposta a partire dal 1° marzo, Google si è concesso l’autorizzazione a integrare i dati sugli individui che provengono da sessanta servizi allestiti dal Gruppo di Mountain View, oltre al motore di ricerca: le indicazioni sui contenuti consultati o postati dagli utenti di Android, Gmail, Chrome, Maps, G+, YouTube, Blogger, ecc., confluiscono in un unico sistema di intelligenza che ricostruisce il “profilo di persuasione” di ogni individuo. L’obiettivo è scoprire quali siano gli argomenti che possono colpire l’immaginario e la sensibilità dei soggetti, e quali relazioni con altri utenti siano in grado di catturare la loro fiducia.
I meccanismi di elaborazione della comunicazione persuasiva messi in atto dalle piattaforme di ricerca e di social networking hanno quindi già da un pezzo superato la grettezza della semplice conta dei clic per valutare il grado di successo di una pagina. Quello che importa è comprendere in tempo reale le oscillazioni degli interessi e i rapporti di autorevolezza all’interno delle reti sociali, in modo da catturare l’attenzione degli utenti là dove sono più sensibili. Google e Facebook interpretano nel modo più efficace il ruolo di editore nel mondo contemporaneo: mettono in contatto individui interessati con i contenuti e gli autori interessanti, chiunque e ovunque essi siano.
Gli editori italiani sono invece ancora molto preoccupati di proporre agli inserzionisti il valore dei loro prodotti in termini di quantità grezze di visite e utenti unici. Invece di tentare di conoscere i lettori, editori e inserzionisti tendono a sottoporli ad una conta, come i sudditi, le mandrie o i detenuti dell’Esperimento Carcerario di Stanford. Naturalmente gli incrementi o le decrescite di lettori che frequentano le pagine del sito possono vantare un loro valore intrinseco; ma la forza di persuasione dipende dall’efficacia con cui si recapita un messaggio alle persone interessate, al modo in cui si gestisce un dialogo con loro – non dalla quantità di occhi distratti che scorrono testi e immagini senza quasi percepirli.
Il compito di una testata on-line dovrebbe essere quello di conoscere nel dettaglio gli interessi dei propri lettori, di registrarli con tempestività e di informare gli inserzionisti su quali siano i focus della loro attenzione, su quali temi intercettare il loro interesse. Al contempo dovrebbe essere in grado di consegnare agli utenti notizie che permettano di coltivare le loro competenze professionali o ludiche, suggerendo loro le domande che potrebbero rivolgere ai motori di ricerca e alle banche dati per approfondire gli argomenti dei quali si occupano.
La polemica sulla raccolta dei dati di traffico sulle pagine dei siti è stata risollevata in Italia dalla richiesta dell’Agcom di ottenere un maggiore potere di intervento sui dati raccolti e pubblicati dalle società che divulgano gli indici degli ascolti TV e del traffico web. L’istanza si trova a p. 14 della segnalazione al Governo sui temi dell’Agenda Digitale, ed è argomentata con la sfiducia nella rappresentatività delle governance di Audiweb e di Auditel rispetto ai loro interi settori di riferimento. Articolo21, IlFattoQuotidiano e anche Il Post hanno ripreso la questione dell’inaffidabilità di Audiweb dopo la pubblicazione dei dati sugli accessi ai quotidiani on-line dell’agosto 2012.
In controtendenza si trova la posizione di Lettera43, che esprime tramite un tweet del direttore Paolo Madron il suo apprezzamento per il successo riconosciutole dall’agenzia di rilevamento.
La perplessità sui risultati proposti da Audiweb deriva dallo scarto che li separa dai valori registrati da Google Analytics in merito al calcolo degli utenti unici che frequentano il sito. Le differenze investono i dati che provengono anche da altri soggetti, come Site Ciscus, provocando la sensazione che non sia possibile ottenere un risultato oggettivo nell’ambito digitale. In realtà la prima questione è capire di cosa stiamo parlando.
Anzitutto cerchiamo di comprendere quale sia la natura dei dati che si offrono a editori e inserzionisti come rappresentazione fedele del traffico di un sito. I metodi di rilevamento degli accessi alle pagine on-line sono di due tipi: quelli attivati sul server in cui si trova il sito, e quelle realizzati tramite il browser dell’utente che chiede di visualizzare i contenuti. Sia Google Analytics sia Nielsen adottano la seconda strategia; Audiweb si fonda sulle rilevazioni Nielsen, quindi sarà sufficiente concentrarsi su questa.
L’editore che voglia controllare il comportamento degli utenti tramite il metodo connesso ai browser degli utenti si premura di inserire uno script in ciascuna delle pagine del suo sito: si tratta di un frammento di codice che viene aggiunto all’infrastruttura tecnologica di pubblicazione dei contenuti, e che non è visibile per il lettore umano. Google e Nielsen rilasciano uno script che viene personalizzato con una stringa diversa per ogni webmaster; il compito che entrambi gli assegnano è quello di attivarsi ogni volta che un utente carica una pagina del sito nel suo browser. (Per chi fosse del tutto a digiuno dell’argomento, il browser è lo strumento con cui navighiamo in Rete, e può essere Explorer, o Chrome, o Firefox, o Safari – o per lo meno, questi sono i più diffusi in Italia e nel mondo).
Lo script di Google viene inserito nella testata della pagina: Mountain View ha rilasciato da circa un anno una versione che può essere eseguita dal browser in parallelo al caricamento dei contenuti visibili per l’utente, in modo da non interferire con il tempo di attesa del lettore. Il codice di Nielsen viene ancora inserito in fondo al corpo della pagina, nel footer, con il rischio che il file non venga letto in modo completo e che di conseguenza la visualizzazione non sia conteggiata. Lo script infatti persegue la funzione di inviare un segnale ai server di reportistica di Google e di Nielsen, indicando che la pagina è stata aperta – e raccogliendo un set di altri dati, relativi alle caratteristiche tecniche della macchina da cui è stata compiuta la visita.
Google e Nielsen introducono nei computer degli utenti anche altri frammenti di software, i «cookie», per tenere traccia dei loro accessi precedenti. In questo modo, quando gli editori accedono ai server di reportistica possono visualizzare diverse notizie sulle visite che hanno ricevuto sul loro sito; tuttavia, come dovrebbe essere chiaro da quello che è stato detto fin qui, il sistema di rilevamento non è in grado di per sé di identificare gli individui che si trovano dietro i browser, ma soltanto di individuare se da uno stesso computer sono arrivate più visite.
Per di più, anche il calcolo delle pagine aperte da un browser potrebbe essere molto variabile, secondo il prodotto di rilevamento che l’editore ha scelto. Lo script deve essere inserito dal programmatore nel software editoriale che permette di pubblicare le pagine (content management system, CMS): qualunque errore in questa procedura finisce per escludere una o più classi di pagine dal processo di registrazione. Naturalmente con script diversi si possono commettere errori differenti, provocando la restituzione di consuntivi non congruenti tra report di fornitori diversi.
Questa è una delle ragioni per cui il numero delle visite indicato da Google Analytics e quello elaborato da Nielsen/Audiweb possono non coincidere anche in misura considerevole.
Come se non bastasse, la posizione degli script in punti differenti del codice può fare in modo che solo uno dei dispositivi registri la visualizzazione della pagina: quando il contenuto è troppo «pesante» (ricco di immagini o di contributi multimediali, o appesantito dall’infrastruttura del CMS), la pagina potrebbe non caricarsi in modo completo nel browser, e lo script che si trova nel footer finirebbe per non attivarsi.
Inoltre, secondo Visual Revenue in Europa poco meno del 2% degli utenti ha disabilitato l’esecuzione dei Javascript da parte dei loro browser; gli script di analisi dei dati però utilizzano proprio questa tecnologia. Infine, molte società adottano firewall aziendali che impediscono il passaggio del codice necessario per la raccolta dei dati.
Gli incidenti che possono intervenire sullo script di un dispositivo di analisi piuttosto che su quello di un altro brand, spiegano i motivi per cui prodotti di monitoraggio diversi producono risultati differenti. Gli esperti di analisi suggeriscono ai loro clienti di non fissare l’attenzione su un singolo report, ma di osservare il trend del comportamento dei visitatori.
Come insegnano i rudimenti di statistica scientifica, occorre distinguere tra accuratezza e precisione nel prelievo dei dati. L’accuratezza è la distanza tra il risultato di ogni misurazione e la verità ideale del dato. La precisione invece descrive l’affidabilità del rilevamento, dal momento che valuta la coerenza del risultato attraverso la ripetizione delle misurazioni. L’accuratezza tramite script via browser, come si è visto, non può essere elevatissima; la precisione invece può offrire le informazioni corrette sia agli editori, sia agli inserzionisti, perché questo parametro è in grado di catturare la segnalazione delle fluttuazioni nel grado di interesse degli utenti, la loro tendenza a frequentare o ad abbandonare le pagine del sito, ad eseguire operazioni come la lettura, la registrazione o l’acquisto di abbonamenti, contenuti o prodotti. Se l’editore avesse chiari i suoi obiettivi, potrebbe anche controllare in maniera efficace la corretta taggatura almeno delle pagine che devono garantire il raggiungimento dei fini che si è prefisso, anche in un sito composto da decine o centinaia di migliaia di pagine – come accade di solito per le testate che hanno implementato un CMS.
Ma fino a quando si parla dei dati che sono concretamente registrati dai meccanismi di rilevamento, come è accaduto fino a qui, non si parla ancora del parametro che ha suscitato la polemica delle scorse settimane su Audiweb: si insiste infatti sulle pagine visualizzate dai lettori, ma non ancora degli utenti unici che le hanno frequentate.
La nozione di «utente unico» corrisponde all’identificazione del soggetto singolo che può navigare dietro più computer, utilizzando quelli che si trovano nella sua abitazione, nel suo ufficio, o che coincidono con i suoi terminali mobili – come lo smartphone o il tablet. Il censimento delle pagine che sono state visualizzate sui browser non permette – di per sé – di sapere qualcosa su quante macchine diverse siano a disposizione della stessa persona fisica, e attraverso quanti dispositivi lo stesso individuo visiti le pagine del sito. Per ricostruire questa informazione occorre conoscere i dati personali degli utenti attraverso strumenti che non sono deducibili dalla dimensione della consultazione delle pagine del sito.
La strategia di Audiweb per ottenere i dati necessari consiste in una integrazione di rilevazioni che provengono da diverse fonti. In primo luogo la rappresentazione delle abitudini di navigazione tra casa e lavoro degli italiani viene desunta da interviste frontali, eseguite dalla Doxa, su un campione di 10.000 individui, divisi in quattro cicli trimestrali di 2.500 casi. L’indagine viene poi estesa attraverso una rilevazione software paragonabile a quella di Auditel per la televisione: su 40 mila computer, tra abitazioni domestiche e uffici, viene installato un software che invia segnali ad Audiweb sui comportamenti eseguiti dall’utente.
Audiweb permette di approfondire il suo metodo attraverso una documentazione in formato pdf. Il metodo di Google invece consiste nell’integrare i dati che provengono da tutti i servizi del Gruppo: come si è accennato in precedenza, con la policy sulla privacy in vigore dal 1° marzo (poi aggiornata il 27 luglio) Mountain View si è autorizzata a comporre i profili personali collegando le tracce lasciate dagli utenti sui vari dispositivi che circondano il motore di ricerca, da Chrome a Gmail, da Android a Maps.
Il campione su cui si sviluppa il calcolo di Google non è circoscritto ad alcune migliaia di soggetti, ma abbraccia i milioni di clienti dei servizi rilasciati gratis dal Gruppo. Il prezzo della gratuità è la concessione dei dati personali attraverso la sottoscrizione di un account Gmail, e la consegna delle informazioni tramite i contenuti delle mail, la profilazione del browser, la selezione dei servizi in mobilità, la ricerca delle indicazioni stradali, il caricamento delle fotografie, ecc. Per «drenaggio», anche chi non usa servizi di Google può essere intercettato dalla sua intelligenza artificiale tramite le relazioni che intrattiene con chi invece usa Gmail.
La forza di Google consiste nella rete di dispositivi di cui ha circondato gli utenti, nell’organizzazione attraverso la quale è in grado di rastrellare dati non solo sull’individuazione dell’identità personale di ciascun utente, ma anche dei suoi interessi e della struttura della sua rete sociale, con una mappatura puntuale del suo stile di vita. Google punta alla conoscenza del singolo attraverso i segnali prodotti dal suo comportamento on-line, senza i filtri della rielaborazione consapevole messi in campo da un’intervista frontale.
Il Fatto Quotidiano denuncia anche la pratica in uso nelle metriche di Audiweb di accorpare più testate sotto un unico brand, in modo da generare improvvisi incrementi di utenti unici. L’articolo sottolinea che si tratta di una procedura legittima a tutti gli effetti, perché la testata è interpretata da Nielsen NetView come un brand, mentre le sue articolazioni vengono definiti «canali».
Il problema è che i report di Audiweb vengono di solito adottati dagli inserzionisti come strumenti per verificare la capacità di attrazione di utenti unici da parte dei singoli domini rispetto alle altre testate dello stesso settore. La Stampa per esempio ha integrato MediciItalia.it nel proprio canale La Stampa Salute, facendo scomparire dalle tabelle il nome del dominio dedicato ai medici e raddoppiando nel report di agosto il numero di utenti unici del brand. Finché le valutazioni degli inserzionisti saranno fondate su misurazioni che possono vantare il minor grado di accuratezza per ragioni statistiche e per configurazione del dato, come gli utenti unici dei brand in Audiweb, le polemiche sui numeri non potranno essere evitate.
Di recente The Atlantic ha aperto una nuova testata on-line, Quartz, che si fonda su un modello di business interamente centrato sull’advertising; ma le inserzioni sono gestite con un meccanismo del tutto differente rispetto al passato. Sul giornale non appare pubblicità tabellare; al posto dei banner gli inserzionisti sono invitati a pubblicare degli articoli che figurano nel rullo delle notizie insieme alle altre, con la sola segnalazione che si tratta di storie sponsorizzate. Per ogni settore di mercato viene ammesso di volta in volta un solo inserzionista; gli argomenti da trattare vengono suggeriti dalla redazione, che conosce con precisione i temi capaci di catturare l’attenzione del target interessato. Il rapporto economico viene gestito secondo il meccanismo delle impression, e gli investitori sono disposti a spendere da 60 a 100 dollari ogni mille visualizzazioni.
Se può esistere un modello di sostenibilità finanziaria per le testate on-line la via di Quartz sembra molto più promettente di qualunque percorso fondato sull’inconsapevolezza dei meccanismi di raccolta dati, della rilevanza statistica del rapporto tra accuratezza e precisione, della formazione e della statuto della nozione di utente unico, della relazione tra brand e testate. Editori e inserzionisti devono cominciare a occuparsi dei loro lettori, non possono più limitarsi a sottoporli alla conta dei sudditi.