Questioni di metodo
27 Maggio Mag 2014 1420 27 maggio 2014

Non è vero che i sondaggi hanno sbagliato

Dopo la diffusione dei risultati delle elezioni europee, si è subito parlato di figuraccia dei sondaggisti e flop dei sondaggi. In realtà questo non è accaduto. Solo una lettura frettolosa e superficiale può affermare che i sondaggi hanno fallito. Chi ha realmente fallito sono i princìpi statistici.

Previsioni e scostamenti

A partire dalle ore 24 di venerdì 9 maggio 2014, quindi ben quindici giorni prima della votazione (un handicap notevole visto l’endemico alto tasso di indecisi che sciolgono la loro riserva anche poche ore prima del voto), i principali istituti di sondaggi politici hanno diffuso le seguenti previsioni:

Fonte: riadattamento da La Repubblica, 9 maggio 2014

Come si può vedere dalla tabella comparativa, alcuni istituti (evidenziati in giallo) sono andati molto vicino al risultato reale. E molte delle loro previsioni sono ricadute nel famoso margine di errore del ± 3%. L’unico vero flop, dal punto di vista statistico, è la previsione sul PD, sbagliata del 7%. Un errore grave.

Rilevare sì, misurare no

Quindici giorni prima del voto tutti gli istituti di sondaggio avevano pronosticato che il PD sarebbe stato largamente il primo partito, il M5s il secondo e Forza Italia il terzo. E così è stato.

Come già scritto molto tempo fa il vero errore non sono le previsioni in sé, ma le aspettative (che giornalisti, politici e opinione pubblica) nutrono nei confronti dei sondaggi; e che i sondaggi colpevolmente contribuiscono ad alimentare. In altre parole, non si può chiedere al sondaggio quello che (per sua natura) non può dare.

Il sondaggio è “soltanto” uno strumento di rilevazione di tendenze; e non uno strumento di misurazione, come i sondaggisti stessi a volte vogliono far credere. La misurazione è una pratica molto appropriata per oggetti fisici, che però mal si sposa con gli oggetti sociali (opinioni, atteggiamenti e comportamenti), come molti matematici ci hanno da tempo avvertito.

Per cui, anche questa volta, le tendenze elettorali sono state correttamente colte dai sondaggi; ovviamente all’interno del margine di errore del ± 3%. A eccezione che per il PD.
 

Il fallimento dei princìpi statistici: l’inferenza

Il vero flop, in realtà, l’ha fatto la statistica. In particolare i princìpi su cui si basa l’inferenza. La statistica afferma che i risultati ottenuti da un campione possono essere generalizzati (inferenza statistica) al suo universo di riferimento solo se quel campione è un campione probabilistico. In altri termini, solo se quel campione è rappresentativo dell’universo, ne è una miniatura.
 

La rappresentatività dei campioni

La stessa statistica prevede criteri molto rigorosi affinché un insieme di persone intervistate possa essere considerato un campione rappresentativo (o probabilistico); e non sia, invece, un semplice campione, senza alcuna rappresentatività. Questi princìpi, richiamati qui in modo molto sintetico, guidano da più di un secolo la ricerca sociale di tipo statistico-quantitativo.

Tuttavia se guardiamo la “scientificità” dei campioni usati per le previsioni elettorali, scopriamo che sono tutto fuorché scientifici. Nel post avevamo già visto come gli alti tassi di nonrisposta avevano reso altamente non-rappresentativi i campioni usati nelle elezioni politiche dello scorso anno. Lo stesso è avvenuto con queste elezioni europee, con tassi di nonrisposta fra il 50% e 70% (vedi QUI).

Dimensioni del campione

Non solo gli alti tassi di non risposta minano la rappresentatività di un campione, ma anche le dimensioni del campione stesso.

Come fa un campione di 800-1000 intervistati (questa è la dimensione dei campioni della maggior parte dei istituti di sondaggi) a essere rappresentativo dei quasi 50 milioni di persone (elettori italiani)?

Con campioni così piccoli, le formule “rappresentativo per i caratteri socio-demografici (genere, età) e la distribuzione territoriale (area geografica e dimensione urbana) della popolazione italiana di età superiore ai 18 anni” sono prive di senso (vedi qui).

Il mistero

Eppure nonostante che i sondaggi pre-elettorali siano stati condotti senza rispettare minimamente alcuni requisiti e i princìpi fondamentali della scienza statistica… essi hanno previsto correttamente (in gran parte) l’esito del voto. Com’era successo altre volte.

Com’è possibile tutto questo? Com’è possibile che una pratica di ricerca così approssimativa e non scientifica (dal punto di vista del campionamento) conduca comunque ad azzeccare la previsione e quindi a ottenere un risultato scientifico?

Il mistero è stato, in parte, svelato qui. Tuttavia non basta.

Forse è arrivata l’ora di rivedere, anche nell’opinione pubblica, i fondamenti epistemologici dei principi statistici della rappresentatività e generalizzabilità; e riformularli alla luce dell’esperienza, dell’empiria e della ricerca metodologica. Costruendo almeno due diverse teorie della rappresentatività e generalizzabilità: una (quella statistica) adatta a stimare oggetti fisici; l’altra (quella sociologica) appropriata per studiare oggetti sociali (Marradi 1997; Gobo 2004).

Per cui non è vero che i sondaggi hanno sbagliato. Sono i princìpi statistici della rappresentatività dei campioni ad aver fatto una figuraccia.

Riferimenti

Gobo, G. e Mauceri S. (2014), Constructing Survey Data. An interactional approach, London, Sage.

Gobo, G. (2004), Generalizzare da un solo caso? Lineamenti di una teoria ideografica dei campioni, in «Rassegna Italiana di Sociologia», 1, pp. 103-29.

Marradi, A. (1997), Casuale e rappresentativo: ma cosa vuol dire?, in Ceri P., Politica e sondaggi, Torino, Rosenberg & Sellier.

 Iscriviti alla newsletter

Vuoi essere sempre aggiornato? Iscriviti alla newsletter de Linkiesta.it .

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

 Seguici su Facebook