F. Maggini, "Statistica e scenari", 2015
Statistica, scenari calcolabili e utopie
immaginifiche
Filomena Maggino[1]
“questo ‘telefono’ ha troppi difetti per poter essere
preso seriamente in considerazione come strumento di comunicazione. Questo
dispositivo è quindi naturalmente di nessun valore per noi”
Western Union – Nota interna
(1876)
La statistica si occupa – tra
le altre cose – di individuare regolarità nelle informazioni rilevate (dati). Tali
regolarità possono essere osservate in termini di tendenze, quando un certo fenomeno è osservato nel tempo, oppure di
relazioni, quando si osservano
convergenze e divergenze regolari tra i fenomeni osservati.
L’osservazione di regolarità
consente di ipotizzare interpretazioni e spiegazioni. Coerentemente con tale conoscenza
acquisita, che può essere formalizzata in un modello, è possibile ipotizzare come il fenomeno sotto osservazione
si presenterà nel futuro. In altre parole, i modelli danno la possibilità di
formulare previsioni (o proiezioni) ed eventualmente di prendere decisioni (al
fine di influenzare l’andamento di determinati eventi).
E’ possibile definire diversi
approcci alla definizione dei modelli di previsione:
-
dall’osservazione
del passato alla previsione del futuro,
-
dall’osservazione
di una parte alla stima del tutto,
-
dalla definizione
di un’ipotesi alla verifica del suo adattamento alla realtà osservata (dati).
L’applicazione di tali
modelli conduce ad una decisione
statistica che è sempre formulata in termini probabilistici. In altre
parole, la previsione statistica ha sempre una componente di incertezza
valutata ed espressa attraverso un valore di probabilità.
1.
Dalla osservazione del passato alla previsione del
futuro
Semplificando, una previsione
statistica che utilizza un modello è formulata nel modo seguente: “se nel
passato dopo il verificarsi dell’evento A si è verificato l’evento B, allora
possiamo dire che quando si ripresenterà lo stesso evento A si verificherà l’evento
B”.
La validità di questo
ragionamento dipende da:
(a)
quante volte nel
passato dopo l’evento A si è verificato l’evento B,
(b)
come sono stati
definiti e osservati l’evento A e l’evento B,
(c)
se esiste una
sequenza temporale nel verificarsi degli eventi (prima A e poi B) valida anche
nel futuro.
(a)
Il numero delle volte in cui,
in determinate condizioni, nel passato l’evento B si è verificato consente di
capire anche quanto tale evento è possibile nel futuro, in altre parole
costituisce la probabilità di quell’evento. Quindi, la probabilità dell’evento
B è associata alla frequenza dell’evento B nel passato in relazione al modello
definito. Tale probabilità può assumere valori diversi nell’intervallo che va
da 0 a 1. Dato
che parliamo di eventi che comunque sono incerti, i valori estremi definiscono
tale intervallo ma non ne sono compresi.
Tale probabilità costituisce
la precisione/accuratezza del modello mentre il suo reciproco costituisce
l’errore/incertezza del modello stesso.
La domanda a questo punto è:
stabilito che nessuna previsione produce un valore di probabilità di 0 o di 1,
qual è il livello di errore/incertezza che ci consente di fare una previsione
accurata?
Ho fatto tante volte questa
domanda ai miei studenti che si avvicinano per la prima volta a questi temi. La
prima reazione è quasi sempre la stessa: basterà che il modello suggerisca una
probabilità di almeno 0.51 per poter dire tranquillamente che l’evento B è
molto probabile. Questa riflessione, dettata da semplice buonsenso, sembra
essere adottata in diverse situazioni. Infatti, se andiamo ad osservare un
qualsiasi sito web dedicato a previsioni meteorologiche notiamo (nei casi più
documentati) che il simbolo di un determinato evento atmosferico, per esempio
“pioggia”, viene indicato proprio quando la probabilità di tale evento supera
0.50.
Agli studenti faccio notare
che tale criterio porta con sé e introduce nel ragionamento una componente che
presenta il livello di incertezza talmente alto da ritenersi in molti casi
intollerabile (nel precedente esempio, quando l’evento B è considerato
probabile a 0.51 sussiste una probabilità che non si verifichi di 0.49).
Dopo queste osservazioni, le
reazioni degli studenti cambiano radicalmente.
Di fatto, la responsabilità
dell’individuazione del limite è definita nell’ambito in cui tale
responsabilità è adottata e alla decisione che conseguentemente viene presa. E’
evidente che la decisione “prendere o no l’ombrello” è molto diversa da quella
di “adottare o non adottare un certo farmaco”.
Non dimenticherò mai la
sorpresa che mi colse quando una (non più giovanissima) studentessa al termine
di un esame (brillantemente superato) mi confessò candidamente che lo studio
della statistica le aveva consentito di essere felicemente madre. Non esitò a
darmi una spiegazione del perché (la mia curiosità si era fatta davvero alta):
accortasi di aspettare un bambino decise di affrontare il test
dell’amniocentesi che consente, tra l’altro di valutare l’assetto cromosomico
fetale (per es. malattie legate al cromosoma X). Il risultato riportato dai
medici non era molto incoraggiante per la futura mamma che volle però vedere
l’intero referto che riportava il risultato in termini probabilistici. Non
ricordo esattamente quale fosse la probabilità riportata e associata ad una
malformazione. Lei, ricordando quanto discusso a lezione, pensò: “se esiste la
probabilità del 60% che il bambino abbia una menomazione vuol dire che esiste
una probabilità del 40% che non la abbia!” Portò avanti la gravidanza,
accettando quello che secondo i medici era un rischio molto alto. Il bambino
nacque, completamente sano.
(b)
Al di là del numero di volte
in cui sono stati osservati insieme, il modello potrebbe essere completamente
scorretto se gli eventi A e B non sono stati definiti e osservati in modo
corretto ed esaustivo. L’evento B potrebbe infatti essersi verificato non in
quanto si è verificato l’evento A ma in quanto entrambi dipendono da un terzo evento
C.
A questo riguardo, spesso
viene citato il seguente esempio: osservando i dati relativi a tanti incendi si
è osservato che all’aumentare del numero dei pompieri utilizzati, aumenta anche
l’ammontare dei danni. Se il modello osservativo e interpretativo è valido,
allora potremmo formulare una previsione del tipo “se il numero dei pompieri
sarà alto, l’ammontare dei danni sarà ugualmente alto”, cui potrà seguire una
decisione del tipo “è meglio inviare pochi pompieri per evitare l’aumento dei
danni”.
La nostra esperienza del
mondo reale ci consente di considerare la formulazione del modello errata e la decisione
che ne seguirebbe rovinosa, conducendo, di fatti, ad un aumento dell’ammontare
dei danni. L’osservazione della realtà, infatti, ci suggerisce che entrambi gli
eventi A e B dipendono da un terzo evento C che è “dimensione dell’incendio”.
(c)
Purtroppo le previsioni statistiche
fatte in queste condizioni si rivelano difficili essenzialmente per due motivi:
(i) non sappiamo se il modello descrive davvero e al meglio la realtà; (ii) anche
nel caso in cui il modello è esaustivo, non sappiamo se il modello sarà valido
anche nel futuro.
Il secondo motivo è
particolarmente delicato e sensibile. Infatti, le previsioni fatte attraverso un
modello assumono un altro importante ragionamento: le condizioni in cui abbiamo
osservato gli eventi nel passato (e che hanno consentito di definire il
modello) continueranno ad essere valide anche nel presente e nel futuro.
2.
Dalla osservazione di una parte alla stima del tutto
La rilevanza della
definizione di un modello è presente anche quando l’obiettivo non è tanto
quello di prevedere il futuro, ma quello di stimare una situazione generale
(detta tecnicamente “popolazione”) dall’osservazione di parte di esso
(“campione”).
Facciamo un esempio: i
sondaggi (anche quelli elettorali). La percentuale di soggetti intervistati che
hanno riferito di preferire un certo partito corrisponde a quella che si
sarebbe ottenuta nel caso avessimo avuto la possibilità di intervistare tutta
la popolazione? Intuitivamente la nostra risposta è “no”. Dal punto di vista
statistico la risposta è “sì, più o meno un certo errore”.
In questo caso, la
definizione del modello è finalizzata alla determinazione della
accuratezza/incertezza dell’attribuzione al “tutto” (popolazione) del risultato
ottenuto in una “parte” (campione).
Tralasciamo tutte le
questioni teoriche relative alla costruzione del modello matematico che consente
la definizione della fiducia (confidenza) che possiamo attribuire al risultato
ottenuto sul campione. Ci basta però sapere che esse comprendono anche
riflessioni riguardanti
-
il modo in cui è
stato definito il campione,
-
la dimensione del
campione (ovvero, quanto è grande la nostra esperienza),
-
la variabilità
della popolazione (ovvero, quanto è molteplice e complesso l’universo di interesse),
-
la sicurezza desiderata
nell’individuare il corrispondente valore per tutta la popolazione (livello di
confidenza/fiducia).
Per poter procedere con la
stima è necessario garantire a tutti i membri della popolazione, la stessa
possibilità di entrare a far parte del campione.
Il livello di fiducia (e,
conseguentemente, il livello di incertezza) dipende dalla dimensione del
campione e dalla variabilità della popolazione (a loro volta intimamente legate
tra di loro). Infatti, volendo ottenere un basso errore di previsione (alto
livello di fiducia), è necessario avere un campione molto ampio. In presenza di
una popolazione con un’alta variabilità (complessità), volendo conservare lo
stesso livello di errore, il campione dovrà aumentare la sua dimensione in modo
esponenziale.
Un campione di dimensione
ridotta rispetto ad una popolazione molto complessa insieme ad un livello di fiducia
alto, produrranno una incertezza (errore) molto grande. Tale incertezza si può
concretizzare con la definizione di un intervallo, stabilito dal valore
osservato nel campione (per esempio, una percentuale), entro il quale sarà possibile
(livello di confidenza) osservare il valore della popolazione.
Relativamente ad un certo
campione (con una propria dimensione) e ad una certa popolazione (con una
propria complessità), stabilito un certo livello di confidenza – per esempio
95% – è possibile calcolare l’intervallo (interpretabile come dimensione della rete di cui abbiamo bisogno per pescare il valore della popolazione).
Riprendendo l’esempio iniziale, potremmo, infatti, verificare che “il partito X
ha ottenuto nel campione una percentuale di preferenze del 20% più o meno 3” . Ciò vuol dire che, la
percentuale di quel partito per tutta la popolazione ricadrà tra 17 e 23 con
una probabilità del 95%.
Supponiamo di ripetere la
rilevazione a distanza di una settimana e di ottenere per lo stesso partito X una
percentuale di preferenza del 18% e di ottenere lo stesso intervallo di
confidenza (±3). Possiamo affermare che il partito ha osservato una flessione
di preferenze? Nel campione, sicuramente sì, ma non necessariamente nella
popolazione! Infatti, i due intervalli di confidenza sono rispettivamente “17-23” e “15-21” . Come è facile osservare, i
due intervalli presentano una parte in comune (17-21) che difficilmente ci
consente di commentare i risultati ottenuti nelle due rilevazioni in termini di
aumento/stabilità/diminuzione.
In altre parole, l’ammontare osservato
della diminuzione del valore della percentuale di preferenza, è minore
dell’intervallo di confidenza.
Se riflettiamo bene, un tale
ragionamento non è solo alla base della ricerca sociale ma anche della ricerca
medica (si pensi a tale proposito ad alcune procedure diagnostiche come le
biopsie).
3.
Dalla definizione di un’ipotesi alla sua verifica
L’osservazione (più o meno
parziale) di un certo fenomeno della realtà può condurre alla definizione di
una ipotesi rispetto a quel fenomeno. L’obiettivo in questo caso è quello di
verificare se tale ipotesi formulata è casuale oppure se essa descrive una
situazione presente nella realtà.
Il buonsenso vuole che per poter
verificare tale ipotesi è necessario produrre delle prove. A questo punto, la
domanda è: quante prove occorre produrre per poter affermare che il modello è
verificato? In teoria, infinite. Per questo, un processo di verifica che
richiede di produrre prove non solo è poco pratico ma potrebbe non condurci ad
alcuna verifica. Karl Popper rivoluzionò tale ragionamento introducendo il
cosiddetto “principio di falsificazione” secondo il quale una teoria è valida
solo se è possibile falsificarla. Applicato all’ambito delle previsioni
statistiche ciò vuol dire che non occorre dimostrare che l’ipotesi X è vera,
basterà dimostrare che la sua ipotesi contraria non-X è falsa.
Ma quando l’ipotesi X (ovvero,
quanto osservato) può essere accettata in modo significativo? La decisione
finale anche in questo caso è tipicamente statistica: l’ipotesi X è accettata quando
l’ipotesi non-X si verifica un numero talmente basso di volte da ritenersi poco
probabile e quindi non vera.
Detto in altre parole, l’ipotesi
X è accettata con un certo livello di rischio corrispondente alla probabilità
che l’ipotesi non-X, nelle medesime condizioni, si è verificata nel passato.
Qual è il livello minimo di
rischio (statisticamente definito “significatività”)? Questa è un’altra domanda
che faccio spesso agli studenti. Anche in questo caso, i valori si sprecano, ma
abbastanza velocemente tutti giungono alla stessa conclusione: basso, molto
basso, da 1 a
5%, non di più (livello di significatività).
Le considerazioni fatte in
precedenza (dimensione del campione, corretta osservazione dei fenomeni,
permanenza della relazione tra i fenomeni anche nel futuro, …) valgono anche in
relazione alla verifica delle ipotesi.
4.
Ma, allora, come ci si deve porre davanti alle
previsioni?
Comprendere il ragionamento
statistico alla base della definizione di molte previsioni e proiezioni consente
di dare loro il giusto peso e la corretta interpretazione.
Da quanto detto appare chiaro
come sia importante, nel definire possibili scene future, la “modellazione”
delle conoscenze (sia in termini di esperienza che di teoria) sul fenomeno di
interesse.
Facciamo un esempio.
Nel 1988, uno studio dell’Intelligence Unit
dell’Economist (EIU) mirava ad individuare il migliore Paese in cui nascere.
Tale studio, basandosi sull’analisi di un gruppo di indicatori che descrivono le
migliori opportunità (determinanti) per una vita sana, sicura e
prospera negli anni a venire, aveva prodotto alla fine una classifica (una di
quelle cose che appassionano tanto i lettori, poco gli statistici) tra tutti i
Paesi del mondo. Al primo posto c’erano gli Stati Uniti, seguiti dalla Francia,
la Germania (Occidentale) e l’Italia.
La classifica, in pratica si basava su indicatori
osservati nel 1988 e li “proiettava” al 2013 attraverso un modello molto
semplice (qualcosa del tipo “se oggi stiamo bene, staremo bene anche nel 2013” ). Questo vuol dire che
se il modello fosse valido, gli stessi indicatori osservati oggi dovrebbero
confermare le proiezioni (ovvero il modello) e la graduatoria di allora
dovrebbe riprodursi anche oggi, più o meno un certo errore.
Lo studio è stato ripetuto quest’anno. La proiezione
pone al primo posto la Svizzera e subito dopo l’Australia, la Norvegia e la
Svezia mentre i primi quattro Paesi della precedente graduatoria sono risultati
essere rispettivamente al 16°, 26°, 16° (parimerito) e al 21°.
Nell’articolo[2] che
riporta i risultati di tale studio si fa presente che lo studio si basa su
“indicatori statisticamente significativi”. Ma, siamo sicuri che la scelta
degli indicatori sia quella giusta?
Infatti, il risultato può essere letto in un altro
modo: chi nel 1988 avesse scelto di far nascere il proprio figlio nel primo Paese
in graduatoria avrebbe fatto crescere un figlio in un Paese che avrebbe (come i
dati attuali dimostrano) di fatto diminuito la sua qualità (o almeno la sua
qualità sarebbe stata superata da quella di altri Paesi).
Naturalmente, la scelta degli indicatori e le
relazioni che presentano tra loro (indicatori di input, di output, di outcome,
drivers, …) è determinante. Individuare gli indicatori giusti per delineare e
descrivere un certa fenomeno non è facile. Ancora più difficile è utilizzare
gli indicatori per definire scenari futuri. Tale difficoltà è bene descritta in
una frase, citata nello stesso
articolo e ripresa dal film “Il terzo uomo”, espressa dal personaggio interpretato
da Orson Welles e che dice “l’Italia per 30 anni ha avuto guerre, terrore e
omicidi sotto i Borgia ma in quel periodo ha prodotto Michelangelo, Leonardo Da
Vinci e il Rinascimento; la Svizzera
ha avuto 500
anni di pace ed è riuscita a produrre solo l’orologio a cucù”.
La credibilità/riuscita delle
previsioni dipende molto dalla capacità di individuare quegli elementi che
caratterizzano una certa realtà e che consentono di modellarne la complessità.
Di fatto, il livello di
conoscenza e la complessità della realtà possono rendere vani, o per lo meno
ostacolati, gli sforzi per poter formulare delle predizioni attendibili, a
causa di molti elementi, quali
-
la sovra-stima
del cambiamento in termini di tendenze, cadenza e andamento,
-
la sotto-stima dell’impatto
che qualsiasi cambiamento ha sulla realtà,
-
la sovra-stima
delle esperienze passate,
-
la presenza di sistemi
causali complessi,
-
la presenza di casi
particolari non esportabili/proiettabili.
Ecco perché, per affrontare
il delicato tema della previsione, è necessario definire approcci diversi che,
in modo più realistico, invece di prevedere, rappresentino degli esercizi che
consentano di ottenere una visione di multipli futuri possibili, utilizzando un
processo iterativo e l’opinione di esperti diversi. E’ questo l’approccio detto
di “analisi di scenari” che consente di superare i limiti delle tradizionali
previsioni in presenza di alta incertezza, di eventi poco probabili (ma con
grande impatto) e di differenze di opinione e di visione.
L’analisi di scenari prevede
le seguenti fasi:
-
identificazione
dei fattori critici e dei fattori esterni (sociali, tecnologici, economici,
ambientali, politici)
-
identificazione
di futuri alternativi (previsioni)
-
sviluppo delle
strategie (decisioni)
L’identificazione dei fattori
critici rappresenta il momento decisivo per una definizione degli scenari
ammissibili.
Il pericolo è comunque quello
di lanciarsi nella definizione di scenari che, più che verosimili (uno dei
concetti base per la previsione statistica), risultino essere utopie frutto di
desideri e immagini desiderabili (utopie
immaginifiche, appunto): un esercizio che, pur se poco utile a fini previsionali,
potrebbe comunque risultare molto accattivante dal punto di vista editoriale!
- . - . - . - .
A conclusione di questo breve
scritto, vorrei riprendere quella che secondo me è la più calzante definizione di
“statistica”, fatta da uno degli studenti partecipanti al concorso indetto
dall’ISTAT in occasione della prima Giornata Mondiale della Statistica
(20/10/2010): la statistica è la sorella
maggiore della matematica: è troppo saggia per dare tutto per certo (http://www.istat.it/it/archivio/16448).
Tale definizione ci esorta
alla costante adozione della cautela nel leggere e interpretare il risultato
prodotto da una previsione / proiezione statistica.
Il ricercatore consapevole si
pone però dubbi anche quando la previsione si rivela corretta. Il dubbio può
essere espresso come segue: esistono previsioni che si auto-realizzano? In
questo caso, si passa dalla previsione alla profezia che si auto-determina (self-fulfilling prophecy). Prendiamo un
esempio: la diffusione dei risultati di un sondaggio attraverso i media influenza
la sua “realizzazione”?
Ma questa … è tutta un’altra storia
…
[1] * Professore di Statistica Sociale presso l’Università di
Firenze. I suoi principali interessi di ricerca riguardano i dati statistici
con particolare riferimento alla loro produzione (assessment dei dati
soggettivi), alla loro analisi (approcci multivariati, modelli
di scaling e costruzione di indicatori compositi) e alla
loro presentazione (definizione di modelli di valutazione della qualità della
comunicazione dei risultati statistici). È autore di numerose pubblicazioni su
tali temi. È presidente della International Society for Quality-of-Life Studies
(ISQOLS) e dell’Associazione Italiana per gli Studi sulla Qualità della Vita
(AIQUAV), è componente del Global Project Research Network on Measuring the
Progress, ospitato presso l’OCSE e della Commissione Scientifica per la Misura del Benessere
(progetto BES) istituita presso l’ISTAT..
0 Commenti:
Posta un commento
Iscriviti a Commenti sul post [Atom]
<< Home page