Umberto Cherubini
Così è…se traspare. Storie di finanza e (mancanza di) trasparenza
15 Ottobre Ott 2013 2045 15 ottobre 2013

Un Nobel alla memoria…dei mercati efficienti

E se dessimo il prossimo Oscar al cinema muto? E’ questa la prima reazione alla notizia del Nobel a Fama e Shiller. Il riconoscimento a Hansen è un’altra storia, per i suoi contributi all’econometria, che sono innovativi come quelli dei grandi econometrici che in passato hanno ottenuto il riconoscimento. Ma il Nobel a Fama e Shiller è un riconoscimento allo studio dei mercati finanziari che furono. Entrambi sono arrivati secondi, e se ripercorriamo, a volo d’uccello, la storia della teoria dei mercati efficienti del secolo scorso, capiamo perché. Ma, a differenza di cosa è successo nella coppia Black e Scholes (premiato Scholes, mentre la mente indiscussa, Fisher Black, era già sotto terra), fortunatamente la mente dei mercati efficienti è già stata premiata in passato: è Paul Samuelson, Nobel 1970. Anche il Nobel quindi mostra i segni dell’età e un principio di Alzheimer, e non ricorda.

La storia della teoria dei mercati efficienti nasce in Europa: in Francia, per l’esattezza. Era il 1900 spaccato quando Louis Bachelier si laureò alla Sorbona, sotto la supervisione di Henry Poincaré, con una tesi sulla teoria della speculazione, introducendo per la prima volta l’idea della dinamica dei prezzi azionari come “passeggiata causale” (random walk): impossibile prevedere oggi i movimenti di borsa di domani. Questa idea, in parallelo con lo studio del moto delle particelle in fisica, fonda in matematica la teoria dei processi stocastici: sequenze di variabili casuali, come i movimenti dei prezzi di borsa di Bachelier. Ma tra gli economisti l’idea cadde nell’oblio. Paul Samuelson ricorda che fu una lettera di un altro grande, Leonard J. Savage, a ricongiungere la memoria. In questa lettera Savage diceva più o meno: ragazzi, ma nessuno di voi ha mai sentito parlare di questo Bachelier?

Fu Samuelson a rispolverare la vecchia idea di Bachelier. La rimise a posto, cambiando delle cose che effettivamente erano impresentabili, come la possibilità di prezzi negativi. e soprattutto affrontando una questione di fondo: perché se riesco a prevedere i dividendi futuri, e i prezzi dipendono da questi dividendi, non riesco a prevedere i prezzi? Samuelson rispose a questo quesito in un lavoro del 1965 il cui titolo oggi ci suona ridicolo: “Prova che prezzi correttamente anticipati fluttuano in maniera casuale”. (Proof that properly anticipated prices fluctuate randomly). Pensate oggi di presentarvi, non dico a un convegno, ma dentro un bar e dire: “sapete che penso? Ho il vago sospetto che i prezzi di borsa si muovano in maniera casuale”. Ma va? Pagagli un caffè al genio, vi direbbero. E invece quella fu una conquista scientifica, condivisa con Cootner e con Fama, appunto. E' per quella scoperta che oggi ci sembra naturale dire, e sentir dire: "il mercato l'ha già scontato".

Ma da allora, gli anni 60, quando non esistevano ancora i derivati, quanta acqua è passata sotto i ponti! Tanta che, in maniera simmetrica, Andrew Lo e Craig McKinlay raccontano nel loro libro "A non-random walk down Wall Street" il modo inurbano nel quale vennero accolti nel 1986 quando sostennero per la prima volta, di fronte all'accademia, che i prezzi non seguono una "passeggiata casuale". Raccontano che il loro discussant "asserì con grande sicurezza che avevamo fatto un errore di programmazione...Essendo troppo timidi (e troppo junior) a quel tempo, rispondemmo debolmente che il nostro programma era molto solido, grazie, e il dibattito che seguì degenerò molto velocemente subito dopo".

Che dire del contributo di Shiller? Viene riportato il suo lavoro più importante, svolto con John Campbell,che è l'analisi dell'eccesso di movimento dei prezzi rispetto ai dividendi. Sotto il profilo economico, un'applicazione dell'idea di Samuelson. E' forse originale la metodologia? Qui la cosa si fa tecnica, e per questo la liquido con poche parole per tecnici, o per chi, come il sottoscritto, ha un passato, anche lontano, da econometrico. La tecnica è un modello VECM (Vector Error Correction Model). Non solo il modello non era nuovo, ma anche questo è già stato onorato con un Nobel. Infatti, ogni vecchio econometrico sa che il VECM è intrinsicamente legato al concetto di cointegrazione. E la cointegrazione è già valsa un Nobel per l'economia al suo scopritore, il compianto Clive Granger. Non solo, il paper originario è scritto con Robert Engle, anch'egli insignito del Nobel, per i modelli GARCH. Anche sul fronte delle metodologie quantitative, quindi, niente di nuovo. E anche lì, quanta acqua è passata sotto i ponti!

In verità, Shiller richiama anche un concetto più moderno dei mercati: è quello dell'"esuberanza irrazionale" che rimanda alla teoria delle bolle speculative. Ma, anche in questo caso, la formalizzazione non è sua, ma di Bob Jarrow, Dilip Madan e altri. E quanti altri modelli potrebbero essere premiati, che non si limitano a dire che il mercato assorbe le informazioni, ma che si chiedono come le informazioni vengono trattate, sui mercati, e quali informazioni possono essere estratte da essi. La prima linea di ricerca è chiamata microstruttura dei mercati, e ha i suoi protagonisti storici in Yakov Amihud e Maureen O'Hara. La seconda rimanda al contributo leggendario di Douglas Breeden e Robert Litzenberger, del 1978, su come si legge nelle opzioni finanziarie e nei derivati la probabilità che il mercato attribuisce a movimenti futuri del prezzo. Un'idea sviluppata da Mark Rubinstein, Bruno Dupire e Emmanuel Derman nel 1994. E sulla stessa linea c'è Stephen Ross, che nel 1976 descrisse per la prima volta il legame che deve esistere tra i prezzi dei titoli rischiosi per avere un sistema coerente rispetto al rischio, e ancora oggi propone all'accademia sfide di frontiera come il "recovery theorem" del quale abbiamo parlato recentemente in questo blog.

E la considerazione della scoperta del prezzo di mercato del rischio ci porta diretti alla differenza tra rischio e incertezza. E' questa una linea di ricerca che affonda le radici fino negli 20, nel dibattito tra Knight e Keynes, che riemerge nel 1961 con il famoso "paradosso di Ellsberg" e che poi è stata formalizzata da Schmeidler, Gilboa, Epstein e altri negli anni 80. Un'idea, quella dell'avversione all'incertezza, che rappresenta oggi l'unica spiegazione razionale di fenomeni paradossali che osserviamo sui mercati (financial puzzle) come l'"home bias": la tendenza a investire in titoli del proprio paese, rinunciando al sacro principio della diversificazione.

Insomma, potremmo anche continuare, ma abbiamo reso l'idea. In questa edizione di Masterchef, tra tanti piatti elaborati e tante leccornie, "the winner is..." il riso in bianco. Che messaggio possiamo leggerci, che ci sia un messaggio voluto o no? La sensazione che emerge è la nostalgia del buon tempo andato, dei cibi genuini e semplici, dell'"amarcord", del "si stava meglio quando si stava peggio". E il messaggio minimalista pare essere: smettete di cucinare.

 Iscriviti alla newsletter

Vuoi essere sempre aggiornato? Iscriviti alla newsletter de Linkiesta.it .

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

 Seguici su Facebook