Alessandro Roncaglia - sinistrainrete -
Negli ultimi mesi abbiamo sentito ripetere infinite volte che gli economisti non hanno previsto la crisi finanziaria ed economica che ci ha travolto. Perfino la regina d’Inghilterra se ne è lamentata. Di fronte a queste critiche, la nostra professione deve porsi con urgenza almeno tre domande. Primo, a nostra parziale discolpa: cosa significa, nel nostro caso, prevedere un evento? Secondo, a parziale critica della superficialità dei mezzi di informazione: è vero che gli economisti non hanno previsto la crisi? Terzo, e più importante: se, come vedremo, alcuni l’hanno prevista e altri no, da cosa è dipesa la relativa preveggenza degli uni e la relativa cecità degli altri?
La terza domanda ci porterà a una questione fondamentale, che merita certo una trattazione più approfondita di quella possibile in un breve intervento come il mio: la responsabilità di un orientamento culturale tuttora prevalente tra gli economisti – che può essere indicato, sempre in modo necessariamente vago, mainstream, o Washington consensus, o fondamentalismo liberista – nel favorire il formarsi della situazione di cui la crisi sarebbe divenuta uno sbocco inevitabile.
Innanzitutto, prevedere una crisi non significa indicare in anticipo il giorno in cui scoppierà, o le precise caratteristiche con cui si svilupperà. Come i sismologi sono in grado di indicare le zone in cui i terremoti sono più probabili (tanto che delle loro analisi si tiene conto nel determinare norme più o meno rigide sul modo in cui costruire gli edifici), così gli economisti sono, o dovrebbero essere, in grado di indicare le condizioni in cui le crisi divengono probabili, se non inevitabili.
In questo modo, gli economisti possono anche indicare alle autorità di politica economica cosa fare per ridurre le probabilità della crisi o, oggi, il suo ripetersi in forme ancora più gravi.
Nel senso che ho appena accennato, se è vero che la stragrande maggioranza degli economisti non ha previsto la crisi, è anche vero che vari economisti ne hanno segnalato in anticipo l’approssimarsi. Paolo Sylos Labini, in un articolo pubblicato nel settembre 2003 su Moneta e Credito (ripubblicato 2009), aveva espresso “gravi preoccupazioni sulle prospettive dell’economia americana, che condiziona fortemente le economie degli altri paesi e, in particolare, quelle europee” (Sylos Labini, 2009, p. 61). Le preoccupazioni erano motivate da “alcune rassomiglianze fra la situazione che si era determinata in America negli anni Venti del secolo scorso, un periodo che sboccò nella più grave depressione della storia del capitalismo, e la situazione che si andava delineando oggi in America” (Ibid., p. 61). In particolare, Sylos Labini segnalava “due bolle speculative, una in borsa e l’altra nei mercati immobiliari” (Ibid., p. 63); la sua diagnosi si basava anche sull’aumento della diseguaglianza nella distribuzione del reddito e sulla crescita del debito, pubblico e privato. (Questo articolo, mai citato dagli editorialisti economici dei grandi quotidiani, è da tempo disponibile a tutti nell’archivio degli scritti di Sylos Labini su internet, all’indirizzo www.syloslabini.info).
Già in precedenza Charles Kindleberger, il grande storico delle crisi finanziarie, aveva segnalato in questa stessa rivista la formazione di una bolla nei mercati immobiliari (Kindleberger, 1988 e 1995, ripubblicati 2009a e 2009b). Su questa base aveva sostenuto – in contrapposizione alla politica seguita dall’allora presidente della Federal Reserve, Greenspan – che la politica monetaria dovrebbe tenere sotto controllo l’inflazione degli assets, cioè di attività patrimoniali come le azioni e gli immobili. I suoi articoli, assieme a quello di Sylos Labini e ad altri egualmente preveggenti, di Wynne Godley (2009), Mario Sarcinelli (2009), Mario Tonveronachi (2009) e altri, sono raccolti nel numero speciale (2009) che inaugura la nuova serie di Moneta e Credito. Lavori di impostazione analoga sono stati pubblicati altrove; segnalo in particolare le pubblicazioni del Levy Economics Institute (reperibili all’indirizzo www.levy.org), di cui era stato Senior Scholar Hyman Minsky, il grande teorico delle crisi finanziarie scomparso nel 1996, e di cui è ora Senior Scholar Jan Kregel.
Il punto, sul quale torneremo più avanti dopo avere rapidamente richiamato le caratteristiche salienti della crisi, è che gli economisti appena ricordati condividono, in misura maggiore o minore, una impostazione keynesiana, o quanto meno sono pragmaticamente liberi dai paraocchi culturali che hanno impedito agli economisti mainstream di cogliere il formarsi delle precondizioni per una grossa crisi, e quindi di porvi rimedio per tempo, per quanto possibile.
_________________________________
Com’è noto, la bolla immobiliare statunitense ha costituito l’origine immediata della crisi. Di per sé, si è trattato di un forte scossone, che però non avrebbe potuto portare a una crisi come quella che abbiamo sperimentato; tuttavia, esso è intervenuto a destabilizzare un castello di carte assai fragile e ben più ampio, quello dei mercati finanziari. A causa soprattutto dello sviluppo dei cosiddetti prodotti derivati, le attività finanziarie erano arrivate a un valore pari a oltre dieci volte il PIL mondiale. La formazione di una massa finanziaria di queste dimensioni era stata resa possibile dalle opportunità di profitto che i mercati finanziari offrivano; in effetti, questi mercati sono arrivati ad assorbire una quota straordinariamente elevata dei profitti complessivi, fino al 40% negli Stati Uniti, permettendo quei livelli straordinariamente elevati di retribuzioni per i manager del settore di cui si è tanto parlato. Contemporaneamente, nella stessa direzione ha operato una normativa lassista, fondamentalmente basata sull’idea che i mercati, finanziari o non finanziari, costituiscono di per sé meccanismi di autoregolazione con i quali è meglio non interferire.
La stessa regolazione prudenziale delle banche, le cosiddette regole di Basilea (che non riguardano tutte le istituzioni finanziarie, ad esempio negli Stati Uniti non riguardavano le banche d’affari, come la Lehmann Brothers), è costruita sulla base di un’idea tipica dell’individualismo metodologico sottostante l’approccio mainstream: l’idea secondo cui il rischio complessivo di destabilizzazione del sistema economico nel suo complesso – il cosiddetto rischio sistemico– è costituito dalla somma dei rischi individuali. Di qui la tesi, ripetuta anche di recente, che il problema era, ed è, rappresentato esclusivamente dalla presenza di istituzioni too big to fail (troppo grosse per fallire) e non anche dalla possibilità che i fallimenti di istituti finanziari di medie e piccole dimensioni assumano un rilievo sistemico. Questo è solo un esempio di quanto si siano trascurate le forti interconnessioni che caratterizzano i moderni sistemi finanziari, e che sono fonte dei processi di trasmissione e amplificazione della crisi. Inoltre, la libertà dei rischi di migrare verso intermediari e mercati meno o non regolamentati rispetto alle banche ha permesso una enorme crescita di attività finanziarie a fronte di proporzioni globalmente decrescenti di capitale e liquidità. Così la leva finanziaria (o leverage), cioè il rapporto tra attività finanziarie e patrimonio proprio, era arrivato per molte istituzioni a livelli straordinariamente elevati, con il rischio che una perdita relativamente modesta sarebbe stata sufficiente a provocare l’insolvenza o il fallimento dell’istituzione stessa. (Ad esempio, se il leverage è 20, basta una perdita del 5% per assorbire tutto il capitale). A livello di sistema, l’enorme crescita delle attività finanziarie trovava ovviamente corrispettivo nella crescita del grado di indebitamento del sistema finanziario al suo interno e delle famiglie.
La crescita della finanza – la cosiddetta finanziarizzazione dell’economia – è stata favorita dall’evoluzione degli assetti del sistema monetario internazionale dopo la crisi del sistema di Bretton Woods, sia per l’importanza assunta dai movimenti di capitale a breve termine diretti a trarre vantaggio dai movimenti dei cambi, sia perché il sistema di cambi flessibili aveva favorito il ricorso a contratti future sulle valute. A questo si era poi affiancato il passaggio della Federal Reserve statunitense, nel 1979, da una politica di controllo dei tassi d’interesse a una politica di controllo della base monetaria, che aveva accresciuto l’instabilità dei tassi d’interesse e favorito il ricorso a contratti future e swap sui tassi.
In entrambi i casi si è trattato di evoluzioni considerate favorevolmente da quegli orientamenti della teoria economica, come il monetarismo, che attribuiscono alla libera fluttuazione dei prezzi, inclusi i tassi di cambio e i tassi d’interesse, una capacità automatica di regolazione dei mercati. La finanziarizzazione dell’economia è stata cantata – esaltando il modello anglosassone centrato sui mercati, rispetto a quello cosiddetto ‘renano’ basato sulla centralità della banca – come elemento di flessibilità favorevole alla crescita; possiamo citare ad esempio il libro di Rajan e Zingales, Salvare il capitalismo dai capitalisti, uscito nel 2003: un testo in cui le tesi opposte, come quelle ben note di Keynes o quelle di Minsky sui rischi di uno sviluppo della speculazione finanziaria, sono state semplicemente ignorate.
In realtà, quando i meccanismi automatici di riequilibrio dei mercati non esistono o non operano bene, come accade ad esempio nel caso dei disavanzi pubblici o di quelli delle partite correnti di bilancia dei pagamenti, la possibilità e l’interesse del settore finanziario a espandersi a dismisura offrono uno strumento per rinviare la soluzione dei problemi, che però nel frattempo continuano a crescere di dimensioni. Questo è proprio quanto sta accadendo oggi, anche grazie alle fortissime iniezioni di liquidità attuate a partire dall’ottobre 2008 da tutte le banche centrali per evitare il collasso del sistema finanziario.
Gli squilibri macroeconomici, in queste condizioni, si sovrappongono a quelli microeconomici, che riguardano le singole istituzioni finanziarie: un default sul debito estero della Grecia o dell’Ucraina costituirebbe uno scossone non sopportabile per alcune tra le maggiori istituzioni finanziarie. Pure le operazioni finanziarie speculative, o anche quelli che in teoria dovrebbero essere arbitraggi esenti da qualsiasi rischio, potrebbero generare grossi scossoni. Ad esempio, uno degli economisti che avevano previsto la crisi, Nouriel Roubini, ha sottolineato in un recente articolo sul Sole 24 Ore (3 novembre 2009) che una interruzione della discesa del dollaro metterebbe in crisi gli operatori che hanno in corso operazioni di carry trade, cioè hanno preso in prestito dollari per investirli in altre valute1.
Anche nei casi in cui vengono realizzate operazioni di copertura (non frequenti dati i loro costi, che assorbirebbero la maggior parte dei profitti), cioè quando i contratti di cambio di dollari in altre valute vengono “chiusi” immediatamente con operazioni a termine di segno opposto (vendita a termine delle altre valute in cambio di dollari), resta il rischio di controparte. A questo proposito occorre osservare che le forme di assicurazione adottate per far fronte a quest’ultimo rischio, i cosiddetti credit default swaps, rischiano di venire meno proprio quando ve ne è bisogno, in quanto in assenza di vincoli regolamentari questi contratti non prevedono accantonamenti per far fronte a rischi sistemici. In altri termini, con questi contratti il sistema finanziario assicura se stesso, quindi l’assicurazione viene meno proprio quando ci si trova di fronte a una difficoltà che investe tutto il sistema finanziario, cioè proprio quando ve ne sarebbe bisogno per assicurare la stabilità sistemica.
Questi brevi cenni dovrebbero essere sufficienti a indicare quali rischi comportasse, e comporti tuttora, il funzionamento a briglie sciolte del sistema finanziario. Tuttavia, la stessa cecità che aveva accompagnato e favorito la formazione delle condizioni nelle quali è nata la crisi, influisce oggi nel depotenziare le drastiche scelte di politica economica che sarebbero urgentemente necessarie. Se la crisi fosse nata solo da circostanze irripetibili o da errori di valutazione, se fosse di breve durata e rapidamente seguita da una corposa ripresa, se anzi costituisse – come molti hanno affermato – un momento di distruzione creatrice che addirittura giunge ad aiutare lo sviluppo continuo dell’economia, allora non vi sarebbe necessità di imbrigliare la finanza. (Vale la pena di ricordare a questo proposito che la tesi della crisi come momento di distruzione creatrice, originariamente proposta da Schumpeter, si fonda sull’assunto che l’economia oscilli attorno a un sentiero di equilibrio caratterizzato da pieno utilizzo delle risorse e piena occupazione: fuori di questo caso, la tesi viene a cadere, costituisce solo una falsa giustificazione dei fautori del fondamentalismo liberista di fronte alle sofferenze umane causate dalla crisi.) Se invece si riconosce che la crisi è derivata dalla fragilità del castello di carte finanziario, e che l’unico modo per evitare il suo ripetersi in forme sempre più gravi è introdurre regole per evitare la formazione di nuove bolle finanziarie, allora non si può che concludere che ogni settimana persa accresce il rischio che tuttora corriamo.
In sostanza, le scelte di politica economica sono certo condizionate dagli interessi in gioco, ma sono anche influenzate, in modo spesso decisivo, dalle interpretazioni sul modo di funzionare delle economie di mercato, cioè dagli orientamenti teorici (che a loro volta possono essere più o meno favoriti dagli interessi in gioco). In questo senso, appunto, possiamo dire che la crisi ha avuto le sue radici culturali in una impostazione teorica che ha favorito il laissez-faire non regolamentato. Non si tratta, si badi bene, di una opposizione tra mercato e pianificazione, ma di una opposizione tra due diverse idee del mercato. Da un lato abbiamo l’idea del mercato come luogo di confronto tra domanda e offerta che, se lasciato libero di funzionare, porta a equilibri ottimali. Dall’altro lato abbiamo l’idea del mercato come una istituzione complessa, basata su regole e consuetudini di comportamento, che è necessaria a un sistema basato sulla divisione del lavoro, in cui ogni soggetto economico produce un bene o servizio specifico e ha bisogno dei beni e servizi prodotti dagli altri per il processo produttivo.
Secondo i principi del laissez-faire, meno regole ci sono, meglio funzionano i mercati. (Entro certi limiti questo è sicuramente vero; però, come serve una normativa per l’edilizia antisismica nelle zone a rischio, così servono regole per evitare una eccessiva fragilità delle costruzioni finanziarie.) Il cosiddetto Washington consensus predicava appunto una politica di liberalizzazioni, che dagli Stati Uniti avrebbe dovuto estendersi al vecchio continente “malato di eurosclerosi”, ai paesi che uscivano dalla fallimentare esperienza della pianificazione centralizzata, fino ai paesi in via di sviluppo. La presenza nel mondo di paradisi normativi e fiscali, sostanzialmente accettati senza reagire, anche al costo di favorire l’economia criminale, costituiva inoltre un incentivo per una corsa al ribasso regolamentare. Ancora oggi, sarà difficile realizzare una efficace regolamentazione dei mercati finanziari se non si pone rimedio a questo aspetto.
Le differenze fra le due concezioni teoriche cui accennavo sopra vengono spesso negate, anche con una rilettura ad hoc della storia del pensiero economico, dalla teoria prevalente, che pretende di ricondurre al suo interno gli elementi delle concezioni alternative che i fatti del mondo di volta in volta propongono come importanti. Questo è accaduto per le asimmetrie informative come per i costi di transazione, per la teoria dell’oligopolio basata sulle barriere all’entrata come per la teoria keynesiana. Qui posso solo accennare rapidamente ad alcuni punti.
Innanzitutto, quello della mano invisibile del mercato è un mito: nel duplice senso che è un mito la sua attribuzione ad Adam Smith, e che è un mito la sua validità teorica, anche in riferimento a un mondo di perfetta razionalità e di perfetta concorrenza. Per lo sviluppo di questa tesi non posso ora che rinviare al mio lavoro intitolato appunto Il mito della mano invisibile (Roncaglia, 2005). Ricordo solo che la stessa teoria pura dell’equilibrio economico generale riconosce la non dimostrabilità dell’unicità e della stabilità degli equilibri concorrenziali, se non sotto condizioni molto specifiche, mentre la macroeconomia moderna è stata costruita sulla base di assunti palesemente ridicoli, come il riferimento a un mondo con un solo bene (per la precisione, con un solo bene base) e con un solo tipo di soggetto economico, il cosiddetto agente rappresentativo, e limitandosi comunque a studiare le situazioni di equilibrio senza prendere più in considerazione il problema della stabilità.
Un altro aspetto fondamentale di distinzione tra la concezione teorica mainstream e quella keynesiana delle origini, a mio parere più direttamente rilevante per l’interpretazione del funzionamento dei mercati finanziari, riguarda la distinzione tra incertezza e rischio. Anche qui, semplificando, possiamo individuare due concezioni: quella di Frank Knight, uno dei fondatori della scuola di Chicago, sostanzialmente accolta nella tradizione mainstream, e quella di Keynes, rimasta nel limbo dell’eterodossia. Curiosamente, i due volumi in cui le due concezioni sono esposte – Risk, uncertainty and profit di Knight e Treatise on probability di Keynes – sono stati entrambi pubblicati nel 1921. Temo che entrambi i testi, pur spesso citati, siano letti molto raramente; quel che è passato nella cultura economica dominante è solo la distinzione di Knight, spesso erroneamente attribuita anche a Keynes, tra rischio probabilistico, misurabile e quindi oggetto della teoria matematica della probabilità, e incertezza, che per sua natura non può essere oggetto di valutazione quantitativa.
La distinzione di Knight non è nuova; in realtà il contributo che aveva cercato di sviluppare nel suo volume consisteva in una giustificazione del profitto, considerato come la remunerazione della peculiare capacità del vero imprenditore di prendere le decisioni più opportune in condizioni di incertezza. Secondo la concezione classica della probabilità, sviluppata da Jacques Bernoulli (1713) in poi, la nozione di rischio è applicabile a quelle situazioni in cui si conoscono con certezza gli esiti possibili e le rispettive probabilità. L’analisi del rischio può quindi essere condotta utilizzando la teoria matematica della probabilità, che dalle probabilità degli eventi semplici ricava quella degli eventi complessi (ad esempio, quante probabilità ho di ottenere 7 come somma di due dadi?), e riguarda quindi fenomeni come una roulette ben costruita, un gioco di carte con un mazzo non truccato, le estrazioni del lotto. L’incertezza, invece, è qualcosa di sostanzialmente diverso dal rischio probabilistico, anche se è difficile darne una definizione precisa: include tutti i casi in cui non abbiamo un criterio certo per stabilire la probabilità di un evento, e copre quindi una gamma di situazioni assai diverse fra loro.
Nel dopoguerra, questa concezione si è evoluta sotto l’influenza della teoria soggettiva della probabilità, sviluppata da Ramsey (1931) e De Finetti (1930, 1931) (e, negli Stati Uniti, dallo statistico Savage, 1954), che tramite il ricorso a valutazioni soggettive sulle probabilità dei vari eventi ha trovato il modo di assimilare l’incertezza al rischio, rendendola trattabile matematicamente. Secondo questa concezione, possiamo avere valutazioni di probabilità per qualsiasi evento possibile, ogni volta che il soggetto sia disposto a scommettere pro o contro l’evento, indicando in tal modo la sua valutazione personale tramite l’ammontare delle poste. Un mercato delle scommesse può poi dare luogo, per ciascun evento, a un valore medio del coefficiente di probabilità. In questo modo, anche l’incertezza non direttamente riconducibile a casi di rischio probabilistico – che costituisce una caratteristica fondamentale del mondo in cui viviamo – può essere riassorbita nel campo della teoria della probabilità, il cui compito risulta essere quello di assicurare la coerenza interna tra le diverse scommesse effettuate da ciascun individuo.
L’estensione alla teoria economica di questa concezione è stata compiuta da von Neumann e Morgenstern con la cosiddetta teoria delle utilità attese, in cui ciascun individuo, oltre a un suo specifico insieme di preferenze, ha anche specifiche aspettative sul futuro, organizzate in uno schema coerente.
La concezione di Keynes (illustrata in Roncaglia, 2009b) è diversa. Secondo Keynes, di norma ci troviamo in situazioni intermedie tra la completa certezza (che include il caso del rischio probabilistico) e la totale ignoranza. Sulla base della nostra conoscenza della realtà, abbiamo qualche elemento per valutare la probabilità di un evento: in alcuni casi con maggiore fiducia, in altri solo in modo talmente vago da rendere inappropriato qualsiasi tentativo di giungere a valutazioni numeriche di probabilità. A tale riguardo Keynes propone un concetto, quello di “fiducia nella valutazione della probabilità”, da affiancare a quello di probabilità. Ovvero la fiducia che ho nella mia valutazione.
Un aspetto di questa concezione, molto discusso in varie forme nella Cambridge dell’epoca (ad esempio, ricomparirà nelle discussioni tra Sraffa e Wittgenstein, illustrate in Roncaglia, 2009a, pp. 126-31), riguarda il fatto che per il mondo concreto in cui viviamo non è possibile avere una definizione netta, completa e univoca del cosiddetto “spazio degli eventi”, cioè dell’insieme degli eventi possibili. Se sto parlando del lancio di un dado concreto, non posso fermarmi ai sei eventi teorici, costituiti dall’uscita di una delle sei facce; può accadere che il dado venga disintegrato da un raggio laser mentre è per aria, o scompaia cadendo in un tombino, o mille altre possibilità del genere. Se nel caso del dado eventi di questo tipo sono sufficientemente implausibili da poter essere trascurati, nel caso delle normali vicende della vita è sempre possibile che si verifichi qualcosa di totalmente inatteso.
Ora, le tecniche di matematica finanziaria sulla base delle quali sono stati sviluppati i prodotti della finanza derivata implicano due assunti principali: l’idea che l’esperienza del passato, ad esempio per quanto riguarda la varianza delle variabili considerate, sia una guida sufficientemente sicura per il futuro (cioè un assunto di costanza della struttura economica), e l’idea che i valori espressi dal mercato per le principali variabili finanziarie, come le quotazioni di borsa o la struttura dei tassi d’interesse per scadenza, siano espressione media delle aspettative degli operatori finanziari. Le operazioni di arbitraggio, che sono all’origine di una quota ampia e crescente di attività nel settore dei derivati, si basano sull’assunto che i sistemi di aspettative degli operatori siano internamente coerenti, permettendo quindi l’utilizzo della teoria matematica della probabilità. Tutto ciò ha portato a una forte sottovalutazione dell’incertezza presente nel mercato. La certezza, sia pure probabilistica, è stata assunta quasi per convenzione, dato che assumerla conveniva agli operatori, ciascuno dei quali individualmente non è interessato al rischio sistemico, mentre può pensare che in presenza di prestatori e salvatori di ultima istanza garanti della sopravvivenza dei mercati finanziari, si possa realizzare una situazione di “profitti privati, perdite pubbliche”, come di fatto è accaduto.
“Chi prevede il futuro mente, anche quando dice la verità”, recita un vecchio proverbio arabo. Seguendo i loro interessi immediati, gli operatori finanziari hanno trascurato la sapienza insita in questo antico adagio. Ne è derivata una struttura finanziaria sempre più fragile, proprio come aveva previsto la teoria delle crisi di Minsky (1982). I costi del collasso che ne è seguito sono ricaduti sulla collettività. Ora, dopo gli interventi immediati a sostegno di una struttura che minacciava di crollare in rovine, gli interventi per risanare l’edificio sembrano essere rinviati da un vertice dei G8 o dei G20 all’altro, in una girandola di riunioni politiche e tecniche, mentre la pressione degli interessi in campo torna a farsi sentire e la fragilità dell’edificio della finanza internazionale è tornata a crescere. In questa situazione, pur con la consapevolezza che il futuro è impossibile da prevedere, l’ottimismo interessato dimostrato da tanti appare privo di fondamento e, soprattutto, assai pericoloso.
_________________________________
Nessun commento:
Posta un commento