Per un qualunque studente del primo anno di un corso di studi che preveda un insegnamento di Economia Politica, appare (o dovrebbe apparire) evidente che il principio ordinatore di quel mondo rarefatto e lunare costituito dai modelli micro e macroeconomici è il concetto di efficienza (e quello collegato di costo opportunità). L’efficienza statica che si ottiene sulla spinta della mano invisibile dei meccanismi di mercato è un poderoso elemento positivo, che viene poi trasformato in principio normativo dalla mano, questa un po’ più visibile, della politica economica. L’utilizzo efficiente di risorse limitate è quasi naturalmente guidato dal principio del costo opportunità, che veicola le risorse verso gli impieghi più efficienti e rende il sistema massimamente performante. Niente di più facile che un sistema che spontaneamente trova il suo assetto migliore possibile affascini giovani e meno giovani: con la sola forza del potere delle deduzioni, un sistema assiomatico viene trasformato (dalla clausola as if) in una poderosa macchina di produzione di allocazione efficiente di risorse scarse per tutto il sistema economico. E per quelli che arrivano a studiare l’equilibrio economico generale, un brivido di onnipotenza si aggiunge alla soddisfazione di aver compreso i meccanismi ultimi di generazione del benessere materiale di un sistema economico.
L’idea di efficienza statica è invero potente ed è decisamente insita nei nostri meccanismi intellettuali (il costo opportunità come costo di qualsiasi cosa…), ma trova già in Schumpeter una critica importante: considerando l’efficienza dinamica il problema di come gestire l’innovazione all’interno di un sistema staticamente efficiente si pone con forza. L’idea di efficienza dinamica implica che una diminuzione di efficienza oggi possa essere prodromica ad un suo aumento domani. Valutando questa diminuzione con il metro dell’efficienza statica (come diceva Schumpeter), si rischia di perdere di vista la crescita di lungo periodo del sistema economico. Inoltre, poiché l’attività innovativa è path dependent diminuirla per inseguire l’efficienza statica può significare che le occasioni perse oggi non si ripresentino più domani. L’efficienza è quindi focalizzata sul momento attuale e non sul futuro. Infine, poiché l’innovazione è incerta in senso forte (secondo Knight), non è possibile assegnare distribuzioni di probabilità ad una serie di eventi innovativi, col risultato che scelte ottimali oggi, basate su (per esempio) utilità attesa, possono deformare di nuovo il landscape su cui gli agenti svolgono la loro la ricerca di innovazioni. Col risultato che ottimi locali possono essere scambiati per ottimo globali, e il sistema può finire facilmente in situazioni di lock-in (à la Arthur).
Insomma, un sistema evolutivo (perché di questo si tratta) funziona in maniera diversa da un sistema massimamente efficiente. L’idea dietro ad un sistema evolutivo è generalmente quella dell’efficacia. Infatti, poiché la logica evolutiva funziona sull’intera popolazione e non sul singolo agente, un sistema di questo genere non può funzionare sul risparmio massimo di risorse per massimizzare l’allocazione statica delle risorse, ma sull’efficacia con cui il sistema riesce ad affrontare le sfide evolutive che deve, periodo dopo periodo, risolvere.
Efficienza vs efficacia. Questo è il dilemma in cui si dibattono questi due approcci. L’idea dell’efficacia di un sistema si basa essenzialmente sulla ridondanza, sull’attività di più agenti che lavorando in parallelo cercano di risolvere lo stesso problema: tanti agenti in più ci saranno a cercare la soluzione tanto più facilmente la soluzione sarà trovata. L’evoluzione funziona egregiamente proprio perché la popolazione produce “sempre” una soluzione (avere molti agenti che lavorano alla soluzione di un problema, è in un certo senso una garanzia che la soluzione verrà trovata in tempi “relativamente” rapidi). La ridondanza, quindi, si può definire come la messa in opera di una molteplicità di mezzi per svolgere una determinata funzione. Questi mezzi sono congegnati in modo tale che uno sia il supplente dell’altro, e quindi come risultato si avrà che il sistema nella sua globalità possa bloccarsi solo in conseguenza del guasto contemporaneo di tutti questi mezzi, mentre il guasto di uno solo di questi mezzi non inficia la dinamica globale del sistema.
Tipicamente, la ridondanza consiste nella duplicazione delle componenti considerate critiche per il funzionamento del sistema, per aumentare la sua affidabilità. Naturalmente la ridondanza aumenta la complessità del sistema (in termini sia di dimensioni che di costi), e quindi si applica a organizzazioni sufficientemente complesse da ritenere che il costo di un eventuale fallimento sia talmente elevato da non potersi affrontare, e quindi da ritenere possibile “pagare” per la duplicazione delle funzioni un ammontare comunque significativamente inferiore al costo di una fallimento sistemico. Ecco che allora la ridondanza diventa un’opzione desiderabile e praticabile. Un esempio abbastanza conosciuto è quello delle modalità con cui sono sviluppati i sistemi operativi Windows e Linux. Mentre lo sviluppo del primo è basato su un team di sviluppatori organizzato gerarchicamente, quello del secondo è distribuito fra un numero elevato di sviluppatori indipendenti e spessissimo sovrapposti. Il primo è basato sull’efficienza di un team centralizzato, mentre il secondo è basato sull’efficacia di una pletora di sviluppatori che lavorano in parallelo. A Eric S. Raymond (1999) si deve il famoso libro in cui si mostra l’efficacia di un sistema decentrato e ridondante, basato sul vastissimo team di sviluppatori del kernel di Linux (e più in generale dei Software Open Source), secondo cui ogni bug del software ha una soluzione certa in tempi rapidi (“given enough eyeballs, all busg are shallow”). Per farsi un’idea di come questa modalità produttiva fosse reale e come venisse presa sul serio dalla Microsoft, basta consultare i cosiddetti Halloween Papers, uno dei primi casi di leaks – in questo caso dalla Microsoft – diffusi dal solito Raymond nell’ottobre del 1998.
Cosa c’entra il coronavirus con tutto questo? C’entra, c’entra. Basta considerare che 20 anni di inni all’efficienza hanno generato il modello di sanità e di ricerca all’interno del quale ci dibattiamo al giorno d’oggi, incapaci di trovare, non dico una soluzione, ma anche solo uno uno straccio di risposta adeguata (efficace, mi verrebbe da dire) al problema della diffusione del virus che stiamo tutti vivendo. Un sistema sanitario efficace è un sistema sanitario che ha risorse sottoutilizzate (parola che in tempi di efficienza, suona quasi come una bestemmia), volendo anche inutilizzate, ma la cui pronta mobilitazione renderebbe il sistema maggiormente capace di affrontare quei cigni neri che, saltuariamente e senza predittività precisa (incerti in senso forte), modificano le necessità e la capacità di risposta del sistema di svariati ordini di grandezza. Anche essendo abbastanza benevolenti, non possiamo non domandarci se chi ha pensato il sistema sanitario così come è stato sviluppato nell’ultimo ventennio si sia reso conto che utilizzare il principio di massima efficienza avrebbe esposto il sistema sanitario al rischio di una impossibilità di venire a capo di un qualunque shock di proporzioni adeguate. L’idea onnipotente di poter gestire qualunque evenienza, anche disastrosa, tramite sistemi efficienti è di per sé disastrosa.
D’altronde è relativamente facile costruire un sistema sanitario efficiente. Basta che sia privato (o che funzioni in base ai principi che regolano l’intrapresa privata) e che quindi operi in funzione dei costi (marginali) dell’intervento medico, dell’operazione chirurgica, del servizio ospedaliero. In questo modo, il privato può decidere in base ai canonici principi della massimizzazione vincolata, per esempio, se, quando e dove sottoporsi all’intervento, all’operazione, al servizio ospedaliero. Il principio di massimizzazione vale naturalmente per entrambi i lati di questo “mercato”, e quindi da un lato occorre fare un confronto fra le proprie preferenze ed il proprio reddito per trovare il punto di massimo; il paniere ottimale del servizio ospedaliero necessario in funzione del vincolo reddituale. Anche dall’altro lato naturalmente vale lo stesso principio, e quindi i servizi saranno erogati in funzione del loro costo marginale, maggiori complicazioni maggiori costi. Oppure, ancora più semplice, basterà scaricare sulla sanità pubblica tutti i casi che aumenterebbero più i costi dei ricavi (o che richiederebbero prezzi troppo alti per il mercato), che sarebbero, in una parola, inefficienti. In un sistema di questo genere, è facile allora creare due sistemi sanitari paralleli, uno di elevato livello ed uno così ben descritto, per esempio, da Charles Bukowsky.
Il sistema “gemello” di questa sanità “efficiente” è quello della ricerca. Anche in questo caso, il premio è stato dato all’efficienza dei singoli ricercatori, la cui somma, per parafrasare un illustre intellettuale italiano, “avrebbe fatto il totale”. Il sistema si è quindi sviluppato sulle basi di un approccio individualistico (che è stato analizzato in un precedente post) la cui direzione, senza una politica credibile a governarla, si è sviluppata in direzioni determinate (Stephan, 2018) dall’interesse privato di singoli o gruppi di ricercatori, quando non di imprese private. Se poi guardiamo all’Italia, la forte dualità del sistema tecno-economico fatto di tanti nani e di pochi giganti, non ha neanche generato la, ancorché “distorta”, spinta privata (i nani per mancanza di risorse, i giganti per mancanza di concorrenza). Anche qui l’idea di fornire almeno una solida base pubblica ad un sistema ridondante e quindi efficace (sul modello dei paesi avanzati, primo fra tutti gli US) nel produrre la tipologie di ricerca necessaria a paesi fortemente articolati non è sicuramente né nuova né sconosciuta (per esempio, Mazzucato, 2018).
In effetti, il concetto di efficacia, che viene rifiutato a livello teorico in favore di quello di efficienza, ha applicazioni che dovrebbero far riflettere anche i maggior i sostenitori del concetto di efficienza. L’idea di avere sistemi ridondanti, duplicati o addirittura triplicati è del tutto normale in sistemi in cui la sicurezza deve essere garantita anche di fronte a fallimenti sistematici del sistema principale. Per esempio, vi sentireste sicuri su un volo di linea se sapeste che i sistemi idraulici che presiedono al funzionamento del velivolo (che di norma sono ridondanti fino ad essere triplicati) fossero ridotti, per questioni di efficienza nei costi, ad uno solo sistema? E cosa direste in caso di fallimento di questo unico sistema di governo dell’aereo? Che era efficiente? Tutti i sistemi cruciali per la sicurezza di un impianto, qualunque sia, sono normalmente efficaci e non efficienti, sono cioè ridondanti. Dai sistemi di backup online su cui scarichiamo fiduciosi i nostri file, ai circuiti di una qualunque centrale elettrica. E se questi sistemi hanno alla loro base il concetto di efficacia (di ridondanza), perché un sistema sanitario la cui importanza non sembra essere minore di quella di una centrale elettrica, non viene gestito in questo modo?
Oltretutto, un sistema efficace potrebbe addirittura provare di essere remunerativo, se non in termini economici in termini politici, basti pensare alle poco propagandata notizia dei medici che dalla piccola e disastrata Cuba sono arrivati ad aiutare la grande e industrializzata Italia, ma con un sistema sanitario al collasso.
Riferimenti bibliografici
Mazzucato M. (2018), The Entrepreneurial State. Debunking Public vs. Private Sector Myths, Penguin.
Raymond, Eric S. (1999), The Cathedral and the Bazaar, O’Reilly Media,http://www.catb.org/~esr/writings/cathedral-bazaar/cathedral-bazaar/index.html.
Stephan P. (2015), How Economics Shapes Science, Harvard University Press.