Dalla descrizione empirica all’inferenza causale
Iniziamo con una domanda che probabilmente non vi siete mai fatti.
Perché studiate economia?
Non la risposta ufficiale. Quella vera. Alcuni di voi vogliono capire come funzionano i mercati. Altri vogliono lavorare in banca, in consulenza, in un’azienda. Alcuni — spero — vogliono capire il mondo. Capire perché certi paesi sono ricchi e altri poveri. Perché certi quartieri restano indietro per generazioni. Perché alcune persone ce la fanno e altre no, anche partendo dalla stessa situazione.
Se è così, siete nel posto giusto. Perché l’economia — quella vera, non quella dei libri di testo del primo anno — si occupa esattamente di queste cose.
Ma c’è un malinteso da chiarire subito.
Quando dite “economia”, la maggior parte delle persone pensa a mercati, prezzi, imprese, PIL, Borsa. Roba da telegiornale. Roba da ministero. L’economia come gestione dei soldi di un paese.
Questo è vero, ma è una piccola parte. L’economia è, molto più in profondità, un modo di pensare. È un linguaggio per ragionare su come le persone prendono decisioni quando ci sono costi e benefici, quando c’è incertezza, quando le loro scelte dipendono da quello che fanno gli altri. Non è uno strumento solo per studiare i mercati. È uno strumento per studiare il comportamento umano in quasi tutti i suoi contesti.
Questo significa che l’economia ha qualcosa da dire su cose che a prima vista sembrano lontanissime dalla sua tradizione. Perché i figli dei poveri hanno molte meno probabilità di diventare ricchi rispetto ai figli dei ricchi — anche in paesi che si dichiarano meritocratici? Perché in certi contesti la gente coopera spontaneamente e in altri si frega a vicenda? Perché le riforme scolastiche che sembrano sensatissime sulla carta spesso non cambiano nulla nella realtà? Perché certe norme sociali — tipo “non farti troppo grande”, oppure “una donna non fa certe cose” — resistono per decenni anche quando sono chiaramente inefficienti?
Tutte domande legittime per un economista. A patto che l’economista sappia fare una cosa fondamentale: distinguere tra vedere un fenomeno e capirlo.
Perché questa distinzione non è ovvia. Anzi, è insidiosa.
Prendiamo un caso che conoscete tutti. L’Italia ha uno dei tassi di dispersione scolastica più alti d’Europa. Un ragazzo su otto abbandona la scuola prima del diploma. Nel Sud si sale a uno su sei, in alcune province a uno su cinque. I dati ci sono, sono pubblici, li trovate sul sito dell’ISTAT o dell’INVALSI con due click.
Benissimo. Abbiamo visto il fenomeno. Lo abbiamo descritto con precisione. Sappiamo dove è più grave, in quali fasce d’età, in quali tipi di scuola.
Ma sappiamo perché succede?
Qui le cose si complicano. Alcuni dicono: è un problema di povertà familiare. Altri: è un problema culturale, in certi ambienti studiare non è valorizzato. Altri ancora: è colpa della scuola, che non sa tenere i ragazzi più fragili. Qualcuno dice: è il mercato del lavoro — in certi territori conviene uscire subito e iniziare a lavorare, anche in nero.
Tutte queste spiegazioni hanno qualcosa di vero. Ma come faccio a sapere quale conta di più? E soprattutto: se voglio intervenire, su cosa intervengo? Se spendo un euro, dove lo metto per ottenere il massimo effetto?
Ecco il salto. Dal descrivere al capire. E questo salto è molto più difficile di quanto sembri, per ragioni precise che vi spiegherò. Ma prima dobbiamo fare un passo ancora più indietro.
Prima ancora di chiederci perché succede una cosa, dobbiamo chiederci: la stiamo misurando bene?
Questa domanda sembra tecnica. È invece filosofica.
Pensate alla parola “povertà”. Sembra ovvia. Povero è chi non ha soldi. Ma quanti soldi? Sotto quale soglia? E i soldi di oggi o quelli dell’anno scorso? E se ho pochi soldi ma sono proprietario di casa? E se ho un reddito nella media ma vivo in una città carissima dove non riesco ad arrivare a fine mese?
In Italia esistono almeno tre misure ufficiali di povertà diverse — povertà assoluta, povertà relativa, povertà materiale multidimensionale — e danno risultati diversi. Quale è quella “giusta”? Non esiste una risposta tecnica a questa domanda. Dipende da cosa volete capire e da cosa volete fare.
Oppure pensate alla parola “apprendimento”. Come si misura quanto ha imparato un ragazzo? Con un test standardizzato in matematica e italiano — come fanno i test INVALSI o PISA. Ma quel test cattura la capacità di ragionare quantitativamente e di leggere un testo in modo critico. Non cattura la curiosità, la capacità di lavorare con gli altri, la resilienza, la creatività, la motivazione a continuare a imparare per tutta la vita. Queste cose contano — forse contano più del punteggio al test — ma sono molto più difficili da misurare sistematicamente.
E quindi cosa succede? Succede che le scuole vengono valutate sui punteggi dei test. I dirigenti scolastici vengono giudicati sui punteggi dei test. Gli insegnanti vengono confrontati sui punteggi dei test. E pian piano, senza che nessuno lo abbia deciso esplicitamente, l’obiettivo diventa il punteggio — non l’apprendimento.
L’economista Charles Goodhart ha formulato questa trappola in modo lapidario: quando una misura diventa un obiettivo, cessa di essere una buona misura. Succede con i test scolastici. Succede con i tempi di attesa negli ospedali — se misuri solo quello, i medici smettono di fare quello che non si misura. Succede con gli indicatori di produttività nelle aziende. Succede con il PIL come misura del benessere di un paese.
Robert Kennedy lo disse nel 1968 con parole che sembrano scritte ieri: il PIL misura tutto, tranne ciò che rende la vita degna di essere vissuta.
C’è però un’altra trappola, ancora più sottile.
Non solo misuriamo le cose in modo imperfetto. Spesso misuriamo le cose sbagliate, perché misuriamo quello che è facile misurare.
Volete studiare la salute di un quartiere. Usate i dati sui ricoveri ospedalieri — ce li avete, sono precisi, coprono tutta la popolazione. Ottimo. Ma i ricoveri ospedalieri misurano la salute quando è già andata male. Non misurano la salute mentale sommersa — le depressioni non diagnosticate, le dipendenze nascoste, l’ansia cronica. Non misurano la salute preventiva — quanto le persone si muovono, mangiano bene, dormono. Non misurano la solitudine, che sappiamo essere uno dei predittori più forti di mortalità precoce, più del fumo di sigaretta secondo alcuni studi.
Volete studiare la qualità del lavoro. Usate il salario e il tipo di contratto — dati che avete dai registri contributivi. Ma la qualità del lavoro è anche autonomia, possibilità di crescita, senso di essere utili, compatibilità con la vita familiare, sicurezza psicologica. Niente di questo è nel registro contributivo.
Il punto non è che i dati disponibili siano inutili. È che ogni volta che usate un dato dovete chiedervi: cosa sta rappresentando davvero? E cosa sta lasciando fuori?
Perché quello che lasciate fuori tende a diventare invisibile. E quello che è invisibile tende a non essere considerato nelle politiche.
Bene. Adesso avete i dati, e siete anche ragionevolmente soddisfatti di come li avete costruiti. Cosa fate?
La prima cosa, quasi sempre, è descrivere.
Guardate le distribuzioni. Confrontate gruppi. Cercate tendenze nel tempo. Disegnate mappe. Questo lavoro descrittivo non è banale — spesso è illuminante, a volte è rivoluzionario.
Pensate a quello che ha fatto Thomas Piketty raccogliendo dati fiscali su redditi e patrimoni in decine di paesi per oltre un secolo. Quello che ha trovato — che la concentrazione della ricchezza era tornata ai livelli degli anni venti dopo decenni di relativa diminuzione — ha cambiato il dibattito pubblico sulla disuguaglianza in modo permanente. Non era una teoria. Era descrizione. Guarda, ecco com’è andata.
O pensate a Raj Chetty, che con i dati fiscali di decine di milioni di americani ha mostrato che la mobilità sociale negli Stati Uniti varia enormemente da contea a contea. Un bambino nato povero a Salt Lake City ha probabilità di ascesa sociale simili a quelle di un bambino danese. Uno nato povero ad Atlanta ha probabilità simili a quelle di un bambino in Sierra Leone. Stesso paese, stesso sistema, stesse leggi formali. Esiti completamente diversi a seconda di dove sei nato. Questo è un fatto descrittivo. Ma è un fatto che cambia tutto — cambia come pensiamo al problema, cambia dove guardiamo, cambia le domande che facciamo.
Però — e questo è cruciale — descrivere non spiega.
Prendiamo un caso che sembra semplice.
Esiste uno studio — robusto, replicato in decine di paesi — che mostra una correlazione fortissima tra il numero di libri in casa e i risultati scolastici dei figli. Chi cresce in una casa piena di libri va meglio a scuola. Il legame è così solido che alcuni ricercatori australiani hanno calcolato che avere 500 libri in casa equivale, in termini di effetto sui risultati scolastici, ad avere genitori laureati.
Cinquecento libri. Vi sembra plausibile?
A molti genitori preoccupati, sì. E infatti nei primi anni duemila è partita una piccola campagna — implicita, diffusa — di acquisto di libri. Portate i figli in libreria. Riempite le case. Leggete insieme.
Poi qualcuno si è fermato a pensare. E ha fatto la domanda giusta.
Le famiglie con 500 libri in casa — chi sono? Sono famiglie dove i genitori leggono. Dove si parla di idee a cena. Dove si porta il bambino al museo. Dove c’è un reddito sufficiente, dove si vive in un quartiere con scuole decenti, dove le aspettative sui figli sono alte. I libri, in questi casi, non sono la causa del successo scolastico. Sono un segnale. Sono il termometro, non la febbre.
Se domani comprate 500 libri e li mettete in uno scaffale senza aprirli, non succede niente.
Questo è il primo grande problema di cui dobbiamo parlare. Non è un problema tecnico. È un problema di pensiero. Si chiama confondere correlazione e causalità. E lo commettiamo in continuazione — nei giornali, nelle politiche pubbliche, nelle conversazioni di tutti i giorni.
Facciamo un altro esempio. Ancora più semplice.
Nelle settimane in cui si vendono più gelati, aumentano le morti per annegamento. La correlazione è reale, documentata, robusta. Dovremmo vietare i gelati?
Ovvio che no. Entrambe le cose aumentano d’estate, quando fa caldo e la gente va al mare. C’è un terzo fattore — il caldo, l’estate — che muove entrambe. Il gelato non causa l’annegamento. Sono solo entrambi figli della stessa stagione.
Semplice, vero? Eppure varianti di questo errore compaiono ogni giorno nelle discussioni pubbliche.
Nelle città con più poliziotti c’è più criminalità. Quindi i poliziotti causano crimini? No: le città con più criminalità assumono più poliziotti. La causalità va nella direzione opposta.
Le persone che vanno più spesso dal medico hanno peggiore salute. Quindi il medico fa male? No: ci va chi sta peggio.
Gli ospedali dove si muore di più sono quelli dove si ricoverano i pazienti più gravi. Ovvio. Ma se non ci pensate, potreste concludere che certi ospedali uccidono — e avere torto.
Allora, qual è la domanda giusta?
La domanda giusta non è: X e Y sono correlati? La domanda giusta è: se cambio X, cosa succede a Y?
Sembra la stessa domanda. Non lo è.
Sapere che chi va all’università guadagna di più non equivale a sapere quanto guadagnerebbe quella persona specifica se la mandiamo all’università. Perché all’università ci vanno già le persone più motivate, con famiglie più solide, con aspettative più alte. Separare l’effetto dell’università dall’effetto di tutto quello che la precede — questo è il problema.
Gli economisti hanno un nome per la risposta a questa domanda. La chiamano controfattuale. Il controfattuale è il mondo che non vediamo. È quello che sarebbe successo se — se quella persona non fosse andata all’università, se quella legge non fosse stata approvata, se quel quartiere non fosse stato riqualificato.
Il problema è che il controfattuale, per definizione, non lo osserviamo mai. Vediamo un mondo solo. L’altro resta nell’ombra.
E tutta la sfida dell’economia empirica — tutta la sfida — consiste nel costruire il miglior sostituto possibile di quel mondo che non vediamo.
Come si fa?
Il modo più pulito è l’esperimento. Prendete un gruppo di persone. Con un sorteggio — una vera lotteria — decidete chi riceve il trattamento e chi no. Aspettate. Misurate la differenza.
Se l’assegnazione è davvero casuale, i due gruppi saranno simili in partenza — non solo per le cose che riuscite a misurare, ma anche per quelle nascoste. La motivazione, il carattere, la storia familiare. Tutto si distribuisce per caso tra i due gruppi. E allora qualsiasi differenza che osservate dopo è dovuta al trattamento, non a qualcos’altro.
Sembra banale. Non lo è. Prima degli anni novanta, questa logica era usata in medicina ma quasi mai nelle scienze sociali. Poi un gruppo di economisti — tra cui Esther Duflo e Abhijit Banerjee, che hanno poi vinto il Nobel — ha cominciato a usarla sistematicamente per studiare la povertà.
Un esempio che mi piace molto. In Kenya, all’inizio degli anni duemila, molti bambini non andavano a scuola regolarmente. Perché? Le ipotesi erano tante: le famiglie erano povere, le scuole lontane, il valore percepito dell’istruzione era basso.
Duflo e i suoi collaboratori hanno fatto una cosa semplicissima: hanno distribuito gratuitamente medicinali antiparassitari in alcune scuole, scelte a caso, e non in altre. Risultato: la frequenza scolastica nelle scuole trattate è aumentata significativamente.
Il meccanismo? I bambini infestati da parassiti intestinali sono stanchi, distratti, spesso assenti perché stanno male. Curarli costa pochissimo — qualche centesimo per bambino — e li rimette in condizione di imparare. Non era un problema di motivazione o di valore percepito dell’istruzione. Era un problema di salute, che nessuno aveva misurato perché nessuno aveva pensato di guardare lì.
Questo è il potere di un buon esperimento. Vi fa vedere quello che non avreste mai cercato.
Ma gli esperimenti non li potete fare sempre. Non potete randomizzare chi nasce in una famiglia ricca e chi in una povera. Non potete assegnare a caso i quartieri, le scuole, i sistemi sanitari.
E allora?
Allora si cercano situazioni in cui il mondo, quasi per caso, ha già fatto l’esperimento al posto vostro.
Uno dei casi più famosi nella storia dell’economia applicata. Anni novanta, East Coast americana. Il New Jersey alza il salario minimo. La Pennsylvania, appena oltre il confine, lo lascia invariato. I due stati sono simili — stessa struttura economica, stessi lavoratori, stesso tipo di imprese.
David Card e Alan Krueger — anche loro Nobel, nel 2021 — hanno confrontato l’occupazione nei fast food dei due stati prima e dopo la riforma. La domanda era: nel New Jersey, dove il salario minimo era aumentato, i fast food avevano licenziato lavoratori?
Risposta: no. L’occupazione non era calata. Se mai, era cresciuta leggermente.
Questo risultato ha fatto scandalo. Contraddiceva il modello base che tutti avevano imparato all’università: se il costo del lavoro sale, le imprese assumono meno. Card e Krueger dicevano: nel mondo reale, con lavoratori reali, in mercati del lavoro reali, non sempre è così.
Il dibattito è ancora aperto. Ma quell’esperimento naturale — quel confine di stato che aveva diviso quasi casualmente due situazioni altrimenti simili — è diventato un modello di come fare ricerca empirica credibile.
Un altro strumento potente si chiama regressione discontinua. Il nome è tecnico, l’idea è semplice.
Immaginate una graduatoria. Per essere ammessi al liceo scientifico di punta nella vostra città serve un punteggio minimo di 60 su 100. Chi prende 60 entra. Chi prende 59 no.
Ora ditemi: quello che prende 60 è davvero molto diverso da quello che prende 59? In media, no. La differenza di un punto è quasi rumore. Eppure uno va in quella scuola e l’altro no.
Questa discontinuità è una piccola miniera d’oro per un ricercatore. Se confrontate gli esiti futuri — università, reddito, carriera — di chi è appena entrato con chi è appena rimasto fuori, avete qualcosa di molto simile a un esperimento casuale. Non perfetto, ma molto credibile.
Questo metodo è stato usato per studiare tantissime cose. L’effetto di ricevere un sussidio. L’effetto di essere eletto sindaco con un margine minimo. L’effetto di superare per poco una soglia di reddito che dà accesso a certi benefici. Ogni volta che c’è una soglia, c’è un’opportunità.
C’è poi un terzo metodo, detto difference-in-differences, che tradotto suona malissimo — “differenza nelle differenze” — ma che ha un’idea di fondo bellissima.
Immaginate che una regione italiana introduca un programma di asili nido pubblici gratuiti, e le regioni vicine no. Prima dell’introduzione, le due aree erano simili. Dopo, no. Se confrontate come cambia la situazione nelle regioni con il programma rispetto a quelle senza — per esempio la partecipazione delle donne al mercato del lavoro, o i risultati scolastici dei bambini anni dopo — quella doppia differenza vi dà una stima credibile dell’effetto della politica.
L’idea è: invece di confrontare chi ha ricevuto il trattamento con chi non lo ha ricevuto in un solo momento — confronto spesso avvelenato dalla selezione — confrontate le traiettorie nel tempo. Se i due gruppi si stavano muovendo in modo simile prima, e poi divergono dopo il trattamento, quella divergenza è probabile effetto del trattamento.
Non è perfetto. Richiede l’assunzione che, senza il trattamento, le traiettorie sarebbero rimaste parallele. Ma è molto più credibile di una semplice regressione.
A questo punto vale la pena dire una parola sui modelli economici, perché spesso vengono visti con sospetto — formule astratte, curve su grafici, assunzioni irrealistiche.
Il punto però è questo: anche senza un modello formale, ragionate sempre con un modello implicito nella testa. Quando dite “se alziamo le tasse, la gente lavora meno” — quello è un modello. Quando dite “se aiutiamo i poveri con i sussidi, smettono di cercare lavoro” — anche quello è un modello, con assunzioni precise su come le persone reagiscono agli incentivi.
Il vantaggio di un modello esplicito è che vi costringe a mettere in chiaro le vostre ipotesi. Chi le fa, cosa assume, e cosa succederebbe se quell’assunzione fosse sbagliata. Questo è molto più onesto intellettualmente del ragionare con pregiudizi impliciti.
Detto questo, i modelli possono anche essere trappole. Se costruiamo un modello che assume che le persone siano perfettamente razionali, che abbiano preferenze stabili, che massimizzino la propria utilità con piena informazione — e poi usiamo quel modello per interpretare ogni dato — rischiamo di forzare la realtà dentro uno schema che non le appartiene.
L’economia comportamentale degli ultimi trent’anni ha mostrato in modo convincente quanto spesso questo accada. Le persone non sono calcolatrici. Rimandano le cose importanti, anche quando sanno che non dovrebbero. Sono fortemente influenzate da come viene presentata un’opzione — il cosiddetto framing. Sono più sensibili alle perdite che ai guadagni equivalenti. Si conformano al comportamento degli altri anche contro il loro interesse. Fanno donazioni irrazionali, scelgono pensioni sbagliate, ignorano rischi evidenti.
Questo non significa che l’analisi economica sia inutile. Significa che deve essere abbastanza flessibile da incorporare come gli esseri umani reali — non quelli nei libri di testo — prendono decisioni.
Parliamo ora della tecnica più usata in economia applicata: la regressione. Ne sentite parlare continuamente. Ma vale la pena capire bene cosa fa e cosa non fa.
La regressione lineare è uno strumento potente e flessibile. Vi permette di esaminare la relazione tra una variabile e un esito, controllando per altre caratteristiche. Se volete sapere se le donne guadagnano meno degli uomini, potete stimare una regressione che tenga conto di istruzione, esperienza, settore, tipo di contratto.
Ma c’è un errore comune: pensare che aggiungere sempre più variabili di controllo risolva il problema della causalità. “Ho controllato per tutto” — si sente spesso. Ma non è così che funziona.
Immaginate di voler stimare l’effetto della qualità degli insegnanti sugli apprendimenti. Prendete i dati di migliaia di classi italiane, stimate una regressione, controllate per reddito familiare, per background migratorio, per dimensione della classe. Trovate un effetto. Ma gli insegnanti migliori si distribuiscono casualmente tra le scuole? Assolutamente no. Tendono ad andare nelle scuole migliori, nei quartieri più ricchi, nelle città più attraenti. Se quella selezione dipende da fattori che non riuscite a misurare — e quasi sempre è così — la vostra stima è distorta.
Il punto non è quanti controlli mettete. Il punto è se il vostro disegno di ricerca rende credibile il confronto controfattuale. La tecnica è importante; il disegno è decisivo.
Supponiamo ora di avere un buon disegno di ricerca. Abbiamo fatto un esperimento, o abbiamo uno strumento credibile, o abbiamo sfruttato una discontinuità. Otteniamo un risultato. Fine?
No. Perché ogni risultato empirico viene con un margine di incertezza, e imparare a leggere quell’incertezza è essenziale.
Tutti avete sentito parlare del p-value. È quella soglia che di solito si fissa a 0,05 e che decide se un risultato è “statisticamente significativo” o no. Ma questo strumento viene spesso frainteso in modo serio.
Un risultato statisticamente significativo non significa che l’effetto sia grande. Non significa che sia importante. Non significa che sia reale al di là del campione analizzato. Significa solo che — dato il campione che avete — la probabilità di osservare quel risultato per puro caso è inferiore al 5%.
Pensate a questo esempio. Uno studio su 200 studenti trova che un nuovo metodo di insegnamento della matematica migliora i voti del 3%. Il risultato non è statisticamente significativo. Un altro studio su 50.000 studenti trova che un diverso intervento migliora i voti dello 0,2%. Questo secondo risultato è statisticamente significativo. Ma quale dei due è più utile per decidere le politiche scolastiche?
Quasi certamente il primo. Un effetto del 3% — se reale — sarebbe rilevante. Un effetto dello 0,2% è statisticamente distinguibile dallo zero, ma praticamente irrilevante.
La distinzione tra significatività statistica e rilevanza sostanziale è fondamentale. E purtroppo viene ignorata di continuo — nei paper accademici, nei comunicati stampa, nel giornalismo scientifico. Quante volte avete letto “lo studio dimostra che X causa Y” quando in realtà lo studio mostrava una correlazione debole su un campione specifico?
L’economia non è un’isola. E i fenomeni sociali sono troppo complessi per essere studiati da una sola prospettiva.
Prendiamo di nuovo la dispersione scolastica in Italia. Un economista può guardare ai rendimenti attesi dell’istruzione nel mercato del lavoro locale, ai costi diretti e indiretti della scuola, ai programmi di sostegno disponibili. Tutto legittimo. Ma per capire davvero il fenomeno, bisogna anche capire le aspettative che questi ragazzi hanno su sé stessi e sul loro futuro — aspettative spesso basse non per scelta razionale, ma perché costruite da esperienze di sconfitta ripetuta. Bisogna capire le dinamiche di gruppo in classe, il ruolo dell’identità, la pressione dei pari. Bisogna capire come funziona la famiglia — la struttura, le relazioni, i modelli di ruolo. E bisogna capire il territorio: cosa offre, cosa promette, cosa delude.
Questo richiede psicologia, sociologia, geografia economica, pedagogia. Non come alternativa all’economia, ma insieme all’economia.
Un altro esempio: le norme sociali. In molte comunità, avviare un’impresa è percepito come rischioso non solo per ragioni economiche, ma perché sfida una norma implicita. Non farti troppo grande. Non suscitare invidia. Non esporre la famiglia al giudizio degli altri. Questa è una norma sociale. Un economista che modellasse solo vincoli di credito e ritorni attesi dell’investimento mancherebbe qualcosa di essenziale.
Le reti sociali sono un altro terreno dove il dialogo tra discipline è cruciale. Sappiamo che trovare lavoro in Italia dipende enormemente da chi conosci — più che in molti altri paesi europei. Le reti trasmettono informazioni, creano fiducia, aprono porte. Ma osservare che persone collegate tra loro si assomigliano non ci dice automaticamente se quella somiglianza dipenda dall’influenza reciproca, dal fatto che le persone simili si scelgono come amici, o dal fatto che vivono nello stesso contesto. Distinguere questi tre meccanismi è uno dei problemi metodologici più difficili in questo campo.
Tutto questo ragionamento diventa più chiaro se lo applichiamo a casi reali. Vediamo qualche esempio.
Sull’istruzione. Una delle domande più discusse in letteratura è: conta più il background familiare o la qualità della scuola? I dati INVALSI mostrano che le differenze tra scuole sono notevoli, ma le differenze dentro le scuole — tra alunni della stessa scuola — sono ancora più grandi. Il che suggerisce che la famiglia conti moltissimo, forse più della scuola stessa.
Ma attenzione: gli studenti non sono assegnati casualmente alle scuole. Le famiglie scelgono, o possono scegliere. E le scuole “buone” tendono a concentrare studenti da famiglie già avvantaggiate. Così il problema della selezione avvelena ogni confronto diretto.
Studi che hanno usato lotterie di accesso — dove l’ammissione a scuole molto richieste era determinata da un sorteggio — hanno trovato risultati sorprendenti: spesso frequentare la scuola “migliore” non cambia molto gli esiti degli studenti nel lungo periodo. Quello che conta sembra essere soprattutto chi sei quando entri, non dove vai.
Sulla discriminazione nel mercato del lavoro. I dati mostrano che le donne guadagnano meno degli uomini quasi ovunque. In Italia il divario salariale grezzo è intorno al 15-20%. Ma una volta che si controlla per settore, orario, tipo di contratto, il divario si riduce. Ciò significa che non c’è discriminazione? No. Perché parte di quella segregazione settoriale — il fatto che le donne si concentrano in certi settori — è essa stessa un prodotto di aspettative sociali, norme, stereotipi. Il divario “aggiustato” è la punta dell’iceberg.
Gli audit studies hanno cercato di isolare la discriminazione diretta in modo elegante: si inviano curricula identici tranne che per il nome del candidato — un nome che segnala genere, o etnia, o background migratorio. Studi condotti in Italia hanno trovato che candidati con nomi stranieri vengono richiamati per colloquio significativamente meno rispetto a candidati con nomi italiani, a parità di qualifiche. Questo è un effetto causale pulito: l’unica cosa che cambia è il nome.
Sulle politiche di welfare. Il Reddito di Cittadinanza, introdotto in Italia nel 2019, è un caso interessante. L’effetto sul reddito delle famiglie più povere è stato documentato e positivo. L’effetto sull’occupazione è stato molto più debole del previsto. Perché? Non perché le persone fossero pigre. Ma perché il mercato del lavoro italiano ha problemi strutturali — mismatch tra domanda e offerta, scarsa mobilità geografica, peso del lavoro informale, servizi per l’impiego che funzionano male — che un trasferimento monetario da solo non risolve.
Il meccanismo attraverso cui la politica avrebbe dovuto funzionare — ricevo un sussidio, nel frattempo cerco lavoro, trovo lavoro, esco dal sussidio — presupponeva un mercato del lavoro diverso da quello che c’è. La lezione non è che i sussidi siano sbagliati. È che prima di disegnare una politica bisogna chiedersi: attraverso quali meccanismi esatti questa cosa dovrebbe funzionare? E quei meccanismi esistono nel contesto in cui stiamo operando?
Arriviamo all’ultima parte, che è forse la più concreta.
I dati non parlano da soli. Usarli bene richiede competenze, non solo buone intenzioni o buoni database. Richiede sapere cosa si sta misurando, perché, con quali limitazioni. Richiede distinguere tra descrizione, interpretazione e causalità.
Purtroppo, il dibattito pubblico è pieno di usi scorretti dei dati. Si cita una correlazione come se fosse una causa. Si generalizza da un piccolo campione a tutta la popolazione. Si ignora l’incertezza statistica. Si presenta come “dimostrato” ciò che è solo suggerito da un singolo studio.
Una politica che funziona in un contesto può non funzionare in un altro. Il programma Bolsa Família in Brasile — trasferimenti monetari condizionati alle famiglie povere — ha avuto effetti positivi documentati sulla frequenza scolastica e sulla salute infantile. Ma possiamo importarlo direttamente in Italia? Non automaticamente. Le istituzioni sono diverse, le norme sociali sono diverse, le capacità amministrative sono diverse, i problemi di partenza sono diversi.
Le politiche migliori sono quelle che incorporano valutazione fin dal disegno. Questo significa pensare in anticipo a come raccogliere i dati, come costruire un gruppo di confronto, come misurare gli esiti rilevanti — non solo quelli facili. In Italia, la cultura della valutazione delle politiche pubbliche è ancora sottosviluppata rispetto ad altri paesi europei. Le riforme vengono introdotte, producono effetti che non vengono misurati in modo rigoroso, e vengono poi abolite o modificate sulla base di considerazioni politiche, non di evidenza.
Torniamo al punto di partenza.
I dati non dicono mai cosa fare. Vi dicono cosa è successo. Vi aiutano a capire perché. Ma la decisione — cosa è desiderabile, per chi, a quale costo, con quali trade-off — quella resta una decisione politica e morale.
Sapere che ridurre la dimensione delle classi migliora i risultati scolastici non vi dice se sia questa la priorità rispetto ad assumere più insegnanti di sostegno, o migliorare gli edifici, o investire negli asili nido. Sapere che un certo farmaco riduce la mortalità del 3% non vi dice automaticamente se valga il costo che ha.
L’analisi economica può contribuire enormemente a migliorare le decisioni pubbliche. Ma solo se viene usata onestamente — con chiarezza su cosa mostra e cosa non mostra, su dove finisce l’evidenza e comincia il giudizio.
I fenomeni sociali sono osservabili. Li vediamo ogni giorno: la disuguaglianza, la sfiducia, i divari educativi, la discriminazione, la fatica delle famiglie, la vitalità di certi territori e l’immobilità di altri. Possiamo descriverli con crescente precisione. Ma tra vedere e capire esiste sempre uno spazio. Ridurre quello spazio — con rigore, con onestà, con apertura verso tutto quello che l’economia da sola non vede — è il lavoro che vi aspetta.
E smettete di credere a chiunque vi dica: “i dati parlano chiaro.”
I dati non parlano mai da soli. Parlano sempre attraverso qualcuno che ha scelto cosa misurare, come farlo, e cosa chiedergli. Il vostro compito, da studenti e da cittadini, è sapere fare quelle scelte — e riconoscere quando qualcun altro le sta facendo al posto vostro.