L’economia politica studia come individui, imprese e istituzioni prendono decisioni sotto vincoli – risorse scarse, tecnologia disponibile, informazione imperfetta, regole formali e informali – e come queste decisioni, interagendo tra loro, producano esiti collettivi: prezzi e quantità, distribuzione del reddito, occupazione e inflazione, crescita, volatilità, stabilità finanziaria, emissioni, benessere. Il punto decisivo è che questi esiti non sono la semplice somma di azioni indipendenti. Sono spesso equilibri (o disequilibri) in cui ciò che fai tu modifica le opportunità e le strategie degli altri. Gli agenti inoltre non sono oggetti inerti: apprendono, anticipano, imitano, negoziano, cambiano credenze, reagiscono alle regole e talvolta reagiscono perfino alle descrizioni che noi facciamo del sistema.
Quando ha senso trattare un fenomeno come semplice, quando come complicato e quando come complesso?
L’etimologia aiuta a fissare le idee.
“Semplice” viene dal latino simplex, da sim- (uno solo) e plectere (piegare): letteralmente “piegato una sola volta”. Un fenomeno è semplice quando poche variabili contano davvero e le relazioni tra esse sono stabili nel dominio che ci interessa. Le connessioni sono lineari o quasi, e piccole variazioni producono effetti prevedibili.
“Complicato” deriva da cum + plectere: “piegare insieme”, intrecciare più fili. Qui i passaggi e le variabili sono molti, l’architettura è articolata, ma il sistema resta scomponibile: possiamo analizzarne i sottosistemi separatamente e, in linea di principio, più informazione e più capacità di calcolo migliorano la previsione in modo affidabile.
“Complesso”, dalla stessa radice cum + plectere, condivide l’idea dell’intreccio ma ne cambia la natura. Il tratto distintivo non è la quantità dei pezzi, bensì la loro interdipendenza adattiva. Le parti si influenzano reciprocamente attraverso feedback, effetti di rete, soglie, non linearità, aspettative, cambi di regime. In questi sistemi il tutto non è riducibile alla somma delle parti e l’aumento di informazione non garantisce maggiore prevedibilità, perché il sistema può reagire alle stesse informazioni.
Un’immagine mentale chiarisce la differenza. Il semplice è come un meccanismo con poche ruote dentate: se giri una manopola, sai con buona approssimazione cosa succede. Il complicato è come un aereo: migliaia di componenti, ma progettati in modo modulare; il comportamento di ciascuna parte non cambia strategicamente quando la osservi. Il complesso è più simile a un ecosistema o a un sistema di traffico urbano con individui che scelgono il percorso: l’interazione genera pattern emergenti, gli agenti si adattano e piccole differenze nelle condizioni iniziali possono produrre esiti molto diversi, soprattutto vicino a soglie critiche.
In microeconomia esistono ambiti davvero semplici in senso forte. Pensa al vincolo di bilancio del consumatore o al problema elementare di massimizzazione del profitto: sono relazioni aritmetiche e logiche. Se il reddito è dato e i prezzi sono dati, il consumatore non può spendere più di quanto ha; se la tecnologia è data, l’impresa non può produrre oltre ciò che consente la funzione di produzione. Questa semplicità non è banalità: è alfabetizzazione. I vincoli definiscono lo spazio delle possibilità. Quando si dice che “la micro è troppo semplice”, spesso si confonde la funzione pedagogica di questi strumenti con la natura complessiva della disciplina. Il complicato emerge quando il problema resta dello stesso tipo ma aumenta il numero di dettagli. Un consumatore con molti beni, vincoli non lineari, tasse differenziate; un’impresa multiprodotto con molte restrizioni tecniche; un’asta con regole articolate. Il problema è più difficile, ma non cambia natura: con più informazione e più calcolo possiamo, in linea di principio, trovare la soluzione. Le preferenze e la tecnologia non cambiano perché le stiamo studiando. Il complesso appare quando le decisioni di ciascuno dipendono in modo strategico da quelle degli altri e quando le aspettative influenzano gli esiti. È il terreno dell’interazione strategica, degli effetti di rete, delle esternalità, delle dinamiche di mercato con entrata e uscita. Qui non basta chiedersi “qual è l’effetto medio di una variazione di prezzo?”, ma “come reagiscono gli altri agenti?”, “si attivano feedback che amplificano o attenuano l’effetto?”, “esistono soglie oltre le quali il mercato cambia struttura?”. In questi casi la microeconomia diventa analisi di equilibri, di meccanismi e di regimi: l’esito dipende dall’intreccio delle scelte, non solo dal singolo problema di ottimizzazione.
Questa distinzione prepara a comprendere il ruolo dei modelli. Un modello non è una fotografia del mondo; è una mappa. Una mappa della metropolitana è eccellente per muoversi tra linee e stazioni, pessima per capire l’altimetria. In economia esistono modelli costruiti per isolare un canale causale, modelli per valutare controfattuali di policy, modelli per guidare l’identificazione empirica, modelli per esplorare vulnerabilità e soglie nei sistemi complessi (Simon, 1962; Weaver, 1948). Il rigore non consiste nel pretendere che un singolo modello faccia tutto, ma nel dichiarare quale problema sta affrontando, quali assunzioni lo rendono trattabile e dove prevediamo che possa fallire (Friedman, 1953; Hausman, 1992).
Qui entra il ceteris paribus. Non significa “nel mondo il resto resta fermo”. Significa: sto formulando un’affermazione su un meccanismo specifico, non sull’intero sistema. È una clausola di significato. Prendiamo l’enunciato classico: “se il prezzo aumenta, la quantità domandata diminuisce”. Senza clausole è ambiguo: potrebbe essere smentito se nel frattempo aumentano redditi, cambia la qualità, mutano i prezzi dei sostituti o le aspettative. Con il ceteris paribus l’enunciato diventa preciso: se aumenta il prezzo e gli altri determinanti rilevanti non si muovono in modo da interferire, il canale di sostituzione spinge la domanda verso il basso. Stiamo isolando un effetto marginale, una tendenza causale (Cartwright, 1989; Strevens, 2012). Se nella realtà agiscono più forze simultaneamente, non abbiamo “salvato” la teoria: stiamo distinguendo canali che interagiscono. Nelle scienze sociali molte “leggi” sono generalizzazioni su capacità causali che si manifestano sotto condizioni appropriate. Il ceteris paribus rende esplicite tali condizioni. Senza di esso, le frasi diventano vaghe e meno scientifiche.
Tuttavia, nei sistemi complessi il ceteris paribus può essere usato ingenuamente. L’errore tipico è tenere fisso ciò che in realtà reagisce alla variabile che stiamo modificando: un problema di endogeneità concettuale. La critica di Lucas (1976) formalizza questa intuizione: relazioni econometriche stimate in un certo regime di regole e aspettative possono cambiare se la policy altera quel regime. Cambiare le regole può cambiare la partita; e non possiamo usare le statistiche della vecchia partita per prevedere la nuova come se nulla fosse.
Da qui una distinzione fondamentale per uno studente di economia politica: effetto parziale ed effetto totale. L’effetto parziale isola un canale, spesso in equilibrio parziale. L’effetto totale lascia reagire l’intero sistema: prezzi, quantità, aspettative, entrate e uscite dal mercato, innovazione, norme. Nei sistemi semplici o complicati la differenza può essere contenuta; nei sistemi complessi può essere enorme, perché l’interazione tra canali genera feedback e cambi di regime.
La ricerca empirica moderna può essere letta come un tentativo di rendere operativo il ceteris paribus. Nei dati il “resto” non è mai uguale, quindi occorre costruire confronti credibili per identificare effetti causali: esperimenti randomizzati, difference-in-differences, regression discontinuity, strumenti (Angrist e Pischke, 2009; Imbens e Rubin, 2015). Studi come Card e Krueger (1994) mostrano come disegni empirici possano isolare un canale in contesti reali.
Ma anche un disegno causale impeccabile stima tipicamente un effetto locale, in un certo contesto e sotto un certo regime. La generalizzazione richiede teoria e comprensione dei meccanismi. In un sistema complesso, scalare una policy può modificarne l’effetto proprio perché cambia la struttura del sistema.
La filosofia della scienza entra qui in modo operativo. Un enunciato economico ben formulato deve specificare:
– quale meccanismo è in gioco;
– sotto quali condizioni è dominante;
– quali condizioni lo indeboliscono o lo ribaltano;
– se si parla di breve o lungo periodo;
– se l’analisi è di equilibrio parziale o generale;
– quale parte è identificata empiricamente e
– quale è extrapolazione teorica.
Questa è precisione scientifica. In sintesi, il ceteris paribus è la punteggiatura della lingua economica. Nei fenomeni semplici e complicati spesso basta per produrre buona scienza. Nei fenomeni complessi è il primo passo, non l’ultimo: dopo aver isolato un canale dobbiamo chiederci come reagisce il sistema, quali feedback si attivano, quali soglie possono essere attraversate e se stiamo cambiando regime. L’economia non promette onniscienza; promette conoscenza condizionale, meccanicistica e disciplinata, insieme a un’analisi esplicita di portata e robustezza delle proprie affermazioni.
Quando vogliamo capire un fenomeno sociale o economico — per esempio migrazione, diseguaglianza, povertà o cambiamento climatico — la prima cosa da fare è chiarire che cosa stiamo cercando di capire. Sembra banale, ma non lo è. Dire “voglio studiare la povertà” non basta, perché “povertà” può significare molte cose: può essere un reddito sotto una certa soglia, può essere l’assenza di beni essenziali, può essere una condizione di deprivazione che riguarda salute, istruzione, casa. Lo stesso vale per “migrazione” o “cambiamento climatico”: dobbiamo decidere quale aspetto misuriamo, con quale unità, in quale periodo, in quali luoghi. Finché non definiamo l’oggetto in modo osservabile e misurabile, non abbiamo ancora un problema empirico testabile: abbiamo un tema (o una domanda generale), ma non ancora una strategia per metterlo alla prova con i dati.
Misurare significa raccogliere dati (e trasformare informazioni in variabili)
Misurare significa raccogliere dati. I dati sono informazioni associate a unità di osservazione. Spesso sono numeri (reddito, età, temperatura), ma possono anche essere categorie (occupato/disoccupato, titolo di studio, partito votato) o persino testi (risposte aperte, post, articoli): per fare analisi quantitativa, queste informazioni vengono in genere codificate in variabili utilizzabili.
L’unità di osservazione può essere una persona, una famiglia, un’impresa, un comune, una regione, un paese. Se misuro il reddito di una persona in un certo anno, sto facendo un’osservazione. Se misuro il reddito di molte persone nello stesso anno, ottengo un insieme di osservazioni. Se misuro il reddito della stessa persona in anni diversi, ottengo una serie di osservazioni nel tempo. Se misuro il reddito di persone diverse in luoghi diversi e anni diversi, ottengo un insieme ancora più ricco.
Una volta raccolti i dati, succede quasi sempre una cosa: i valori non sono tutti uguali. Cambiano tra persone, tra territori, tra anni. Proprio perché cambiano, diciamo che stiamo osservando una variabile. Una variabile è una grandezza che può assumere valori diversi. Il reddito è una variabile perché varia tra individui e nel tempo. Il tasso di disoccupazione è una variabile perché cambia tra regioni e tra periodi. La temperatura media è una variabile perché cambia nel tempo e nello spazio. Anche gli anni di istruzione sono una variabile, perché non tutti studiano lo stesso numero di anni.
Misurare e descrivere non è ancora spiegare
A questo punto abbiamo fatto un passo fondamentale: abbiamo trasformato un fenomeno in qualcosa di misurabile. Ma misurare e descrivere non è ancora spiegare. La domanda successiva è: perché osserviamo questa variazione? Perché alcune persone hanno redditi più alti di altre? Perché alcune regioni sono più povere? Perché alcuni paesi emettono più CO₂?
Quando chiediamo “perché”, stiamo entrando nel territorio delle spiegazioni, e quindi dei modelli.
Che cos’è un modello (e cosa non è)
Un modello economico è un modo di scrivere un’ipotesi in forma precisa. Non è la realtà, e non è “la verità”. È una rappresentazione semplificata che serve a ragionare in modo rigoroso. Il modello ci obbliga a essere chiari: quali variabili contano, e quale relazione immaginiamo tra loro.
Se pensiamo che il reddito dipenda dall’istruzione, possiamo chiamare il reddito Y e l’istruzione X e dire che Y è funzione di X, cioè Y = f(X). Questa frase significa: l’istruzione è una possibile causa o determinante del reddito. Ma, ed è essenziale capirlo, questa è un’ipotesi di lavoro. Non è ancora una conclusione.
Dati e grafici: vedere un’associazione
Per vedere se l’ipotesi è compatibile con i dati, possiamo iniziare con una rappresentazione semplice: un grafico cartesiano. Mettiamo gli anni di istruzione sull’asse orizzontale e il reddito sull’asse verticale. Ogni punto del grafico rappresenta una singola osservazione: una persona in un certo luogo e in un certo momento, con un certo numero di anni di istruzione e un certo reddito.
Se i punti sono sparsi a caso, senza forma, allora non vediamo una relazione sistematica. Se invece i punti mostrano un andamento, per esempio crescente, allora vediamo un’associazione: all’aumentare dell’istruzione, il reddito tende a essere più alto.
Associazione ≠ causalità: la distinzione centrale
Questa è una scoperta? È un’informazione importante, ma non è ancora una conclusione causale. Qui entra la distinzione più importante di tutta l’economia empirica: associazione non significa causalità.
Dire che due variabili sono associate significa dire che si muovono insieme nei dati. Dire che una variabile causa l’altra significa qualcosa di più forte: significa che se intervenissimo sul mondo e cambiassimo X, allora Y cambierebbe come conseguenza di questo cambiamento.
Perché non possiamo passare direttamente da “si muovono insieme” a “una causa l’altra”?
Perché esistono spiegazioni alternative che producono lo stesso andamento nei dati.
(1) Causalità inversa (reverse causality). Può essere che non sia (solo) X a influenzare Y, ma anche il contrario. Un esempio più chiaro, nel caso istruzione–reddito, è questo: le persone scelgono quanta istruzione fare anche in base alle aspettative sul rendimento futuro (opportunità di carriera, salari attesi). In questo senso, un “reddito atteso” o le prospettive economiche (legate a Y) possono influenzare la scelta di X.
(2) Confondimento (confounding). Esiste una terza variabile che influenza sia l’istruzione sia il reddito. Chiamiamola U. U potrebbe essere abilità, motivazione, salute, qualità della scuola, ambiente familiare, risorse dei genitori. Se U spinge una persona a studiare di più e, indipendentemente, la rende anche più produttiva e quindi più pagata, allora istruzione e reddito appaiono legati anche se una parte del legame non è l’effetto dell’istruzione, ma l’effetto comune di U su entrambe.
(3) Selezione (selection). Le persone non ricevono istruzione a caso. Studiano di più o di meno per vincoli, scelte, opportunità. Se chi studia di più è diverso da chi studia di meno già prima (per caratteristiche osservate o non osservate), allora confrontare i due gruppi non equivale a isolare l’effetto dell’istruzione.
Intervento vs osservazione: la logica di Pearl (do-notation)
Questo modo di ragionare è stato reso estremamente chiaro da Judea Pearl, che insiste su un punto: la causalità riguarda gli interventi, non solo le osservazioni.
Osservare X = x significa guardare chi ha un certo livello di istruzione; ma queste persone possono essere diverse per molte caratteristiche. Intervenire su X significa fissare dall’esterno il livello di istruzione, come se potessimo “impostare” X, e poi vedere cosa succede a Y. Pearl usa la notazione do(X = x) per indicare un intervento.
A questo punto serve anche una piccola nota di notazione:
E[·] indica il valore atteso, che qui possiamo leggere come “media”.
La differenza è decisiva:
E[Y | X = x] è la media di Y tra chi osserviamo avere X = x; E[Y | do(X = x)] è la media che avremmo se imponessimo X = x (cioè se facessimo un intervento).
In generale non sono la stessa cosa, proprio a causa di selezione e confondimento.
In sintesi: osservare “chi ha X = x” non equivale a “imporre X = x”.
Grafi causali: visualizzare confondimento e percorsi
Per essere più concreti, possiamo rappresentare le ipotesi causali con grafi fatti di variabili e frecce.
Se crediamo che l’istruzione influenzi il reddito, disegniamo una freccia da X → Y. Se crediamo che una variabile U influenzi sia l’istruzione sia il reddito, disegniamo U → X e U → Y.
Questo disegno serve a capire quali sono i percorsi attraverso cui X e Y risultano collegati nei dati. Il compito dell’analisi causale è bloccare i percorsi di confondimento, cioè fare in modo che la variazione in X che utilizziamo per stimare l’effetto su Y non sia contaminata da U.
La regressione: quantificare un’associazione (non “creare” causalità)
A questo punto entra uno strumento quantitativo fondamentale: la regressione. La regressione lineare stimata con i minimi quadrati ordinari (OLS) è un modo per riassumere in numeri l’andamento che vediamo nei dati. Nella forma più semplice, scriviamo il reddito come una costante più un coefficiente moltiplicato per l’istruzione, più un termine di errore:
Y = a + bX + errore
Il coefficiente davanti a X descrive di quanto cambia Y, in media, quando X aumenta di una unità, secondo la migliore approssimazione lineare dei dati. OLS sceglie quel coefficiente in modo da rendere piccoli, nel complesso, gli scarti tra i valori osservati del reddito e i valori che la retta “predice”. In altre parole, disegna la retta che meglio attraversa la nuvola di punti.
È fondamentale capire il ruolo del termine di errore. Non è un semplice dettaglio tecnico. Dentro l’errore c’è tutto ciò che influenza il reddito e che non abbiamo incluso esplicitamente nel modello: abilità, motivazione, salute, contesto familiare, condizioni locali, e così via. Se questi fattori sono correlati con l’istruzione, il coefficiente stimato mescola l’effetto dell’istruzione con l’effetto dei confondenti. Per questo una regressione semplice descrive un’associazione, ma non diventa automaticamente causale.
In sintesi: la regressione riassume “come stanno insieme” X e Y nei dati; la causalità dipende dal disegno.
Regressioni con controlli: cosa significa “a parità delle altre variabili”
Per ridurre il confondimento, si usano regressioni con controlli. In una regressione con controlli includiamo altre variabili, come età, genere, regione, istruzione dei genitori, esperienza lavorativa.
Che cosa significa “controllare” in modo preciso? Significa confrontare persone che hanno gli stessi valori dei controlli. Quando diciamo che il coefficiente dell’istruzione è stimato “a parità delle altre variabili”, stiamo dicendo: stiamo confrontando persone simili rispetto ai controlli inclusi, e dentro questo confronto stimiamo l’associazione tra istruzione e reddito. Questo è il significato concreto di ceteris paribus.
Ma anche qui bisogna essere rigorosi: “a parità delle altre variabili” significa a parità delle variabili che abbiamo incluso, non a parità di tutto ciò che esiste nel mondo. Se esistono confondenti non osservati che restano fuori, il problema può rimanere.
Inoltre, controllare non è sempre una buona idea: se controlliamo per una variabile che è un effetto dell’istruzione (un mediatore), rischiamo di “togliere” parte dell’effetto che vogliamo misurare; se controlliamo per una variabile influenzata sia da X sia da Y (un caso tipico di collider), possiamo introdurre nuove distorsioni.
Per questo la scelta di cosa controllare deve essere guidata da una chiara idea causale, non da un automatismo.
In sintesi: i controlli aiutano solo se scelti con logica causale; altrimenti possono peggiorare.
Identificazione: quando la variazione in X assomiglia a un intervento
Come fa allora uno scienziato a stimare un effetto causale in modo credibile? L’idea generale è creare, o sfruttare, una situazione in cui la variazione di X sia equivalente a un intervento, cioè assomigli a do(X).
Il caso più pulito è la randomizzazione: se X viene assegnata a caso, allora non è correlata ai confondenti, e il confronto tra gruppi con X diversa identifica un effetto causale. Quando la randomizzazione non è possibile, si cercano quasi-esperimenti: regole, riforme, soglie, lotterie, shock esterni che generano variazione in X indipendente dai confondenti. In altri casi si usano strumenti: variabili che spingono X ma non influenzano Y se non attraverso X e non sono legate ai confondenti.
In tutti questi casi, la regressione può essere usata per quantificare l’effetto, ma il punto centrale rimane il disegno che rende credibile l’interpretazione causale.
In sintesi: la tecnica (regressione) non basta; serve un disegno che renda plausibile “come se fosse un intervento”.
Incertezza: perché anche le buone stime non sono perfette
Fin qui abbiamo parlato di causalità e di metodi. Ora dobbiamo aggiungere un altro pezzo indispensabile: l’incertezza. Anche quando il disegno è corretto, le stime non sono perfette perché i dati contengono rumore e perché spesso osserviamo solo un campione. Qui entra la probabilità.
La probabilità, in questo contesto, serve a descrivere che cosa succederebbe se ripetessimo lo stesso studio molte volte. Se prendiamo un campione di individui e stimiamo un coefficiente, quel coefficiente dipende dal campione specifico. Se prendessimo un altro campione, otterremmo un numero leggermente diverso. Questa variabilità tra campioni è inevitabile. L’inferenza statistica serve a misurarla.
Errori standard e intervalli di confidenza
Il modo più comune per descrivere la precisione di una stima è l’errore standard: una misura di quanto la nostra stima cambierebbe se ripetessimo l’analisi su campioni diversi. Se l’errore standard è piccolo, la stima è precisa; se è grande, la stima è imprecisa. L’errore standard dipende dalla dimensione del campione, dal rumore nei dati e da quanta variazione utile abbiamo in X.
Un modo molto chiaro per comunicare precisione è l’intervallo di confidenza. Un intervallo di confidenza al 95% è costruito in modo tale che, se ripetessimo lo studio moltissime volte e costruissimo ogni volta lo stesso tipo di intervallo, nel 95% dei casi l’intervallo conterrebbe il vero valore del parametro.
Lettura pratica: l’intervallo di confidenza ci dice quali valori del coefficiente sono compatibili con i dati, tenendo conto dell’incertezza. Intervalli stretti indicano molta informazione; intervalli larghi indicano che i dati non permettono conclusioni precise.
p-value, significatività e rilevanza
Accanto agli intervalli, spesso si usano i test di ipotesi e la significatività statistica. Il caso più comune è testare se un coefficiente è diverso da zero.
L’ipotesi nulla dice: il coefficiente è zero, quindi nel modello specificato non c’è effetto. Il test valuta quanto sarebbe raro ottenere un coefficiente almeno così grande in valore assoluto se l’effetto vero fosse davvero zero.
Questa rarità viene riassunta dal p-value. Il p-value è la probabilità di osservare un risultato almeno così estremo, assumendo che l’ipotesi nulla sia vera. Non è la probabilità che l’ipotesi nulla sia vera.
Quando un p-value è piccolo, diciamo che il risultato è “statisticamente significativo” rispetto a una soglia scelta, spesso 5%. Questo significa: se l’effetto vero fosse zero, sarebbe raro vedere un risultato come quello osservato. Ma non significa che l’effetto sia grande o importante. Significativo non vuol dire rilevante.
Errori di tipo I e II e potenza statistica
Possiamo sbagliare in due modi: concludere che c’è un effetto quando in realtà non c’è (falso positivo, errore di tipo I); non rilevare un effetto che esiste davvero (falso negativo, errore di tipo II).
La potenza statistica (power) è la probabilità che un test riesca a rilevare un effetto quando l’effetto esiste davvero. Uno studio con alta potenza ha buone probabilità di individuare un effetto reale; uno studio con bassa potenza rischia di produrre risultati “non significativi” anche quando l’effetto è presente.
Un punto importantissimo: un risultato non significativo non prova che l’effetto sia zero. Può semplicemente significare che lo studio non aveva abbastanza informazione per distinguerlo da zero.
Da cosa dipende la potenza? Dipende dalla grandezza dell’effetto, dal rumore nei dati, dalla dimensione del campione e dalla soglia di significatività scelta.
Test multipli e disciplina della ricerca
C’è una trappola comune quando si lavora con i dati: se si provano molte ipotesi, molte specificazioni, molti sottogruppi, è facile trovare qualche risultato “significativo” solo per caso. Anche se ogni singolo test ha una probabilità del 5% di produrre un falso positivo sotto l’ipotesi nulla, facendo molti test la probabilità di trovare almeno un falso positivo cresce.
Questo è il motivo per cui la ricerca empirica richiede disciplina: chiarezza su quali analisi sono principali e quali esplorative, trasparenza sulle scelte, e attenzione ai test multipli. Non perché la statistica sia fragile, ma perché l’uso non disciplinato dei test può produrre conclusioni ingannevoli.
Tirando le fila: la logica completa del metodo empirico
Si parte da un fenomeno e lo si rende misurabile. La misura produce variabili che variano tra unità, luoghi o tempi. Si osservano relazioni nei dati e si quantificano con strumenti come la regressione. Si costruisce un modello come ipotesi rigorosa sui meccanismi. Si distingue l’associazione dalla causalità e si ragiona in termini di interventi, cioè di cosa succederebbe se cambiassimo X. Si costruisce, quando possibile, un disegno che renda credibile interpretare la variazione in X come un intervento, bloccando il confondimento. Infine, si usa la probabilità per quantificare l’incertezza: errori standard e intervalli di confidenza per la precisione, p-value e test per valutare compatibilità con l’ipotesi nulla, e potenza per capire se lo studio è in grado di rilevare effetti reali.
Solo mettendo insieme questi pezzi possiamo trasformare dei numeri (e più in generale dei dati) in conoscenza affidabile, senza confondere ciò che i dati mostrano con ciò che possiamo davvero concludere.
Perché tutto questo è importante per il tuo futuro
Nella vita professionale — in un’amministrazione pubblica, in un’impresa, in una ONG, nel giornalismo, nella consulenza o nella ricerca — incontrerai continuamente affermazioni come: “questa politica riduce la povertà”, “questa riforma aumenta l’occupazione”, “questa formazione fa crescere i salari”, “questa misura ambientale funziona”. Queste sono affermazioni causali. I metodi quantitativi servono a valutare se sono fondate oppure se stanno confondendo correlazioni, selezione e confondimento. In altre parole, imparare questi strumenti significa imparare a distinguere tra un risultato convincente e una conclusione fragile: è una competenza chiave per leggere (e produrre) evidenza credibile nel mondo reale.
Mini-glossario (essenziale)
Unità di osservazione: l’oggetto su cui misuri (persona, famiglia, impresa, regione…).
Variabile: una grandezza che può assumere valori diversi (reddito, anni di istruzione, disoccupazione…).
Associazione: X e Y si muovono insieme nei dati.
Causalità: cambiare X con un intervento cambia Y.
Confondente (U): variabile che influenza sia X sia Y, “sporcando” l’associazione.
Selezione: X non è assegnata a caso; i gruppi con X diversa differiscono già “prima”. do(X=x): notazione per un intervento che impone X=x.
Regressione (OLS): metodo che stima una relazione lineare “media” tra variabili.
Errore standard: misura della variabilità della stima tra campioni.
Intervallo di confidenza: insieme di valori compatibili con i dati (con una certa regola di costruzione).
p-value: probabilità di un risultato almeno così estremo se l’ipotesi nulla fosse vera.
Potenza (power): probabilità di rilevare un effetto se l’effetto esiste davvero.
Quasi-esperimento / identificazione: situazione in cui la variazione in X è credibilmente “come se” fosse random.
Una delle idee più profonde della scienza moderna è che la natura obbedisca a leggi che possono essere espresse in forma matematica. Non si tratta solo di un modo comodo di descrivere il mondo, ma della convinzione che dietro la varietà dei fenomeni esista un ordine necessario, astratto, e in qualche senso intelligibile. Questa idea, però, non è sempre esistita. È il risultato di una lunga storia intellettuale, fatta di intuizioni, resistenze e svolte radicali.
Le prime tracce di questa visione risalgono all’antica Grecia. Nel VI secolo a.C., i pitagorici scoprono che fenomeni naturali apparentemente qualitativi, come l’armonia musicale, obbediscono a rapporti numerici semplici. La relazione tra lunghezza delle corde e intervalli sonori porta alla famosa tesi secondo cui “tutto è numero” (Aristotele, Metafisica, I, 5). È un’idea potente, ma ancora lontana dalla scienza nel senso moderno: il numero non è uno strumento di misurazione empirica, bensì il principio metafisico dell’ordine cosmico.
Con Platone, nel IV secolo a.C., la matematica assume un ruolo centrale nella conoscenza. Nel Timeo, il cosmo è costruito secondo proporzioni geometriche, e le forme matematiche rappresentano la struttura profonda del reale. La matematica è vista come il linguaggio dell’intelligibile, superiore al mondo sensibile e mutevole. Non a caso, la tradizione attribuisce all’Accademia il motto “nessuno entri qui se non conosce la geometria”. Tuttavia, anche in Platone la matematica non nasce dall’osservazione sistematica della natura, ma da una concezione filosofica dell’ordine.
Aristotele introduce una svolta decisiva, ma ambigua. Da un lato fonda la fisica come studio della natura; dall’altro separa nettamente la matematica dalla spiegazione dei fenomeni naturali. Per Aristotele, la matematica astrae dalle qualità reali e non può cogliere le cause dei processi fisici (Fisica, II, 2). La sua enorme influenza farà sì che, per secoli, la matematizzazione della natura venga vista con sospetto: utile per descrivere, ma incapace di spiegare.
Un’eccezione straordinaria è Archimede (III secolo a.C.). Nei suoi lavori sulla leva e sul galleggiamento, Archimede usa dimostrazioni matematiche per derivare leggi fisiche generali, anticipando un metodo che diventerà centrale solo molto più tardi (On Floating Bodies). Einstein lo definirà uno dei più grandi geni scientifici di tutti i tempi. Eppure, il suo approccio rimane isolato e non genera una tradizione continua.
Durante il Medioevo, la matematica viene applicata in modo sporadico allo studio del moto (si pensi ai “calculatores” di Oxford, come Thomas Bradwardine), ma l’idea che la natura sia governata universalmente da leggi matematiche non è ancora dominante. La fisica resta prevalentemente qualitativa e teleologica.
La svolta arriva tra XVI e XVII secolo, con quella che oggi chiamiamo Rivoluzione scientifica. Galileo Galilei rende esplicita una nuova concezione della natura: il mondo fisico è governato da leggi necessarie, e queste leggi sono matematiche. Nel Saggiatore (1623) scrive che “il libro della natura è scritto in caratteri matematici”, e che senza triangoli, cerchi e numeri è impossibile comprenderlo. Qui la matematica non è più una filosofia dell’ordine, ma uno strumento operativo per formulare leggi, fare previsioni e confrontarle con l’esperienza.
Con Isaac Newton questa visione raggiunge una forma compiuta. Nei Principia Mathematica (1687), le stesse equazioni descrivono la caduta dei gravi sulla Terra e il moto dei pianeti nei cieli. È un passaggio concettuale enorme: non solo la natura obbedisce a leggi matematiche, ma queste leggi sono universali. Come scriverà Laplace un secolo dopo, in linea di principio una mente che conoscesse tutte le leggi e le condizioni iniziali potrebbe prevedere l’intero futuro dell’universo (Essai philosophique sur les probabilités, 1814).
Da quel momento in poi, l’idea che comprendere significhi “trovare le equazioni” diventa il cuore della scienza moderna. Dalla termodinamica all’elettromagnetismo, dalla meccanica quantistica alla relatività generale, la matematica non accompagna la fisica: la costituisce.
Resta però una domanda aperta e affascinante, formulata in modo celebre da Eugene Wigner: perché la matematica funziona così bene nel descrivere il mondo? Nel suo saggio The Unreasonable Effectiveness of Mathematics in the Natural Sciences (1960), Wigner parla di un “miracolo” che non sappiamo spiegare del tutto. La matematica è una scoperta o un’invenzione? È il linguaggio della natura o il filtro della mente umana?
Questa fiducia nella matematica non rimane confinata alle scienze naturali. A partire dal XVIII secolo, l’idea che anche i fenomeni sociali ed economici possano obbedire a regolarità formali comincia a prendere piede. Se la natura fisica è governata da leggi, perché non dovrebbero esserlo anche i comportamenti umani quando osservati in aggregato?
Un primo passo in questa direzione è compiuto da Pierre-Simon Laplace e da Adolphe Quetelet. Quest’ultimo, nel XIX secolo, introduce il concetto di “uomo medio” e mostra che fenomeni come criminalità, matrimoni o suicidi presentano una sorprendente stabilità statistica nel tempo (Quetelet, Sur l’homme et le développement de ses facultés, 1835). Per Quetelet, la regolarità dei dati sociali suggerisce l’esistenza di leggi statistiche che governano il comportamento collettivo, anche se le azioni individuali restano libere e imprevedibili.
In economia, la matematizzazione prende forma in modo sistematico tra XIX e XX secolo. Da Cournot a Walras, l’analisi economica viene costruita sempre più esplicitamente come un sistema di equazioni. L’equilibrio generale walrasiano rappresenta un tentativo ambizioso di descrivere l’intero sistema economico come un insieme coerente di relazioni matematiche tra agenti, prezzi e quantità. Lionel Robbins definirà l’economia come la scienza che studia il comportamento umano come relazione tra fini e mezzi scarsi, aprendo la strada a una formalizzazione sempre più rigorosa.
Nel Novecento, questo approccio si consolida. La teoria dei giochi, sviluppata da John von Neumann e Oskar Morgenstern (Theory of Games and Economic Behavior, 1944), applica strumenti matematici sofisticati allo studio delle interazioni strategiche, mostrando come cooperazione, conflitto e istituzioni possano essere analizzati con lo stesso rigore delle leggi fisiche. Più tardi, l’econometria rende possibile il confronto sistematico tra modelli matematici e dati empirici, rafforzando l’idea che i fenomeni economici possano essere spiegati, almeno in parte, attraverso relazioni quantitative.
Naturalmente, la matematica nelle scienze sociali ha uno status diverso rispetto alle scienze naturali. Le “leggi” economiche e sociali sono tipicamente probabilistiche, dipendenti dal contesto istituzionale e storico, e soggette a cambiamento quando gli individui reagiscono ai modelli stessi. Come osservava Keynes, “gli atomi dell’economia non sono come gli atomi della fisica”. Eppure, proprio la matematica consente di rendere esplicite le ipotesi, di chiarire i meccanismi causali e di distinguere ciò che segue logicamente da ciò che è solo intuitivo.
In questo senso, l’estensione della matematica ai fenomeni sociali rappresenta una continuazione naturale della svolta galileiana. Non perché la società sia una macchina governata da leggi rigide, ma perché trattare i comportamenti umani come oggetti di analisi formale permette di individuare regolarità, vincoli e trade-off che altrimenti resterebbero nascosti. Come nelle scienze naturali, la matematica non elimina la complessità del reale, ma offre un modo potente per pensarla.
Forse la risposta sta proprio nella storia di questa idea. L’uomo non ha semplicemente “scoperto” che la natura obbedisce a leggi matematiche in un istante preciso. Ha imparato, gradualmente, che trattare il mondo come se fosse matematicamente ordinato permette di comprenderlo meglio, di prevederne il comportamento e di intervenire su di esso. In questo senso, la matematica non è solo il linguaggio della natura, ma anche una straordinaria estensione delle nostre capacità cognitive.
Ed è proprio questa convergenza tra struttura del mondo e struttura del pensiero che rende la scienza moderna una delle più radicali avventure intellettuali della storia umana.
Analizziamo i principi cardine della scienza e del metodo scientifico, basandoci sulla serie divulgativa “OK Scienza” di Massimo Polidoro.
L’obiettivo primario della scienza è la comprensione del mondo naturale attraverso un approccio rigoroso, oggettivo e verificabile, contrapponendosi a forme di conoscenza basate sull’autorità, sul senso comune o sulla superstizione.
I pilastri fondamentali sono:
Il Metodo Scientifico: Un processo ciclico che parte dall’osservazione e giunge alla formulazione di leggi attraverso l’ipotesi e la sperimentazione.
Oggettività e Ripetibilità: La scienza si occupa di fatti indipendenti dalle opinioni individuali, i cui risultati devono poter essere riprodotti da chiunque in ogni luogo.
Falsificabilità: Un’affermazione è scientifica solo se è possibile immaginare un esperimento che possa smentirla. Il dubbio non è un limite, ma il motore del progresso.
Riconoscimento della Pseudoscienza: L’identificazione dei tratti tipici dei ciarlatani (mancanza di prove, vittimismo, linguaggio oscuro) è essenziale per difendersi dalle fandonie e dalle truffe, specialmente nell’era digitale.
La Natura della Scienza e il Ruolo del Mistero
La scienza, dal latino scientia (conoscenza), nasce dalla curiosità umana, definita come la “molla” che ha permesso l’evoluzione della specie. Contrariamente allo stereotipo dello scienziato freddo e privo di fantasia, la ricerca scientifica è alimentata dall’incontro con il mistero.
Lo scienziato come detective: Come Sherlock Holmes, lo scienziato utilizza il ragionamento e l’indagine per risolvere enigmi naturali.
L’emozione del mistero: Secondo Albert Einstein, l’esperienza del mistero è la culla della vera scienza e dell’arte.
Scopo della disciplina: La scienza non cerca di riscoprire ciò che è già noto, ma rivolge la sua attenzione a ciò che è ancora ignoto per fornirne una spiegazione razionale.
Limiti dei Metodi di Conoscenza Non Scientifici
Prima della nascita della scienza moderna, l’uomo si affidava a modalità di conoscenza limitate o fallaci. Il documento ne identifica quattro principali:
Metodo
Descrizione
Limite Fondamentale
Autorità
Credere a qualcosa perché affermato da fonti rispettate (Genitori, Governo, Testi Sacri, Aristotele).
Le autorità possono sbagliare o essere in disaccordo tra loro.
Logica
Trarre conclusioni esatte partendo da premesse (Sillogismi).
Se non supportata dall’osservazione dei fatti, può portare a conclusioni errate (es. il numero di denti di un cavallo).
Senso Comune
Basarsi su convinzioni consolidate (“si è sempre fatto così”).
Ostacola l’innovazione e non mette mai alla prova le proprie credenze.
Esperienza Mistica
Conoscenza derivante da visioni, sogni o stati spirituali.
Risultati soggettivi, non comunicabili e spesso smentiti dalla realtà fisica.
L’Evoluzione Storica e il Metodo Scientifico
I Precursori: Leonardo e Galileo
Leonardo da Vinci: Definito “discepolo dell’esperienza”, rifiutava le verità inconfutabili di Aristotele, sostenendo che ogni discorso che non passa per l’esperienza diretta è vano.
Galileo Galilei: Padre della scienza moderna nel XVII secolo, introdusse l’uso di strumenti (cannocchiale) per verificare i fatti, sfidando l’autorità della Chiesa che si basava sul dogma e non sulla prova.
Le Fasi del Metodo Scientifico
Il processo scientifico segue un iter preciso e rigoroso:
Osservazione: Analisi di un fenomeno e sua descrizione.
Domanda: Interrogativo sulla natura del fenomeno.
Ipotesi: Formulazione di una spiegazione provvisoria.
Esperimento: Messa alla prova dell’ipotesi in condizioni controllate.
Analisi dei Risultati:
Se l’esperimento fallisce: si formula una nuova ipotesi.
Se l’esperimento ha successo: si traggono conclusioni.
Formulazione di una Legge o Teoria: Definizione di principi generali.
Comunicazione: Condivisione dei risultati per consentire la verifica altrui.
Requisiti Fondamentali della Ricerca Scientifica
Oggettività e Ripetibilità
Un fatto scientifico è oggettivo quando è vero indipendentemente da ciò che le persone credono (es. la forza di gravità). Un esperimento è ripetibile quando produce gli stessi risultati indipendentemente da chi lo esegue, dove e quando. Nel caso di discipline come l’astronomia o la geologia, dove gli esperimenti non sono replicabili a comando, si ricorre alla ripetibilità delle misurazioni (esperimenti naturali).
Il Principio di Falsificabilità
Introdotto da Karl Popper, stabilisce che una teoria è scientifica solo se può essere dimostrata falsa. Se una tesi non può essere sottoposta a controllo empirico (es. la teoria dei “folletti invisibili” nel motore), essa non appartiene al dominio della scienza.
Le Regole del Gioco
Per partecipare alla scienza, occorre accettare quattro presupposti:
Realismo: Il mondo esiste indipendentemente dalla nostra percezione.
Razionalità: Il mondo si comporta in modo comprensibile e segue leggi costanti.
Causalità: Ogni evento ha una causa che può essere scoperta per prevederne il ripetersi.
Scopribilità: Il mondo è un rompicapo risolvibile con mezzi ordinari, non un segreto mistico.
Strumenti Critici e Autocorrezione
Il Rasoio di Occam
Principio formulato da Guglielmo di Occam secondo cui, tra diverse spiegazioni alternative, la più semplice (quella che richiede meno ipotesi aggiuntive) tende a essere quella corretta. Questo strumento serve a eliminare speculazioni inutili.
Peer Review e Critica
La scienza possiede “anticorpi” naturali contro errori e frodi:
Referees (Arbitri): Esperti anonimi che valutano le ricerche prima della pubblicazione su riviste prestigiose.
Dissenso e Revisione: Le verità scientifiche sono provvisorie. Nuove scoperte possono smentire teorie consolidate (es. il passaggio dal dogma dell’ulcera da stress alla scoperta del batterio Helicobacter pylori da parte di Marshall e Warren).
Scienza vs. Pseudoscienza e Ciarlataneria
Il documento evidenzia la necessità di distinguere tra autentici rivoluzionari (come Einstein o Galileo) e pseudoscienziati.
Caratteristiche dei Ciarlatani
Mancanza di Prove: Non portano evidenze ma sfruttano la suggestione.
Onere della Prova Invertito: Sostengono che spetti agli scettici smentire le loro tesi (Paradosso della teiera di Russell).
Vittimismo e Complottismo: Denunciano congiure dei “poteri forti” o della “casta” per giustificare il rifiuto della comunità scientifica.
Canali Non Ufficiali: Preferiscono il web, la TV popolare o i social alle riviste scientifiche accreditate.
Linguaggio Oscuro: Utilizzo di termini tecnici fuori contesto (“latinorum” moderno) per apparire credibili agli occhi dei profani.
Scienza, Democrazia e Società
Esiste un diffuso fraintendimento sulla natura democratica della scienza:
È democratica perché è aperta a chiunque segua il metodo (es. Einstein era un semplice impiegato all’ufficio brevetti).
Non è democratica riguardo ai dati: la velocità della luce o le leggi della natura non si decidono per alzata di mano o a maggioranza.
Scienza e Felicità
La conoscenza scientifica può generare incertezza rimuovendo illusioni rassicuranti (come la Terra al centro dell’universo), ma offre in cambio:
Libertà di scelta: Basata su fatti e non su manipolazioni.
Meraviglia autentica: Una comprensione profonda della natura è più interessante e sorprendente della superstizione.
Progresso: La scienza è l’unico strumento che consente di migliorare concretamente le condizioni umane (es. la cura dello scorbuto tramite la vitamina C).
In conclusione, la scienza non possiede verità assolute, ma rappresenta lo strumento più prezioso e onesto di cui l’umanità dispone per indagare la realtà, fondandosi sull’umiltà del dubbio e sulla verifica costante dei fatti.
Il teorema di Stokes è una delle idee più profonde della matematica moderna, non tanto per la sua formula, quanto per la visione del mondo che suggerisce.
In termini semplici (e imprecisi), Stokes dice che ciò che accade sul bordo di una superficie è interamente determinato da ciò che accade al suo interno. Il comportamento globale, visibile e sintetico, non è qualcosa di aggiunto dall’esterno: è il risultato necessario delle dinamiche locali. Il bordo non comanda l’interno, ma lo rende leggibile.
Questa struttura ha implicazioni filosofiche forti, soprattutto sul piano teleologico. In Stokes, il “fine” non è una causa che guida il processo. Il risultato finale non precede ciò che accade, non lo orienta, non lo governa. Al contrario, il fine emerge come riassunto coerente di ciò che è avvenuto punto per punto. È una teleologia immanente: il senso nasce dal processo, non da un progetto.
Questo indebolisce l’idea di una finalità imposta dall’alto e rafforza una visione anti-dualista del mondo. Non c’è separazione tra meccanismo e significato, tra locale e globale, tra causa ed esito. Il senso non sta altrove: è già inscritto nelle relazioni interne. Il limite, il bordo, non crea il significato, ma lo manifesta.
Se spostiamo questa intuizione sul piano dell’esperienza umana, emerge una metafora potente per pensare la generazione e il fatto di avere figli.
Avere figli non significa realizzare uno scopo esterno, né completare un progetto, né “dare un senso” alla vita dall’esterno. Come nel teorema di Stokes, non si impone un fine: si trasmette una struttura. I figli sono uno dei modi principali attraverso cui ciò che siamo interiormente – valori, abitudini, modi di stare al mondo – attraversa un confine temporale e si rende visibile oltre la nostra vita.
In questo senso, i figli non sono un fine, ma un passaggio. Non sono il risultato da ottimizzare, ma il bordo attraverso cui il flusso della vita continua. Il senso non nasce dal controllo dell’esito, ma dalla continuità del processo.
Questo chiarisce anche perché la generazione è così strettamente legata alla finitezza. Ogni vita ha un limite. Il bordo è inevitabile. Avere figli non è un tentativo di negare questo limite, ma uno dei modi (non l’unico) di abitarlo in modo coerente: io finisco, ma ciò che ho messo in moto continua secondo regole che non controllo più.
Da qui deriva l’importanza esistenziale, ma non l’obbligo morale. Come il teorema di Stokes vale solo quando c’è una superficie con un bordo, così non tutte le vite devono necessariamente articolarsi attraverso la genitorialità. Tuttavia, questa prospettiva spiega perché, per molti, avere figli è percepito come profondamente significativo: perché rende visibile l’unità tra ciò che si è stati e ciò che verrà, senza bisogno di uno scopo imposto, di una promessa di immortalità o di una giustificazione esterna.