«Quando sei in grado di
misurare ciò di cui stai parlando, e di esprimerlo in numeri,
allora puoi dire di conoscere qualcosa che lo riguardi». Così
affermava Lord Kelvin, celebre fisico, ingegnere e matematico del XIX
secolo, confermando implicitamente la vecchia tesi pitagorica che
tutto è numero. Ma se si affida la conoscenza delle cose al numero
occorre pure chiedersi: che cosa sono i numeri?
Cercare di rispondere è
come evocare le mille teste dell'Idra, perché tante sono le diverse
specie dei numeri e tante le prospettive da cui trattare ciascuna
specie. Lo conferma un'importante osservazione di Hermann Weyl:
cercando nel 1951 di riassumere mezzo secolo di progressi nella
matematica, il grande matematico tedesco osservava che il campo dei
numeri reali è come un Giano bifronte, che guarda in due direzioni
opposte: da un lato l'esecuzione di operazioni aritmetiche, come
l'addizione e la moltiplicazione, dall'altro le somme infinite e i
processi al limite. Una è la faccia più familiare del numero,
quella aritmetica e algebrica, l'altra è la faccia analitica e
topologica, che coinvolge le grandezze continue, come il tempo o le
linee che si tracciano su un foglio. Una divisione che dipende da due
diversi significati dei numeri: ci immaginiamo innanzitutto un campo
di numeri come un dominio chiuso, in cui le operazioni aritmetiche
tra due suoi elementi danno un risultato che sta ancora nello stesso
dominio. L'esempio classico sono i numeri razionali, cioè le
frazioni, perché sommando o moltiplicando due frazioni si ottiene
un'altra frazione.
Versione aritmetica
del continuo
D'altro canto, le
frazioni non bastano. I matematici greci scoprirono che esistono
grandezze incommensurabili, il cui rapporto non può essere
uguagliato al rapporto tra due numeri interi, cioè a una frazione.
Per questo sono stati introdotti i numeri reali, un campo molto più
esteso che include i numeri razionali e i numeri irrazionali, e che
sta alla base di tutte le nostre scienze. Esso fornisce la versione
aritmetica del continuo, perché con un numero reale si riesce a dire
quale lunghezza compete a una linea che nessuna frazione riuscirebbe
a misurare: l'esempio più semplice è la diagonale di un quadrato di
lato unitario, la cui lunghezza è uguale alla radice quadrata di
due, che è appunto un numero irrazionale.
Le moderne teorie
assiomatiche, notava Hermann Weyl, avevano in qualche modo
assecondato questa doppia prospettiva: la matematica, diceva, non è
la politica, e non apprezza ambigue commistioni tra pace e guerra: ha
quindi preferito separare in modo netto i due aspetti del numero,
evitando conflitti di competenze. Egli aggiunge però un singolare
avvertimento: neppure alla metà del XX secolo, dopo secoli di
progressi nell'analisi e nella teoria dei numeri, e dopo approfondite
ricerche sui fondamenti, si poteva affermare di aver chiarito in modo
definitivo tutte le questioni che riguardavano il concetto di numero
reale.
Questa difficoltà di
chiarimento si deve anche a un'altra divisione di prospettiva, che
risale a tempi relativamente remoti, tipicamente alla geometria
greca, e che non è certo estranea alla doppiezza del Giano evocato
da Weyl: la distinzione tra aspetti descrittivi e aspetti algoritmici
della matematica. I primi hanno a che fare con l'esistenza e le
proprietà di possibili soluzioni di un problema, per esempio di un
sistema di equazioni; i secondi con la costruzione effettiva, passo
per passo, della soluzione. Se si deve pensare a un'origine della
matematica (per quanto sia possibile parlare di origine), il punto di
vista algoritmico appare prioritario, in qualche modo più
«primordiale», anche se sarebbe un errore grossolano pensare che si
tratti solo di una connotazione «primitiva» della matematica,
destinata a essere superata da concetti astratti più avanzati. È un
fatto che nella matematica babilonese antica (circa 1800 a.C.) si
avevano conoscenze relativamente avanzate di calcolo aritmetico, le
cui formule, si è notato, assomigliavano molto più a programmi o
procedure eseguibili di una macchina che a pure espressioni
simboliche. Nell'India vedica una raffinata geometria serviva a
costruire altari rituali di diverse forme e grandezze, prestando pure
attenzione, ove la costruzione lo richiedesse, a complessi algoritmi
numerici. Ora, per un misterioso caso di sincronia, le analisi di
Hermann Wey seguivano di poco una delle autentiche rivoluzioni
scientifiche del secolo, cioè la costruzione - a Philadelphia,
intorno al 1945 - del prime grande calcolatore della storia e il
conseguente primo delinearsi delle nuova scienza informatica.
Un nesso tra le due
facce di Giano
Non si trattava solo di
un'innovazione tecnologica, perché il calcolo stesso, e le teorie
matematiche che lo rendevano possibile, assumevano nuovi aspetti e si
arricchivano di elementi inusitati. Si profilava per la prima volta
un calcolo scientifico su grande scala, che affrontava problemi di
matematica applicata di dimensioni inaudite, che implicavano la
risoluzione - necessariamente approssimata - di migliaia di equazioni
in migliaia di incognite. E tra le conseguenze di questa innovazione
c'era pure la possibilità di riconoscere un nesso tra le due facce
di Giano: infatti il nuovo calcolo doveva occuparsi di tradurre tutta
l'informazione di un modello definito sul continuo, di un'equazione
in cui le variabili assumevano valori nel campo reale, in un insieme
di calcoli aritmetici, di somme e moltiplicazioni, eseguibili in modo
automatico da un calcolatore.
Herman H. Goldstine e
John von Neumann, tra coloro che più contribuirono all'incipiente
rivoluzione informatica, spiegavano che i problemi della matematica,
dati di solito in termini di variabili continue, dovevano essere
approssimati - per le esigenze del calcolo digitale - da procedure
puramente aritmetiche e «finitiste». Il calcolo scientifico riesce
a risolvere miracolosamente i problemi della matematica applicata con
un insieme finito di numeri finiti che non è neppure un campo,
perché non è chiuso rispetto alle operazioni: la somma e il
prodotto di due “numeri di macchina” non è un “numero di
macchina”. Come affermava il grande matematico Leonhard Euler nel
1744, nella perfetta macchina dell'Universo nulla accade che non
segua un criterio di minimo (o di massimo): minima energia, minimo
costo, minima distanza, minima superficie. Ma ora la macchina
digitale, anche ignorando che cosa sono i punti di minimo e i numeri
reali che li quantificano, li approssima con complesse strategie
algoritmiche in cui si eseguono solo operazioni aritmetiche
elementari. Non si tratta dunque di definire un nuovo sistema di
assiomi che unisca le due facce del numero, ma di articolare un
passaggio dal continuo al discreto per via di gradi successivi:
approssimazione del modello continuo con un problema algebrico o
aritmetico; scelta di un algoritmo efficiente per risolvere il
problema algebrico e infine l'esecuzione automatica, in aritmetica
approssimata, di questo algoritmo. Passaggi che implicavano
regolarmente teorie e questioni difficili, di natura sia astratta sia
concreta: teoremi e strutture della matematica «pura», errori di
approssimazione, problemi di stabilità, possibili esplosioni di
complessità algoritmica, sostanziale impossibilità di ingerenza o
di controllo del soggetto umano nel corso del processo, analisi del
significato dei numeri che il calcolatore stampa alla fine del
processo.
Da simili strategie
continua a dipendere la possibilità di una matematica applicata,
cioè di tutte le applicazioni scientifiche che oggi ci sono così
familiari: dalle previsioni meteorologiche alla costruzione di
automobili, dalle tomografie o risonanze magnetiche per immagini alle
serie temporali, dai motori di ricerca alla trasmissione di segnali.
Ma non bisogna neppure pensare che la matematica applicata fosse
l'unica ragione e l'unica fonte di significati per il nuovo calcolo.
Lo svela, se non altro, quella parola, «finitiste», usata da
Goldstine e von Neumann a proposito delle procedure aritmetiche del
calcolatore. Una parola che ricorda il carattere finito dei processi
elementari e intuitivi dell'aritmetica in cui il celebre matematico
tedesco David Hilbert, cercando di venire a capo della crisi dei
fondamenti della matematica nel primo '900, individuava un nucleo di
assolute certezze, una zona di sicurezza al riparo dall'infinito e
dai suoi paradossi. E il calcolatore divenne infatti il più
competente manipolatore di quel gioco algoritmico di segni al quale
Hilbert voleva ricondurre, almeno in linea di principio, tutta la
matematica. Su un piano più filosofico si trattava pure di
rivalutare il carattere intuitivo dei numeri e la tesi kantiana per
cui «la struttura del ragionamento matematico è dovuta alla
struttura del nostro apparato di percezione» (Hintinka), e dipende
quindi, appunto, dall'intuizione, ovvero dalla sua forma pura, cioè
non empirica. Su questo punto, almeno, c'era pieno accordo tra
Hilbert e Brouwer, suo avversario per altri versi, ma pienamente
concorde nel riconoscere una base di affidabilità alle costruzioni
elementari dell'aritmetica. Tra le migliori procedure che dovevano
approssimare i problemi della matematica Goldstine e von Neumann
menzionavano gli algoritmi iterativi, che si basano tipicamente su un
criterio di invarianza: per tutto il processo si eseguono in qualche
modo le stesse istruzioni, cioè si calcola la stessa funzione per
diversi valori della variabile. Conosciuti da tempi remoti, ripresi
dai matematici arabi, dagli algebristi italiani del '500 e poi da
Viète e da Newton, questi algoritmi, che imitavano inizialmente
certe costruzioni elementari della geometria, servirono ad edificare
la computatio algebrica, l'analisi moderna e lo stesso calcolo
scientifico nel '900.
In questa nuova
prospettiva i numeri moderni ritrovano una strana rassomiglianza con
quelli antichi. Si dice di solito che i Greci, pur avendone la
possibilità, non seppero generalizzare il concetto di numero intero
naturale (arìthmos), impresa che toccò alla matematica
occidentale moderna, che seppe infine concepire e definire in modo
rigoroso i numeri reali e complessi, i quaternioni, i numeri
transfiniti e i numeri non-standard. Ma sarebbe più giusto affermare
che i Greci ricavarono per astrazione dalla geometria, dalla
meccanica e dall'aritmetica il concetto generale di logos, che
in matematica voleva dire rapporto, e che da questo concetto di logos
ebbero origine le generalizzazioni moderne, in particolare il
concetto di numero reale (razionale o irrazionale). Il numero reale
pensato come «sezione», ovvero come una partizione in due classi di
numeri razionali, riprende infatti - come lo introdusse Richard
Dedekind nel 1872 - il concetto di proporzione del V libro degli
Elementi di Euclide.
Nella definizione di
Dedekind si rivela pure un tratto caratteristico della matematica di
fine '800: ripensare il numero, per così dire, dal nulla,
riconducendolo all'idea di insieme e alle relazioni tra insiemi. Un
tratto che ispirò regolarmente il tentativo di ricondurre la
matematica a pochi concetti fondamentali della logica, da Bertrand
Russell fino a Willard van Orman Quine. Ma un presupposto della
teoria di Dedekind sono anche gli algoritmi, perché in origine le
classi della sua definizione consistevano in insiemi di frazioni
effettivamente calcolate, che approssimano il numero per eccesso e
difetto. Un'analoga osservazione vale per la definizione di numero
reale dovuta a Georg Cantor. Il concetto di classe o di insieme
poteva insomma rivendicare una priorità logica, ma storicamente sono
venuti prima gli algoritmi.
Uno schema che è
una necessità
Ora, con il nuovo calcolo
scientifico, l'algoritmo rivendica, in un certo senso, il suo statuto
di concetto «primordiale» che sta alla base del numero. Il numero
reale non è un ente calcolato o calcolabile con un algoritmo: è
piuttosto, esso stesso, un algoritmo. Una scatola nera, propone ad
esempio Lovàsz, in cui si inserisce la precisione che si vuole
ottenere nel calcolo delle sue cifre, e da cui esce il numero alla
fine del processo. Dentro la scatola potrebbero pure funzionare gli
stessi algoritmi che gli antichi Greci, Indiani o Babilonesi usavano
in tempi remoti; non esattamente quelli, ma altri che ne riprendono,
in modo sorprendentemente simile, lo schema; quasi che questo schema
fosse una necessità, una sorta di a priori nel grande avvicendarsi
storico delle idee matematiche.
“il manifesto”, 15
marzo 2007
Nessun commento:
Posta un commento