21.6.15

Numeri. Le due facce della matematica (Paolo Zellini)

«Quando sei in grado di misurare ciò di cui stai parlando, e di esprimerlo in numeri, allora puoi dire di conoscere qualcosa che lo riguardi». Così affermava Lord Kelvin, celebre fisico, ingegnere e matematico del XIX secolo, confermando implicitamente la vecchia tesi pitagorica che tutto è numero. Ma se si affida la conoscenza delle cose al numero occorre pure chiedersi: che cosa sono i numeri?
Cercare di rispondere è come evocare le mille teste dell'Idra, perché tante sono le diverse specie dei numeri e tante le prospettive da cui trattare ciascuna specie. Lo conferma un'importante osservazione di Hermann Weyl: cercando nel 1951 di riassumere mezzo secolo di progressi nella matematica, il grande matematico tedesco osservava che il campo dei numeri reali è come un Giano bifronte, che guarda in due direzioni opposte: da un lato l'esecuzione di operazioni aritmetiche, come l'addizione e la moltiplicazione, dall'altro le somme infinite e i processi al limite. Una è la faccia più familiare del numero, quella aritmetica e algebrica, l'altra è la faccia analitica e topologica, che coinvolge le grandezze continue, come il tempo o le linee che si tracciano su un foglio. Una divisione che dipende da due diversi significati dei numeri: ci immaginiamo innanzitutto un campo di numeri come un dominio chiuso, in cui le operazioni aritmetiche tra due suoi elementi danno un risultato che sta ancora nello stesso dominio. L'esempio classico sono i numeri razionali, cioè le frazioni, perché sommando o moltiplicando due frazioni si ottiene un'altra frazione.

Versione aritmetica del continuo
D'altro canto, le frazioni non bastano. I matematici greci scoprirono che esistono grandezze incommensurabili, il cui rapporto non può essere uguagliato al rapporto tra due numeri interi, cioè a una frazione. Per questo sono stati introdotti i numeri reali, un campo molto più esteso che include i numeri razionali e i numeri irrazionali, e che sta alla base di tutte le nostre scienze. Esso fornisce la versione aritmetica del continuo, perché con un numero reale si riesce a dire quale lunghezza compete a una linea che nessuna frazione riuscirebbe a misurare: l'esempio più semplice è la diagonale di un quadrato di lato unitario, la cui lunghezza è uguale alla radice quadrata di due, che è appunto un numero irrazionale.
Le moderne teorie assiomatiche, notava Hermann Weyl, avevano in qualche modo assecondato questa doppia prospettiva: la matematica, diceva, non è la politica, e non apprezza ambigue commistioni tra pace e guerra: ha quindi preferito separare in modo netto i due aspetti del numero, evitando conflitti di competenze. Egli aggiunge però un singolare avvertimento: neppure alla metà del XX secolo, dopo secoli di progressi nell'analisi e nella teoria dei numeri, e dopo approfondite ricerche sui fondamenti, si poteva affermare di aver chiarito in modo definitivo tutte le questioni che riguardavano il concetto di numero reale.
Questa difficoltà di chiarimento si deve anche a un'altra divisione di prospettiva, che risale a tempi relativamente remoti, tipicamente alla geometria greca, e che non è certo estranea alla doppiezza del Giano evocato da Weyl: la distinzione tra aspetti descrittivi e aspetti algoritmici della matematica. I primi hanno a che fare con l'esistenza e le proprietà di possibili soluzioni di un problema, per esempio di un sistema di equazioni; i secondi con la costruzione effettiva, passo per passo, della soluzione. Se si deve pensare a un'origine della matematica (per quanto sia possibile parlare di origine), il punto di vista algoritmico appare prioritario, in qualche modo più «primordiale», anche se sarebbe un errore grossolano pensare che si tratti solo di una connotazione «primitiva» della matematica, destinata a essere superata da concetti astratti più avanzati. È un fatto che nella matematica babilonese antica (circa 1800 a.C.) si avevano conoscenze relativamente avanzate di calcolo aritmetico, le cui formule, si è notato, assomigliavano molto più a programmi o procedure eseguibili di una macchina che a pure espressioni simboliche. Nell'India vedica una raffinata geometria serviva a costruire altari rituali di diverse forme e grandezze, prestando pure attenzione, ove la costruzione lo richiedesse, a complessi algoritmi numerici. Ora, per un misterioso caso di sincronia, le analisi di Hermann Wey seguivano di poco una delle autentiche rivoluzioni scientifiche del secolo, cioè la costruzione - a Philadelphia, intorno al 1945 - del prime grande calcolatore della storia e il conseguente primo delinearsi delle nuova scienza informatica.

Un nesso tra le due facce di Giano
Non si trattava solo di un'innovazione tecnologica, perché il calcolo stesso, e le teorie matematiche che lo rendevano possibile, assumevano nuovi aspetti e si arricchivano di elementi inusitati. Si profilava per la prima volta un calcolo scientifico su grande scala, che affrontava problemi di matematica applicata di dimensioni inaudite, che implicavano la risoluzione - necessariamente approssimata - di migliaia di equazioni in migliaia di incognite. E tra le conseguenze di questa innovazione c'era pure la possibilità di riconoscere un nesso tra le due facce di Giano: infatti il nuovo calcolo doveva occuparsi di tradurre tutta l'informazione di un modello definito sul continuo, di un'equazione in cui le variabili assumevano valori nel campo reale, in un insieme di calcoli aritmetici, di somme e moltiplicazioni, eseguibili in modo automatico da un calcolatore.
Herman H. Goldstine e John von Neumann, tra coloro che più contribuirono all'incipiente rivoluzione informatica, spiegavano che i problemi della matematica, dati di solito in termini di variabili continue, dovevano essere approssimati - per le esigenze del calcolo digitale - da procedure puramente aritmetiche e «finitiste». Il calcolo scientifico riesce a risolvere miracolosamente i problemi della matematica applicata con un insieme finito di numeri finiti che non è neppure un campo, perché non è chiuso rispetto alle operazioni: la somma e il prodotto di due “numeri di macchina” non è un “numero di macchina”. Come affermava il grande matematico Leonhard Euler nel 1744, nella perfetta macchina dell'Universo nulla accade che non segua un criterio di minimo (o di massimo): minima energia, minimo costo, minima distanza, minima superficie. Ma ora la macchina digitale, anche ignorando che cosa sono i punti di minimo e i numeri reali che li quantificano, li approssima con complesse strategie algoritmiche in cui si eseguono solo operazioni aritmetiche elementari. Non si tratta dunque di definire un nuovo sistema di assiomi che unisca le due facce del numero, ma di articolare un passaggio dal continuo al discreto per via di gradi successivi: approssimazione del modello continuo con un problema algebrico o aritmetico; scelta di un algoritmo efficiente per risolvere il problema algebrico e infine l'esecuzione automatica, in aritmetica approssimata, di questo algoritmo. Passaggi che implicavano regolarmente teorie e questioni difficili, di natura sia astratta sia concreta: teoremi e strutture della matematica «pura», errori di approssimazione, problemi di stabilità, possibili esplosioni di complessità algoritmica, sostanziale impossibilità di ingerenza o di controllo del soggetto umano nel corso del processo, analisi del significato dei numeri che il calcolatore stampa alla fine del processo.
Da simili strategie continua a dipendere la possibilità di una matematica applicata, cioè di tutte le applicazioni scientifiche che oggi ci sono così familiari: dalle previsioni meteorologiche alla costruzione di automobili, dalle tomografie o risonanze magnetiche per immagini alle serie temporali, dai motori di ricerca alla trasmissione di segnali. Ma non bisogna neppure pensare che la matematica applicata fosse l'unica ragione e l'unica fonte di significati per il nuovo calcolo. Lo svela, se non altro, quella parola, «finitiste», usata da Goldstine e von Neumann a proposito delle procedure aritmetiche del calcolatore. Una parola che ricorda il carattere finito dei processi elementari e intuitivi dell'aritmetica in cui il celebre matematico tedesco David Hilbert, cercando di venire a capo della crisi dei fondamenti della matematica nel primo '900, individuava un nucleo di assolute certezze, una zona di sicurezza al riparo dall'infinito e dai suoi paradossi. E il calcolatore divenne infatti il più competente manipolatore di quel gioco algoritmico di segni al quale Hilbert voleva ricondurre, almeno in linea di principio, tutta la matematica. Su un piano più filosofico si trattava pure di rivalutare il carattere intuitivo dei numeri e la tesi kantiana per cui «la struttura del ragionamento matematico è dovuta alla struttura del nostro apparato di percezione» (Hintinka), e dipende quindi, appunto, dall'intuizione, ovvero dalla sua forma pura, cioè non empirica. Su questo punto, almeno, c'era pieno accordo tra Hilbert e Brouwer, suo avversario per altri versi, ma pienamente concorde nel riconoscere una base di affidabilità alle costruzioni elementari dell'aritmetica. Tra le migliori procedure che dovevano approssimare i problemi della matematica Goldstine e von Neumann menzionavano gli algoritmi iterativi, che si basano tipicamente su un criterio di invarianza: per tutto il processo si eseguono in qualche modo le stesse istruzioni, cioè si calcola la stessa funzione per diversi valori della variabile. Conosciuti da tempi remoti, ripresi dai matematici arabi, dagli algebristi italiani del '500 e poi da Viète e da Newton, questi algoritmi, che imitavano inizialmente certe costruzioni elementari della geometria, servirono ad edificare la computatio algebrica, l'analisi moderna e lo stesso calcolo scientifico nel '900.
In questa nuova prospettiva i numeri moderni ritrovano una strana rassomiglianza con quelli antichi. Si dice di solito che i Greci, pur avendone la possibilità, non seppero generalizzare il concetto di numero intero naturale (arìthmos), impresa che toccò alla matematica occidentale moderna, che seppe infine concepire e definire in modo rigoroso i numeri reali e complessi, i quaternioni, i numeri transfiniti e i numeri non-standard. Ma sarebbe più giusto affermare che i Greci ricavarono per astrazione dalla geometria, dalla meccanica e dall'aritmetica il concetto generale di logos, che in matematica voleva dire rapporto, e che da questo concetto di logos ebbero origine le generalizzazioni moderne, in particolare il concetto di numero reale (razionale o irrazionale). Il numero reale pensato come «sezione», ovvero come una partizione in due classi di numeri razionali, riprende infatti - come lo introdusse Richard Dedekind nel 1872 - il concetto di proporzione del V libro degli Elementi di Euclide.
Nella definizione di Dedekind si rivela pure un tratto caratteristico della matematica di fine '800: ripensare il numero, per così dire, dal nulla, riconducendolo all'idea di insieme e alle relazioni tra insiemi. Un tratto che ispirò regolarmente il tentativo di ricondurre la matematica a pochi concetti fondamentali della logica, da Bertrand Russell fino a Willard van Orman Quine. Ma un presupposto della teoria di Dedekind sono anche gli algoritmi, perché in origine le classi della sua definizione consistevano in insiemi di frazioni effettivamente calcolate, che approssimano il numero per eccesso e difetto. Un'analoga osservazione vale per la definizione di numero reale dovuta a Georg Cantor. Il concetto di classe o di insieme poteva insomma rivendicare una priorità logica, ma storicamente sono venuti prima gli algoritmi.

Uno schema che è una necessità
Ora, con il nuovo calcolo scientifico, l'algoritmo rivendica, in un certo senso, il suo statuto di concetto «primordiale» che sta alla base del numero. Il numero reale non è un ente calcolato o calcolabile con un algoritmo: è piuttosto, esso stesso, un algoritmo. Una scatola nera, propone ad esempio Lovàsz, in cui si inserisce la precisione che si vuole ottenere nel calcolo delle sue cifre, e da cui esce il numero alla fine del processo. Dentro la scatola potrebbero pure funzionare gli stessi algoritmi che gli antichi Greci, Indiani o Babilonesi usavano in tempi remoti; non esattamente quelli, ma altri che ne riprendono, in modo sorprendentemente simile, lo schema; quasi che questo schema fosse una necessità, una sorta di a priori nel grande avvicendarsi storico delle idee matematiche.


“il manifesto”, 15 marzo 2007

Nessun commento:

Posta un commento